JP2007079587A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2007079587A
JP2007079587A JP2006274508A JP2006274508A JP2007079587A JP 2007079587 A JP2007079587 A JP 2007079587A JP 2006274508 A JP2006274508 A JP 2006274508A JP 2006274508 A JP2006274508 A JP 2006274508A JP 2007079587 A JP2007079587 A JP 2007079587A
Authority
JP
Japan
Prior art keywords
image
sharpening
character
luminance
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006274508A
Other languages
Japanese (ja)
Inventor
Mitsuaki Nakamura
三津明 中村
Keisuke Iwasaki
圭介 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2006274508A priority Critical patent/JP2007079587A/en
Publication of JP2007079587A publication Critical patent/JP2007079587A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve the visibility of an image displayed on a display device in an image processor. <P>SOLUTION: A contrast estimation section 37 estimates a contrast of an image that image data 51 input from an image input device represent first to display the image on the display device having nonlinear gray scale characteristics. Then a luminance correction section 38 performs a luminance conversion process for respective pixel data constituting the image data 51 based upon the estimated contrast and the gray scale characteristics. A sharpening process for the respective pixel data is further possibly performed. The degree of sharpening carried out for one or a plurality of character areas in the image that the image data 51 represent is larger than that performed of pixel data of pixels in the remaining area other than the character area in the image. Image data 52 comprising the pixel data for which those processes are performed are supplied to the display device 35. Consequently, the visibility of the image displayed on the display device can be improved. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、階調特性に偏りがある表示手段に画像を表示させるための画像処理装置に関する。   The present invention relates to an image processing apparatus for displaying an image on a display unit having an uneven gradation characteristic.

近年、刊行物の発行手法の1つとして、いわゆる電子出版が提案されている。前記電子出版によって出版される電子的な刊行物は、文章を表す文章データと、挿絵等の画像を表す画像データとから構成され、記憶媒体に記憶されている。読者は、記憶媒体の読出し装置と表示装置とを備えた装置を予め準備し、読出し装置に前記記憶媒体を装着する。前記記憶媒体内の前記画像データおよび前記文章データは、前記読出し装置によって読出されて前記表示装置に与えられる。前記画像データが表す画像は、前記表示装置の表示画面に表示される。前記文章データは、まず前記表示装置内に予め備えられる文字フォントを用いて画像データに変換され、変換後の画像データが表す画像が表示装置の表示画面に表示される。   In recent years, so-called electronic publishing has been proposed as one of publication methods. An electronic publication published by the electronic publishing is composed of sentence data representing a sentence and image data representing an image such as an illustration, and is stored in a storage medium. The reader prepares in advance a device including a storage medium reading device and a display device, and attaches the storage medium to the reading device. The image data and the text data in the storage medium are read by the reading device and given to the display device. The image represented by the image data is displayed on the display screen of the display device. The text data is first converted into image data using a character font provided in advance in the display device, and an image represented by the converted image data is displayed on the display screen of the display device.

前記表示装置として、たとえば、液晶表示装置および陰極線管が挙げられる。前記表示装置の表示画面は、複数の表示画素が行列状に配置されて構成される。前記画像は、複数の画素が行列状に配置されて構成される。画像データは、画像を構成する各画素の輝度を表す画素データから構成される。前記表示装置は、各表示画素を各画素データに応じた輝度で発光させる。これによって、表示画面に、画像データが表す画像が表示される。   Examples of the display device include a liquid crystal display device and a cathode ray tube. The display screen of the display device is configured by arranging a plurality of display pixels in a matrix. The image is configured by arranging a plurality of pixels in a matrix. The image data is composed of pixel data representing the luminance of each pixel constituting the image. The display device causes each display pixel to emit light with a luminance corresponding to each pixel data. As a result, the image represented by the image data is displayed on the display screen.

現在、電子的な刊行物は、既に出版された本、すなわちコンテンツをデータ化したものが多い。ゆえに、前記電子的な刊行物を作成する場合、前記コンテンツを用いて前記文章データおよび前記画像データを作成することが多い。前記コンテンツを用いて前記電子的な刊行物を作成するには、まず、前記コンテンツの各頁が、文章が印刷された部分と絵が印刷された部分とに分けられる。次いで、前記絵が印刷された部分がスキャナで読取られて、前記画像データが生成される。続いて、前記文章が印刷された部分がスキャナで読取られて画像データが生成され、該画像データに文字認識処理が施されて前記文章データが作成される。   At present, many electronic publications are already published books, that is, contents converted into data. Therefore, when the electronic publication is created, the text data and the image data are often created using the content. To create the electronic publication using the content, first, each page of the content is divided into a portion on which a text is printed and a portion on which a picture is printed. Next, the portion on which the picture is printed is read by a scanner, and the image data is generated. Subsequently, the portion on which the sentence is printed is read by a scanner to generate image data, and the image data is subjected to character recognition processing to create the sentence data.

上述の手順で前記文章データを作成する場合、前記文章データが表す文章に、文字認識処理の認識誤り等に起因する誤字脱字が生じることがある。ゆえに、前記コンテンツを作成する段階で文章の校正が済んでいるにも拘わらず、前記文章データを作成する段階で前記文章データが表す文章をもう一度校正する必要がある。したがって、文章の校正を二重に行うことになるので、前記文章データの生成に手間がかかり、前記文章データの生成コストも増加する。   When the sentence data is created by the above-described procedure, a typographical error due to a recognition error or the like in the character recognition process may occur in the sentence represented by the sentence data. Therefore, it is necessary to proofread again the sentence represented by the sentence data at the stage of creating the sentence data, even though the sentence has been proofread at the stage of creating the content. Accordingly, since the sentence is proofread twice, it takes time to generate the sentence data, and the generation cost of the sentence data also increases.

また、前記文章データはたとえばいわゆるテキスト形式のデータなので、文章を構成する各文字は、前記文章データ内で、文字コードによって表される。ゆえに、前記文章データが表す文章を前記表示装置に表示する場合、前記文章の各文字は、前記表示装置が有するフォントを用いて表示される。このため、前記表示装置に前記文字を表示する場合に用いるフォントと、前記コンテンツの各頁に文字を印刷する場合に用いるフォントとが、異なることがある。これによって、前記表示装置に表示される文章と前記コンテンツの各頁に印刷された文章との見た目の印象が異なり、読者に違和感を感じさせることがある。   In addition, since the sentence data is, for example, so-called text data, each character constituting the sentence is represented by a character code in the sentence data. Therefore, when the text represented by the text data is displayed on the display device, each character of the text is displayed using a font of the display device. For this reason, the font used when displaying the character on the display device may be different from the font used when printing the character on each page of the content. As a result, the visual impression of the text displayed on the display device and the text printed on each page of the content are different, which may make the reader feel uncomfortable.

そこで、校正の手間を省き、かつ前記コンテンツの各頁に印刷された文章の見た目の印象をそのまま保つために、前記コンテンツの各頁を、文章と絵との区別を付けずにそれぞれ1枚の絵と見なすことが考えられる。この場合、電子的な刊行物は、前記コンテンツの各頁全体をそれぞれ表す画像データによって構成され、前記各画像データは前記コンテンツの各頁をスキャナで読取って生成される。この際、以下の3つの問題が生じる。   Therefore, in order to save the labor of proofreading and to keep the impression of the text printed on each page of the content as it is, each page of the content is made up of one sheet without distinguishing between the text and the picture. It can be considered as a picture. In this case, the electronic publication is composed of image data representing each entire page of the content, and each image data is generated by reading each page of the content with a scanner. At this time, the following three problems arise.

第1の問題は、前記コンテンツの各頁をスキャナで読取って前記画像データを生成する場合、前記画像データが表す画像のコントラストが、前記画像データの規格上最大のコントラストであるとは限らないことである。これは、前記コンテンツの各頁の地の色が真白であるとは限らず、かつ、インクの色が真黒であるとは限らないために生じる。また、スキャナの特性にも起因する。コントラストの低い画像を前記表示装置に表示した場合、文字が読辛くなることがある。前記表示装置自身のコントラストが低い場合、前記画像データの規格上最大のコントラストの画像と比較して、表示画面に表示された画像内の文字の視認性は低下しやすい。前記コントラストの低い画像とは、たとえば、図23(A)に示すように、画像内の地の部分の画素の色が真白以外の色、たとえばクリーム色であり、画像内の文字を構成する画素の色が真黒以外の色、たとえば焦茶色である画像である。前記最大のコントラストの画像とは、たとえば、図23(B)に示すように、画像内の背景を構成する部分の画素の色が真白であり、画像内の文字を構成する画素の色が真黒である画像である。   The first problem is that, when each page of the content is read by a scanner and the image data is generated, the contrast of the image represented by the image data is not always the maximum contrast according to the standard of the image data. It is. This occurs because the background color of each page of the content is not necessarily white and the color of the ink is not necessarily black. It is also due to the characteristics of the scanner. When an image with low contrast is displayed on the display device, characters may be difficult to read. When the contrast of the display device itself is low, the visibility of characters in the image displayed on the display screen tends to be lower than that of the image with the maximum contrast according to the standard of the image data. For example, as shown in FIG. 23A, the low-contrast image is a pixel in which the color of the pixel in the ground portion in the image is a color other than pure white, such as cream, and constitutes characters in the image Is a color other than true black, for example, dark brown. For example, as shown in FIG. 23B, the image with the maximum contrast is that the color of the pixel constituting the background in the image is pure white and the color of the pixel constituting the character in the image is true black. It is an image.

特許文献1は、画像の階調がいわゆる中間調、すなわち灰色に集中している場合、すなわち画像のコントラストが低い場合に、ガンマ補正処理を用いて画像のコントラストを高くするための画像処理装置を提案している。本公報の画像処理装置は、複数の画像の階調分布に個別に対応するガンマ変換テーブルをRAMに予め記憶している。前記画像処理装置は、処理対象の画像が与えられると、まず前記画像の階調分布を検出し、検出した階調分布に応じたいずれか1つの前記ガンマ変換テーブルをRAMから読出す。読出したガンマ変換テーブルを用いて、前記画像にガンマ補正が施される。本公報の画像処理装置では、前記ガンマ変換テーブルは、予め本公報の画像処理装置で処理するべき画像の階調分布を予想し、予想した階調分布に応じて作成されている。ゆえに、予想されていない階調分布の画像を処理する場合には、該画像の階調分布に対応したガンマ変換テーブルがないので、画像のコントラストを高くすることが困難になる。   Patent Document 1 discloses an image processing apparatus for increasing the contrast of an image using gamma correction processing when the gradation of the image is concentrated in a so-called halftone, that is, gray, that is, when the contrast of the image is low. is suggesting. The image processing apparatus of this publication stores in advance in a RAM a gamma conversion table that individually corresponds to the gradation distribution of a plurality of images. When the image to be processed is given, the image processing apparatus first detects the gradation distribution of the image, and reads out any one gamma conversion table corresponding to the detected gradation distribution from the RAM. The image is subjected to gamma correction using the read gamma conversion table. In the image processing apparatus of this publication, the gamma conversion table predicts the gradation distribution of an image to be processed by the image processing apparatus of this publication in advance, and is created according to the predicted gradation distribution. Therefore, when an image having an unexpected gradation distribution is processed, it is difficult to increase the contrast of the image because there is no gamma conversion table corresponding to the gradation distribution of the image.

第2の問題は、画像データの解像度と表示装置の解像度とが一致しないことに起因して、前記表示装置の表示画面に表示される画像の視認性が低下することである。この第2の問題を、以下に説明する。一般的に表示装置の表示画面は、図24に示すように、複数の表示画素が行列状に配置されて構成され、表示画素の数によって解像度が異なる。図24(A)は、前記表示画面1全体を示す模式図であり、図24(B)は、前記表示画面1の一部分2を拡大して示す模式図である。以後、図面では、画素および表示画素を正方形によってそれぞれ表し、画素および表示画素の輝度を正方形内の斜線の本数で表す。画素および表示画素の輝度が大きいほど、斜線の本数が少ない。   The second problem is that the visibility of the image displayed on the display screen of the display device is lowered due to the fact that the resolution of the image data and the resolution of the display device do not match. This second problem will be described below. Generally, as shown in FIG. 24, a display screen of a display device is configured by arranging a plurality of display pixels in a matrix, and the resolution varies depending on the number of display pixels. FIG. 24A is a schematic diagram showing the entire display screen 1, and FIG. 24B is a schematic diagram showing an enlarged portion 2 of the display screen 1. Hereinafter, in the drawings, the pixel and the display pixel are each represented by a square, and the luminance of the pixel and the display pixel is represented by the number of diagonal lines in the square. The greater the luminance of the pixel and the display pixel, the smaller the number of diagonal lines.

一般的に、前記表示装置の解像度は前記スキャナの解像度よりも低く、前記スキャナの解像度は、前記コンテンツの印刷の解像度よりも低い。ゆえに、前記コンテンツには、表示画素の大きさよりも小さい点や線から構成される小さな文字が印刷されている。前記表示画面には、前記小さな文字は、基本的には表示できないが、いわゆる白黒の中間調を用いた場合は、疑似的に表示することができる。白黒の中間調を用いて前記小さい文字を表示するには、各表示画素の輝度を、前記コンテンツ内の各表示画素に相当する部分内の地の部分と該部分内にある文字の一部分との輝度の平均値にする。   Generally, the resolution of the display device is lower than the resolution of the scanner, and the resolution of the scanner is lower than the resolution of printing the content. Therefore, small characters composed of dots and lines smaller than the display pixel size are printed on the content. The small characters cannot be basically displayed on the display screen, but can be displayed in a pseudo manner when a so-called black and white halftone is used. In order to display the small character using a black and white halftone, the luminance of each display pixel is set to a value corresponding to each display pixel in the content by a ground portion and a part of the character in the portion. Set the average value of luminance.

白黒の中間調を用いて前記小さな文字を表す場合、前記表示画面を見る者は、表示画素を意識せずに前記小さな文字が滑らかに表示されていると感じるが、前記小さい点や線がぼけた印象も受ける。これは、以下の理由からである。図25(A)に示すように、前記コンテンツ3内に描かれる文字4を構成する線分の幅や前記文字4を構成する点の大きさが表示画素5以下である場合、前記線分や点の少なくとも一部分が含まれる複数の表示画素5の各輝度は、各表示画素5の面積と前記少なくとも一部分との比率によって定められる。すなわちこの場合、前記少なくとも一部分の輝度が表示画素5全体に分散する。ゆえに、表示画素5の輝度は、図25(B)に示すように、前記少なくとも一部分の輝度よりも低くなる。したがって、前記小さな文字はぼけた印象を受けるのである。   When the small character is expressed using black and white halftones, a person viewing the display screen feels that the small character is displayed smoothly without being conscious of the display pixel, but the small dot or line is blurred. I also get the impression. This is for the following reason. As shown in FIG. 25A, when the width of the line segment constituting the character 4 drawn in the content 3 and the size of the dot constituting the character 4 are less than or equal to the display pixel 5, the line segment or Each brightness | luminance of the some display pixel 5 in which at least one part of a point is contained is defined by the ratio of the area of each display pixel 5, and said at least one part. That is, in this case, at least a portion of the luminance is dispersed throughout the display pixels 5. Therefore, the luminance of the display pixel 5 is lower than the luminance of the at least part as shown in FIG. Therefore, the small letters get a blurred impression.

上述の理由によってぼけた印象をうける画像は、いわゆるラプラシアンを用いた鮮鋭化処理を施すことによって、ぼけが除かれた見易い画像に変換することができる。鮮鋭化処理に関する従来技術として、特許文献2および特許文献3がある。   An image that has a blurred impression due to the above-described reason can be converted into an easy-to-view image from which blur is removed by performing a sharpening process using so-called Laplacian. As conventional techniques related to the sharpening processing, there are Patent Document 2 and Patent Document 3.

特許文献2は、前記鮮鋭化処理を画像に施す場合に、前記画像内の輝度変化が平坦な部分のざらつきを防止するための画像鮮鋭化方法を提案している。前記画像鮮鋭化方法を実行する場合、まず、処理対象の画像の各画素の輝度の2次微分の値が、各画素の鮮鋭化の評価関数として求められる。次いで、前記各画素の鮮鋭化の評価関数に応じて、各画素の鮮鋭化の度合を表す係数がそれぞれ決定される。前記係数を用いた前記鮮鋭化処理が、前記各画素に施される。   Patent Document 2 proposes an image sharpening method for preventing roughness of a portion where the luminance change in the image is flat when the sharpening process is performed on the image. When executing the image sharpening method, first, the value of the second derivative of the luminance of each pixel of the image to be processed is obtained as an evaluation function for sharpening each pixel. Next, a coefficient representing the degree of sharpening of each pixel is determined in accordance with the sharpening evaluation function of each pixel. The sharpening process using the coefficient is performed on each pixel.

特許文献3は、前記鮮鋭化処理を画像に施す場合に、画像データを生成したスキャナの画像劣化特性に拘わらず、常に同じ処理結果を得るための画像鮮鋭化処理装置を提案している。前記画像鮮鋭化処理装置は、まず、前記スキャナのMTFに基づいて定められるスキャナの特性パラメータを用いて、鮮鋭化処理の鮮鋭化の度合を表す係数を算出する。次いで、前記係数を用いた前記鮮鋭化処理が、処理対象の画像に施される。   Patent Document 3 proposes an image sharpening processing apparatus that always obtains the same processing result regardless of the image deterioration characteristics of the scanner that generated the image data when the sharpening processing is performed on the image. The image sharpening processing apparatus first calculates a coefficient representing the sharpening degree of the sharpening processing using a scanner characteristic parameter determined based on the MTF of the scanner. Next, the sharpening process using the coefficient is performed on the image to be processed.

たとえば、図26(A)に示す画像に上述の公報で説明された鮮鋭化処理を施したならば、図26(B)に示す画像になる。この場合、鮮鋭化の度合が強すぎると、前記画像の輝度分布が2値画像に近くなるので、前記白黒の中間調を用いて表示された文字の滑らかさが失われる。また、前記画像の文字以外の部分も、いわゆるエッジ部分でいわゆるジャギーが目立つようになったり、平坦な部分でざらつきが生じるので、滑らかさが失われる。ゆえに、上述の公報で説明する前記鮮鋭化処理を用いる場合、前記小さい文字を読みやすくすることは困難である。   For example, if the sharpening process described in the above publication is applied to the image shown in FIG. 26A, the image shown in FIG. In this case, if the degree of sharpening is too strong, the luminance distribution of the image becomes close to a binary image, and the smoothness of characters displayed using the black and white halftone is lost. Also, the portions other than the characters of the image become so-called jaggy at the so-called edge portion or become rough at the flat portion, so that the smoothness is lost. Therefore, when the sharpening process described in the above publication is used, it is difficult to make the small characters easy to read.

また、上述の公報で説明した鮮鋭化処理の他に、画像内の文字のエッジに注目し、エッジの強い部分の鮮鋭化の度合を強くする鮮鋭化処理がある。しかしながら、前記小さい文字は文字自体が潰れてエッジが強くなりにくいので、前記画像内の前記文字の部分の鮮鋭化の度合が弱くなりやすい。ゆえに、上述の鮮鋭化処理を用いる場合も、小さい文字を読みやすくすることは困難である。   In addition to the sharpening process described in the above publication, there is a sharpening process that focuses on the edges of characters in the image and increases the degree of sharpening of the strong edges. However, since the small character is crushed and the edge does not easily become strong, the degree of sharpening of the character portion in the image tends to be weak. Therefore, even when the above-described sharpening process is used, it is difficult to make small characters easy to read.

さらにまた、特許文献4は、画像を表示装置に表示する際に、画像内の色の異なる2つの部分の境界を明瞭にするための表示装置を提案している。前記表示装置の表示画面は、行列状に配置された複数のドットから構成され、各ドットの色は、画像を表す画像データ内の複数のデータによって、それぞれ定められる。表示画面内の任意の1列または任意の1行を構成する複数のドットの色を定めるデータがドットの並びと同じ順に並べられた場合、ドットの色が等しい複数個のデータが並ぶならば、前記複数個のデータのうちの最も端にあるデータを、ドットの色を黒色に定めるデータに変換する。上述の処理を前記電子的な刊行物を構成する前記画像データに施した場合、前記小さい文字を表現する画素の色を定める画素データは、輝度の分散のために、前記小さい文字の周囲の画素の色を定める画素データとの輝度の差が少ないので、該画素データがドットの色を黒色に定めるデータに変換されることは少ない。ゆえに、前記小さい文字を読みやすくすることは困難である。   Furthermore, Patent Document 4 proposes a display device for clarifying the boundary between two parts having different colors in an image when the image is displayed on the display device. The display screen of the display device includes a plurality of dots arranged in a matrix, and the color of each dot is determined by a plurality of data in image data representing an image. If the data that defines the color of a plurality of dots constituting any one column or any row in the display screen are arranged in the same order as the dot arrangement, if a plurality of data with the same dot color are arranged, Data at the end of the plurality of data is converted into data that determines the color of the dots to be black. When the above-described processing is applied to the image data constituting the electronic publication, the pixel data defining the color of the pixel expressing the small character is a pixel around the small character because of luminance dispersion Since there is little difference in luminance from the pixel data that defines the color of the pixel, the pixel data is rarely converted to data that defines the color of the dot as black. Therefore, it is difficult to make the small characters easy to read.

第3の問題は、前記表示装置の階調特性の偏りに起因して、表示画面に表示される画像の視認性が低下することである。以下に具体的に説明する。前記表示装置の階調特性とは、画素データが表す輝度と表示画素の輝度との対応関係であり、具体的には、画素データが表す輝度が変化するのに伴って、前記画素データに応じて発光させた表示画素の輝度がどのように変化するかを表す。前記表示装置は、一般的に、前記階調特性が非線形であることが多い。   The third problem is that the visibility of the image displayed on the display screen is lowered due to the uneven gradation characteristics of the display device. This will be specifically described below. The gradation characteristic of the display device is a correspondence relationship between the luminance represented by the pixel data and the luminance of the display pixel, and specifically, according to the pixel data as the luminance represented by the pixel data changes. This represents how the luminance of the display pixels that emit light changes. In general, the display device often has non-linear gradation characteristics.

前記階調特性は、たとえば図27に示すように、画素データが表す輝度を横軸に取り表示画素の輝度を縦軸に取ったグラフの階調特性曲線11によって表される。原点を通り傾きが45度の基準直線12に階調特性曲線11が近いほど、前記階調特性は良い。また、前記画素データが表す輝度の対数を横軸に取り前記表示画素の輝度の対数を縦軸に取ったグラフの曲線で前記階調特性を表す場合、前記曲線の傾きがいわゆるガンマ特性に相当する。図27の階調特性曲線11は、前記表示装置に表示される図28の画像の仮想線分13上の複数の表示画素の輝度と該画素の輝度をそれぞれ定める複数の画素データとをプロットしたものである。前記各画素データは、表示画素が左から右に並ぶ順序で予め定める値ずつ順次増加する。   For example, as shown in FIG. 27, the gradation characteristic is represented by a gradation characteristic curve 11 of a graph in which the luminance represented by the pixel data is plotted on the horizontal axis and the luminance of the display pixel is plotted on the vertical axis. The closer the gradation characteristic curve 11 is to the reference line 12 passing through the origin and having an inclination of 45 degrees, the better the gradation characteristic. Further, when the gradation characteristic is represented by a curve of a graph in which the logarithm of luminance represented by the pixel data is plotted on the horizontal axis and the logarithm of the luminance of the display pixel is plotted on the vertical axis, the slope of the curve corresponds to a so-called gamma characteristic. To do. The gradation characteristic curve 11 in FIG. 27 plots the luminance of a plurality of display pixels on the virtual line segment 13 of the image of FIG. 28 displayed on the display device and a plurality of pixel data respectively defining the luminance of the pixels. Is. Each pixel data sequentially increases by a predetermined value in the order in which the display pixels are arranged from left to right.

前記階調特性の補正のために、前記表示装置を含む画像処理装置は、前記階調特性に応じた輝度補正テーブルを備える。図29に示す輝度変換曲線14は、図27の階調特性曲線11で表される前記階調特性に応じた前記輝度補正テーブルの入力輝度と出力輝度との関係を表す。表示するべき画像に階調補正処理が施される場合、前記画像の各画素の輝度は、該各画素の輝度と等しい前記輝度補正テーブル内の入力輝度に対応する前記輝度補正テーブル内の出力輝度にそれぞれ置換えられる。図30の曲線15は、階調補正処理が施された前記画像を前記表示装置に表示する場合、該画像の輝度と前記表示装置の表示画素の輝度との関係を表す。図30のグラフに示すように、前記場合には、前記曲線15は、前記基準直線12と一致する。   In order to correct the gradation characteristics, an image processing apparatus including the display device includes a luminance correction table corresponding to the gradation characteristics. The luminance conversion curve 14 shown in FIG. 29 represents the relationship between the input luminance and the output luminance of the luminance correction table corresponding to the gradation characteristic represented by the gradation characteristic curve 11 of FIG. When gradation correction processing is performed on an image to be displayed, the luminance of each pixel of the image is equal to the luminance of each pixel, and the output luminance in the luminance correction table corresponding to the input luminance in the luminance correction table Respectively. A curve 15 in FIG. 30 represents the relationship between the luminance of the image and the luminance of the display pixel of the display device when the image on which the gradation correction processing has been performed is displayed on the display device. As shown in the graph of FIG. 30, in the above case, the curve 15 coincides with the reference straight line 12.

また階調特性補正のために、前記画像処理装置は、前記表示装置の階調特性に応じたガンマ補正テーブルを備える。図31のグラフの輝度変換曲線16は、図27の階調特性曲線11で表される階調特性に応じたガンマ補正テーブルの入力輝度と出力輝度との関係を表す。前記画像にガンマ補正処理が施された場合、前記画像の各画素の輝度は、該各画素の輝度と等しい前記ガンマ補正テーブル内の入力輝度に対応する前記ガンマ補正テーブル内の出力輝度にそれぞれ置換えられる。図32の曲線17は、ガンマ補正処理が施された前記画像を前記表示装置に表示する場合、該画像の輝度と前記表示装置の表示画素の輝度との関係を表す。図32のグラフに示すように、前記場合には、前記曲線17は、前記基準直線12とほぼ一致する。   Further, for the gradation characteristic correction, the image processing apparatus includes a gamma correction table corresponding to the gradation characteristic of the display device. The luminance conversion curve 16 in the graph of FIG. 31 represents the relationship between the input luminance and the output luminance of the gamma correction table corresponding to the gradation characteristic represented by the gradation characteristic curve 11 of FIG. When the image is subjected to gamma correction processing, the luminance of each pixel of the image is replaced with the output luminance in the gamma correction table corresponding to the input luminance in the gamma correction table equal to the luminance of each pixel. It is done. A curve 17 in FIG. 32 represents the relationship between the luminance of the image and the luminance of the display pixel of the display device when the image subjected to the gamma correction process is displayed on the display device. As shown in the graph of FIG. 32, in the above case, the curve 17 substantially coincides with the reference straight line 12.

前記表示装置の階調特性に偏りがある場合、すなわち非線形である場合、前記階調特性曲線11が前記基準直線12から離れるほど、前記表示画面に表示された画像が見にくくなる。前記階調特性の偏りに応じた画像の見易さの変化は、前記画像がいわゆる濃淡画像、すなわち絵である場合はあまり気にならず、前記画像内に前記小さい文字が描かれる場合に目立つ。後者の場合、前記階調特性の偏りが大きくなるほど、前記表示画面に表示された前記画像内の前記小さい文字が記載された領域は、該領域内の黒い部分と白い部分との割合のバランスが、本来のバランスから崩れたように見える。たとえば、図33(A)に示す画像に上述した階調補正処理を施したならば、図33(B)に示す画像になる。これによって、前記領域内において、同じ太さの線を表すために同じ濃度になる筈の複数の画素が、部分的に薄くなったり濃くなったりする。ゆえに、前記領域内の文字は、ムラがあるので見辛くなる。特に前記表示装置が液晶表示装置である場合、一般的に白色の小さな領域がつぶれる傾向にあり、前記画像を表示した際、前記小さい文字はかすれて表示されることが多い。   When the gradation characteristic of the display device is biased, that is, non-linear, the image displayed on the display screen becomes difficult to see as the gradation characteristic curve 11 is further away from the reference straight line 12. The change in the visibility of the image according to the bias in the gradation characteristics is not so much noticeable when the image is a so-called gray image, that is, a picture, and is noticeable when the small character is drawn in the image. . In the latter case, the larger the bias in the gradation characteristics, the more the balance of the ratio of the black portion and the white portion in the region where the small character in the image displayed on the display screen is described. It looks like it's out of balance. For example, if the above-described gradation correction processing is performed on the image shown in FIG. 33A, the image shown in FIG. 33B is obtained. As a result, in the region, a plurality of pixels having the same density to represent the same thickness line are partially thinned or darkened. Therefore, the characters in the region are difficult to see because of unevenness. In particular, when the display device is a liquid crystal display device, generally a small white area tends to be crushed, and when the image is displayed, the small characters are often displayed faintly.

特開昭63−39280号公報JP 63-39280 A 特開平5−167852号公報Japanese Patent Laid-Open No. 5-167852 特開平7−240841号公報Japanese Patent Application Laid-Open No. 7-240841 特開平6−308924号公報JP-A-6-308924

以上説明したように、前記画像処理装置には、上述の3つの問題がある。また、前記各公報で提案される従来技術を、前記画像処理装置に適用した場合でも、第1および第2の問題点を解決することは困難である。また、第3の問題を解決するために前記階調特性の偏りを利用者が自由に調整できる表示装置はほとんどないので、第3の問題を解決することはさらに困難である。   As described above, the image processing apparatus has the above three problems. Even when the conventional techniques proposed in the above publications are applied to the image processing apparatus, it is difficult to solve the first and second problems. In addition, since there are few display devices in which a user can freely adjust the bias of the gradation characteristics in order to solve the third problem, it is more difficult to solve the third problem.

本発明の目的は、前記階調特性の偏り、前記画像のコントラスト、および前記画像の解像度に起因する画像の視認性の低下を防止することができる画像処理装置を提供することである。   An object of the present invention is to provide an image processing apparatus capable of preventing a decrease in image visibility due to the deviation of the gradation characteristics, the contrast of the image, and the resolution of the image.

本発明は、予め定める階調特性を有する表示手段と、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
前記表示手段が有する前記階調特性に基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する各画素の輝度を補正する輝度補正手段とを含み、
前記鮮鋭化手段は、前記画像を構成する各画素の輝度f(x,y)と前記各画素の鮮鋭化の度合の係数h(x,y)とを、式
g(x,y)=f(x,y)−h(x,y)×▽f(x,y)
に代入して、鮮鋭化された各画素の輝度g(x,y)を個別に求め、
前記各画素の鮮鋭化の度合の係数h(x,y)は、前記各画素が前記残余領域内にある場合、予め定める第1の定数αiであり、前記各画素が前記文字領域内にある場合、第1の定数αiよりも大きい第2の定数αcであり、
前記表示手段は、前記輝度補正手段によって各画素の輝度が補正された画像を表示することを特徴とする画像処理装置である。
The present invention comprises a display means having a predetermined gradation characteristic;
An image input means for inputting an image composed of a plurality of pixels;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
Brightness correcting means for correcting the brightness of each of the pixels that respectively form the character and the remaining area that have been sharpened based on the gradation characteristics of the display means,
The sharpening means calculates the brightness f (x, y) of each pixel constituting the image and the coefficient h (x, y) of the sharpening degree of each pixel by the equation g (x, y) = f (X, y) -h (x, y) × ▽ 2 f (x, y)
To obtain the brightness g (x, y) of each sharpened pixel individually,
The sharpening degree coefficient h (x, y) of each pixel is a predetermined first constant αi when each pixel is in the remaining area, and each pixel is in the character area. A second constant αc that is greater than the first constant αi,
The display means is an image processing apparatus that displays an image in which the brightness of each pixel is corrected by the brightness correction means.

本発明に従えば、前記画像処理装置内では、前記鮮鋭化手段は、前記文字領域に施す鮮鋭化の度合を、前記残余領域に施す鮮鋭化の度合よりも強くする。これによって、前記文字領域内に描かれた文字のエッジ部分のぼけが改善されるので、前記画像が前記表示手段に表示された場合に前記文字が読み易くなる。前記エッジ部分のぼけは、前記画像の解像度と前記表示手段の解像度との差に起因する。かつ、前記残余領域内に描かれる絵に含まれるノイズが前記鮮鋭化処理によって強調されることを防止して、前記絵を滑らかなものにすることができる。同時に、前記画像が前記表示手段に表示された場合、前記表示手段の階調特性の偏りに拘わらず、前記画像内に描かれる前記文字が見易くなる。したがって、前記画像の解像度と前記表示手段の解像度との差および前記表示手段の階調特性の両方に起因する前記画像の視認性の低下を、防止することができる。また、前記画像の再現性を向上させることができる。   According to the present invention, in the image processing apparatus, the sharpening means makes the degree of sharpening applied to the character area stronger than the degree of sharpening applied to the remaining area. As a result, the blur of the edge portion of the character drawn in the character area is improved, so that the character becomes easy to read when the image is displayed on the display means. The blur of the edge portion is caused by a difference between the resolution of the image and the resolution of the display unit. And the noise contained in the picture drawn in the said residual area | region can be prevented from being emphasized by the said sharpening process, and the said picture can be made smooth. At the same time, when the image is displayed on the display means, it is easy to see the characters drawn in the image regardless of the bias of the gradation characteristics of the display means. Therefore, it is possible to prevent a reduction in the visibility of the image due to both the difference between the resolution of the image and the resolution of the display unit and the gradation characteristics of the display unit. In addition, the reproducibility of the image can be improved.

前記鮮鋭化手段は、上述の式に基づいて、前記文字領域と前記残余領域の各画素の鮮鋭化された輝度g(x,y)を求め、前記文字領域および前記残余領域の各画素の輝度f(x,y)を各画素の前記鮮鋭化された輝度g(x,y)に置換える。これによって、前記文字領域および前記残余領域に鮮鋭化が施される。この場合、前記文字領域と前記残余領域とにそれぞれ施される鮮鋭化の違いは、上述の式の係数h(x,y)だけである。ゆえに、各画素毎に、該各画素が文字領域内にあるか否かに基づいて、前記係数h(x,y)を変更するだけで、前記文字領域に前記残余領域よりも強い鮮鋭化の度合で鮮鋭化を施す事ができる。したがって、各画素の鮮鋭化の度合を変更する手順が簡単になる。   The sharpening means obtains the sharpened brightness g (x, y) of each pixel in the character area and the remaining area based on the above formula, and the brightness of each pixel in the character area and the remaining area. Replace f (x, y) with the sharpened luminance g (x, y) of each pixel. As a result, the character area and the remaining area are sharpened. In this case, the only difference in sharpening applied to the character area and the remaining area is the coefficient h (x, y) in the above formula. Therefore, for each pixel, based on whether or not each pixel is in the character area, the character area can be sharpened more strongly than the remaining area simply by changing the coefficient h (x, y). It can be sharpened to a degree. Therefore, the procedure for changing the sharpening degree of each pixel is simplified.

また本発明は、予め定める階調特性を有する表示手段と、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
前記表示手段が有する前記階調特性に基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する各画素の輝度を補正する輝度補正手段とを含み、
前記文字領域抽出手段は、
前記画像を構成する各画素の輝度を2値化した画像に基づき、文字領域を抽出し、
前記表示手段は、前記輝度補正手段によって各画素の輝度が補正された画像を表示することを特徴とする画像処理装置である。
The present invention also provides display means having predetermined gradation characteristics;
An image input means for inputting an image composed of a plurality of pixels;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
Brightness correcting means for correcting the brightness of each of the pixels that respectively form the character and the remaining area that have been sharpened based on the gradation characteristics of the display means,
The character area extracting means includes:
Based on an image obtained by binarizing the luminance of each pixel constituting the image, a character region is extracted,
The display means is an image processing apparatus that displays an image in which the brightness of each pixel is corrected by the brightness correction means.

本発明に従えば、前記文字領域抽出手段は、たとえば前記画像を構成する各画素の輝度を2値化し、2値化された輝度が相互に等しい複数の画素が連結して構成される1または複数の連結部分を求め、各連結部分に外接する外接矩形をそれぞれ求め、少なくとも一部分が重なり合う外接矩形を統合して単一の外接矩形にし、各外接矩形をそれぞれ輪郭とする画像内の1または複数の領域のうちで、領域内にある複数の画素の輝度の最大値および最小値の差が予め定める基準差分値以上である領域を、文字領域として抽出し、このようにして上述の手順で前記画像から前記文字領域を抽出する。これによって、前記画像内に少なくとも1つの文字が描かれる場合、該文字に外接する外接矩形を、文字領域として容易に抽出することができる。   According to the present invention, the character region extracting means is configured by binarizing the luminance of each pixel constituting the image, for example, and connecting a plurality of pixels having the same binarized luminance. Obtain a plurality of connected portions, obtain circumscribed rectangles circumscribing each connected portion, integrate the circumscribed rectangles that overlap at least partially into a single circumscribed rectangle, and one or more in the image with each circumscribed rectangle as an outline Are extracted as character areas in which the difference between the maximum and minimum luminance values of a plurality of pixels in the area is equal to or greater than a predetermined reference difference value. The character area is extracted from the image. Accordingly, when at least one character is drawn in the image, a circumscribed rectangle circumscribing the character can be easily extracted as a character region.

また本発明は、予め定める階調特性を有する表示手段と、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
前記表示手段が有する前記階調特性に基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する各画素の輝度を補正する輝度補正手段とを含み、
前記各画素の輝度が予め定める3色の成分の演算によって表される場合、前記文字領域抽出手段は、3色の成分の演算に基づいて文字領域を抽出し、前記鮮鋭化手段は、3色の成分に個別に鮮鋭化を施し、前記輝度補正手段は、3色の成分を個別に補正し、
前記表示手段は、前記輝度補正手段によって各画素の輝度が補正された画像を表示することを特徴とする画像処理装置である。
The present invention also provides display means having predetermined gradation characteristics;
An image input means for inputting an image composed of a plurality of pixels;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
Brightness correcting means for correcting the brightness of each of the pixels that respectively form the character and the remaining area that have been sharpened based on the gradation characteristics of the display means,
When the luminance of each pixel is represented by the calculation of a predetermined three-color component, the character region extraction unit extracts a character region based on the calculation of the three-color component, and the sharpening unit The brightness correction means individually corrects the components of the three colors,
The display means is an image processing apparatus that displays an image in which the brightness of each pixel is corrected by the brightness correction means.

本発明に従えば、前記輝度が3色の演算、たとえば成分の和で表される場合、すなわち前記画像がカラー画像である場合、各手段は上述のように動作する。これによって、前記画像がカラー画像である場合でも、前記画像処理装置は、前記画像の解像度と前記表示手段の解像度との差および前記表示手段の階調特性の両方に起因する画像の視認性の低下を防止し、かつ前記画像の再現性を向上させることができる。   According to the present invention, when the luminance is expressed by a calculation of three colors, for example, a sum of components, that is, when the image is a color image, each means operates as described above. As a result, even when the image is a color image, the image processing apparatus can improve the visibility of the image due to both the difference between the resolution of the image and the resolution of the display unit and the gradation characteristic of the display unit. It is possible to prevent the deterioration and improve the reproducibility of the image.

また本発明は、予め定められた階調特性を有する表示手段を備えたデータ閲覧装置と、入力画像を処理して前記表示手段に表示させるための画像データを作成する画像データ作成装置とを備える画像処理装置であって、
前記画像データ作成装置は、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像のコントラストを推定するコントラスト推定手段と、
推定された前記コントラストに基づいて前記画像のコントラストを増大させ、かつ、前記表示手段の階調特性に基づいて前記画像を構成する各画素の輝度を補正する輝度補正手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段とを備え、
前記データ閲覧装置は、
前記記録媒体から画像データを読み取る記録媒体読み取り手段を備え、
前記鮮鋭化手段は、前記画像を構成する各画素の輝度f(x,y)と前記各画素の鮮鋭化の度合の係数h(x,y)とを、式
g(x,y)=f(x,y)−h(x,y)×▽f(x,y)
に代入して、鮮鋭化された各画素の輝度g(x,y)を個別に求め、
前記各画素の鮮鋭化の度合の係数h(x,y)は、前記各画素が前記残余領域内にある場合、予め定める第1の定数αiであり、前記各画素が前記文字領域内にある場合、第1の定数αiよりも大きい第2の定数αcであり、
読み取った前記画像データに基づいて画像を前記表示手段に表示することを特徴とする画像処理装置である。
The present invention further includes a data browsing device including a display unit having a predetermined gradation characteristic, and an image data generation device that processes an input image and generates image data for display on the display unit. An image processing apparatus,
The image data creation device includes:
An image input means for inputting an image composed of a plurality of pixels;
Contrast estimation means for estimating the contrast of the image;
Brightness correction means for increasing the contrast of the image based on the estimated contrast, and correcting the brightness of each pixel constituting the image based on the gradation characteristics of the display means;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
A recording medium writing means for writing the luminance-corrected image data to a recording medium,
The data browsing device is:
A recording medium reading means for reading image data from the recording medium;
The sharpening means calculates the brightness f (x, y) of each pixel constituting the image and the coefficient h (x, y) of the sharpening degree of each pixel by the equation g (x, y) = f (X, y) -h (x, y) × ▽ 2 f (x, y)
To obtain the brightness g (x, y) of each sharpened pixel individually,
The sharpening degree coefficient h (x, y) of each pixel is a predetermined first constant αi when each pixel is in the remaining area, and each pixel is in the character area. A second constant αc that is greater than the first constant αi,
An image processing apparatus that displays an image on the display unit based on the read image data.

本発明に従えば、画像処理装置内の輝度補正手段は、前記表示手段の階調特性だけでなく、推定された前記コントラストも考慮して、前記画像を構成する各画素の輝度補正を行う。これによって、前記画像処理装置は、前記画像がどのようなコントラストを有するかに拘わらず、前記画像のコントラストを常に向上させることができる。同時に、前記表示手段の階調特性の偏りに拘わらず、前記表示手段に表示された前記画像内に描かれる文字が見易くなる。したがって、前記表示手段に画像を表示した場合、前記画像のコントラストおよび前記表示手段の階調特性の両方に起因する前記画像の視認性の低下を、防止することができる。また、前記画像入力手段から入力された前記画像と前記表示手段に表示される画像との間に、前記表示手段の階調特性に起因する輝度分布の変化がない。これによって、前記画像の再現性を向上させることができる。   According to the present invention, the luminance correction unit in the image processing apparatus performs luminance correction of each pixel constituting the image in consideration of not only the gradation characteristic of the display unit but also the estimated contrast. Accordingly, the image processing apparatus can always improve the contrast of the image regardless of the contrast of the image. At the same time, it is easy to see the characters drawn in the image displayed on the display means, regardless of the gradation characteristics of the display means. Therefore, when an image is displayed on the display means, it is possible to prevent a decrease in the visibility of the image due to both the contrast of the image and the gradation characteristics of the display means. Further, there is no change in the luminance distribution due to the gradation characteristics of the display means between the image input from the image input means and the image displayed on the display means. Thereby, the reproducibility of the image can be improved.

また本発明は、予め定められた階調特性を有する表示手段を備えたデータ閲覧装置と、入力画像を処理して前記表示手段に表示させるための画像データを作成する画像データ作成装置とを備える画像処理装置であって、
前記画像データ作成装置は、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像のコントラストを推定するコントラスト推定手段と、
推定された前記コントラストに基づいて前記画像のコントラストを増大させ、かつ、前記表示手段の階調特性に基づいて前記画像を構成する各画素の輝度を補正する輝度補正手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段と、
前記画像を構成する各画素の輝度を2値化した画像に基づき、文字領域を抽出する文字領域抽出手段とを備え、
前記データ閲覧装置は、
前記記録媒体から画像データを読み取る記録媒体読み取り手段を備え、
読み取った前記画像データに基づいて画像を前記表示手段に表示することを特徴とする画像処理装置である。
The present invention further includes a data browsing device including a display unit having a predetermined gradation characteristic, and an image data generation device that processes an input image and generates image data for display on the display unit. An image processing apparatus,
The image data creation device includes:
An image input means for inputting an image composed of a plurality of pixels;
Contrast estimation means for estimating the contrast of the image;
Brightness correction means for increasing the contrast of the image based on the estimated contrast, and correcting the brightness of each pixel constituting the image based on the gradation characteristics of the display means;
Recording medium writing means for writing the luminance-corrected image data to a recording medium;
A character area extracting means for extracting a character area based on an image obtained by binarizing the luminance of each pixel constituting the image;
The data browsing device is:
A recording medium reading means for reading image data from the recording medium;
An image processing apparatus that displays an image on the display unit based on the read image data.

また本発明は、予め定められた階調特性を有する表示手段を備えたデータ閲覧装置と、入力画像を処理して前記表示手段に表示させるための画像データを作成する画像データ作成装置とを備える画像処理装置であって、
前記画像データ作成装置は、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像のコントラストを推定するコントラスト推定手段と、
推定された前記コントラストに基づいて前記画像のコントラストを増大させ、かつ、前記表示手段の階調特性に基づいて前記画像を構成する各画素の輝度を補正する輝度補正手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段とを備え、
前記各画素の輝度が予め定める3色の成分の演算によって表される場合、前記文字領域抽出手段は、3色の成分の演算に基づいて文字領域を抽出し、前記鮮鋭化手段は、3色の成分に個別に鮮鋭化を施し、前記輝度補正手段は、3色の成分を個別に補正し、
前記データ閲覧装置は、
前記記録媒体から画像データを読み取る記録媒体読み取り手段を備え、
読み取った前記画像データに基づいて画像を前記表示手段に表示することを特徴とする画像処理装置である。
The present invention further includes a data browsing device including a display unit having a predetermined gradation characteristic, and an image data generation device that processes an input image and generates image data for display on the display unit. An image processing apparatus,
The image data creation device includes:
An image input means for inputting an image composed of a plurality of pixels;
Contrast estimation means for estimating the contrast of the image;
Brightness correction means for increasing the contrast of the image based on the estimated contrast, and correcting the brightness of each pixel constituting the image based on the gradation characteristics of the display means;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
A recording medium writing means for writing the luminance-corrected image data to a recording medium,
When the luminance of each pixel is represented by the calculation of a predetermined three-color component, the character region extraction unit extracts a character region based on the calculation of the three-color component, and the sharpening unit The brightness correction means individually corrects the components of the three colors,
The data browsing device is:
A recording medium reading means for reading image data from the recording medium;
An image processing apparatus that displays an image on the display unit based on the read image data.

また本発明は、入力画像を処理して予め定められた階調特性を有する表示手段に画像を表示させるための画像データを作成する画像データ作成装置であって、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像のコントラストを推定するコントラスト推定手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
推定された前記コントラストに基づいて前記画像のコントラストを増大させ、かつ、前記表示手段の階調特性に基づいて前記画像を構成する各画素の輝度を補正する輝度補正手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段とを備え、
前記鮮鋭化手段は、前記画像を構成する各画素の輝度f(x,y)と前記各画素の鮮鋭化の度合の係数h(x,y)とを、式
g(x,y)=f(x,y)−h(x,y)×▽f(x,y)
に代入して、鮮鋭化された各画素の輝度g(x,y)を個別に求め、
前記各画素の鮮鋭化の度合の係数h(x,y)は、前記各画素が前記残余領域内にある場合、予め定める第1の定数αiであり、前記各画素が前記文字領域内にある場合、第1の定数αiよりも大きい第2の定数αcであることを特徴とする画像データ作成装置である。
Further, the present invention is an image data creation device for processing an input image and creating image data for displaying the image on a display means having a predetermined gradation characteristic,
An image input means for inputting an image composed of a plurality of pixels;
Contrast estimation means for estimating the contrast of the image;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
Brightness correction means for increasing the contrast of the image based on the estimated contrast, and correcting the brightness of each pixel constituting the image based on the gradation characteristics of the display means;
A recording medium writing means for writing the luminance-corrected image data to a recording medium,
The sharpening means calculates the brightness f (x, y) of each pixel constituting the image and the coefficient h (x, y) of the sharpening degree of each pixel by the equation g (x, y) = f (X, y) -h (x, y) × ▽ 2 f (x, y)
To obtain the brightness g (x, y) of each sharpened pixel individually,
The sharpening degree coefficient h (x, y) of each pixel is a predetermined first constant αi when each pixel is in the remaining area, and each pixel is in the character area. In this case, the image data creating apparatus is characterized in that the second constant αc is larger than the first constant αi.

また本発明は、入力画像を処理して予め定められた階調特性を有する表示手段に画像を表示させるための画像データを作成する画像データ作成装置であって、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像のコントラストを推定するコントラスト推定手段と、
推定された前記コントラストに基づいて前記画像のコントラストを増大させ、かつ、前記表示手段の階調特性に基づいて前記画像を構成する各画素の輝度を補正する輝度補正手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段と、
前記画像を構成する各画素の輝度を2値化した画像に基づき、文字領域を抽出する文字領域抽出手段とを備えることを特徴とする画像データ作成装置である。
Further, the present invention is an image data creation device for processing an input image and creating image data for displaying the image on a display means having a predetermined gradation characteristic,
An image input means for inputting an image composed of a plurality of pixels;
Contrast estimation means for estimating the contrast of the image;
Brightness correction means for increasing the contrast of the image based on the estimated contrast, and correcting the brightness of each pixel constituting the image based on the gradation characteristics of the display means;
Recording medium writing means for writing the luminance-corrected image data to a recording medium;
An image data generating apparatus comprising: a character area extracting unit that extracts a character area based on an image obtained by binarizing the luminance of each pixel constituting the image.

また本発明は、入力画像を処理して予め定められた階調特性を有する表示手段に画像を表示させるための画像データを作成する画像データ作成装置であって、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像のコントラストを推定するコントラスト推定手段と、
推定された前記コントラストに基づいて前記画像のコントラストを増大させ、かつ、前記表示手段の階調特性に基づいて前記画像を構成する各画素の輝度を補正する輝度補正手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段とを備え、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段とをさらに含み、
前記各画素の輝度が予め定める3色の演算の和によって表される場合、前記文字領域抽出手段は、3色の成分の演算に基づいて文字領域を抽出し、前記鮮鋭化手段は、3色の成分に個別に鮮鋭化を施し、前記輝度補正手段は、3色の成分を個別に補正することを特徴とする画像データ作成装置である。
Further, the present invention is an image data creation device for processing an input image and creating image data for displaying the image on a display means having a predetermined gradation characteristic,
An image input means for inputting an image composed of a plurality of pixels;
Contrast estimation means for estimating the contrast of the image;
Brightness correction means for increasing the contrast of the image based on the estimated contrast, and correcting the brightness of each pixel constituting the image based on the gradation characteristics of the display means;
A recording medium writing means for writing the luminance-corrected image data to a recording medium,
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. And further including
When the luminance of each pixel is represented by a predetermined sum of three color operations, the character region extraction unit extracts a character region based on the calculation of three color components, and the sharpening unit includes three colors. Each of the components is sharpened individually, and the brightness correction unit corrects the three color components individually.

また本発明は、予め定められた階調特性を有する表示手段を備えたデータ閲覧装置と、入力画像を処理して前記表示手段に表示させるための画像データを作成する画像データ作成装置とを備える画像処理装置であって、
前記画像データ作成装置は、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
前記表示手段が有する前記階調特性に基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する各画素の輝度を補正する輝度補正手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段とを備え、
前記鮮鋭化手段は、前記画像を構成する各画素の輝度f(x,y)と前記各画素の鮮鋭化の度合の係数h(x,y)とを、式
g(x,y)=f(x,y)−h(x,y)×▽f(x,y)に代入して、鮮鋭化された各画素の輝度g(x,y)を個別に求め、
前記各画素の鮮鋭化の度合の係数h(x,y)は、前記各画素が前記残余領域内にある場合、予め定める第1の定数αiであり、前記各画素が前記文字領域内にある場合、第1の定数αiよりも大きい第2の定数αcであり、
前記データ閲覧装置は、
前記記録媒体から画像データを読み取る記録媒体読み取り手段を備え、
読み取った前記画像データに基づいて画像を前記表示手段に表示することを特徴とする画像処理装置である。
The present invention further includes a data browsing device including a display unit having a predetermined gradation characteristic, and an image data generation device that processes an input image and generates image data for display on the display unit. An image processing apparatus,
The image data creation device includes:
An image input means for inputting an image composed of a plurality of pixels;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
Brightness correcting means for correcting the brightness of each of the pixels constituting the character and the remaining area that have been sharpened based on the gradation characteristics of the display means;
A recording medium writing means for writing the luminance-corrected image data to a recording medium,
The sharpening means calculates the brightness f (x, y) of each pixel constituting the image and the coefficient h (x, y) of the sharpening degree of each pixel by the equation g (x, y) = f Substituting into (x, y) −h (x, y) × ▽ 2 f (x, y), the brightness g (x, y) of each sharpened pixel is obtained individually,
The sharpening degree coefficient h (x, y) of each pixel is a predetermined first constant αi when each pixel is in the remaining area, and each pixel is in the character area. A second constant αc that is greater than the first constant αi,
The data browsing device is:
A recording medium reading means for reading image data from the recording medium;
An image processing apparatus that displays an image on the display unit based on the read image data.

また本発明は、予め定められた階調特性を有する表示手段を備えたデータ閲覧装置と、入力画像を処理して前記表示手段に表示させるための画像データを作成する画像データ作成装置とを備える画像処理装置であって、
前記画像データ作成装置は、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
前記表示手段が有する前記階調特性に基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する各画素の輝度を補正する輝度補正手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段とを備え、
前記文字領域抽出手段は、
前記画像を構成する各画素の輝度を2値化した画像に基づき、文字領域を抽出し、
前記データ閲覧装置は、
前記記録媒体から画像データを読み取る記録媒体読み取り手段を備え、
読み取った前記画像データに基づいて画像を前記表示手段に表示することを特徴とする画像処理装置である。
The present invention further includes a data browsing device including a display unit having a predetermined gradation characteristic, and an image data generation device that processes an input image and generates image data for display on the display unit. An image processing apparatus,
The image data creation device includes:
An image input means for inputting an image composed of a plurality of pixels;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
Brightness correcting means for correcting the brightness of each of the pixels constituting the character and the remaining area that have been sharpened based on the gradation characteristics of the display means;
A recording medium writing means for writing the luminance-corrected image data to a recording medium,
The character area extracting means includes:
Based on an image obtained by binarizing the luminance of each pixel constituting the image, a character region is extracted,
The data browsing device is:
A recording medium reading means for reading image data from the recording medium;
An image processing apparatus that displays an image on the display unit based on the read image data.

また本発明は、予め定められた階調特性を有する表示手段を備えたデータ閲覧装置と、入力画像を処理して前記表示手段に表示させるための画像データを作成する画像データ作成装置とを備える画像処理装置であって、
前記画像データ作成装置は、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
前記表示手段が有する前記階調特性に基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する各画素の輝度を補正する輝度補正手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段とを備え、
前記各画素の輝度が予め定める3色の成分の演算によって表される場合、前記文字領域抽出手段は、3色の成分の演算に基づいて文字領域を抽出し、前記鮮鋭化手段は、3色の成分に個別に鮮鋭化を施し、前記輝度補正手段は、3色の成分を個別に補正し、
前記データ閲覧装置は、
前記記録媒体から画像データを読み取る記録媒体読み取り手段を備え、
読み取った前記画像データに基づいて画像を前記表示手段に表示することを特徴とする画像処理装置である。
The present invention further includes a data browsing device including a display unit having a predetermined gradation characteristic, and an image data generation device that processes an input image and generates image data for display on the display unit. An image processing apparatus,
The image data creation device includes:
An image input means for inputting an image composed of a plurality of pixels;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
Brightness correcting means for correcting the brightness of each of the pixels constituting the character and the remaining area that have been sharpened based on the gradation characteristics of the display means;
A recording medium writing means for writing the luminance-corrected image data to a recording medium,
When the luminance of each pixel is represented by the calculation of a predetermined three-color component, the character region extraction unit extracts a character region based on the calculation of the three-color component, and the sharpening unit The brightness correction means individually corrects the components of the three colors,
The data browsing device is:
A recording medium reading means for reading image data from the recording medium;
An image processing apparatus that displays an image on the display unit based on the read image data.

また本発明は、入力画像を処理して予め定められた階調特性を有する表示手段に画像を表示させるための画像データを作成する画像データ作成装置であって、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
前記表示手段が有する前記階調特性に基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する各画素の輝度を補正する輝度補正手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段とを備え、
前記鮮鋭化手段は、前記画像を構成する各画素の輝度f(x,y)と前記各画素の鮮鋭化の度合の係数h(x,y)とを、式
g(x,y)=f(x,y)−h(x,y)×▽f(x,y)
に代入して、鮮鋭化された各画素の輝度g(x,y)を個別に求め、
前記各画素の鮮鋭化の度合の係数h(x,y)は、前記各画素が前記残余領域内にある場合、予め定める第1の定数αiであり、前記各画素が前記文字領域内にある場合、第1の定数αiよりも大きい第2の定数αcであることを特徴とする画像データ作成装置である。
Further, the present invention is an image data creation device for processing an input image and creating image data for displaying the image on a display means having a predetermined gradation characteristic,
An image input means for inputting an image composed of a plurality of pixels;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
Brightness correcting means for correcting the brightness of each of the pixels constituting the character and the remaining area that have been sharpened based on the gradation characteristics of the display means;
A recording medium writing means for writing the luminance-corrected image data to a recording medium,
The sharpening means calculates the brightness f (x, y) of each pixel constituting the image and the coefficient h (x, y) of the sharpening degree of each pixel by the equation g (x, y) = f (X, y) -h (x, y) × ▽ 2 f (x, y)
To obtain the brightness g (x, y) of each sharpened pixel individually,
The sharpening degree coefficient h (x, y) of each pixel is a predetermined first constant αi when each pixel is in the remaining area, and each pixel is in the character area. In this case, the image data creating apparatus is characterized in that the second constant αc is larger than the first constant αi.

また本発明は、入力画像を処理して予め定められた階調特性を有する表示手段に画像を表示させるための画像データを作成する画像データ作成装置であって、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
前記表示手段が有する前記階調特性に基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する各画素の輝度を補正する輝度補正手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段とを備え、
前記文字領域抽出手段は、
前記画像を構成する各画素の輝度を2値化した画像に基づき、文字領域を抽出することを特徴とする画像データ作成装置である。
Further, the present invention is an image data creation device for processing an input image and creating image data for displaying the image on a display means having a predetermined gradation characteristic,
An image input means for inputting an image composed of a plurality of pixels;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
Brightness correcting means for correcting the brightness of each of the pixels constituting the character and the remaining area that have been sharpened based on the gradation characteristics of the display means;
A recording medium writing means for writing the luminance-corrected image data to a recording medium,
The character area extracting means includes:
The image data generating apparatus is characterized in that a character region is extracted based on an image obtained by binarizing the luminance of each pixel constituting the image.

また本発明は、入力画像を処理して予め定められた階調特性を有する表示手段に画像を表示させるための画像データを作成する画像データ作成装置であって、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
前記表示手段が有する前記階調特性に基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する各画素の輝度を補正する輝度補正手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段とを備え、
前記各画素の輝度が予め定める3色の成分の演算によって表される場合、前記文字領域抽出手段は、3色の成分の演算に基づいて文字領域を抽出し、前記鮮鋭化手段は、3色の成分に個別に鮮鋭化を施し、前記輝度補正手段は、3色の成分を個別に補正することを特徴とする画像データ作成装置である。
Further, the present invention is an image data creation device for processing an input image and creating image data for displaying the image on a display means having a predetermined gradation characteristic,
An image input means for inputting an image composed of a plurality of pixels;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
Brightness correcting means for correcting the brightness of each of the pixels constituting the character and the remaining area that have been sharpened based on the gradation characteristics of the display means;
A recording medium writing means for writing the luminance-corrected image data to a recording medium,
When the luminance of each pixel is represented by the calculation of a predetermined three-color component, the character region extraction unit extracts a character region based on the calculation of the three-color component, and the sharpening unit Each of the components is sharpened individually, and the brightness correction unit corrects the three color components individually.

また本発明は、前記文字領域抽出手段は、
前記画像を構成する各画素の輝度を2値化した画像に基づき、文字領域をそれぞれ抽出することを特徴とする。
In the present invention, the character area extracting means includes:
A character region is extracted based on an image obtained by binarizing the luminance of each pixel constituting the image.

本発明に従えば、前記文字領域抽出手段は、たとえば前記画像を構成する各画素の輝度を2値化し、2値化された輝度が相互に等しい複数の画素が連結して構成される1または複数の連結部分を求め、各連結部分に外接する外接矩形をそれぞれ求め、少なくとも一部分が重なり合う外接矩形を統合して単一の外接矩形にし、各外接矩形をそれぞれ輪郭とする画像内の1または複数の領域のうちで、領域内にある複数の画素の輝度の最大値および最小値の差が予め定める基準差分値以上である領域を、文字領域として抽出し、このようにして上述の手順で前記画像から前記文字領域を抽出する。これによって、前記画像内に、複数の文字が直線状に並んでいる場合、前記各文字にそれぞれ外接する外接矩形を、文字領域として容易に抽出することができる。前記複数の文字が直線状に並ぶのは、たとえば、前記画像内に文章が描かれる場合である。これらのことから、前記画像内に文章が描かれる場合、前記文字以外の連結部分に外接する外接矩形が求められても、該外接矩形を文字領域として抽出することを防止することができる。前記文字以外の連結部分とは、たとえば、画像内に描かれる絵の一部分である。   According to the present invention, the character region extracting means is configured by binarizing the luminance of each pixel constituting the image, for example, and connecting a plurality of pixels having the same binarized luminance. Obtain a plurality of connected portions, obtain circumscribed rectangles circumscribing each connected portion, integrate the circumscribed rectangles that overlap at least partially into a single circumscribed rectangle, and one or more in the image with each circumscribed rectangle as an outline Are extracted as character areas in which the difference between the maximum and minimum luminance values of a plurality of pixels in the area is equal to or greater than a predetermined reference difference value. The character area is extracted from the image. As a result, when a plurality of characters are arranged in a straight line in the image, a circumscribed rectangle circumscribing each character can be easily extracted as a character region. The plurality of characters are arranged in a straight line when, for example, a sentence is drawn in the image. For these reasons, when a sentence is drawn in the image, it is possible to prevent the circumscribed rectangle from being extracted as a character region even if a circumscribed rectangle circumscribing a connected portion other than the character is obtained. The connected part other than the characters is, for example, a part of a picture drawn in an image.

また本発明は、前記画像のコントラストを推定するコントラスト推定手段と、
推定された前記コントラストに基づいて、前記画像のコントラストを増大させるコントラスト補正手段とをさらに含み、
前記コントラスト推定手段は、
前記画像を構成する各画素の輝度のヒストグラムを作成に基づき、画像のコントラストを推定し、第2の範囲内の前記ヒストグラムの最大値が基準値未満である場合、第1の輝度と前記画像を構成する全ての画素の輝度のうちで最低の輝度とに基づいて画像のコントラストを推定し、
前記輝度補正手段は、
前記表示手段が有する前記階調特性およびコントラスト補正手段によって補正されたコントラストに基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する画素の輝度を補正することを特徴とする。
The present invention also provides contrast estimation means for estimating the contrast of the image;
Contrast correction means for increasing the contrast of the image based on the estimated contrast,
The contrast estimation means includes
Based on the creation of a histogram of the luminance of each pixel constituting the image, the contrast of the image is estimated, and when the maximum value of the histogram within a second range is less than a reference value, the first luminance and the image are Estimate the contrast of the image based on the lowest luminance among the luminance of all the constituent pixels,
The brightness correction means includes
On the basis of the gradation characteristics of the display means and the contrast corrected by the contrast correction means, the brightness of the pixels that respectively form the sharpened character and the remaining area is corrected.

また本発明は、前記コントラスト推定手段は、
前記画像を構成する各画素の輝度のヒストグラムに基づき、画像のコントラストを推定することを特徴とする。
In the present invention, the contrast estimation means includes
The contrast of the image is estimated based on a luminance histogram of each pixel constituting the image.

前記コントラスト推定手段は、たとえば前記画像を構成する各画素の輝度のヒストグラムを作成し、予め定める基準輝度以上で前記各画素が取得る最大の輝度以下の第1の範囲内のヒストグラムの最大値に対応する第1の輝度を求め、前記各画素が取得る最小の輝度以上で前記基準輝度未満の第2の範囲内のヒストグラムの最大値を求め、前記第2の範囲内の前記ヒストグラムの最大値が、予め定める基準値以上であるか否かを判定し、第2の範囲内のヒストグラムの最大値が基準値以上である場合、第1の輝度と第2の範囲内のヒストグラムの最大値に対応する輝度とに基づいて画像のコントラストを推定し、第2の範囲内の前記ヒストグラムの最大値が基準値未満である場合、第1の輝度と前記画像を構成する全ての画素の輝度のうちで最低の輝度とに基づいて画像のコントラストを推定し、このようにして上述の手順で前記画像のコントラストを推定する。これは以下の理由からである。前記画像がいわゆる文書画像である場合に該画像の画素の輝度のヒストグラムを作成すると、該画像の地の色に相当する輝度の画素の数は、地の色に相当する輝度以外の他の輝度それぞれの画素の数に比べて常に極めて大きい。しかしながら、文字の色に相当する輝度の画素の数は、前記他の輝度それぞれの画素の数とほぼ同等であることがある。この場合、前記ヒストグラムの前記第2の範囲内の輝度の最大値が、前記文字の色に相当する輝度であるとは限らない。ゆえに、上述のように、前記第2の範囲内の輝度の最大値と基準値との大小関係に基づいて、前記画像のコントラストを求める際に基準とする輝度を変更する。これによって、前記文字の色に相当する輝度の画素の数と前記他の輝度それぞれの画素の数との関係に拘わらず、前記画像のコントラストを常に求めることができる。   The contrast estimation means creates a histogram of the luminance of each pixel constituting the image, for example, and sets the maximum value of the histogram within a first range that is equal to or higher than a predetermined reference luminance and below the maximum luminance acquired by each pixel. The corresponding first luminance is obtained, the maximum value of the histogram in the second range that is greater than or equal to the minimum luminance acquired by each pixel and less than the reference luminance is obtained, and the maximum value of the histogram in the second range is obtained. Is greater than or equal to a predetermined reference value, and if the maximum value of the histogram in the second range is greater than or equal to the reference value, the first luminance and the maximum value of the histogram in the second range are When the contrast of the image is estimated based on the corresponding luminance and the maximum value of the histogram within the second range is less than the reference value, the first luminance and the luminance of all the pixels constituting the image so It estimates the contrast of the image based on the low luminance, this way of estimating the contrast of the image in accordance with the procedure described above. This is for the following reason. If the histogram of the brightness of the pixels of the image is created when the image is a so-called document image, the number of pixels having the brightness corresponding to the background color of the image is other than the brightness corresponding to the background color. It is always very large compared to the number of each pixel. However, the number of pixels having the luminance corresponding to the character color may be approximately equal to the number of pixels having the other luminance. In this case, the maximum value of the luminance within the second range of the histogram is not necessarily the luminance corresponding to the character color. Therefore, as described above, based on the magnitude relationship between the maximum value of the luminance within the second range and the reference value, the reference luminance when the contrast of the image is obtained is changed. Accordingly, the contrast of the image can always be obtained regardless of the relationship between the number of pixels having the luminance corresponding to the color of the character and the number of pixels having the other luminance.

本発明によれば、画像処理装置の鮮鋭化手段は、処理対象の画像内の文字領域に施す鮮鋭化の度合を、処理対象の画像内の文字領域以外の残余領域に施す鮮鋭化の度合よりも強くする。同時に、前記画像処理装置の輝度補正手段は、表示装置の階調特性に基づいて、鮮鋭化された画像の各画素の輝度補正を行う。これによって、前記画像の解像度と前記表示手段の解像度との差および前記表示手段の階調特性の両方に起因する画像の視認性の低下を、防止することができる。   According to the present invention, the sharpening means of the image processing apparatus determines the degree of sharpening applied to the character area in the image to be processed from the degree of sharpening applied to the remaining area other than the character area in the image to be processed. Make it stronger. At the same time, the brightness correction means of the image processing device corrects the brightness of each pixel of the sharpened image based on the gradation characteristics of the display device. As a result, it is possible to prevent a decrease in the visibility of the image due to both the difference between the resolution of the image and the resolution of the display means and the gradation characteristics of the display means.

さらにまた本発明によれば、前記鮮鋭化手段は、いわゆる選択的鮮鋭化処理を用いて、前記処理対象の画像に鮮鋭化処理を施す。これによって、選択的鮮鋭化処理の処理対象の画素が文字領域および残余領域のいずれにあるかに応じて鮮鋭化の度合を変更する手順が、簡単になる。   Furthermore, according to the present invention, the sharpening means performs a sharpening process on the image to be processed using a so-called selective sharpening process. This simplifies the procedure of changing the degree of sharpening depending on whether the pixel to be subjected to the selective sharpening process is in the character area or the remaining area.

また本発明によれば、文字領域を求めるには、たとえばまず前記画像を構成する各画素のうちで輝度が相互に類似する複数の画素が連結して構成される1または複数の連結部分にそれぞれ外接する外接矩形をそれぞれ求め、全ての外接矩形のうちで、少なくとも一部分が重なり合う外接矩形を統合する。次いで、前記画像内の各外接矩形をそれぞれ輪郭とする1または複数の領域のうちで、該領域内にある複数の画素の輝度の最大値および最小値の差が、予め定める基準差分値以上である領域を、文字領域として抽出する。これによって、前記画像内に少なくとも1つの文字が描かれる場合、該文字に外接する外接矩形を、文字領域として容易に抽出することができる。   Further, according to the present invention, in order to obtain a character region, for example, first, one or a plurality of connected portions configured by connecting a plurality of pixels having similar brightness to each other among the pixels constituting the image are respectively provided. The circumscribed rectangles that circumscribe each are obtained, and among all circumscribed rectangles, circumscribed rectangles that overlap at least partially are integrated. Next, among one or a plurality of regions each having an outline of each circumscribed rectangle in the image, a difference between a maximum value and a minimum value of a plurality of pixels in the region is not less than a predetermined reference difference value. A certain area is extracted as a character area. Accordingly, when at least one character is drawn in the image, a circumscribed rectangle circumscribing the character can be easily extracted as a character region.

また、本発明によれば、処理対象の前記画像の各画素の輝度が3色の演算で表される場合、前記文字領域は3色の演算に基づいて抽出され、前記鮮鋭化処理は、3色の成分に個別に施され、かつ、表示装置の階調特性に基づく輝度補正も、3色の成分に個別に行われる。これによって、前記画像がカラー画像である場合でも、前記画像処理装置は、前記画像の解像度と前記表示手段の解像度との差および前記表示手段の階調特性の両方に起因する画像の視認性の低下を防止することができる。   Further, according to the present invention, when the luminance of each pixel of the image to be processed is expressed by a calculation of three colors, the character region is extracted based on the calculation of three colors, and the sharpening process is performed by 3 The luminance correction based on the gradation characteristics of the display device is also performed individually for the three color components. As a result, even when the image is a color image, the image processing apparatus can improve the visibility of the image due to both the difference between the resolution of the image and the resolution of the display unit and the gradation characteristic of the display unit. A decrease can be prevented.

本発明によれば、画像処理装置は、表示手段の階調特性と処理対象の画像のコントラストとを同時に考慮して、前記画像を構成する各画素の輝度変換を行う。これによって、表示手段に画像を表示した場合、前記画像のコントラストおよび前記表示手段の階調特性の両方に起因する画像の視認性の低下を、防止することができる。   According to the present invention, the image processing apparatus performs luminance conversion of each pixel constituting the image in consideration of the gradation characteristic of the display unit and the contrast of the image to be processed at the same time. Thereby, when an image is displayed on the display means, it is possible to prevent a decrease in the visibility of the image due to both the contrast of the image and the gradation characteristics of the display means.

また本発明によれば、画像処理装置内では、鮮鋭化手段による鮮鋭化処理、輝度補正手段による輝度補正処理に加えて、コントラスト補正手段によって、処理対象の前記画像のコントラストを、該画像の元のコントラストよりも向上させることができる。したがって、前記画像のコントラスト起因する画像の視認性の低下を、さらに防止することができる。   According to the invention, in the image processing apparatus, in addition to the sharpening process by the sharpening unit and the luminance correction process by the luminance correction unit, the contrast of the image to be processed is converted by the contrast correction unit. The contrast can be improved. Accordingly, it is possible to further prevent a decrease in the visibility of the image due to the contrast of the image.

さらにまた本発明によれば、前記コントラスト推定手段は、たとえば前記画像を構成する画素の輝度のヒストグラムにおいて、輝度の出現頻度を表す曲線に、2つの明瞭な盛上がりがあるか否かに基づいて、コントラストの推定手法を変更する。これによって、文字の色に相当する輝度の画素数と該輝度以外の他の輝度それぞれの画素の数との関係に拘わらず、前記画像のコントラストを常に確実に求めることができる。   Furthermore, according to the present invention, the contrast estimation means, for example, in the luminance histogram of the pixels constituting the image, based on whether there are two distinct rises in the curve representing the appearance frequency of the luminance, Change the contrast estimation method. Accordingly, the contrast of the image can always be reliably obtained regardless of the relationship between the number of pixels having the luminance corresponding to the character color and the number of pixels having other luminance than the luminance.

図1は、本発明の第1実施形態である画像処理装置31に含まれるデータ処理装置34の電気的構成を表すブロック図である。図2は、前記画像処理装置31の概略的な電気的な電気的構成を表すブロック図である。図1および図2を併せて説明する。   FIG. 1 is a block diagram showing an electrical configuration of a data processing device 34 included in the image processing device 31 according to the first embodiment of the present invention. FIG. 2 is a block diagram showing a schematic electrical configuration of the image processing apparatus 31. 1 and 2 will be described together.

画像処理装置31は、画像入力装置33と、データ処理装置34と、表示装置35とを含む。データ処理装置34は、データ記憶部37と、コントラスト推定部38と、輝度補正部39と、操作部40とを含む。コントラスト推定部38は、ヒストグラム作成部41と、コントラスト検出部42とを含む。輝度補正部39は、階調特性補正用ルックアップテーブル記憶手段44と、輝度補正用ルックアップテーブルテーブル作成手段45と、画像輝度変換部46とを含む。以後、ルックアップテーブルを、「LUT」(Look Up
Table)と略称することがある。
The image processing device 31 includes an image input device 33, a data processing device 34, and a display device 35. The data processing device 34 includes a data storage unit 37, a contrast estimation unit 38, a brightness correction unit 39, and an operation unit 40. The contrast estimation unit 38 includes a histogram creation unit 41 and a contrast detection unit 42. The luminance correction unit 39 includes a gradation characteristic correction lookup table storage unit 44, a luminance correction lookup table table creation unit 45, and an image luminance conversion unit 46. Thereafter, the lookup table is referred to as “LUT” (Look Up
Table).

画像入力装置33は、処理対象の画像を表すデジタル信号である画像データを、データ処理装置34に与える。前記画像は、いわゆる多値画像であり、複数の画素が行列状に配置されて構成される。前記画像データは、前記画像を構成する各画素の輝度を表す画素データが、画素の配列に応じた順序で並べられて構成される。各画素データは、具体的には、予め定める画素輝度範囲内のいずれか1つの輝度値に相当する。前記画素輝度範囲は、画像データの規格上、各画素データが取り得る輝度値の範囲である。輝度値とは、輝度を定量的に表す数値である。画像入力装置33からデータ処理装置34に与えられた画像データを、以後、入力画像データ51と称する。また、入力画像データ51が表す画像を、入力画像と称する。   The image input device 33 gives image data, which is a digital signal representing an image to be processed, to the data processing device 34. The image is a so-called multi-value image, and is configured by arranging a plurality of pixels in a matrix. The image data is configured by arranging pixel data representing the luminance of each pixel constituting the image in an order corresponding to the pixel arrangement. Specifically, each piece of pixel data corresponds to any one luminance value within a predetermined pixel luminance range. The pixel luminance range is a range of luminance values that each pixel data can take in accordance with the standard of image data. The luminance value is a numerical value that quantitatively represents the luminance. The image data given from the image input device 33 to the data processing device 34 is hereinafter referred to as input image data 51. An image represented by the input image data 51 is referred to as an input image.

データ処理装置34は、入力画像データ51に、入力画像のコントラストおよび表示装置35の階調特性に基づいた画像補正処理を施す。画像補正処理が施された入力画像データ51を、以後、出力画像データ52と称する。出力画像データ52は、表示装置35に与えられる。表示装置35は、出力画像データ52に基づいて、表示画面に画像を表示する。前記表示画面は、複数の表示画素が行列状に配置されて構成される。複数の表示画素の輝度は、出力画像データを構成する複数の画素データと、表示装置35の階調特性とに基づいて定められる。表示装置35の階調特性は、表示装置35の構成に基づいて一義的に定まる。出力画像データが表す画像は、入力画像と比較して、各画素の輝度の実際の数値だけが異なり、他は等しい。入力画像の解像度と表示画面の解像度とは等しい。すなわち、入力画像の各画素は、出力画像の各画素と、1対1で対応し、出力画像データが表す画像の各画素は、表示画面の各表示画素と、1対1で対応する。   The data processing device 34 performs an image correction process on the input image data 51 based on the contrast of the input image and the gradation characteristics of the display device 35. The input image data 51 that has been subjected to the image correction processing is hereinafter referred to as output image data 52. The output image data 52 is given to the display device 35. The display device 35 displays an image on the display screen based on the output image data 52. The display screen is configured by arranging a plurality of display pixels in a matrix. The luminance of the plurality of display pixels is determined based on the plurality of pixel data constituting the output image data and the gradation characteristics of the display device 35. The gradation characteristics of the display device 35 are uniquely determined based on the configuration of the display device 35. The image represented by the output image data differs from the input image only in the actual numerical value of the luminance of each pixel, and the others are equal. The resolution of the input image is equal to the resolution of the display screen. That is, each pixel of the input image has a one-to-one correspondence with each pixel of the output image, and each pixel of the image represented by the output image data has a one-to-one correspondence with each display pixel of the display screen.

コントラスト推定部37は、入力画像のコントラストを推定する。このために、まずヒストグラム作成部41が、入力画像の各画素の輝度に関する輝度ヒストグラムを作成する。次いで、コントラスト検出部42が、前記輝度ヒストグラムに基づいて、入力画像のコントラストを検出する。   The contrast estimation unit 37 estimates the contrast of the input image. For this purpose, the histogram creation unit 41 first creates a brightness histogram related to the brightness of each pixel of the input image. Next, the contrast detector 42 detects the contrast of the input image based on the luminance histogram.

輝度補正部38は、入力画像のコントラストと表示装置35の階調特性とに基づいて、入力画像を構成する各画素の輝度をそれぞれ補正する。輝度補正部38の基本的な構成は、以下の通りである。階調補正用LUT記憶部44は、予め定める階調補正用ルックアップテーブルRLUT を記憶する。階調補正用ルックアップテーブルRLUT は、表示装置用階調補正処理のために、前記表示装置用階調補正処理の処理対象の画像を構成する各画素の輝度を変換する場合に、用いられる。表示装置用階調補正処理は、表示装置35単体の階調特性を線形にするための処理である。階調特性とは、画素データが表す輝度と表示画素の輝度との対応関係であり、具体的には、画素データが表す輝度が変化するのに伴って、前記画素データに応じて発光させた表示画素の輝度がどのように変化するかを表す。すなわち表示装置35の階調特性は、表示装置35の入出力特性に相当する。   The brightness correction unit 38 corrects the brightness of each pixel constituting the input image based on the contrast of the input image and the gradation characteristics of the display device 35. The basic configuration of the luminance correction unit 38 is as follows. The gradation correction LUT storage unit 44 stores a predetermined gradation correction lookup table RLUT. The gradation correction lookup table RLUT is used when the luminance of each pixel constituting the image to be processed by the display device gradation correction process is converted for the display device gradation correction process. The display device gradation correction processing is processing for linearizing the gradation characteristics of the display device 35 alone. The gradation characteristic is a correspondence relationship between the luminance represented by the pixel data and the luminance of the display pixel. Specifically, as the luminance represented by the pixel data changes, light is emitted according to the pixel data. It represents how the luminance of the display pixel changes. That is, the gradation characteristics of the display device 35 correspond to the input / output characteristics of the display device 35.

階調補正用ルックアップテーブルRLUT は、表示装置用階調補正処理の処理前の輝度値i(i=0,1,2,…,Vmax )と表示装置用階調補正処理の処理後の輝度値RLUT〔i〕との対応関係を表す。前記対応関係は、表示装置35の階調特性に応じて一義的に定められる。たとえば、表示装置35の階調特性が、前述した図27の階調特性曲線11で表されるものである場合、階調補正用ルックアップテーブルRLUT の前記対応関係は、図29の輝度変換曲線14で表される。表示装置35の階調特性曲線11は、前記基準直線12を対称軸として、図29の輝度変換曲線14と線対称である。   The gradation correction lookup table RLUT includes the luminance value i (i = 0, 1, 2,..., Vmax) before the display device gradation correction processing and the luminance after the display device gradation correction processing. This represents the correspondence with the value RLUT [i]. The correspondence relationship is uniquely determined according to the gradation characteristics of the display device 35. For example, when the gradation characteristic of the display device 35 is represented by the gradation characteristic curve 11 of FIG. 27 described above, the correspondence relationship of the gradation correction lookup table RLUT is the luminance conversion curve of FIG. 14. The gradation characteristic curve 11 of the display device 35 is line symmetric with the luminance conversion curve 14 of FIG. 29 with the reference straight line 12 as an axis of symmetry.

輝度補正LUT作成部45は、コントラスト検出部42で検出された入力画像のコントラストと階調補正用LUT記憶部44に記憶されている階調補正用ルックアップテーブルとに基づいて、輝度補正用ルックアップテーブルCaLUT を作成する。輝度補正用ルックアップテーブルCaLUT は、入力画像のコントラストを向上させ、同時に、画像処理装置31全体の階調特性を線形にするために用いられる。画像処理装置31の全体の階調特性は、入力画像データ51の各画素データの輝度値と、該各画素データに対応する表示画素の輝度との対応関係を表す。すなわち画像処理装置31全体の階調特性は、画像処理装置31の入出力特性に相当する。画像輝度変換部46は、入力画像データの各画素データに、輝度補正用ルックアップテーブルCaLUT に基づいた輝度変換処理をそれぞれ施す。前記輝度変換処理が施された画素データの集合が、出力画像データ52である。   The luminance correction LUT creation unit 45 performs a luminance correction look based on the contrast of the input image detected by the contrast detection unit 42 and the gradation correction lookup table stored in the gradation correction LUT storage unit 44. Create uptable CaLUT. The brightness correction look-up table CaLUT is used to improve the contrast of the input image and at the same time linearize the gradation characteristics of the entire image processing apparatus 31. The overall gradation characteristic of the image processing device 31 represents a correspondence relationship between the luminance value of each pixel data of the input image data 51 and the luminance of the display pixel corresponding to each pixel data. That is, the gradation characteristics of the entire image processing apparatus 31 correspond to the input / output characteristics of the image processing apparatus 31. The image luminance conversion unit 46 performs luminance conversion processing based on the luminance correction lookup table CaLUT on each pixel data of the input image data. A set of pixel data subjected to the luminance conversion processing is output image data 52.

データ記憶部39は、コントラスト推定部41およびコントラスト検出部42がそれぞれ上述の処理を行う際に、処理に用いる各種のデータを一時的に記憶する。このために、データ記憶部39内には、前記各種のデータをそれぞれ記憶するための複数の記憶領域が設定されている。前記各記憶領域のアドレスは、予め定められているものとする。データ記憶部39は、たとえばランダムアクセスメモリによって実現される。操作部40は、たとえば キーボードや複数のボタンによって構成され、画像処理装置31の操作者がデータ処理装置34を操作する際に用いられる。   The data storage unit 39 temporarily stores various data used for processing when the contrast estimation unit 41 and the contrast detection unit 42 perform the above-described processing. For this purpose, a plurality of storage areas for storing the various types of data are set in the data storage unit 39. Assume that the address of each storage area is predetermined. The data storage unit 39 is realized by, for example, a random access memory. The operation unit 40 includes, for example, a keyboard and a plurality of buttons, and is used when the operator of the image processing device 31 operates the data processing device 34.

ヒストグラム作成部41、コントラスト検出部42、輝度補正用LUT作成部45、および画像輝度変換部46は、それぞれ個別の回路によって実現される。また、前記部41,42,45,46のうちの少なくとも2つの部は、単一の中央演算処理回路の演算処理によって実現される仮想回路とされてもよい。   The histogram creation unit 41, the contrast detection unit 42, the brightness correction LUT creation unit 45, and the image brightness conversion unit 46 are realized by individual circuits. In addition, at least two of the units 41, 42, 45, and 46 may be virtual circuits that are realized by arithmetic processing of a single central processing circuit.

入力画像データ51は、画像入力装置33自身によって生成されてもよく、画像処理装置31とは別の装置によって生成されて画像入力装置33に与えられても良い。画像入力装置33自身が入力画像データ51を生成する場合、画像入力装置33は、たとえば、光学的読取り装置またはデジタルカメラで実現される。光学的読取り装置としては、たとえばスキャナが挙げられる。また、前記別の装置が入力画像データ51を生成する場合、画像入力装置33は、たとえば、記憶媒体の読取り装置、または前記別の装置とデータ処理装置34とを画像データが授受可能に接続する接続装置で実現される。本実施形態では、画像入力装置33はスキャナで実現され、紙面にいわゆる2値画像が印刷されて構成された原稿を読取って、入力画像データを生成すると仮定する。また、以後の説明では、入力画像の階調はモノクロの3段階以上の階調、いわゆるハーフトーンであると仮定する。   The input image data 51 may be generated by the image input device 33 itself, or may be generated by a device different from the image processing device 31 and given to the image input device 33. When the image input device 33 itself generates the input image data 51, the image input device 33 is realized by, for example, an optical reading device or a digital camera. An example of the optical reading device is a scanner. When the other device generates the input image data 51, the image input device 33 connects, for example, a storage medium reading device or the other device and the data processing device 34 so that image data can be exchanged. Realized by a connecting device. In the present embodiment, it is assumed that the image input device 33 is realized by a scanner, and reads a document configured by printing a so-called binary image on a paper surface to generate input image data. In the following description, it is assumed that the gradation of the input image is a monochrome gradation of three or more levels, so-called halftone.

上述のように仮定した条件では、前記スキャナは、表示画面の解像度よりも高い解像度で原稿を光学的に読取って画像データを生成し、生成した画像データを表示画面の解像度に併せて縮小して、入力画像データ51を作成することが好ましい。これは、以下の理由からである。紙面に画像を印刷して原稿を作成する印刷装置の解像度は前記スキャナよりも大きく、前記スキャナの解像度は表示画面の解像度よりも大きい。ゆえに、入力画像内の1つの画素に対応する原稿内の部分には、複数の印刷ドットが印刷されている。したがって、前記1つの画素の輝度に前記部分内の輝度分布を正確に反映させるために、上述するように入力画像データ51を作成することが好ましいのである。   Under the conditions assumed as described above, the scanner optically reads a document at a resolution higher than the resolution of the display screen to generate image data, and reduces the generated image data in accordance with the resolution of the display screen. The input image data 51 is preferably created. This is for the following reason. The resolution of a printing apparatus that prints an image on paper and creates a document is higher than that of the scanner, and the resolution of the scanner is higher than the resolution of the display screen. Therefore, a plurality of printing dots are printed on a portion in the document corresponding to one pixel in the input image. Therefore, it is preferable to create the input image data 51 as described above in order to accurately reflect the luminance distribution in the portion on the luminance of the one pixel.

前記原稿の地の色は、クリーム色や薄い黄土色など、真白に近いが完全な真白ではない色であると仮定し、また前記原稿の印刷ドットの色は、焦茶など、真黒に近いが完全な真黒ではない色であると仮定する。真白とは、画素データが前記画素輝度範囲の上限値Vmax である画素の色であり、真黒とは、画素データが前記画素輝度範囲の下限値Vmin 、すなわち0である画素の色である。また、画素データが前記画素輝度範囲内の最小値よりも大きく最大値未満の輝度値である画素の色は灰色であり、前記輝度値が大きくなるほど白に近くなる。前記地の色はたとえば原稿の紙質に応じて定まり、かつ、前記印刷ドットの色は原稿の印刷に用いられた印刷インキの色と等しい。すなわち、入力画像の地の色および入力画像の文字の色は、原稿の紙質および印刷インキの色の影響を受けている。   The background color of the original is assumed to be a color that is close to white, but not completely white, such as cream or light ocher. Suppose the color is not true black. True white is the color of a pixel whose pixel data is the upper limit value Vmax of the pixel luminance range, and true black is the color of a pixel whose pixel data is the lower limit value Vmin of the pixel luminance range, that is, 0. The color of the pixel whose pixel data has a luminance value greater than the minimum value and less than the maximum value within the pixel luminance range is gray, and becomes closer to white as the luminance value increases. The background color is determined according to, for example, the paper quality of the document, and the color of the print dots is equal to the color of the printing ink used for printing the document. That is, the background color of the input image and the character color of the input image are affected by the paper quality of the document and the color of the printing ink.

図3は、画像処理装置31が実行する前記画像補正処理を説明するためのフローチャートである。図3のフローチャートを用いて、前記画像補正処理を説明する。たとえば、画像処理装置31の操作者が、操作部40から画像補正処理の実行を指示すると、ステップa1からステップa2に進む。   FIG. 3 is a flowchart for explaining the image correction processing executed by the image processing device 31. The image correction process will be described with reference to the flowchart of FIG. For example, when the operator of the image processing apparatus 31 instructs the execution of the image correction process from the operation unit 40, the process proceeds from step a1 to step a2.

まず、画像入力装置33が、ステップa2で、入力画像データ51を、データ記憶部39の予め定める第1の記憶領域に記憶させる。入力画像データ51は、画像補正処理が始まってから作成してもよく、また画像補正処理を開始する前に予め作成しておいてもよい。   First, the image input device 33 stores the input image data 51 in a predetermined first storage area of the data storage unit 39 in step a2. The input image data 51 may be created after the image correction process is started, or may be created in advance before the image correction process is started.

次いでステップa3で、ステップa3以後の画像補正処理に、データ記憶部39の予め定める第2の記憶領域に既に記憶されている輝度補正用ルックアップテーブルCaLUT を用いるか否かが判定される。輝度補正用ルックアップテーブルCaLUT を新たに作成する場合、ステップa3からステップa4に進む。前記記憶領域に既に記憶されている輝度補正ルックアップテーブルCaLUT を用いる場合、ステップa3からステップa16に進む。ステップa3の判定の詳細については後述する。ステップa4〜a15の処理は、輝度補正ルックアップテーブルCaLUT を作成するテーブル作成処理である。   Next, at step a3, it is determined whether or not the luminance correction lookup table CaLUT already stored in the second storage area predetermined in the data storage unit 39 is used for the image correction processing after step a3. When a new brightness correction lookup table CaLUT is created, the process proceeds from step a3 to step a4. When the luminance correction lookup table CaLUT already stored in the storage area is used, the process proceeds from step a3 to step a16. Details of the determination in step a3 will be described later. The processing of steps a4 to a15 is table creation processing for creating a brightness correction lookup table CaLUT.

テーブル作成処理が行われる場合、まずヒストグラム作成部41が、ステップa4で、データ記憶部39の前記第1の記憶領域から入力画像データ51を読出し、読出した入力画像データ51の各画素データを順次調べて、輝度ヒストグラムを作成する。輝度ヒストグラムは、データ記憶部39の予め定める第3の記憶領域に記憶される。輝度ヒストグラムは、入力画像データにおける前記画素輝度範囲内の各輝度値の出現分布を表す。   When the table creation process is performed, first, the histogram creation unit 41 reads the input image data 51 from the first storage area of the data storage unit 39 in step a4, and sequentially reads each pixel data of the read input image data 51. Examine and create a luminance histogram. The luminance histogram is stored in a predetermined third storage area of the data storage unit 39. The luminance histogram represents the appearance distribution of each luminance value within the pixel luminance range in the input image data.

図4および図5は入力画像データがいわゆる文書画像を表す場合の輝度ヒストグラムである。横軸は輝度値iであり、縦軸は輝度値の出現頻度H〔i〕である。iは、下限値Vmin 以上上限値Vmax 以下の正の整数である。任意の輝度値iの出現頻度H〔i〕は、該輝度値iに相当する画素データの数、すなわち入力画像内の該輝度値に相当する色の画素の数に相当する。入力画像データ51が、スキャナが前述の原稿を読込んで作成したものである場合、輝度値の出現分布を表す曲線61には、2つの極大点PH,PLが現れる。   4 and 5 are luminance histograms when the input image data represents a so-called document image. The horizontal axis is the luminance value i, and the vertical axis is the appearance frequency H [i] of the luminance value. i is a positive integer not less than the lower limit value Vmin and not more than the upper limit value Vmax. The appearance frequency H [i] of an arbitrary luminance value i corresponds to the number of pixel data corresponding to the luminance value i, that is, the number of pixels of a color corresponding to the luminance value in the input image. When the input image data 51 is created by the scanner reading the above-mentioned original, two maximum points PH and PL appear on the curve 61 representing the appearance distribution of luminance values.

2つの極大点PH,PLのうちで、輝度が高いほうの極大点に対応する輝度値は、入力画像の地の色または前記地の色に極めて近い色に相当する。また、2つの極大点のうちで輝度が低いほうの極大点に対応する輝度値は、入力画像内の線および点の色または前記線および点の色に極めて近い色に相当する。前記線および点の色は、原稿の印刷ドットの色とほぼ等しい。本実施形態では、原稿の印刷ドットの色は真黒に近いと仮定しているので、前記線および点の色に相当する輝度値は、前記下限値Vmin 以上で前記画素輝度範囲の中心の輝度値Vcenter未満の低域部分W1内にあると予想される。また、入力画像の地の色は真白に近いと仮定しているので、前記地の色に相当する輝度値は、前記中心の輝度値Vcenter以上で上限値Vmax 以下の高域範囲W2内にあると予想される。ゆえに、本実施形態では、入力画像のコントラストを、入力画像の地の色に相当する上限輝度値Hvと、入力画像に描かれる線および点の色に相当する下限輝度値Lvとの組合わせによって定義し、〔Hv,Lv〕と記載する。   Of the two maximum points PH and PL, the luminance value corresponding to the maximum point having the higher luminance corresponds to the ground color of the input image or a color very close to the ground color. Also, the luminance value corresponding to the maximum point with the lower luminance of the two maximum points corresponds to the color of the line and point in the input image or a color very close to the color of the line and point. The color of the lines and dots is almost the same as the color of the printed dots on the document. In this embodiment, since it is assumed that the color of the printed dot of the document is close to true black, the luminance value corresponding to the color of the line and the point is the luminance value at the center of the pixel luminance range that is equal to or greater than the lower limit value Vmin. It is expected to be in the low frequency part W1 below Vcenter. Since the ground color of the input image is assumed to be almost white, the luminance value corresponding to the ground color is in the high frequency range W2 that is not less than the center luminance value Vcenter and not more than the upper limit value Vmax. It is expected to be. Therefore, in the present embodiment, the contrast of the input image is determined by combining the upper limit luminance value Hv corresponding to the background color of the input image and the lower limit luminance value Lv corresponding to the color of lines and points drawn in the input image. Defined and written as [Hv, Lv].

再び図3を参照する。ステップa5〜ステップa13は、入力画像のコントラストを検出するコントラスト検出処理であり、コントラスト検出部42で実行される。まず、ステップa5で、コントラスト検出部42は、前記輝度ヒストグラムをデータ記憶部39の前記第3記憶領域から読出す。次いでコントラスト検出部42は、入力画像の地の色または該地の色に近い色に相当する輝度値を求める。前記輝度値は、すなわち、前記輝度ヒストグラムの2つの極大値PH,PLにそれぞれ対応する輝度値のうちで大きいほうの輝度値Hmax である。具体的には、前記画素輝度範囲の高域範囲W2内の全ての輝度値のうちで出現頻度が最大の輝度値Hmax を求める。   Refer to FIG. 3 again. Steps a <b> 5 to a <b> 13 are contrast detection processing for detecting the contrast of the input image, and are executed by the contrast detection unit 42. First, in step a5, the contrast detection unit 42 reads the luminance histogram from the third storage area of the data storage unit 39. Next, the contrast detection unit 42 obtains a luminance value corresponding to the background color of the input image or a color close to the background color. That is, the luminance value is the larger luminance value Hmax among the luminance values respectively corresponding to the two maximum values PH and PL of the luminance histogram. Specifically, the luminance value Hmax having the highest appearance frequency is obtained from all the luminance values in the high frequency range W2 of the pixel luminance range.

続いてコントラスト検出部42は、ステップa6で、入力画像内の線および点の色または該線および点の色に近い色に相当する輝度値を求める。前記輝度値は、輝度ヒストグラムの2つの極大値PH,PLにそれぞれ対応する輝度値のうちで小さいほうの輝度値Lmax である。具体的には、前記画素輝度範囲の低域範囲W1内の全ての輝度値のうちで出現頻度が最大の輝度値Lmax を求める。   Subsequently, in step a6, the contrast detection unit 42 obtains a luminance value corresponding to the color of the line and the point in the input image or a color close to the color of the line and the point. The luminance value is the smaller luminance value Lmax among the luminance values respectively corresponding to the two maximum values PH and PL of the luminance histogram. Specifically, the luminance value Lmax having the maximum appearance frequency is obtained from all the luminance values in the low frequency range W1 of the pixel luminance range.

次いで、コントラスト検出部42は、ステップa7で、前記低域範囲W1内の出現頻度の最大値、すなわち前記小さいほうの輝度値Lmax の出現頻度H〔Lmax〕が、予め定める閾値Th以上であるか否かを判定する。ステップa7の判定は、曲線61に、明瞭な2つの盛上がりがあるか否かを判定するために行われる。前記低域範囲W1内の出現頻度の最大値が閾値Th以上である場合、曲線61に明瞭な2つの盛上がりがあると見なしている。2つの明瞭な盛上がりの有無に応じて、コントラストの下限輝度値Lvの推定手法が変更される。ステップa7の判定の詳細な理由は後述する。   Next, in step a7, the contrast detection unit 42 determines whether the maximum value of the appearance frequency within the low frequency range W1, that is, the appearance frequency H [Lmax] of the smaller luminance value Lmax is equal to or greater than a predetermined threshold Th. Determine whether or not. The determination in step a7 is performed to determine whether or not the curve 61 has two distinct swells. When the maximum value of the appearance frequency in the low frequency range W1 is equal to or greater than the threshold Th, it is considered that the curve 61 has two distinct climaxes. The estimation method of the lower limit luminance value Lv of the contrast is changed according to the presence or absence of two clear rises. The detailed reason for the determination in step a7 will be described later.

図4,5に示すように曲線61に2つの明瞭な盛上がりがある場合、前記小さい方の輝度値Lmax の出現頻度H〔Lmax〕は閾値Th未満である。この場合、ステップa7からステップa8に進み、下限輝度値Lvの第1の推定処理を行う。図6に示すように、曲線61に2つの明瞭な盛上がりがない場合、前記出現頻度H〔Lmax〕は閾値Th未満である。この場合、ステップa7からステップa10に進み、下限輝度値Lvの第2の推定処理を行う。   As shown in FIGS. 4 and 5, when the curve 61 has two distinct bulges, the appearance frequency H [Lmax] of the smaller luminance value Lmax is less than the threshold Th. In this case, the process proceeds from step a7 to step a8, and the first estimation process of the lower limit luminance value Lv is performed. As shown in FIG. 6, when the curve 61 does not have two clear rises, the appearance frequency H [Lmax] is less than the threshold Th. In this case, the process proceeds from step a7 to step a10, and the second estimation process of the lower limit luminance value Lv is performed.

まず、下限輝度値Lvの第1の推定処理を説明する。
コントラスト検出部42は、ステップa8で、式1に基づいて、前記2つの極大値にそれぞれ対応する輝度値Hmax,Lmaxの中間の輝度値を、分割基準輝度値Vmid として求める。続いてステップa9で、コントラスト検出部42は、式2および3に基づいて低輝度側範囲W3の輝度値の平均値Lmeanを求め、さらに、式4に基づいて低輝度側範囲W3の輝度値の標準偏差σLを求める。低輝度側範囲W3は、画素輝度範囲の下限値Vmin 以上で前記分割基準輝度値Vmid 未満の範囲である。また、式3で定義される「NL」は、入力画像データ内全ての画素データのうちで、前記低輝度範囲W3内の輝度値に相当する画素データの数である。続いてコントラスト検出部42は、低輝度側範囲W3の輝度値の平均値Lmeanと、低輝度側範囲W3の輝度値の標準偏差σLとの和を、下限輝度値Lvとして求める。以上で第1の推定処理を終了する。
First, the first estimation process of the lower limit luminance value Lv will be described.
In step a8, the contrast detection unit 42 obtains a luminance value intermediate between the luminance values Hmax and Lmax corresponding to the two maximum values as the divided reference luminance value Vmid based on Expression 1. Subsequently, in step a9, the contrast detection unit 42 obtains the average value Lmean of the luminance values of the low luminance side range W3 based on the equations 2 and 3, and further calculates the luminance value of the low luminance side range W3 based on the equation 4. A standard deviation σL is obtained. The low luminance side range W3 is a range that is not less than the lower limit value Vmin of the pixel luminance range and less than the division reference luminance value Vmid. Further, “NL” defined by Expression 3 is the number of pixel data corresponding to the luminance value in the low luminance range W3 among all the pixel data in the input image data. Subsequently, the contrast detection unit 42 obtains the sum of the average value Lmean of the luminance values in the low luminance side range W3 and the standard deviation σL of the luminance values in the low luminance side range W3 as the lower limit luminance value Lv. The first estimation process is thus completed.

Figure 2007079587
Figure 2007079587

次いで、下限輝度値Lvの第2の推定処理を説明する。
コントラスト検出部42は、まずステップa10で、入力画像データ内の全ての画素データのうちで最小の輝度値を求め、前記最小の輝度値を下限輝度値Lvとして設定する。前記最小の輝度値は、図6に示すように、入力画像の輝度ヒストグラムにおいて出現頻度が0ではない輝度値のうちの最小の輝度値である。ゆえに、前記最小の輝度値を見付けるには、たとえば、入力画像の輝度ヒストグラムにおいて、各輝度値の画素の出現頻度が0であるか否かを輝度値の最小値Vmin から輝度値が増加する方向に順次判定して、初めて出現頻度が0ではないと判定された輝度値を前記最小の輝度値であると見なせば良い。また、前記最小の輝度値を下限輝度値Lvであると設定する代わりに、下限輝度値Lvを常に最小値Vmin 、すなわち0であると定義してもよい。次いでコントラスト検出部42は、ステップa11で、下限輝度値Lvと輝度ヒストグラムの2つの極大値PH,PLにそれぞれ対応する輝度値のうちで大きいほうの輝度値Hmax との中間の輝度を、前記分割基準輝度値Vmid として求める。以上で第2の推定処理を終了する。
Vmid = (Lv+Hmax )÷2 …(6)
Next, a second estimation process of the lower limit luminance value Lv will be described.
In step a10, the contrast detection unit 42 first obtains the minimum luminance value among all the pixel data in the input image data, and sets the minimum luminance value as the lower limit luminance value Lv. As shown in FIG. 6, the minimum luminance value is a minimum luminance value among luminance values whose appearance frequency is not 0 in the luminance histogram of the input image. Therefore, in order to find the minimum luminance value, for example, in the luminance histogram of the input image, the direction in which the luminance value increases from the minimum value Vmin of whether or not the appearance frequency of each luminance value pixel is zero is determined. The luminance values determined for the first time that the appearance frequency is not 0 may be regarded as the minimum luminance value. Further, instead of setting the minimum luminance value as the lower limit luminance value Lv, the lower limit luminance value Lv may always be defined as the minimum value Vmin, that is, 0. Next, in step a11, the contrast detection unit 42 divides the intermediate luminance between the lower luminance value Lv and the luminance value Hmax, which is the larger of the luminance values corresponding to the two maximum values PH and PL of the luminance histogram, with the division. It is obtained as a reference luminance value Vmid. The second estimation process is thus completed.
Vmid = (Lv + Hmax) ÷ 2 (6)

上述の第1および第2の推定処理のいずれか一方で、下限輝度値Lvが推定されると、ステップa9,a11からステップa12に進む。続いてステップa12で、コントラスト検出部42は、式7に基づいて高輝度側範囲W4の輝度値の平均値Hmeanを求め、さらに式9に基づいて高輝度側範囲W4の輝度値の標準偏差σHを求める。高輝度側範囲W4は、前記分割基準輝度値Vmid 以上で画素輝度範囲の上限値Vmax 以下の範囲である。また、式8で定義される「NH」は、入力画像データ51内の全ての画素データのうちで、前記高輝度範囲W4内の輝度値に相当する画素データの数である。さらにコントラスト検出部42は、式10に基づいて、高輝度側範囲W3の輝度値の平均値Hmeanから、高輝度側範囲W3の輝度値の標準偏差σHを減算した差を、上限輝度値Hvとして求める。   When the lower limit luminance value Lv is estimated in any one of the first and second estimation processes described above, the process proceeds from step a9, a11 to step a12. Subsequently, in step a12, the contrast detection unit 42 obtains the average value Hmean of the luminance values of the high luminance side range W4 based on the equation 7, and further calculates the standard deviation σH of the luminance values of the high luminance side range W4 based on the equation 9. Ask for. The high luminance side range W4 is a range that is not less than the division reference luminance value Vmid and not more than the upper limit value Vmax of the pixel luminance range. “NH” defined by Expression 8 is the number of pixel data corresponding to the luminance value in the high luminance range W4 among all the pixel data in the input image data 51. Further, the contrast detection unit 42 subtracts the difference obtained by subtracting the standard deviation σH of the luminance value of the high luminance side range W3 from the average value Hmean of the luminance value of the high luminance side range W3 based on Expression 10 as the upper limit luminance value Hv. Ask.

Figure 2007079587
Figure 2007079587

以上、ステップa9またはステップa11で求められた下限輝度値Lvと、ステップa12で求められた上限輝度値Hvとによって、入力画像のコントラスト〔Lv,Hv〕が定義される。いわゆるコントラスト比は、下限輝度値Lvと上限輝度値Hvとの比である。コントラスト検出部42は、推定した入力画像のコントラスト〔Lv,Hv〕を、輝度補正LUT作成部45に与える。以上、ステップa4〜a12の処理が、コントラスト推定部37が入力画像のコントラスト〔Lv,Hv〕を推定するためのコントラスト推定処理である。   As described above, the contrast [Lv, Hv] of the input image is defined by the lower limit luminance value Lv obtained in step a9 or step a11 and the upper limit luminance value Hv obtained in step a12. The so-called contrast ratio is a ratio between the lower limit luminance value Lv and the upper limit luminance value Hv. The contrast detection unit 42 gives the estimated contrast [Lv, Hv] of the input image to the luminance correction LUT creation unit 45. The processing in steps a4 to a12 is the contrast estimation processing for the contrast estimation unit 37 to estimate the contrast [Lv, Hv] of the input image.

コントラスト推定部37が、下限輝度値Lvおよび上限輝度値Hvを、輝度ヒストグラムの2つの極大値に対応する輝度値Lmax ,Hmax にそれぞれ一致させずに標準偏差σL,σHを考慮してそれぞれ定めたのは、以下の2つの理由からである。1つ目の理由は、入力画像データの全ての画素データに基づいて輝度ヒストグラムを作成する際の統計誤差に起因して、推定された入力画像のコントラストが実際の入力画像のコントラストからずれることを防止するためである。2つ目の理由は、入力画像の地の色はスキャナが読取った原稿の紙質に応じて真白以外の色になっていることがあるので、前記地の色を分散(σH2,σL2)を用いて真白に近付けるためである。 The contrast estimation unit 37 determines the lower limit luminance value Lv and the upper limit luminance value Hv in consideration of the standard deviations σL and σH without matching the luminance values Lmax and Hmax corresponding to the two maximum values of the luminance histogram, respectively. This is due to the following two reasons. The first reason is that the estimated contrast of the input image deviates from the contrast of the actual input image due to a statistical error in creating a luminance histogram based on all the pixel data of the input image data. This is to prevent it. The second reason is that the background color of the input image may be a color other than pure white according to the paper quality of the document read by the scanner, and therefore the background color is dispersed (σH 2 , σL 2 ). This is because the white is brought close to pure white.

続いて、輝度補正LUT作成部45は、ステップa13で、コントラスト検出部42から与えられた入力画像のコントラスト〔Lv,Hv〕に基づいて、コントラスト補正用ルックアップテーブルCLUT を作成する。コントラスト補正用ルックアップテーブルCLUT は、入力画像のコントラスト〔Lv,Hv〕を入力画像データのデータ規格上の最大のコントラスト〔Vmin ,Vmax 〕まで向上させるためのコントラスト補正処理に用いられる。データ規格上の最大のコントラストは、前記画素輝度範囲の下限値Vmin と前記画素輝度範囲の上限値Vmax とによって、定義される。   Subsequently, the luminance correction LUT creation unit 45 creates a contrast correction lookup table CLUT based on the contrast [Lv, Hv] of the input image given from the contrast detection unit 42 in step a13. The contrast correction lookup table CLUT is used for contrast correction processing for improving the contrast [Lv, Hv] of the input image to the maximum contrast [Vmin, Vmax] in the data standard of the input image data. The maximum contrast in the data standard is defined by the lower limit value Vmin of the pixel luminance range and the upper limit value Vmax of the pixel luminance range.

表1は、コントラスト補正用ルックアップテーブルCLUT の具体的な構成を表す。図7は、コントラスト補正用ルックアップテーブルCLUT の輝度変換曲線71を表すグラフである。輝度変換曲線71は、処理前の輝度値j(j=0,1,2,…,Vmax )と、処理後の輝度値CLUT〔j〕(j=0,1,2,…,Vmax )との関係を表す。   Table 1 shows a specific configuration of the contrast correction lookup table CLUT. FIG. 7 is a graph showing the luminance conversion curve 71 of the contrast correction lookup table CLUT. The luminance conversion curve 71 includes a luminance value j before processing (j = 0, 1, 2,..., Vmax) and a luminance value CLUT [j] (j = 0, 1, 2,..., Vmax) after processing. Represents the relationship.

Figure 2007079587
Figure 2007079587

コントラスト補正用ルックアップテーブルCLUT 内の処理前の輝度値jと処理後の輝度値CLUT〔j〕との関係は、以下の通りである。処理前の輝度値jが、画素輝度範囲の下限値Vmin 以上で下限輝度値Lv以下である場合、処理後の輝度値CLUT〔j〕は、下限値Vmin である。処理前の輝度値jが、下限輝度値Lvよりも大きく上限輝度値Hv以下である場合、処理後の輝度値CLUT〔j〕は、処理前の輝度値jに比例して線形に増加する。処理前の輝度値jが、上限輝度値Hvよりも大きく画素輝度範囲の上限値Vmax 以下である場合、処理後の輝度値CLUT〔j〕は、上限値Vmax である。   The relationship between the luminance value j before processing and the luminance value CLUT [j] after processing in the contrast correction lookup table CLUT is as follows. When the luminance value j before processing is not less than the lower limit value Vmin and not more than the lower limit luminance value Lv of the pixel luminance range, the luminance value CLUT [j] after processing is the lower limit value Vmin. When the luminance value j before processing is larger than the lower limit luminance value Lv and less than or equal to the upper limit luminance value Hv, the luminance value CLUT [j] after processing increases linearly in proportion to the luminance value j before processing. When the luminance value j before processing is larger than the upper limit luminance value Hv and not more than the upper limit value Vmax of the pixel luminance range, the processed luminance value CLUT [j] is the upper limit value Vmax.

再び図3を参照する。続いて、輝度補正LUT作成部45は、ステップa14で、コントラスト補正用ルックアップテーブルCLUT と、階調補正用ルックアップテーブルRLUT とに基づいて、輝度補正用ルックアップテーブルCaLUT を作成する。輝度補正用ルックアップテーブルCaLUT は、処理前の輝度値k(k=0,1,2,…,Vmax )と、処理後の輝度値CaLUT〔k〕(k=0,1,2,…,Vmax )とが、それぞれ1対1で対応づけられたものである。輝度補正LUT作成部45は、ステップa14で作成した輝度補正用ルックアップテーブルCaLUT を、ステップa15でデータ記憶部39の前記第2の記憶領域に記憶させる。具体的には、前記第2の記憶領域内には処理前の各輝度値kに個別に対応する複数の小領域が予め設定されており、各処理後の輝度値CaLUT〔k〕は、各小領域にそれぞれ記憶される。   Refer to FIG. 3 again. Subsequently, in step a14, the luminance correction LUT creation unit 45 creates a luminance correction lookup table CaLUT based on the contrast correction lookup table CLUT and the gradation correction lookup table RLUT. The luminance correction look-up table CaLUT includes the luminance value k before processing (k = 0, 1, 2,..., Vmax) and the luminance value CaLUT [k] after processing (k = 0, 1, 2,..., Vmax). Vmax) are associated with each other on a one-to-one basis. The luminance correction LUT creation unit 45 stores the luminance correction lookup table CaLUT created in step a14 in the second storage area of the data storage unit 39 in step a15. Specifically, a plurality of small areas individually corresponding to each luminance value k before processing are preset in the second storage area, and the luminance value CaLUT [k] after each processing is Each is stored in a small area.

以下に、輝度補正用ルックアップテーブルCaLUT について、詳細に説明する。輝度補正用ルックアップテーブルCaLUT の各処理後の輝度値CaLUT〔k〕は、式11で定義される。
CaLUT〔k〕= RLUT〔CLUT〔k〕〕
k=0,1,2,…,Vmax …(11)
The brightness correction lookup table CaLUT will be described in detail below. The luminance value CaLUT [k] after each processing of the luminance correction lookup table CaLUT is defined by Equation 11.
CaLUT [k] = RLUT [CLUT [k]]
k = 0, 1, 2,..., Vmax (11)

任意の処理前の輝度値kに対応する処理後の輝度値CaLUT〔k〕は、以下の手順で決定される。まず、任意の処理前の輝度値kに対応するコントラスト補正用ルックアップテーブル内の処理後の輝度値CLUT〔k〕が求められる。次いで、階調補正用ルックアップテーブルRLUT 内で、求められた処理後の輝度値CLUT〔k〕と等しい処理前の輝度値iに対応する処理後の輝度値RLUT〔CLUT〔k〕〕 が求められる。最後に、求められた処理後の輝度値RLUT〔CLUT〔k〕〕が、処理後の輝度値CaLUT〔k〕として定義されて、前記第2の記憶領域内の前記任意の処理前の輝度値kに対応する小領域に、記憶される。   The post-processing luminance value CaLUT [k] corresponding to the arbitrary pre-processing luminance value k is determined by the following procedure. First, a post-processing luminance value CLUT [k] in a contrast correction lookup table corresponding to an arbitrary pre-processing luminance value k is obtained. Next, a post-processing luminance value RLUT [CLUT [k]] corresponding to the pre-processing luminance value i equal to the calculated post-processing luminance value CLUT [k] is obtained in the tone correction lookup table RLUT. It is done. Finally, the obtained luminance value RLUT [CLUT [k]] after processing is defined as the luminance value CaLUT [k] after processing, and the luminance value before any processing in the second storage area. It is stored in a small area corresponding to k.

すなわち、輝度補正用LUT内の処理前の輝度値kと処理後の輝度値CaLUT〔k〕との関係は、以下の通りである。処理前の輝度値kが、画素輝度範囲の下限値Vmin 以上で下限輝度値Lv以下である場合、処理後の輝度値CaLUT〔k〕は、下限値Vmi n 、すなわち0である。処理前の輝度値kが、下限輝度値Lvよりも大きく上限輝度値Hv以下である場合、処理後の輝度値CLUT〔k〕は、階調補正用ルックアップテーブルRLUTの輝度変換曲線14に応じて変化する。処理前の輝度値kが、上限輝度値Hvよりも大きく前記画素輝度範囲の上限値Vmax以下である場合、処理後の輝度値CaLUT〔k〕は、上限値Vmax である。図7の曲線72は、輝度補正用ルックアップテーブルCaLUT 内の処理前の輝度値kと処理後の輝度値CaLUT〔k〕との関係を表す輝度変換曲線である。輝度変換曲線72内の前記下限輝度値Lvよりも大きく前記上限輝度値Hv以下の範囲の部分の形状は、輝度変換曲線14内の下限値Vmin 以上で上限値Vmax 以下の範囲の部分をグラフの横軸に平行に縮小した形状と等しい。   That is, the relationship between the luminance value k before processing in the LUT for luminance correction and the luminance value CaLUT [k] after processing is as follows. When the luminance value k before processing is not less than the lower limit value Vmin and not more than the lower limit luminance value Lv of the pixel luminance range, the processed luminance value CaLUT [k] is the lower limit value Vmin, that is, 0. When the luminance value k before processing is larger than the lower limit luminance value Lv and less than or equal to the upper limit luminance value Hv, the luminance value CLUT [k] after processing corresponds to the luminance conversion curve 14 of the lookup table RLUT for gradation correction. Change. When the luminance value k before processing is larger than the upper limit luminance value Hv and not more than the upper limit value Vmax of the pixel luminance range, the luminance value CaLUT [k] after processing is the upper limit value Vmax. A curve 72 in FIG. 7 is a luminance conversion curve representing the relationship between the luminance value k before processing and the luminance value CaLUT [k] after processing in the luminance correction lookup table CaLUT. The shape of the portion in the luminance conversion curve 72 that is larger than the lower limit luminance value Lv and less than or equal to the upper limit luminance value Hv is the shape of the portion in the luminance conversion curve 14 that is in the range of the lower limit value Vmin and the upper limit value Vmax. Equivalent to a reduced shape parallel to the horizontal axis.

再び図3を参照する。ステップa16で、画像輝度変換部46は、入力画像データ51に、輝度補正用ルックアップテーブルCaLUT に基づいて、輝度変換処理を施す。具体的には、画像輝度変換部46は、まず、輝度補正用ルックアップテーブルCaLUTを、データ記憶部39の前記第2の記憶領域から読出す。次いで、同じくデータ記憶部39の前記第1の記憶領域に記憶された入力画像データ51を読出す。入力画像データ51の各画素データf(x,y) を、以下の式12と輝度補正用ルックアップテーブルCaLUT とに基づいてそれぞれ変換して、出力画像データ51の各画素データg(x,y) を得る。データ記憶部39内の予め定める第4の記憶領域には、出力画像データ52の各画素データをそれぞれ記憶するための複数の小領域が、予め設定されている。得られた各画素データg(x,y)は、前記各小領域にそれぞれ記憶される。f(x,y) およびg(x,y) の「(x,y)」は、各画素データに対応する画素の入力画像および出力画像内の位置座標を表し、x,yは、それぞれ任意の整数である。
g(x,y) = CaLUT〔f(x,y)〕 …(12)
Refer to FIG. 3 again. In step a <b> 16, the image luminance conversion unit 46 performs luminance conversion processing on the input image data 51 based on the luminance correction lookup table CaLUT. Specifically, the image luminance conversion unit 46 first reads the luminance correction lookup table CaLUT from the second storage area of the data storage unit 39. Next, the input image data 51 stored in the first storage area of the data storage unit 39 is read out. Each pixel data f (x, y) of the input image data 51 is converted based on the following Expression 12 and the luminance correction lookup table CaLUT, and each pixel data g (x, y) of the output image data 51 is converted. ) Get. In a predetermined fourth storage area in the data storage unit 39, a plurality of small areas for storing each pixel data of the output image data 52 are set in advance. Each obtained pixel data g (x, y) is stored in each small area. “(x, y)” of f (x, y) and g (x, y) represents the position coordinates of the pixel corresponding to each pixel data in the input image and the output image, and x and y are respectively arbitrary. Is an integer.
g (x, y) = CaLUT [f (x, y)] (12)

すなわち、入力画像データ51の任意の画素データf(x,y) は、以下の手順で出力画像データの画素データg(x,y) に変換される。まず、輝度補正用ルックアップテーブルCaLUT 内から、入力画像データ51の任意の画素データf(x,y) と等しい処理前の輝度値kが検索され、次いで、検索された処理前の輝度値kに対応する処理後の輝度値CaLUT〔f(x,y)〕 が求められる。最後に、求められた処理後の輝度値CaLUT〔f(x,y)〕 が、入力画像データ51の前記任意の画素データf(x,y) に対応する出力画像データ51の画素データg(x,y) として定められ、定められた画素データg(x,y) が、前記小領域に記憶される。入力画像データ内の全ての画素データf(x,y) に対して、上述の手順の処理をそれぞれ施すと、第4の記憶領域に、出力画像データ52を構成する全ての画素データg(x,y) が記憶される。これによって、出力画像データ52が得られる。最後に、ステップa17で、生成された出力画像データ52が表示装置35に与えられて、ステップa18で画像補正処理が終了する。   That is, arbitrary pixel data f (x, y) of the input image data 51 is converted into pixel data g (x, y) of the output image data by the following procedure. First, a luminance value k before processing equal to arbitrary pixel data f (x, y) of the input image data 51 is searched from the luminance correction lookup table CaLUT, and then the luminance value k before processing that has been searched is searched. The luminance value CaLUT [f (x, y)] after processing corresponding to is obtained. Finally, the calculated luminance value CaLUT [f (x, y)] after processing is the pixel data g (of the output image data 51 corresponding to the arbitrary pixel data f (x, y) of the input image data 51. x, y), and the determined pixel data g (x, y) is stored in the small area. When all the pixel data f (x, y) in the input image data are subjected to the above procedure, all the pixel data g (x, x) constituting the output image data 52 are stored in the fourth storage area. , y) is stored. Thereby, output image data 52 is obtained. Finally, in step a17, the generated output image data 52 is given to the display device 35, and the image correction process is ended in step a18.

ステップa3の判定を行う理由は、以下のとおりである。電子出版のためのいわゆるオーサリングシステムでコンテンツをデータ化する際に、コンテンツの各頁全体を1枚の絵と見なし、各頁全体をそれぞれ表す画像データから電子的な刊行物を構成することがある。本実施形態の画像処理装置31が前記オーサリングシステムとして用いられる場合、コンテンツの各頁がそれぞれスキャナによって読取られて複数の入力画像データが生成され、各入力画像データに図3の画像補正処理がそれぞれ施される。したがって、前記画像補正処理が、複数回繰返される。コンテンツの各頁は、どの頁でも、紙質および印刷インキの色は等しいことが多い。ゆえに、画像補正処理を複数回繰返す場合、1回目の画像補正処理では、ステップa3の判定を否定してステップa3〜a15で輝度補正用ルックアップテーブルCaLUT を作成し、2回目以後の画像補正処理では、ステップa3の判定を肯定して1頁目の入力画像データに画像補正処理を施した際に作成した輝度補正ルックアップテーブルCaLUT を用いてステップa16の処理を行えば良い。これによって、画像補正処理を複数回繰返す場合に、2回目以後の画像補正処理を簡略化して、処理に要する時間を短縮することができる。ステップa3の判定を肯定するか否かは、操作者による操作部40の操作の結果に応じて決定されてもよく、データ処理装置34自体が自動的に判定してもよい。   The reason why the determination in step a3 is performed is as follows. When content is converted into data by a so-called authoring system for electronic publishing, the entire page of the content is regarded as one picture, and an electronic publication may be constructed from image data representing the entire page. . When the image processing apparatus 31 of the present embodiment is used as the authoring system, each page of content is read by a scanner to generate a plurality of input image data, and the image correction processing of FIG. 3 is performed on each input image data. Applied. Therefore, the image correction process is repeated a plurality of times. Each page of content often has the same paper quality and printing ink color. Therefore, when the image correction process is repeated a plurality of times, in the first image correction process, the determination in step a3 is denied and the brightness correction lookup table CaLUT is created in steps a3 to a15, and the second and subsequent image correction processes are performed. Then, the process of step a16 may be performed using the brightness correction lookup table CaLUT created when the determination in step a3 is affirmed and the input image data of the first page is subjected to the image correction process. As a result, when the image correction process is repeated a plurality of times, the second and subsequent image correction processes can be simplified and the time required for the process can be shortened. Whether to affirm the determination in step a3 may be determined according to the result of operation of the operation unit 40 by the operator, or may be determined automatically by the data processing device 34 itself.

また、画像補正処理を複数回繰返す場合、1回目の画像補正処理では、コンテンツの各頁のうちで文字だけが印刷された頁をスキャナで読取って作成された入力画像データを、処理対象とすることが好ましい。これは、前記画像データの輝度ヒストグラムの輝度値の出現頻度の分布を表す曲線に明瞭な盛上がりが確実に2つ含まれるので、推定される入力画像のコントラスト〔Hv,Lv〕に誤りが生じにくいためである。ゆえに、輝度補正ルックアップテーブルCaLUT が、コンテンツの各頁の紙質および印刷インキの色に、確実に適合することができる。   Further, when the image correction process is repeated a plurality of times, the first image correction process targets input image data created by reading a page on which only characters are printed out of each page of content with a scanner. It is preferable. This is because two clear rises are surely included in the curve representing the distribution of the appearance frequency of the luminance value of the luminance histogram of the image data, so that an error in the estimated contrast [Hv, Lv] of the input image is unlikely to occur. Because. Therefore, the brightness correction lookup table CaLUT can be surely adapted to the paper quality of each page of the content and the color of the printing ink.

また、前記場合には、1回目の画像補正処理では、予め準備したテスト用画像データを処理対象とし、2回目以後の画像補正処理では、コンテンツの各頁を読取って作成された画像データを処理対象としてもよい。テスト用画像データは、コンテンツの各頁と同じ紙質の紙に、コンテンツの各頁と同じ色の印刷インキを用いて、地の部分と印刷インキが印刷される部分との面積の比率が等しいパターンを印刷し、前記パターンが印刷された紙面を、スキャナで読取って生成される。これによっても、生成される輝度補正ルックアップテーブルCaLUT が、コンテンツの各頁の紙質および印刷インキの色に、確実に適合することができる。   In the above case, in the first image correction process, test image data prepared in advance is processed, and in the second and subsequent image correction processes, image data created by reading each page of content is processed. It may be a target. The test image data has the same area ratio between the ground area and the area where the printing ink is printed on the same quality paper as each content page using the same color printing ink as each content page. Is printed, and the paper on which the pattern is printed is read by a scanner. This also ensures that the generated brightness correction look-up table CaLUT matches the paper quality of each page of the content and the color of the printing ink.

さらにまた、2回目以後の画像補正処理でも、処理対象の入力画像データと輝度補正用ルックアップテーブルCaLUT が適合しなくなる場合、ステップa3の判定を否定して、輝度補正用ルックアップテーブルCaLUT を作成しなおしてもよい。前記場合の例として、たとえば、処理対象の入力画像データの生成時に読取った頁の紙質が他の頁の紙質と異なる場合、前記読取った頁の印刷インキの色が他の頁の印刷インキの色と異なる場合、および前記読取った頁に絵が入っている場合が挙げられる。   Furthermore, in the second and subsequent image correction processes, if the input image data to be processed and the luminance correction lookup table CaLUT are not compatible, the determination in step a3 is denied and the luminance correction lookup table CaLUT is created. You may do it again. As an example of the above case, for example, when the paper quality of the page read when generating the input image data to be processed is different from the paper quality of the other pages, the color of the printing ink on the read page is the color of the printing ink on the other page. And a case where a picture is included in the read page.

ステップa7の判定を行う理由は、以下の通りである。たとえば、画像処理装置31が前記電子的な刊行物の作成に用いられる場合、前記スキャナが読取る原稿に印刷された画像が、いわゆる文書画像であることがある。文書画像とは、画像内に文字だけがあるものである。この場合に、文字の数が少なかったり文字を構成する線が細かったりすると、入力画像データ51内の文字の色に相当する輝度値の画素データの数が、文字の色に相当する輝度値以外の他の輝度値の画素データの数とほぼ等しくなることがある。この場合、輝度ヒストグラムの曲線61の低域範囲W1内の部分に明瞭な盛上がりが現れないことがあり、この場合、低域範囲W1内の輝度値のうちで出現頻度が最大の輝度値が、文字の色または文字の色に類似する色に相当するとは限らない。このために、前記場合に、前記曲線61の前記小さいほうの極大値に対応する輝度値Lmax に基づいてコントラストの下限輝度値Lvを推定すると、下限輝度値Lvが実際の前記文字の色に相当する輝度値と一致しないことがある。ゆえに、下限輝度値Lvの誤りを防止するために、ステップa7の判定によって、下限輝度値Lvの推定手法を変えているのである。   The reason for performing the determination in step a7 is as follows. For example, when the image processing device 31 is used to create the electronic publication, an image printed on a document read by the scanner may be a so-called document image. A document image is an image having only characters in the image. In this case, if the number of characters is small or the lines constituting the characters are thin, the number of pixel data having a luminance value corresponding to the color of the character in the input image data 51 is other than the luminance value corresponding to the color of the character. It may be almost equal to the number of pixel data of other luminance values. In this case, a clear rise may not appear in the portion within the low frequency range W1 of the curve 61 of the luminance histogram. In this case, the luminance value having the highest appearance frequency among the luminance values within the low frequency range W1 is It does not necessarily correspond to a character color or a color similar to the character color. Therefore, in this case, when the lower limit luminance value Lv of the contrast is estimated based on the luminance value Lmax corresponding to the smaller maximum value of the curve 61, the lower limit luminance value Lv corresponds to the actual color of the character. The brightness value may not match. Therefore, in order to prevent an error in the lower limit luminance value Lv, the estimation method of the lower limit luminance value Lv is changed by the determination in step a7.

また、ステップa7の判定で前記高域範囲W2内の出現頻度の最大値が閾値Th以上か否かを判定していないのは、以下の理由からである。曲線61の高域範囲W2内の盛上がりに相当する輝度値は、入力画像の地の色、または入力画像の地の色に極めて近い色に相当すると予想される。画素データが前記盛上がりに相当する輝度値である画素は、入力画像の地の部分を構成する。入力画像内の地の部分を構成する画素の数は、入力画像内の地の部分以外の残余の部分を構成する画素の数、すなわち入力画像に描かれた線および点を構成する画素の数と比較して極めて多いと予想される。ゆえに、入力画像データ51内の前記輝度値の出現頻度は、他の輝度値の出現頻度と比較して、極めて多いと予想される。したがって、曲線61の高域範囲W2内の部分には明瞭な盛上がりが必ずあると考えられるので、盛上がりの有無を判定していないのである。   Moreover, it is not determined whether the maximum value of the appearance frequency in the high frequency range W2 is greater than or equal to the threshold value Th in the determination in step a7 for the following reason. The luminance value corresponding to the rise in the high frequency range W2 of the curve 61 is expected to correspond to the background color of the input image or a color very close to the background color of the input image. Pixels whose pixel data has a luminance value corresponding to the above-mentioned rise constitute a ground portion of the input image. The number of pixels constituting the ground portion in the input image is the number of pixels constituting the remaining portion other than the ground portion in the input image, that is, the number of pixels constituting the lines and points drawn in the input image. It is expected to be extremely large compared to Therefore, the appearance frequency of the luminance value in the input image data 51 is expected to be extremely high compared with the appearance frequency of other luminance values. Therefore, since it is considered that there is always a clear rise in the portion of the curve 61 in the high frequency range W2, the presence or absence of the rise is not determined.

また、図3の画像補正処理では、ステップa14,a15のLUT作成処理に代わって、式13〜15に基づいて輝度補正用ルックアップテーブルCaLUT を作成してもよい。   In the image correction process of FIG. 3, instead of the LUT creation process in steps a14 and a15, a brightness correction lookup table CaLUT may be created based on equations 13-15.

Figure 2007079587
Figure 2007079587

任意の処理前の輝度値kに対応する処理後の輝度値CaLUT〔k〕は、以下の手順で決定される。まず、任意の処理前の輝度値kが下限輝度値Lv以上であるか否か、および上限輝度値Hv未満であるか否かが、判定される。任意の処理前の輝度値が下限輝度値Lv未満であれば、式13に基づいて、処理後の輝度値CaLUT〔k〕が0に定められる。任意の処理前の輝度値が下限輝度値Lv以上上限輝度値Hv以下であれば、式14の右辺が計算されて、処理後の輝度値CaLUT〔k〕が計算された数値に定められる。任意の処理前の輝度値が上限輝度値Hvをこえていれば、式15に基づいて、処理後の輝度値CaLUT〔k〕が上限値Vmax に定められる。最後に、定められた各処理後の輝度値CaLUT〔k〕が、前記第2の記憶領域内の前記任意の処理前の輝度値kに対応する小領域に、記憶される。これによって、コントラスト補正用ルックアップテーブルCLUT を作成することなく、階調補正用ルックアップテーブルRLUT と入力画像のコントラスト〔Lv,Hv〕とを用いて、輝度補正用ルックアップテーブルCaLUT を直接作成することができる。したがって、コントラスト補正用ルックアップテーブルCLUT を作成する手間を省き、テーブル作成処理を簡略化することができる。   The post-processing luminance value CaLUT [k] corresponding to the arbitrary pre-processing luminance value k is determined by the following procedure. First, it is determined whether or not the luminance value k before any processing is equal to or higher than the lower limit luminance value Lv and whether it is lower than the upper limit luminance value Hv. If the luminance value before arbitrary processing is less than the lower limit luminance value Lv, the luminance value CaLUT [k] after processing is set to 0 based on Equation 13. If the luminance value before arbitrary processing is not less than the lower limit luminance value Lv and not more than the upper limit luminance value Hv, the right side of Expression 14 is calculated, and the luminance value CaLUT [k] after the processing is determined as the calculated numerical value. If the luminance value before any processing exceeds the upper limit luminance value Hv, the processed luminance value CaLUT [k] is determined to be the upper limit value Vmax based on Equation 15. Finally, the determined brightness value CaLUT [k] after each processing is stored in a small area corresponding to the brightness value k before any processing in the second storage area. Thus, the luminance correction lookup table CaLUT is directly created using the gradation correction lookup table RLUT and the contrast [Lv, Hv] of the input image without creating the contrast correction lookup table CLUT. be able to. Therefore, it is possible to save the trouble of creating the contrast correction lookup table CLUT and simplify the table creation process.

また、階調補正用ルックアップテーブルは、表示装置35に応じて予め作成されて、前記階調補正用LUT記憶部44に記憶される。画像処理装置31内の表示装置35を階調特性が異なる別の表示装置に取換える場合、該記憶部44の記憶内容を前記別の表示装置の階調特性に併せて変更するだけであり、図3の画像補正処理の各ステップの処理を変更する必要はない。これによって、表示装置35を交換する場合、データ処理装置34の変更箇所が少ないので、表示装置35の交換に伴う作業を簡略化することができる。   The gradation correction lookup table is created in advance according to the display device 35 and stored in the gradation correction LUT storage unit 44. When the display device 35 in the image processing device 31 is replaced with another display device having different gradation characteristics, the storage content of the storage unit 44 is only changed in accordance with the gradation characteristics of the other display device, It is not necessary to change the process of each step of the image correction process of FIG. As a result, when the display device 35 is replaced, the number of changes in the data processing device 34 is small, so that the work associated with the replacement of the display device 35 can be simplified.

図3の画像補正処理では、輝度補正部38は、輝度補正用ルックアップテーブルCaLUT を作成せずに、階調補正用ルックアップテーブルRLUT に基づく輝度変換処理と、コントラスト補正用ルックアップテーブルCLUT に基づく輝度変換処理とを、入力画像データ51に順次施しても良い。上述するように輝度補正用ルックアップテーブルCaLUT を作成する場合、画像輝度変換部46は、入力画像データ51に輝度変換処理を1回だけ施すことになるので、1回の輝度変換処理によって、コントラスト補正と階調補正とが同時に行われることになり、処理が簡略化される。また、ステップa7,a10,a11を省略して、ステップa6とステップa8とを直結し、処理を簡略化してもよい。   In the image correction process of FIG. 3, the brightness correction unit 38 does not create the brightness correction look-up table CaLUT, but performs the brightness conversion process based on the tone correction look-up table RLUT and the contrast correction look-up table CLUT. The luminance conversion processing based on the input image data 51 may be sequentially performed. As described above, when the brightness correction lookup table CaLUT is created, the image brightness conversion unit 46 performs the brightness conversion process only once on the input image data 51. Therefore, the contrast conversion process is performed once by the brightness conversion process. Since the correction and the gradation correction are performed at the same time, the processing is simplified. Further, steps a7, a10, and a11 may be omitted, and step a6 and step a8 may be directly connected to simplify the processing.

上述の画像補正処理によって得られた出力画像データを表示装置35に表示する場合、表示される画像のコントラストは、データ規格上の最大のコントラスト〔Vmin ,Vmax 〕に拡大される。これによって、表示装置に表示される画像のコントラストから、前記原稿の紙質や印刷インクの色等の影響を除いて、コントラストを向上させることができる。また、出力画像データの各画素データと入力画像の各画素との対応関係によって表示装置35の階調特性が補正されるので、画像処理装置31全体の階調特性は線形になる。前記対応関係は、画像入力装置33とデータ処理装置34とから構成される系の入出力特性に相当する。すなわち、出力画像データによって、表示装置35の階調特性の偏りが吸収される。このように、入力画像データに上記画像補正処理を施すことによって、表示装置35の階調特性を補正することができる。これらのことから、第1実施形態の画像処理装置31は、入力画像のコントラストと表示装置35の表示特性とを同時に補正して、表示装置35に表示される画像の視認性を向上させることができる。   When the output image data obtained by the above image correction processing is displayed on the display device 35, the contrast of the displayed image is enlarged to the maximum contrast [Vmin, Vmax] according to the data standard. Accordingly, the contrast can be improved from the contrast of the image displayed on the display device, excluding the influence of the paper quality of the original and the color of the printing ink. In addition, since the gradation characteristics of the display device 35 are corrected by the correspondence between each pixel data of the output image data and each pixel of the input image, the gradation characteristics of the entire image processing apparatus 31 are linear. The correspondence relationship corresponds to an input / output characteristic of a system constituted by the image input device 33 and the data processing device 34. That is, the deviation of the gradation characteristics of the display device 35 is absorbed by the output image data. As described above, the gradation characteristics of the display device 35 can be corrected by performing the image correction process on the input image data. For these reasons, the image processing device 31 according to the first embodiment can simultaneously correct the contrast of the input image and the display characteristics of the display device 35 to improve the visibility of the image displayed on the display device 35. it can.

以下に、本発明の第2実施形態である画像処理装置について説明する。第2実施形態の画像処理装置は、第1実施形態の画像処理装置と比較して、データ処理装置34が図8に示すデータ処理装置81に置換えられる点が異なり、他は等しいので、同じ構成の装置、データ、およびテーブルには、同じ符号を付し、説明は省略する。   The image processing apparatus according to the second embodiment of the present invention will be described below. The image processing apparatus according to the second embodiment is different from the image processing apparatus according to the first embodiment in that the data processing apparatus 34 is replaced with the data processing apparatus 81 shown in FIG. These devices, data, and tables are denoted by the same reference numerals and description thereof is omitted.

図8は、第2実施形態の画像処理装置内のデータ処理装置81の電気的な構成を表すブロック図である。データ処理装置81は、文字領域抽出部83と、画像鮮鋭化部84と、輝度補正部85と、データ記憶部86と、操作部40とを含む。輝度補正部85は、階調補正用LUT記憶部44と、画像輝度変換部87とを含む。文字領域抽出部83は、入力画像51内から1または複数の文字領域を抽出する。文字領域とは、入力画像51内の文字がある部分である。画像鮮鋭化部84は、文字領域抽出部83の文字領域の抽出結果に基づいて、入力画像データ51にいわゆる選択的鮮鋭化処理を施す。この場合、入力画像内の文字領域に施す鮮鋭化処理は、入力画像内の文字領域以外の残余領域に施す鮮鋭化処理よりも、鮮鋭化の度合が強い。鮮鋭化が施された入力画像データ51を、鮮鋭化画像データと称する。   FIG. 8 is a block diagram illustrating an electrical configuration of the data processing device 81 in the image processing device according to the second embodiment. The data processing device 81 includes a character region extraction unit 83, an image sharpening unit 84, a luminance correction unit 85, a data storage unit 86, and an operation unit 40. The luminance correction unit 85 includes a gradation correction LUT storage unit 44 and an image luminance conversion unit 87. The character area extraction unit 83 extracts one or more character areas from the input image 51. The character area is a portion where characters are present in the input image 51. The image sharpening unit 84 performs so-called selective sharpening processing on the input image data 51 based on the extraction result of the character region of the character region extraction unit 83. In this case, the sharpening process performed on the character area in the input image has a higher degree of sharpening than the sharpening process performed on the remaining area other than the character area in the input image. The input image data 51 that has been sharpened is referred to as sharpened image data.

輝度補正部85は、階調補正用ルックアップテーブルRLUT に基づいて、鮮鋭化画像データに輝度補正処理を施す。このために画像輝度変換部87は、鮮鋭化画像データの各画素データに、階調補正用ルックアップテーブルRLUT に基づいた輝度変換処理をそれぞれ施す。前記輝度変換処理が施された画素データの集合が、出力画像データ89である。データ記憶部86は、文字領域抽出部83、画像鮮鋭化部84、および輝度補正部85がそれぞれ上述の処理を行う際に、処理に用いる各種のデータを一時的に記憶する。このために、データ記憶部86内には、前記各種のデータをそれぞれ記憶するための複数の記憶領域が、それぞれ設定されている。前記各記憶領域のアドレスは、予め定められているものとする。データ記憶部86は、たとえばランダムアクセスメモリによって実現される。   The luminance correction unit 85 performs luminance correction processing on the sharpened image data based on the gradation correction lookup table RLUT. For this purpose, the image luminance conversion unit 87 performs luminance conversion processing based on the gradation correction lookup table RLUT on each pixel data of the sharpened image data. A set of pixel data subjected to the luminance conversion process is output image data 89. The data storage unit 86 temporarily stores various data used for processing when the character region extraction unit 83, the image sharpening unit 84, and the luminance correction unit 85 perform the above-described processing. Therefore, a plurality of storage areas for storing the various data are set in the data storage unit 86, respectively. Assume that the address of each storage area is predetermined. Data storage unit 86 is realized by, for example, a random access memory.

文字領域抽出部83、画像鮮鋭化部84、および画像輝度変換部87は、それぞれ個別の回路によって実現される。また、前記部83,84,87のうちの少なくとも2つの部は、単一の中央演算処理回路の演算処理によって実現される仮想回路とされてもよい。   The character area extraction unit 83, the image sharpening unit 84, and the image luminance conversion unit 87 are realized by individual circuits. In addition, at least two of the units 83, 84, and 87 may be virtual circuits that are realized by arithmetic processing of a single central processing circuit.

まず、鮮鋭化処理について、概略的に説明する。鮮鋭化処理は、一般的に、式16によって表現される。式16〜18は、「画像解析ハンドブック」(東京大学出版社、高木幹男下田陽久監修)の549頁に開示されている。以下の式で、「F(x,y)」は入力画像データ51を関数表現したものである。「∇2F(x,y)」はいわゆるラプラシアン画像を関数表現したものである。「G(x,y)」は鮮鋭化画像データを関数表現したものである。「h(x,y)」は、鮮鋭化の度合である。
G(x,y)=F(x,y)−h(x,y)×∇2F(x,y) …(16)
h(x,y)=定数:均一な鮮鋭化処理 …(17)
h(x,y)≠定数:選択的鮮鋭化処理 …(18)
First, the sharpening process will be schematically described. The sharpening process is generally expressed by Equation 16. Expressions 16 to 18 are disclosed on page 549 of “Image Analysis Handbook” (published by The University of Tokyo, supervised by Mikio Takagi, Y. Shimoda). In the following expression, “F (x, y)” is a function expression of the input image data 51. “∇ 2 F (x, y)” is a function representation of a so-called Laplacian image. “G (x, y)” is a function representation of the sharpened image data. “H (x, y)” is the degree of sharpening.
G (x, y) = F (x, y) −h (x, y) × ∇ 2 F (x, y) (16)
h (x, y) = constant: uniform sharpening process (17)
h (x, y) ≠ constant: selective sharpening processing (18)

式17に示すように、鮮鋭化の度合h(x,y)が常に予め定める定数であるならば、式16に基づいて、入力画像全体に均一に鮮鋭化処理が施される。また式18に示すように、鮮鋭化の度合が予め定める条件に基づいて変化する値であるならば、式16に基づいて、入力画像にいわゆる選択的画像鮮鋭化処理が施される。たとえば、鮮鋭化の度合h(x,y)がいわゆる線検出オペレータによって決定される場合、入力画像内の線状構造の部分付近だけが鮮鋭化される。   As shown in Expression 17, if the degree of sharpening h (x, y) is always a predetermined constant, the entire input image is uniformly sharpened based on Expression 16. As shown in Expression 18, if the degree of sharpening is a value that changes based on a predetermined condition, a so-called selective image sharpening process is performed on the input image based on Expression 16. For example, when the sharpening degree h (x, y) is determined by a so-called line detection operator, only the vicinity of the portion of the linear structure in the input image is sharpened.

入力画像データ51は、紙面に絵と文字とが印刷されて構成される原稿をスキャナで読込んで作成されると仮定する。入力画像内で文字が描かれる部分を文字領域と称する。この場合、入力画像データに鮮鋭化処理を施すと、一般に、文字はエッジ周辺でのコントラストが高くなるので読みやすくなる。しかしながら、この場合、鮮鋭化の度合が強過ぎると、画像内の文字のエッジ周辺にある画素の輝度は真白または真黒に偏るので、見た目が2値化画像に類似することがある。これによって、文字が潰れたりかすれたりするので、逆に文字が見辛くなる。上述したことは、特に、表示装置の構造上1文字を明瞭に表示するために必要な画素の数よりも、1文字を構成する画素の数が少ない文字に顕著に起こる。たとえば、ハーフトーンで文字を表示する場合、一般的な漢字を含めた文字を、判別可能な大きさで表示するには、20ドット×20ドット以上必要であり、これより少ない構成画素で文字を表示しようとした場合に、前述の問題が発生する。   It is assumed that the input image data 51 is created by reading a manuscript composed of a picture and characters printed on paper with a scanner. A portion in which characters are drawn in the input image is referred to as a character region. In this case, if the sharpening process is performed on the input image data, generally, the character becomes easy to read because the contrast around the edge increases. However, in this case, if the degree of sharpening is too strong, the luminance of pixels around the edge of the character in the image is biased to pure white or pure black, so that the appearance may be similar to a binary image. As a result, the characters are crushed or faded, making it difficult to see the characters. What has been described above particularly remarkably occurs in a character in which the number of pixels constituting one character is smaller than the number of pixels necessary for clearly displaying one character due to the structure of the display device. For example, when displaying characters in halftone, it is necessary to have 20 dots x 20 dots or more in order to display characters including general Chinese characters in a discriminable size. The above-mentioned problem occurs when trying to display.

また、絵は、いわゆる濃淡画像と同じ手法、またはいわゆる網点画像と同じ手法で描かれている。濃淡画像と同じ手法の絵に鮮鋭化処理が施される場合、入力画像データに含まれる雑音が強調されるので、見た目がザラザラした感じになったり、エッジ部分のがたつきが目立つことがある。また網点画像と同じ手法の絵に鮮鋭化処理が施される場合、空間周波数の高域周波数成分が強調されて、モアレが発生することがある。これらの問題を回避するために、本実施形態の画像処理装置では、入力画像データ51内の文字領域と残余領域との鮮鋭化の度合h(x,y)を変えている。   The picture is drawn by the same technique as a so-called gray image or the same technique as a so-called halftone image. When a sharpening process is applied to a picture with the same technique as a grayscale image, the noise contained in the input image data is emphasized, so that the appearance may appear rough or the edge portion may be noticeable. . In addition, when a sharpening process is performed on a picture having the same technique as that of a halftone image, a high frequency component of a spatial frequency is emphasized, and moire may occur. In order to avoid these problems, in the image processing apparatus of this embodiment, the sharpening degree h (x, y) between the character area and the remaining area in the input image data 51 is changed.

図9は、第2実施形態の画像処理装置が実行する画像補正処理を説明するためのフローチャートである。図9のフローチャートを用いて、画像補正処理を説明する。たとえば、画像処理装置の操作者が、操作部40を用いて画像補正処理の実行を指示すると、ステップb1からステップb2に進む。   FIG. 9 is a flowchart for explaining image correction processing executed by the image processing apparatus according to the second embodiment. The image correction process will be described using the flowchart of FIG. For example, when the operator of the image processing apparatus instructs execution of the image correction process using the operation unit 40, the process proceeds from step b1 to step b2.

まず、画像入力装置33が、ステップb2で、入力画像データ51を、データ記憶部86の予め定める第1の記憶領域に記憶させる。入力画像データ51は、画像補正処理が始まってから作成してもよく、また画像補正処理を開始する前に予め作成しておいてもよい。入力画像データ51が表す入力画像91を、図10に表す。   First, the image input device 33 stores the input image data 51 in a predetermined first storage area of the data storage unit 86 in step b2. The input image data 51 may be created after the image correction process is started, or may be created in advance before the image correction process is started. An input image 91 represented by the input image data 51 is shown in FIG.

次いで、文字領域抽出部83が、ステップb3〜b10の文字領域の抽出処理を行う。具体的には、まず文字領域抽出部83は、ステップb3で、入力画像データに2値化処理を施す。これによって、入力画像の全ての画素データのうちで、入力画像91の地の部分を構成する画素に対応する画素データは「0」に変換され、前記地の部分を構成する画素に対応する画素データ以外の残余の画素データは「1」に変換される。前記残余の画素データは、文字を構成する線および点を構成する画素、ならびに絵や写真の暗い部分を構成する画素にそれぞれ対応する。2値化処理が施された入力画像データを、2値画像データと称し、2値画像データが表す画像を、2値画像と称する。2値画像データの各画素データは、輝度値を意味するものではない。2値画像データは、データ記憶部86の予め定める第2の記憶領域に記憶される。2値化処理は、具体的には、たとえば、判別分析法、モード法、または徴分ヒストグラム法を用い、各手法のパラメータは、入力画像データの画素データが上述のように変換されるように調整されている。2値画像92を、図11に表す。図11では、画素データが「1」である画素は黒画素で記し、画素データが「0」である画素は白画素で記している。   Next, the character region extraction unit 83 performs the character region extraction processing in steps b3 to b10. Specifically, first, the character area extraction unit 83 performs binarization processing on the input image data in step b3. Thereby, among all the pixel data of the input image, the pixel data corresponding to the pixel constituting the ground portion of the input image 91 is converted to “0”, and the pixel corresponding to the pixel constituting the ground portion The remaining pixel data other than the data is converted to “1”. The remaining pixel data corresponds to pixels constituting lines and dots constituting characters and pixels constituting dark portions of pictures and photographs. Input image data that has been binarized is referred to as binary image data, and an image represented by the binary image data is referred to as a binary image. Each pixel data of the binary image data does not mean a luminance value. The binary image data is stored in a predetermined second storage area of the data storage unit 86. Specifically, the binarization process uses, for example, a discriminant analysis method, a mode method, or a fractional histogram method, and the parameters of each method are such that the pixel data of the input image data is converted as described above. It has been adjusted. A binary image 92 is shown in FIG. In FIG. 11, a pixel whose pixel data is “1” is indicated by a black pixel, and a pixel whose pixel data is “0” is indicated by a white pixel.

次いで、文字領域抽出部83は、ステップb4で、2値画像92内で、画素データが1の画素の連結部分を、全て求める。連結部分とは、2値画像92内で、画素データが1の複数の画素が順次隣接して連なっている部分である。すなわち、連結部分を構成する画素の画素データは全て1であり、かつ、連結部分を構成する任意の1つの画素は、該連結部分を構成する少なくとも1つの他の画素に隣接する。このために、文字領域抽出部83は、2値画像データにいわゆるラベリング処理を施し、単一の連結部分を構成する各画素に対応する画素データに、同じラベル、すなわち番号をつける。ラベリング処理の詳細は、公知の技術と等しいので、詳細な説明は省略する。   Next, in step b4, the character region extraction unit 83 obtains all connected portions of pixels having pixel data of 1 in the binary image 92. The connected portion is a portion in the binary image 92 in which a plurality of pixels having pixel data 1 are sequentially adjacent to each other. That is, the pixel data of the pixels constituting the connection portion are all 1, and any one pixel constituting the connection portion is adjacent to at least one other pixel constituting the connection portion. For this purpose, the character area extraction unit 83 performs so-called labeling processing on the binary image data, and attaches the same label, that is, the number, to the pixel data corresponding to each pixel constituting a single connected portion. The details of the labeling process are the same as those of a known technique, and a detailed description thereof will be omitted.

図11の2値画像92を表す2値画像データにラベリング処理を施した場合、複数の連結部分が得られる。ステップb4の処理が終了した時点では、たとえば「い」であるような、文字を構成する線が複数ある文字は、各線がそれぞれ独立した連結部分であると見なされ、各線にそれぞれ異なるラベルが付される。また、絵がいわゆる濃淡画像として描かれている場合、絵の暗い部分が1つの連結部分として見なされる。さらにまた、絵がいわゆる網点画像として描かれる場合、2つ以上の画素から構成される複数の網点がそれぞれ独立した連結部分であると見なされる。   When the binary image data representing the binary image 92 in FIG. 11 is subjected to a labeling process, a plurality of connected portions are obtained. When the process of step b4 is completed, a character having a plurality of lines constituting a character, such as “I”, is considered to be an independently connected portion, and each line is given a different label. Is done. When the picture is drawn as a so-called gray image, the dark part of the picture is regarded as one connected part. Furthermore, when a picture is drawn as a so-called halftone image, a plurality of halftone dots composed of two or more pixels are regarded as independent connected portions.

次いで、文字領域抽出部83は、ステップb4で求められた各連結部分の外接矩形をそれぞれ求める。前記連結部分は文字であると予想されるので、求められる外接矩形は、文字領域の候補となる。続いて、文字領域抽出部83は、ラベリングテーブルを作成する。ラベリングテーブルは、各外接矩形毎に、各連結部分を構成する画素に付されたラベルと、各連結部分の外接矩形を定義するためのパラメータと、各外接矩形の除外フラグと、各外接矩形の文字フラグとを、対応付けたものである。i番目の外接矩形を規定するためのパラメータは、たとえば、該外接矩形の左上の頂点の座標(si,ti),該外接矩形の左下の頂点座標(ui,vi)、ならびに、該外接矩形の高さhiおよび幅wiである。iは、任意の整数である。前記頂点の座標は、2値画像92内の画素の位置を特定するために2値画像92に設定されている2次元座標系の座標である。各外接矩形の除外フラグは、ステップb5の初期状態では、全てリセット状態であって各外接矩形が文字領域の候補であることを表している。後述する除外処理によって文字領域ではないと判定された外接矩形の除外フラグは、セットされる。各外接矩形の文字フラグは、後述の第3の除外処理に用いられる。ラベリングテーブルは、データ記憶部86の予め定める第3の記憶領域に記憶される。   Next, the character area extraction unit 83 obtains a circumscribed rectangle of each connected part obtained in step b4. Since the connected portion is expected to be a character, the circumscribed rectangle obtained is a candidate for a character region. Subsequently, the character area extraction unit 83 creates a labeling table. The labeling table includes, for each circumscribed rectangle, a label attached to a pixel constituting each connected portion, a parameter for defining the circumscribed rectangle of each connected portion, an exclusion flag for each circumscribed rectangle, and each circumscribed rectangle. The character flags are associated with each other. The parameters for defining the i-th circumscribed rectangle are, for example, the coordinates (si, ti) of the upper left vertex of the circumscribed rectangle, the vertex coordinates (ui, vi) of the lower left of the circumscribed rectangle, and the circumscribed rectangle. Height hi and width wi. i is an arbitrary integer. The coordinates of the vertex are coordinates of a two-dimensional coordinate system set in the binary image 92 in order to specify the position of the pixel in the binary image 92. The circumscribed rectangle exclusion flags indicate that all circumscribed rectangles are character region candidates in the initial state of step b5, all being reset. A circumscribed rectangle exclusion flag determined not to be a character area by an exclusion process described later is set. Each circumscribed rectangle character flag is used in a third exclusion process described later. The labeling table is stored in a predetermined third storage area of the data storage unit 86.

Figure 2007079587
Figure 2007079587

表2は、図11の2値化画像92に基づいて外接矩形を求めた場合に作成されるラベリングテーブルを表す。またこの場合に求められた各連結部分の外接矩形N1 〜Nn+2 を、図12に示す。以後、座標(x,y)のx座標値xおよびy座標値yは、2値画像92内の予め定める基準点からx座標軸およびy座標軸に平行に座標(x,y)の画素がある列および行までの画素の数に相当すると仮定する。また、外接矩形の幅および高さの単位は、ドット、すなわち画素の数であると仮定する。ステップb5の処理が終了した時点では、たとえば「ろ」であるような、1本の線から構成される文字は単一の外接矩形内に入っている。逆に、たとえば「い」であるような、文字を構成する線が複数ある文字は、各線がそれぞれ独立した外接矩形内に入っており、文字全体が1つの外接矩形に入っていない。   Table 2 shows a labeling table created when a circumscribed rectangle is obtained based on the binarized image 92 of FIG. FIG. 12 shows circumscribed rectangles N1 to Nn + 2 of the respective connecting portions obtained in this case. Thereafter, the x-coordinate value x and y-coordinate value y of the coordinate (x, y) are columns in which the pixel of the coordinate (x, y) is parallel to the x-coordinate axis and the y-coordinate axis from the predetermined reference point in the binary image 92. And the number of pixels up to the row. Further, it is assumed that the unit of the width and height of the circumscribed rectangle is the number of dots, that is, pixels. When the process of step b5 is completed, a character composed of one line, such as “RO”, is included in a single circumscribed rectangle. Conversely, for a character having a plurality of lines constituting the character, such as “I”, each line is in an independent circumscribed rectangle, and the entire character is not in one circumscribed rectangle.

すなわち、ステップb3,b4の処理は、入力画像91の中に、輝度が相互に類似する複数の画素が連結して構成される連結部分に外接する外接矩形を設定する外接矩形設定処理である。前記連結部分は文字であると予想されるので、設定される外接矩形は、文字領域の候補となる。しかしながら、前記外接矩形設定処理だけを行った場合、上述の「い」のように、文字の形状に起因して、単一の文字が単一の外接矩形に入っていないことがある。また前記場合、文字の外接矩形の他に、絵の暗い部分の外接矩形も同時に求められている。さらにまた、前記場合、入力画像91に罫線が描かれているならば、罫線の外接矩形も同時に求められてしまう。このために、文字領域抽出部83は、ステップb6〜b10の文字判定処理によって、外接矩形設定処理で求めた全ての外接矩形のうちで、文字の外接矩形だけを選択する。   That is, the process of steps b3 and b4 is a circumscribed rectangle setting process for setting a circumscribed rectangle that circumscribes a connected portion configured by connecting a plurality of pixels having similar luminance to each other in the input image 91. Since the connected portion is expected to be a character, the circumscribed rectangle to be set is a candidate for a character region. However, when only the circumscribed rectangle setting process is performed, a single character may not be included in a single circumscribed rectangle due to the shape of the character as described above. In the above case, in addition to the circumscribed rectangle of the character, the circumscribed rectangle of the dark part of the picture is also obtained at the same time. Furthermore, in the above case, if a ruled line is drawn on the input image 91, a circumscribed rectangle of the ruled line is also obtained at the same time. For this purpose, the character region extraction unit 83 selects only the circumscribed rectangle of the character among all the circumscribed rectangles obtained in the circumscribed rectangle setting process by the character determination process in steps b6 to b10.

まず、ステップb6で、文字領域抽出部83は、各外接矩形のサイズに基づいて全ての外接矩形のうちから文字以外の連結部分に外接する外接矩形を除外する第1の除外処理を行う。このために、文字領域抽出部83は、ラベリングテーブルに記憶された各外接矩形の高さおよび幅が、予め定める鮮鋭化を施すべき文字の高さおよび幅に関する第1の除外条件に適合するか否かを、それぞれ判定する。前記第1の除外条件は、式19で表される。任意のラベル番号iの外接矩形の高さhiおよび幅wiの少なくとも一方が式19の各項の条件の少なくとも1つを満たす場合、前記第1の除外条件が満たされると判定する。Smin は、鮮鋭化を施すべき文字の高さおよび幅の最小値である。Smax は、鮮鋭化を施すべき文字の高さおよび幅の最大値である。たとえば、前記最小値Smin は2ドットであり、前記最大値Smax は、30ドットである。文字が判読できるかどうかは、文字の構成ドット数で決まる。最小値Smin および最大値Smax の上記の具体的な値は、表示解像度のデータを扱う場合のものである。2ドット以下の連結成分は、網点や2値化時の雑音である可能性があるので除去する。30ドット以上の連結成分は、文字であっても、それだけのドットがあれば判読できるので、鮮鋭化をかける必要がそれほどないため、除去する。またこの最小値Smin および最大値Smax は表示解像度より高い解像度の画像、たとえばスキャナで読み込んだ時点での画像に対しては、(入力解像度/表示解像度)倍した値になる。一般的な日本語フォントでは、文字の外接矩形は正方形になることが多いので、高さと幅の最大値を等しくし、かつ高さと幅の最小値も等しくしてある。   First, in step b6, the character region extraction unit 83 performs a first excluding process for excluding circumscribed rectangles circumscribing connected portions other than characters from all circumscribed rectangles based on the size of each circumscribed rectangle. Therefore, the character area extraction unit 83 determines whether the height and width of each circumscribed rectangle stored in the labeling table meet the first exclusion condition regarding the height and width of the character to be sharpened in advance. Each is determined. The first exclusion condition is expressed by Equation 19. When at least one of the height hi and the width wi of the circumscribed rectangle of the arbitrary label number i satisfies at least one of the conditions of each term of Expression 19, it is determined that the first exclusion condition is satisfied. Smin is the minimum value of the height and width of the character to be sharpened. Smax is the maximum value of the height and width of the character to be sharpened. For example, the minimum value Smin is 2 dots, and the maximum value Smax is 30 dots. Whether or not a character can be read is determined by the number of constituent dots of the character. The above specific values of the minimum value Smin and the maximum value Smax are for handling display resolution data. The connected component of 2 dots or less is removed because it may be a halftone dot or noise at the time of binarization. A connected component of 30 dots or more is removed even if it is a character, since it can be read if there are as many dots as it is, so there is no need for sharpening. Further, the minimum value Smin and the maximum value Smax are values multiplied by (input resolution / display resolution) for an image having a resolution higher than the display resolution, for example, an image at the time of reading by the scanner. In general Japanese fonts, the circumscribed rectangle of a character is often a square, so the maximum height and width are equal, and the minimum height and width are also equal.

文字領域抽出部83は、第1の除外条件に適合する外接矩形を、ラベリングテーブルから除外する。具体的には、第1の除外条件に適合する外接矩形の除外フラグをセットする。除外フラグがセットされている場合、その除外フラグに対応する外接矩形は文字領域の候補から除外され、セットされていない場合に、その除外フラグに対応する外接矩形は文字領域の候補であると見なされる。
(hi>Smax)or(hi<Smin)or(wi>Smax)or(wi<Smin)
…(19)
The character region extraction unit 83 excludes a circumscribed rectangle that meets the first exclusion condition from the labeling table. Specifically, a circumscribed rectangle exclusion flag that satisfies the first exclusion condition is set. When the exclusion flag is set, the circumscribed rectangle corresponding to the exclusion flag is excluded from the character area candidate. When the exclusion flag is not set, the circumscribed rectangle corresponding to the exclusion flag is regarded as the character area candidate. It is.
(Hi> Smax) or (hi <Smin) or (wi> Smax) or (wi <Smin)
… (19)

一般的に、濃淡画像と同じ手法の絵の暗い部分は鮮鋭化を施すべき文字よりも大きい。また、網点画像と同じ手法の絵の網点は、鮮鋭化を施すべき文字よりも小さい。さらにまた、罫線は、高さおよび幅のいずれか一方が鮮鋭化を施すべき文字よりも大きい。ゆえに、第1の除外処理によって、絵の暗い部分や罫線の外接矩形を文字領域の候補から除くことができる。   In general, the dark part of a picture using the same technique as the grayscale image is larger than the character to be sharpened. Also, the halftone dot of the picture using the same method as the halftone dot image is smaller than the character to be sharpened. Furthermore, the ruled line is larger in height or width than the character to be sharpened. Therefore, the dark part of the picture and the circumscribed rectangle of the ruled line can be excluded from the character area candidates by the first exclusion process.

Figure 2007079587
Figure 2007079587

表3は、図10の入力画像91を処理対象とした場合の、ステップb6の処理が終了した時点のラベリングテーブルを表す。また前記時点でラベリングテーブルに残っている各外接矩形N2 〜Nn+2 を、図13に示す。前記時点では、ラベル番号が1の外接矩形N1 は、絵の暗い部分に相当する連結部分に外接していたので、文字領域の候補から除かれているが、ラベル番号が2の外接矩形N2 は、絵の暗い部分に相当する連結部分に外接していたが、該連結部分の高さおよび幅が文字の高さおよび幅にそれぞれ近いので、文字領域の候補から除かれていない。また、ラベル番号が3〜n+1の外接矩形N3 〜Nn+1 は、それぞれ文字または文字の一部分に外接しているので、文字領域の候補から除かれていない。   Table 3 shows a labeling table when the process of step b6 is completed when the input image 91 of FIG. FIG. 13 shows the circumscribed rectangles N2 to Nn + 2 remaining in the labeling table at the time point. At that time, the circumscribed rectangle N1 with the label number 1 is circumscribed with the connected portion corresponding to the dark portion of the picture, and thus is excluded from the character area candidates, but the circumscribed rectangle N2 with the label number 2 is However, since the height and width of the connected portion are close to the height and width of the character, respectively, they are not excluded from the character region candidates. The circumscribed rectangles N3 to Nn + 1 with label numbers 3 to n + 1 are not excluded from the character area candidates because they circumscribe each character or part of the character.

再び図9を参照する。次いで、文字領域抽出部83は、ステップb7で、第1の統合処理を行う。第1の統合処理では、除外フラグがセットされていない外接矩形のうちでお互い重なりあっているもの同士が統合されて、1つの外接矩形になる。このために、文字領域抽出部83は、ラベリングテーブル内で除外フラグがセットされていない外接矩形のうちのいずれか1つの外接矩形が、該いずれか1つの外接矩形以外の他の外接矩形の少なくとも一部分に重なっていないか否かをそれぞれ判定する。前記いずれか1つの外接矩形が少なくとも一部分に重なっている他の外接矩形がある場合、まず、前記いずれか1つの外接矩形の連結部分と前記他の外接矩形内の連結部分とが同時に入る最小の外接矩形を求める。次いで、ラベリングテーブル内の、前記いずれか1つの外接矩形と前記他の外接矩形とのうちのいずれか一方の外接矩形の左上および右下の頂点の座標、幅ならびに高さを、求めた外接矩形の左上および右下の頂点の座標、幅ならびに高さにそれぞれ置換えて更新し、前記いずれか1つの外接矩形と前記他の外接矩形とのうちのいずれか他方に除外フラグをセットする。この処理を、前記いずれか1つの外接矩形をたとえばラベルの順に変更して繰返し行い、他の外接矩形と重なり合う外接矩形がなくなるまで、続ける。   Refer to FIG. 9 again. Next, the character area extraction unit 83 performs a first integration process in step b7. In the first integration process, circumscribing rectangles that do not have the exclusion flag set and that overlap each other are integrated into one circumscribing rectangle. For this purpose, the character region extraction unit 83 determines that at least one circumscribed rectangle of circumscribed rectangles for which the exclusion flag is not set in the labeling table is at least a circumscribed rectangle other than the one circumscribed rectangle. It is determined whether or not they overlap each other. When there is another circumscribed rectangle in which any one circumscribed rectangle overlaps at least a part, first, the smallest connecting portion of any one circumscribed rectangle and the coupled portion in the other circumscribed rectangle enter at the same time. Find the bounding rectangle. Next, the circumscribed rectangle obtained by determining the coordinates, width, and height of the upper left and lower right vertices of either one of the circumscribed rectangle and the other circumscribed rectangle in the labeling table Are updated by replacing the coordinates, width, and height of the upper left and lower right vertices, respectively, and an exclusion flag is set in either one of the circumscribed rectangle and the other circumscribed rectangle. This process is repeated by changing one of the circumscribed rectangles, for example, in the order of the labels, and continues until there is no circumscribed rectangle that overlaps with the other circumscribed rectangles.

Figure 2007079587
Figure 2007079587

表4は、図10の入力画像91を処理対象とした場合に、ステップb7の処理が終了した時点のラベリングテーブルを表す。前記時点では、ラベル番号が1〜n−1の外接矩形N1 〜Nn-1 の状態は、表3の状態と等しい。また、ラベル番号がnである外接矩形Nn のパラメータが、「た」全体に外接する外接矩形のパラメータに書換えられ、ラベル番号がn+1,n+2の外接矩形Nn+1,Nn+2は、文字領域の候補から除かれている。これによって、単一の文字が複数の連結部分に分割されている場合、各連結部分に外接する外接矩形が相互に重なっていれば、これら外接矩形を統合して、前記文字全体に外接する単一の外接矩形を得ることができる。   Table 4 shows a labeling table at the time when the process of step b7 is completed when the input image 91 of FIG. At the time point, the states of circumscribed rectangles N1 to Nn-1 with label numbers 1 to n-1 are the same as those in Table 3. In addition, the parameter of the circumscribed rectangle Nn whose label number is n is rewritten to the parameter of the circumscribed rectangle circumscribing the entire “ta”, and the circumscribed rectangles Nn + 1 and Nn + 2 whose label numbers are n + 1 and n + 2 Excluded from the candidates. As a result, when a single character is divided into a plurality of connected portions, if the circumscribed rectangles circumscribing each connected portion overlap each other, the circumscribed rectangles are integrated to form a single circumscribed rectangle. One circumscribed rectangle can be obtained.

再び図9を参照する。次いで、文字領域抽出部83は、ステップb8で、第2の統合処理を行う。第2の統合処理では、除外フラグがセットされていない外接矩形のうちで、高さと幅の比が予め定める基準の比と大きく異なる外接矩形が、前記異なる外接矩形の周辺の外接矩形と統合されて、1つの外接矩形になる。第2の統合処理は、たとえば、「い」のように、単一の文字が複数の連結部分に分割されていて、かつ、各連結部分に外接する外接矩形が相互に重なっていない場合に、前記文字全体に外接する単一の外接矩形を得るために行われる。第2の統合処理の詳細は後述する。ステップb7,b8の処理を行うことで、「た」,「い」のように複数の連結部分に分割された文字全体に外接する外接矩形を得ることができる。   Refer to FIG. 9 again. Next, the character area extraction unit 83 performs a second integration process in step b8. In the second integration process, among circumscribed rectangles for which no exclusion flag is set, a circumscribed rectangle whose ratio of height and width is greatly different from a predetermined reference ratio is integrated with a circumscribed rectangle around the different circumscribed rectangle. Thus, it becomes one circumscribed rectangle. The second integration process is performed when, for example, “I”, a single character is divided into a plurality of connected portions, and circumscribed rectangles circumscribing each connected portion do not overlap each other. This is done to obtain a single circumscribed rectangle that circumscribes the entire character. Details of the second integration process will be described later. By performing the processing of steps b7 and b8, a circumscribed rectangle circumscribing the entire character divided into a plurality of connected portions such as “ta” and “i” can be obtained.

続いて、文字領域抽出部83は、ステップb9で、第2の除外処理を行う。第2の除外処理では、除外フラグがセットされていない各外接矩形が、入力画像91内の各外接矩形に相当する部分を構成する複数の画素の輝度値のうちの最大値および最小値の差に基づいて、文字領域であるか否かが判定される。入力画像91の各画素と2値化画像92の各画素とは、それぞれ1対1で対応するので、入力画像91内の前記各外接矩形に相当する部分とは、前記各外接矩形のパラメータと同じ値のパラメータによって、入力画像91内に定義される矩形を外周とする部分である。表5は、図10の入力画像91を処理対象とした場合に、ステップb9の処理が終了した時点のラベリングテーブルを表す。   Subsequently, the character area extraction unit 83 performs a second exclusion process in step b9. In the second exclusion process, each circumscribed rectangle in which the exclusion flag is not set is a difference between the maximum value and the minimum value among the luminance values of a plurality of pixels constituting a portion corresponding to each circumscribed rectangle in the input image 91. Based on the above, it is determined whether or not the character area. Each pixel of the input image 91 and each pixel of the binarized image 92 have a one-to-one correspondence. Therefore, a portion corresponding to each circumscribed rectangle in the input image 91 is a parameter of each circumscribed rectangle. This is a portion having a rectangle defined in the input image 91 as an outer periphery by the parameter having the same value. Table 5 shows a labeling table at the time when the process of step b9 is completed when the input image 91 of FIG.

Figure 2007079587
Figure 2007079587

第2の除外処理によって、除外フラグがセットされていない外接矩形のうちから、文字領域以外の外接矩形を除外することができる理由を、図14を用いて説明する。図14内の各矩形は、ステップb9の処理が終了した時点でラベリングテーブルに残されている各外接矩形に相当する入力画像91内の部分M2 〜Mn を表す。入力画像91内の部分Mn は、文字に外接する外接矩形Nn に相当する部分であり、入力画像91内の部分M2 は、絵の暗い部分に外接する外接矩形N2 に相当する部分である。前記部分Mn 内の文字の線を構成する画素の輝度値は真黒または真黒に近い色に相当し、かつ、前記部分Mn 内の地の部分を構成する画素の輝度値は真白または真白に近い色に相当する。ゆえに、前記部分Mn を構成する画素の輝度値の最大値および最小値の差が、画素輝度範囲の最大値Vmax および最小値Vmin の差とほぼ等しいと考えられる。   The reason why the circumscribed rectangles other than the character area can be excluded from the circumscribed rectangles for which the exclusion flag is not set by the second excluding process will be described with reference to FIG. Each rectangle in FIG. 14 represents a portion M2 to Mn in the input image 91 corresponding to each circumscribed rectangle remaining in the labeling table when the process of step b9 is completed. The portion Mn in the input image 91 is a portion corresponding to the circumscribed rectangle Nn circumscribing the character, and the portion M2 in the input image 91 is a portion corresponding to the circumscribed rectangle N2 circumscribing the dark portion of the picture. The luminance value of the pixel constituting the character line in the portion Mn corresponds to true black or a color close to true black, and the luminance value of the pixel constituting the ground portion in the portion Mn is a color that is pure white or close to pure white. It corresponds to. Therefore, it is considered that the difference between the maximum value and the minimum value of the luminance values of the pixels constituting the portion Mn is substantially equal to the difference between the maximum value Vmax and the minimum value Vmin of the pixel luminance range.

逆に、前記部分M2 内の絵の暗い部分に隣接する部分を構成する画素の輝度値は、真白または真白に近い色に相当するとは限らない。ゆえに、前記部分M2 を構成する画素の輝度値の最大値および最小値の差は、画素輝度範囲の最大値Vmax および最小値Vmin の差と比べて小さくなり易い。このために、前記各外接部分に相当する入力画像91内の部分を構成する複数の画素の輝度値の最大値および最小値の差に基づいて、前記各部分が文字領域であるか否かを判定することができるのである。   On the contrary, the luminance value of the pixel constituting the portion adjacent to the dark portion of the picture in the portion M2 does not necessarily correspond to a pure white or a color close to the pure white. Therefore, the difference between the maximum value and the minimum value of the luminance values of the pixels constituting the portion M2 tends to be smaller than the difference between the maximum value Vmax and the minimum value Vmin of the pixel luminance range. Therefore, based on the difference between the maximum value and the minimum value of the plurality of pixels constituting the part in the input image 91 corresponding to each circumscribed part, it is determined whether or not each part is a character area. It can be judged.

このために、文字領域抽出部83は、まず、入力画像91内の前記各外接矩形に相当する部分を、それぞれ求める。次いで、求めた前記各相当する部分毎に、該各部分を構成する複数の画素の画素データのうちの最大値および最小値、すなわち該各部分を構成する複数の画素の輝度値のうちの最大値および最小値を、それぞれ求める。続いて、前記各相当する部分毎に、前記輝度値の最大値と前記輝度値の最小値との差分が予め定める閾値を越えるか否かをそれぞれ判定し、判定結果に応じて前記各外接矩形の除外フラグを設定する。すなわち、前記差分が前記閾値を越える前記部分は、文字領域である可能性が高いと見なされ、該部分に相当する外接矩形の除外フラグがリセットしたままの状態に保たれる。前記差分が前記閾値以下である前記部分は、絵の一部分であるとみなされ、該部分に相当する外接矩形の除外フラグがセットされる。   For this purpose, the character area extraction unit 83 first obtains a portion corresponding to each circumscribed rectangle in the input image 91. Next, for each corresponding portion obtained, the maximum value and the minimum value among the pixel data of the plurality of pixels constituting each portion, that is, the maximum of the luminance values of the plurality of pixels constituting each portion. Find the value and the minimum value, respectively. Subsequently, for each corresponding portion, it is determined whether or not the difference between the maximum value of the luminance value and the minimum value of the luminance value exceeds a predetermined threshold value, and each circumscribed rectangle is determined according to the determination result. Set the exclusion flag for. That is, the portion where the difference exceeds the threshold value is considered to be highly likely to be a character region, and the circumscribed rectangle exclusion flag corresponding to the portion is kept reset. The part where the difference is equal to or less than the threshold is regarded as a part of a picture, and a circumscribed rectangle exclusion flag corresponding to the part is set.

次いで、文字領域抽出部83は、ステップb10で、第3の除外処理を行う。第3の除外処理では、除外フラグがセットされていない外接矩形の相互の位置関係および前記外接矩形のサイズの類似の有無に基づいて、前記各外接矩形が文字領域であるか否かを判定する。第3の除外処理は、以下の理由で行われる。入力画像91内の文字が文章を構成する場合、文章が縦書きならば複数の文字の外接矩形は上下方向に並び、文章が横書きならば複数の文字の外接矩形は左右方向に並ぶ。またこの場合、各外接矩形の大きさはほぼ等しい。しかしながら、絵の暗い部分の外接矩形は、前記暗い部分が単一であれば文字の外接矩形から孤立しており、前記暗い部分が複数あっても各暗い部分の外接矩形は無秩序に並び、サイズもまちまちであると考えられる。このため、前記外接矩形の相互の位置関係およびサイズの類似性に基づいて、前記各外接矩形が文字に外接するか否かを判定することができるのである。第3の除外処理の詳細な説明は省略する。   Next, the character area extraction unit 83 performs a third exclusion process in step b10. In the third exclusion process, it is determined whether or not each circumscribed rectangle is a character area based on the mutual positional relationship between circumscribed rectangles for which no exclusion flag is set and the size of the circumscribed rectangle. . The third exclusion process is performed for the following reason. When the characters in the input image 91 form a sentence, the circumscribed rectangles of the plurality of characters are arranged in the vertical direction if the sentence is vertically written, and the circumscribed rectangles of the plurality of characters are arranged in the left and right direction if the sentence is horizontally written. In this case, the size of each circumscribed rectangle is substantially equal. However, the circumscribed rectangle of the dark part of the picture is isolated from the circumscribed rectangle of the character if the dark part is single, and even if there are a plurality of the dark parts, the circumscribed rectangles of the dark parts are arranged randomly and have a size. It is considered to be a mixed town. Therefore, it is possible to determine whether or not each circumscribed rectangle circumscribes a character based on the mutual positional relationship and size similarity of the circumscribed rectangle. Detailed description of the third exclusion process is omitted.

以上の処理により、ラベリングテーブル内では、文字の外接矩形の除外フラグだけがリセットされたまま残り、文字以外の連結部分の外接矩形の除外フラグはセットされる。文字領域抽出部83は、ラベリングテーブル内で、除外フラグがリセットされたまま残された外接矩形のパラメータと該外接矩形のラベルとを対応付けて、データ記憶部86の前記第3の記憶領域に書込む。前記記憶領域に書き込まれたデータから、最終的なラベリングテーブルが構成される。以上で、文字領域抽出処理は終了する。   By the above processing, only the circumscribed rectangle exclusion flag of the character remains reset in the labeling table, and the circumscribed rectangle exclusion flag of the connected portion other than the character is set. In the labeling table, the character area extraction unit 83 associates the circumscribed rectangle parameters left with the exclusion flag reset with the circumscribed rectangle label, and stores them in the third storage area of the data storage unit 86. Write. A final labeling table is constructed from the data written in the storage area. Thus, the character area extraction process ends.

続いて、画像鮮鋭化部84は、ステップb11で、領域別画像鮮鋭化処理のために、入力画像91の各画素(x,y)の鮮鋭化の度合h(x,y) を設定する。x,yは、それぞれ任意の整数であり、各画素の入力画像91内の座標に基づいて一義的に定まる。各画素(x,y)の鮮鋭化の度合h(x,y) は、式20によって定義される。予め定める第1および第2の定数αc,αiは、表示装置の特性、文字と画素の大きさの関係、および使用者が表示装置35を目視した際の感じ方によって定められ、第2実施形態の画像処理装置の操作者が予めデータ処理装置81に入力しておく。たとえば、第1の定数αcは0.5であり、第2の定数αiは0.2である。
(x,y)∈ 残った外接矩形:h(x,y) = αc
それ以外:h(x,y) = αi
0≦αi<αc≦1.0 …(20)
Subsequently, in step b11, the image sharpening unit 84 sets the sharpening degree h (x, y) of each pixel (x, y) of the input image 91 for the region-based image sharpening process. x and y are arbitrary integers and are uniquely determined based on the coordinates in the input image 91 of each pixel. The sharpening degree h (x, y) of each pixel (x, y) is defined by Equation 20. The first and second constants αc and αi determined in advance are determined by the characteristics of the display device, the relationship between the characters and the size of the pixels, and how the user feels when viewing the display device 35. Second Embodiment The operator of the image processing apparatus inputs the data processing apparatus 81 in advance. For example, the first constant αc is 0.5, and the second constant αi is 0.2.
(X, y) ∈ remaining circumscribed rectangle: h (x, y) = αc
Otherwise: h (x, y) = αi
0 ≦ αi <αc ≦ 1.0 (20)

具体的には、画像鮮鋭化部84は、まず、データ記憶部86から前記最終的なラべリングテーブルを読込む。次いで、各画素(x,y)が、最終的なラベリングテーブル内の外接矩形のパラメータによって定義される外接矩形、すなわち文字領域内にあるか否かを、それぞれ判定する。文字領域内にある画素の鮮鋭化の度合h(x,y) は、予め定める第1の定数αcに設定され、文字領域外にある画素の鮮鋭化の度合h(x,y) は、予め定める第2の定数αiに設定される。これによって、図15に示すように、文字領域内の画素の鮮鋭化の度合h(x,y)だけが、第1の定数αcに設定され、文字領域外の画素の鮮鋭化の度合h(x,y)は、第2の定数αiに設定される。   Specifically, the image sharpening unit 84 first reads the final labeling table from the data storage unit 86. Next, it is determined whether each pixel (x, y) is in the circumscribed rectangle defined by the parameters of the circumscribed rectangle in the final labeling table, that is, in the character area. The sharpening degree h (x, y) of the pixels in the character area is set to a first constant αc determined in advance, and the sharpening degree h (x, y) of the pixels outside the character area is set in advance. The second constant αi to be determined is set. As a result, as shown in FIG. 15, only the degree h (x, y) of sharpening the pixels in the character area is set to the first constant αc, and the degree h ( x, y) is set to the second constant αi.

続いて、画像鮮鋭化部84は、ステップb12で、ステップb11で定義した各画素の鮮鋭化の度合h(x,y) を用いて、データ記憶部86に記憶されている入力画像データ51に、選択的画像鮮鋭化処理を施す。具体的には、入力画像データの各画素データf(x,y) を、該各画素データがそれぞれ対応する画素の鮮鋭化の度合h(x,y) を用い式21に基づいて変換して、鮮鋭化画像の画素データg(x,y) を得る。f(x+1,y),f(x-1,y),f(x,y+1),f(x,y-1)は、それぞれ画素データf(x,y) が対応する画素の4隣接の画素の画素データである。得られた鮮鋭化画像の画素データg(x,y) の集合が、鮮鋭化画像データGである。鮮鋭化画像データは、入力画像データと比較して、各画素データの実際の輝度値が異なるだけで、他は等しい。鮮鋭化画像データGは、データ記憶部86の予め定める第4の記憶領域に記憶される。以上で、画像鮮鋭化処理が終了する。
g(x ,y) =f(x,y)−h(x,y) ×▽2 f(x,y)
=f(x,y)−h(x,y) ×[f(x+1,y)+f(x-1,y)+f(x,y+1)
+f(x,y-1)−4×f(x,y)]
…(21)
Subsequently, in step b12, the image sharpening unit 84 uses the degree h (x, y) of sharpening of each pixel defined in step b11 to input image data 51 stored in the data storage unit 86. Then, a selective image sharpening process is performed. Specifically, each pixel data f (x, y) of the input image data is converted based on Expression 21 using the degree of sharpening h (x, y) of the pixel corresponding to each pixel data. Then, pixel data g (x, y) of the sharpened image is obtained. f (x + 1, y), f (x-1, y), f (x, y + 1), and f (x, y-1) are pixels corresponding to the pixel data f (x, y), respectively. The pixel data of four adjacent pixels. A set of pixel data g (x, y) of the obtained sharpened image is the sharpened image data G. The sharpened image data is the same as the input image data except that the actual brightness value of each pixel data is different. The sharpened image data G is stored in a predetermined fourth storage area of the data storage unit 86. This completes the image sharpening process.
g (x, y) = f (x, y) −h (x, y) × ▽ 2 f (x, y)
= F (x, y) -h (x, y) * [f (x + 1, y) + f (x-1, y) + f (x, y + 1)
+ F (x, y-1) -4 × f (x, y)]
…(twenty one)

次に、画像輝度変換部87は、ステップb13で、鮮鋭化画像データGに、階調補正用ルックアップテーブルRLUT に基づいた輝度補正処理を施す。具体的には、まず階調補正用LUT記憶部44から階調特性補正用ルックアップテーブルRLUT を読出し、さらに鮮鋭化画像データGをデータ記憶部86の前記記憶領域から読出す。続いて、式22と階調特性補正用ルックアップテーブルRLUT とに基づいて、鮮鋭化画像データGの各画素データg(x,y) をそれぞれ輝度変換して、出力画像データ89の各画素データga(x,y) をそれぞれ得る。得られた各画素データga(x,y) は、データ記憶部86の予め定める第5の記憶領域内のアドレスに記憶される。前記アドレスは、得られた各画素データga(x,y) が対応する画素の出力画像内の位置座標に基づいて、それぞれ予め定められている。
ga(x,y) = RLUT〔g(x,y)〕 …(22)
Next, in step b13, the image luminance conversion unit 87 performs luminance correction processing on the sharpened image data G based on the tone correction lookup table RLUT. Specifically, first, the gradation characteristic correction lookup table RLUT is read from the gradation correction LUT storage unit 44, and the sharpened image data G is read from the storage area of the data storage unit 86. Subsequently, each pixel data g (x, y) of the sharpened image data G is subjected to luminance conversion based on Expression 22 and the gradation characteristic correction lookup table RLUT, and each pixel data of the output image data 89 is converted. Get ga (x, y) respectively. Each obtained pixel data ga (x, y) is stored at an address in a predetermined fifth storage area of the data storage unit 86. The address is determined in advance based on the position coordinates in the output image of the pixel corresponding to the obtained pixel data ga (x, y).
ga (x, y) = RLUT [g (x, y)] (22)

ステップb13の輝度変換処理は、第1実施形態の画像処理装置のステップa16の輝度変換処理と比較して、入力画像データ51に代わって鮮鋭化画像データGを処理対象とし、かつ輝度補正用ルックアップテーブルCaLUT に代わって階調補正用ルックアップテーブルRLUT を用いる点が異なり、他は等しい。これによって、出力画像データ89が得られる。最後に、ステップb14で、得られた出力画像データ89が表示装置35に与えられて、ステップb15で画像補正処理が終了する。   The brightness conversion process in step b13 is performed on the sharpened image data G instead of the input image data 51, and the brightness correction look is compared with the brightness conversion process in step a16 of the image processing apparatus of the first embodiment. The difference is that a tone correction look-up table RLUT is used instead of the up-table CaLUT, and the others are the same. As a result, output image data 89 is obtained. Finally, in step b14, the obtained output image data 89 is given to the display device 35, and the image correction process is ended in step b15.

図9の画像補正処理では、第1〜第3の除外処理を順次行い、また、第1および第2の統合処理を順次行っている。上記画像補正処理では、3つの除外処理のうちの少なくとも1つを行えばよい。また、3つの除外処理のうちのいずれか2つを実行する場合、実行する除外処理の組合わせおよび順番はどのように定めても良い。さらに、3つの除外処理を行う場合の順番は、上述の順に限らない。実際には、2つ以上の除外処理を行う場合、第3の除外処理を最後に行うと、処理対象となる複数の外接矩形の数が第3の除外処理を1番目または2番目に行う場合よりも減少するので、処理が簡単になり、好ましい。さらに、ステップb3〜b5の処理で文字の外接矩形だけが得られる場合、これら除外処理を省略して処理を簡略化してもよい。さらにまた、上記画像補正処理では、2つの統合処理のうちのいずれか一方だけ行ってもよい。また、2つの統合処理を行う場合の順番は、上述の順に限らない。さらに、ステップb3〜b5の処理で単一の文字が必ず1つの外接矩形に含まれる場合、これら統合処理を省略して処理を簡略化してもよい。   In the image correction process of FIG. 9, the first to third exclusion processes are sequentially performed, and the first and second integration processes are sequentially performed. In the image correction process, at least one of the three exclusion processes may be performed. When any two of the three exclusion processes are executed, the combination and order of the exclusion processes to be executed may be determined in any way. Furthermore, the order in which the three exclusion processes are performed is not limited to the order described above. Actually, when two or more exclusion processes are performed, when the third exclusion process is performed last, the number of circumscribed rectangles to be processed is the first or second exclusion process. This is preferable because the processing is simplified. Furthermore, when only the circumscribed rectangle of the character is obtained by the processing of steps b3 to b5, these exclusion processing may be omitted to simplify the processing. Furthermore, in the image correction process, only one of the two integration processes may be performed. Further, the order in which the two integration processes are performed is not limited to the order described above. Further, when a single character is always included in one circumscribed rectangle in the processing of steps b3 to b5, the integration processing may be omitted to simplify the processing.

図16は、前記第2の統合処理を詳細に説明するためのフローチャートである。図9の画像補正処理において、ステップb7からステップb8に進むと、ステップc1からステップc2に進む。文字領域抽出部83は、まずステップc2で、カウンタnを初期化して、1を記憶させる。ラベリングテーブル内で、カウンタnが記憶する値と等しいラベルに対応するパラメータによって定義される外接矩形が、処理対象の外接矩形となる。続いて、ステップc2で、文字領域抽出部83は、処理対象の外接矩形に対応する除外フラグがセットされているか否かを判定する。セットされている場合、ステッc3からステップc18に進む。セットされていない場合、ステップc3からステップc4に進む。   FIG. 16 is a flowchart for explaining the second integration process in detail. In the image correction process of FIG. 9, when the process proceeds from step b7 to step b8, the process proceeds from step c1 to step c2. The character area extraction unit 83 first initializes the counter n and stores 1 in step c2. A circumscribed rectangle defined by a parameter corresponding to a label equal to the value stored in the counter n in the labeling table is a circumscribed rectangle to be processed. Subsequently, in step c2, the character region extraction unit 83 determines whether or not an exclusion flag corresponding to the circumscribed rectangle to be processed is set. If it is set, the process proceeds from step c3 to step c18. If not set, the process proceeds from step c3 to step c4.

ステップc4では、文字領域抽出部83は、式23に基づいて、処理対象の外接矩形のサイズに関する第1の値L(n) を設定する。第1の値L(n) は、処理対象の外接矩形の高さhnおよび幅wnのうちで、大きいほうの値である。またステップc4では、文字領域抽出部83は、ステップc5で、式24に基づいて、処理対象の外接矩形のサイズに関する第2の値R(n) を設定する。第2の値R(n) は、処理対象の外接矩形の高さhnに対する処理対象の外接矩形の幅のwnの比、および処理対象の外接矩形の幅wnに対する処理対象の外接矩形の高さhnの比のうちで、大きいほうの値である。
L(n) = max(hn,wn) …(23)
R(n) = max(hn/wn,wn/hn) …(24)
In step c4, the character area extraction unit 83 sets a first value L (n) related to the size of the circumscribed rectangle to be processed based on Expression 23. The first value L (n) is the larger value of the height hn and the width wn of the circumscribed rectangle to be processed. In step c4, the character region extraction unit 83 sets a second value R (n) related to the size of the circumscribed rectangle to be processed based on the equation 24 in step c5. The second value R (n) is the ratio of the width wn of the circumscribed rectangle to be processed to the height hn of the circumscribed rectangle to be processed, and the height of the circumscribed rectangle to be processed relative to the width wn of the circumscribed rectangle to be processed. It is the larger value of the ratio of hn.
L (n) = max (hn, wn) (23)
R (n) = max (hn / wn, wn / hn) (24)

次いで文字領域抽出部83は、ステップc6で、処理対象の外接矩形の高さと処理対象の外接矩形の幅とが大きく異なるか否か、すなわち処理対象の外接矩形が正方形ではないか否かを判定する。このために文字領域抽出部83は、式25に基づいて、第2の値R(n) が予め定める定数cを越えるか否かを判定する。
R(n) > c …(25)
Next, in step c6, the character region extraction unit 83 determines whether or not the height of the circumscribed rectangle to be processed is significantly different from the width of the circumscribed rectangle to be processed, that is, whether or not the circumscribed rectangle to be processed is a square. To do. For this purpose, the character area extraction unit 83 determines whether or not the second value R (n) exceeds a predetermined constant c based on Expression 25.
R (n)> c (25)

処理対象の外接矩形が単一の文字全体に外接している場合、処理対象の外接矩形はほぼ正方形になり、第2の値R(n) は1に近くなる。これは、フォントの違いや、「り」、「つ」のように外接矩形が正方形にならない文字が存在することに、起因する。実際の処理では、文字の種類によるずれや誤差を考慮して、定数cはたとえば1.5に設定される。第2の値R(n) が定数c以下である場合、処理対象の外接矩形はほぼ正方形であると考えられる。この場合、処理対象の外接矩形は単一の文字全体に外接しているので、第2の統合処理を行う必要がないと考えられる。ゆえに、この場合、ステップc6からステップc18に進む。また、第2の値R(n) が定数cを越える場合、処理対象の外接矩形nは縦長または横長の長方形であると見なされる。この場合、処理対象の外接矩形は、単一の文字を構成する複数の連結部分のうちの一部分だけに外接していると考えられるので、近隣矩形の統合処理を行う必要がある。ゆえにこの場合、ステップc6からステップc7に進む。   When the circumscribed rectangle to be processed circumscribes the entire single character, the circumscribed rectangle to be processed is substantially a square, and the second value R (n) is close to 1. This is due to the difference in fonts and the presence of characters whose circumscribed rectangles do not become squares, such as “ri” and “tsu”. In actual processing, the constant c is set to 1.5, for example, in consideration of deviations and errors due to character types. When the second value R (n) is less than or equal to the constant c, it is considered that the circumscribed rectangle to be processed is substantially a square. In this case, since the circumscribed rectangle to be processed circumscribes the entire single character, it is considered unnecessary to perform the second integration process. Therefore, in this case, the process proceeds from step c6 to step c18. When the second value R (n) exceeds the constant c, the circumscribed rectangle n to be processed is regarded as a vertically long or horizontally long rectangle. In this case, it is considered that the circumscribed rectangle to be processed circumscribes only a part of a plurality of connected portions constituting a single character, so that it is necessary to perform the process of integrating neighboring rectangles. Therefore, in this case, the process proceeds from step c6 to step c7.

ステップc7では、文字領域抽出部83は、処理対象の外接矩形と統合可能な他の外接矩形の有無を調べるための探索領域S(n) を設定する。探索領域S(n) を構成する複数の画素の座標(x,y)は、たとえば、以下の式26によってそれぞれ定義される。C(n)xおよびC(n)yは、処理対象の外接矩形の中心の座標のx座標およびy座標である。
{C(n)x−L(n)≦x≦C(n)x+L(n)}∩{C(n)y−L(n)≦y≦C(n)y+L(n)}
…(26)
In step c7, the character region extraction unit 83 sets a search region S (n) for checking whether there is another circumscribed rectangle that can be integrated with the circumscribed rectangle to be processed. The coordinates (x, y) of a plurality of pixels constituting the search area S (n) are defined by the following Expression 26, for example. C (n) x and C (n) y are the x and y coordinates of the coordinates of the center of the circumscribed rectangle to be processed.
{C (n) x−L (n) ≦ x ≦ C (n) x + L (n)} ∩ {C (n) y−L (n) ≦ y ≦ C (n) y + L (n)}
... (26)

続いて、ステップc8〜c10で、文字領域抽出部83は、2値化画像92内に設定された外接矩形のうちで処理対象の外接矩形以外の残余の外接矩形、すなわちラベルがnではない全ての外接矩形の中から、探索領域S(n) と重なる外接矩形を探索する。具体的には、文字領域抽出部83は、まずステップc8で、カウンタmを初期化して1を記憶させる。カウンタmが記憶する値と等しいラベルに対応するパラメータによって定義される外接矩形が、比較対象の外接矩形となる。次いで、ステップc9で、カウンタmに記憶された値がカウンタnに記憶された値と異なり、かつ、比較対象の外接矩形に対応する除外フラグがセットされているか否かを判定する。カウンタn,mに記憶された値が等しい場合、または前記除外フラグがセットされている場合、ステップc9からステップc16に進む。カウンタn,mに記憶された値が異なりかつ前記除外フラグがリセットされている場合、ステップc9からステップc11に進む。   Subsequently, in steps c8 to c10, the character region extracting unit 83 selects all the circumscribed rectangles other than the circumscribed rectangle to be processed among the circumscribed rectangles set in the binarized image 92, that is, the label is not n. A circumscribed rectangle that overlaps the search area S (n) is searched from among the circumscribed rectangles. Specifically, the character area extraction unit 83 first initializes the counter m and stores 1 in step c8. The circumscribed rectangle defined by the parameter corresponding to the label equal to the value stored in the counter m becomes the circumscribed rectangle to be compared. Next, in step c9, it is determined whether or not the value stored in the counter m is different from the value stored in the counter n and whether or not the exclusion flag corresponding to the circumscribed rectangle to be compared is set. If the values stored in the counters n and m are equal, or if the exclusion flag is set, the process proceeds from step c9 to step c16. When the values stored in the counters n and m are different and the exclusion flag is reset, the process proceeds from step c9 to step c11.

文字領域抽出部83は、ステップc11で、処理対象の外接矩形と比較対象の外接矩形とを統合した外接矩形を、仮の外接矩形vとして考える。前記仮の外接矩形vは、処理対象の外接矩形内の連結部分と比較対象の外接矩形内の連結部分とを含む最小の矩形である。次いで、前記仮の外接矩形vの第1の値L(v) および第2の値R(v) を計算する。続いて、文字領域抽出部83は、ステップc12で、仮の外接矩形の第1の値L(v) が式27に示す第1の統合条件を満たすか否かを判定する。第1の統合条件は、外接矩形の大きさの変動を制限するものである。仮の外接矩形の第1の値L(v) が第1の統合条件を満たさない場合、ステップc12からステップc16に進む。仮の外接矩形の第1の値L(v) が第1の統合条件を満たす場合、ステップc12からステップc13に進む。文字領域抽出部83は、ステップc13で、仮の外接矩形の第2の値R(v) が式28に示す第2の統合条件を満たすか否かを判定する。第2の統合条件は、仮の外接矩形の高さと仮の外接矩形の幅との比が、1に近付いたか否かを確認するためのものである。仮の外接矩形の第2の値R(v) が第2の統合条件を満たさない場合、ステップc13からステップc16に進む。仮の外接矩形の第2の値R(v) が第2の統合条件を満たす場合、ステップc13からステップc14に進む。すなわち、仮の外接矩形の第1および第2の値L(v) ,R( v)が第1および第2の統合条件をそれぞれ満たす場合、処理対象の外接矩形内の連結部分と比較対象の外接矩形内の連結部分とは、どちらも同じ1つの文字を構成する複数の連結部分の1つであると見なされる。ここで、aは0.2とする。
|L(v)−L(n)|÷L(n)<a and …(27)
|R(v)−1.0|<|R(n)−1.0| …(28)
In step c11, the character region extraction unit 83 considers a circumscribed rectangle obtained by integrating the circumscribed rectangle to be processed and the circumscribed rectangle to be compared as a temporary circumscribed rectangle v. The temporary circumscribed rectangle v is a minimum rectangle including a connected portion in the circumscribed rectangle to be processed and a connected portion in the circumscribed rectangle to be compared. Next, a first value L (v) and a second value R (v) of the temporary circumscribed rectangle v are calculated. Subsequently, in step c12, the character area extraction unit 83 determines whether or not the first value L (v) of the temporary circumscribed rectangle satisfies the first integration condition shown in Expression 27. The first integration condition limits the variation in the size of the circumscribed rectangle. When the first value L (v) of the temporary circumscribed rectangle does not satisfy the first integration condition, the process proceeds from step c12 to step c16. When the first value L (v) of the temporary circumscribed rectangle satisfies the first integration condition, the process proceeds from step c12 to step c13. In step c13, the character region extraction unit 83 determines whether or not the second value R (v) of the temporary circumscribed rectangle satisfies the second integration condition shown in Expression 28. The second integration condition is for confirming whether or not the ratio of the height of the temporary circumscribed rectangle and the width of the temporary circumscribed rectangle has approached one. When the second value R (v) of the temporary circumscribed rectangle does not satisfy the second integration condition, the process proceeds from step c13 to step c16. When the second value R (v) of the temporary circumscribed rectangle satisfies the second integration condition, the process proceeds from step c13 to step c14. That is, when the first and second values L (v) and R (v) of the temporary circumscribed rectangle satisfy the first and second integration conditions, the connected portion in the circumscribed rectangle to be processed and the comparison target A connected portion in a circumscribed rectangle is considered to be one of a plurality of connected portions that constitute the same character. Here, a is 0.2.
| L (v) −L (n) | ÷ L (n) <a and (27)
| R (v) −1.0 | <| R (n) −1.0 | (28)

文字領域抽出部83は、ステップc14で、処理対象の外接矩形と比較対象の外接矩形とを統合した新たな外接矩形を設定し、ラベリングテーブル内の処理対象の外接矩形のパラメータを、新たな外接矩形のパラメータに書換える。前記新たな外接矩形のパラメータは、たとえば、前述の仮の外接矩形のパラメータと等しい。続いて、文字領域抽出部83は、ステップc15で、ラベリングテーブル内の比較対象の外接矩形のパラメータに対応する除外フラグをセットする。   In step c14, the character region extraction unit 83 sets a new circumscribed rectangle obtained by integrating the circumscribed rectangle to be processed and the circumscribed rectangle to be compared, and sets the parameters of the circumscribed rectangle to be processed in the labeling table as the new circumscribed rectangle. Rewrite with rectangular parameters. The parameter of the new circumscribed rectangle is equal to the parameter of the temporary circumscribed rectangle described above, for example. Subsequently, in step c15, the character region extraction unit 83 sets an exclusion flag corresponding to the parameter of the circumscribed rectangle to be compared in the labeling table.

続いて、文字領域抽出部83は、ステップc16でカウンタmの記憶する値に1を加算して更新し、ステップc17でカウンタmの更新された値が2値化画像92内に設定された外接矩形の総数を越えたか否かを判定する。カウンタmの更新された値が前記総数以下である場合、ステップc17からステップc9に戻り、カウンタmの更新された値と等しいラベルに対応するパラメータによって定義される外接矩形を、新たな比較対象の外接矩形として、ステップc9〜c16の処理を繰返す。カウンタmの更新された値が前記総数を越えた場合、ステップc17からステップc18に進む。   Subsequently, the character area extracting unit 83 updates the value stored in the counter m by adding 1 in step c16, and the circumscribed circumstance in which the updated value of the counter m is set in the binarized image 92 in step c17. It is determined whether or not the total number of rectangles has been exceeded. When the updated value of the counter m is equal to or smaller than the total number, the process returns from step c17 to step c9, and the circumscribed rectangle defined by the parameter corresponding to the label equal to the updated value of the counter m is set as a new comparison target. The process of steps c9 to c16 is repeated for the circumscribed rectangle. When the updated value of the counter m exceeds the total number, the process proceeds from step c17 to step c18.

続いて文字領域抽出部83は、ステップc18でカウンタnの記憶する値に1を加算して更新し、ステップc19でカウンタnの更新された値が前記総数を越えたか否かを判定する。カウンタnの更新された値が前記総数以下である場合、ステップc19からステップc3に戻り、カウンタnの更新された値と等しいラベルに対応するパラメータによって定義される外接矩形を、新たな処理対象の外接矩形として、ステップc4〜c19の処理を繰返す。カウンタnの更新された値が前記総数を越えた場合、ステップc20で前記第2の統合処理が終了する。   Subsequently, the character area extraction unit 83 updates the value stored in the counter n by adding 1 in step c18, and determines in step c19 whether the updated value of the counter n exceeds the total number. When the updated value of the counter n is equal to or smaller than the total number, the process returns from step c19 to step c3, and the circumscribed rectangle defined by the parameter corresponding to the label equal to the updated value of the counter n is set as a new processing target. The process of steps c4 to c19 is repeated for the circumscribed rectangle. If the updated value of the counter n exceeds the total number, the second integration process ends at step c20.

図17を用い、ステップc9〜c16の処理を、具体的に説明する。図17において、外接矩形N3 ,N4 は、入力画像91の下部の文章のうちの左端の文の最上部の文字「い」の2つの連結部分にそれぞれ外接し、外接矩形N5 は、前記文の上から2番目の文字「ろ」に外接する。処理対象の矩形領域を外接矩形N3 と仮定する。また図17(A)では、処理対象の外接矩形N3 の探索領域S3 に、斜線を付して示す。この場合、外接矩形N4 ,N5 は、その一部分が探索領域S(3) にそれぞれ重なるので、比較対象の外接矩形として選ばれる。図17(B)に示すように、外接矩形N3 ,N4 を統合すると仮想する場合、仮の外接矩形N3+5 の第1および第2の値L(3+4) ,R(3+4) は、式29,31に示すように、第1および第2の統合条件をそれぞれ満たす。図17(C)に示すように、外接矩形N3 ,N5 を統合すると仮想する場合、仮の外接矩形N3+5 の第1の値L(3+5) は、式31に示すように、第1の統合条件を満たさない。
|L(3+4)−L(3)|÷L(3)=0.1<a …(29)
|R(3+4)−1.0|=0.05<|R(3)−1.0|=1.0 …(30)
|L(3+5)−L(3)|÷L(3)=1.3>a …(31)
The processing of steps c9 to c16 will be specifically described with reference to FIG. In FIG. 17, circumscribed rectangles N3 and N4 circumscribe the two connected portions of the uppermost character “I” in the sentence at the left end of the sentence at the bottom of the input image 91, respectively. It circumscribes the second character “RO” from the top. Assume that the rectangular area to be processed is a circumscribed rectangle N3. In FIG. 17A, the search area S3 of the circumscribed rectangle N3 to be processed is indicated by hatching. In this case, the circumscribed rectangles N4 and N5 are respectively selected as circumscribed rectangles to be compared because they partially overlap the search area S (3). As shown in FIG. 17B, when the circumscribed rectangles N3 and N4 are integrated, it is assumed that the first and second values L (3 + 4) and R (3 + 4) of the temporary circumscribed rectangle N3 + 5. Satisfies the first and second integration conditions as shown in equations 29 and 31, respectively. As shown in FIG. 17C, when it is assumed that the circumscribed rectangles N3 and N5 are integrated, the first value L (3 + 5) of the temporary circumscribed rectangle N3 + 5 is expressed as The integration condition 1 is not satisfied.
| L (3 + 4) −L (3) | ÷ L (3) = 0.1 <a (29)
| R (3 + 4) −1.0 | = 0.05 <| R (3) −1.0 | = 1.0 (30)
| L (3 + 5) −L (3) | ÷ L (3) = 1.3> a (31)

Figure 2007079587
Figure 2007079587

式29〜31の演算は、仮の外接矩形Ni(i=3,4,5,3+4,3+5)について、上記表のような結果が得られるので、これに基づいている。aを0.2としているのは、2割以上大きさが変わるならば、同一文字として統合するには不向きだからである。   The calculations of Expressions 29 to 31 are based on the provisional circumscribed rectangle Ni (i = 3,4,5,3 + 4, 3 + 5) because the results shown in the above table are obtained. The reason why a is set to 0.2 is that if the size changes by 20% or more, it is not suitable for integration as the same character.

このように、仮の外接矩形N3+4 は、単一の文字「い」を構成する複数の連結部分にそれぞれ外接する外接矩形を統合したものなので、第1および第2の統合条件を満たす。逆に、仮の外接矩形N3+5 は、単一の文字「い」を構成する複数の連結部分のうちの1つに外接する外接矩形と、単一の文字「ろ」に外接する外接矩形とを統合したものなので、第1および第2の統合条件の少なくとも一方を満たさない。したがって、文字領域抽出部83は、式27,28で示す第1および第2の統合条件に基づいて、単一の文字を構成する複数の連結部分にそれぞれ外接する外接矩形同士だけを統合することができる。   As described above, the temporary circumscribed rectangle N3 + 4 is obtained by integrating circumscribed rectangles that circumscribe each of the plurality of connected portions constituting the single character “I”, and therefore satisfies the first and second integration conditions. Conversely, the temporary circumscribed rectangle N3 + 5 is a circumscribed rectangle circumscribing one of a plurality of connected parts constituting a single character “I” and a circumscribed rectangle circumscribing a single character “RO”. Therefore, at least one of the first and second integration conditions is not satisfied. Therefore, the character area extraction unit 83 integrates only circumscribed rectangles circumscribing each of a plurality of connected portions constituting a single character based on the first and second integration conditions represented by Expressions 27 and 28. Can do.

図18は、第3の除外処理を詳細に説明するためのフローチャートである。図9の画像補正処理において、ステップb9からステップb10に進むと、ステップd1からステップd2に進む。文字領域抽出部83は、まずステップd2で、ラベリングテーブル内の全ての文字フラグを、「未定」に設定する。次いで文字領域抽出部83は、ステップd3で、カウンタnを初期化して、1を記憶させる。ラベリングテーブル内で、カウンタnが記憶する値と等しいラベルに対応するパラメータによって定義される外接矩形が、処理対象の外接矩形となる。続いて、ステップd4で、文字領域抽出部83は、処理対象の外接矩形に対応する除外フラグがセットされているか否かを判定する。セットされている場合、ステップd4からステップd16に進む。セットされていない場合、ステップd4からステップd5に進む。ステップd5〜d15は、文字フラグを選択的にセットする処理である。   FIG. 18 is a flowchart for explaining the third exclusion process in detail. In the image correction process of FIG. 9, when the process proceeds from step b9 to step b10, the process proceeds from step d1 to step d2. First, in step d2, the character region extraction unit 83 sets all character flags in the labeling table to “undecided”. Next, the character area extraction unit 83 initializes the counter n and stores 1 in step d3. A circumscribed rectangle defined by a parameter corresponding to a label equal to the value stored in the counter n in the labeling table is a circumscribed rectangle to be processed. Subsequently, in step d4, the character region extraction unit 83 determines whether or not an exclusion flag corresponding to the circumscribed rectangle to be processed is set. If it is set, the process advances from step d4 to step d16. If not set, the process proceeds from step d4 to step d5. Steps d5 to d15 are processes for selectively setting the character flag.

文字領域抽出部83は、まずステップd5で、カウンタnの記憶する値が2値化画像92内に設定された外接矩形の総数を越えたか否かを判定する。カウンタnの記憶する値が前記総数を越えた場合、ステップd5からステップd17に進む。カウンタnの記憶する値が前記総数以下である場合、ステップd5からステップd6に進む。   First, in step d5, the character area extraction unit 83 determines whether or not the value stored in the counter n exceeds the total number of circumscribed rectangles set in the binarized image 92. When the value stored in the counter n exceeds the total number, the process proceeds from step d5 to step d17. When the value stored in the counter n is equal to or less than the total number, the process proceeds from step d5 to step d6.

文字領域抽出部83は、ステップd6で、処理対象の外接矩形が文字であるか否かを調べるための探索領域Sa(n) を設定する。探索領域Sa(n) を構成する複数の画素の座標(x,y)は、たとえば、式32によって定義される。この結果、探索領域Sa(n) は、図19に示すように、処理対象の外接矩形を中心として、入力画像91内の上下方向および左右方向ににそれぞれ平行に長さkL(n) ずつ伸びる十字型の領域になる。上下方向は、入力画像91に設定される座標系のx座標軸に平行な方向である。左右方向は、入力画像91に設定される座標系のy座標軸に平行な方向である。C(n)xおよびC(n)yは、処理対象の外接矩形nの中心の座標のx座標およびy座標である。L(n) は、処理対象の外接矩形の高さhnおよび幅wnのうちで、大きいほうの値である。kは、探索範囲Sa(n) の広さを限定するための定数であり、たとえば2.0とする。
(((C(n)x−L(n) ÷2)≦x≦(C(n)x+L(n) ÷2)) ∩
((C( n)y−k×L(n) )≦y≦(C(n)y+k×L(n) )))∪
(((C(n)x−k×L(n) )≦x≦(C(n)x+k×L(n) )) ∩
((C(n)y−L(n) ÷2)≦y≦(C(n)y+L(n) ÷2))) …(32)
In step d6, the character area extraction unit 83 sets a search area Sa (n) for checking whether or not the circumscribed rectangle to be processed is a character. The coordinates (x, y) of a plurality of pixels constituting the search area Sa (n) are defined by, for example, Expression 32. As a result, as shown in FIG. 19, the search area Sa (n) extends by a length kL (n) in parallel in the vertical and horizontal directions in the input image 91 with the circumscribed rectangle to be processed as the center. It becomes a cross-shaped area. The vertical direction is a direction parallel to the x coordinate axis of the coordinate system set in the input image 91. The left-right direction is a direction parallel to the y-coordinate axis of the coordinate system set for the input image 91. C (n) x and C (n) y are the x coordinate and y coordinate of the coordinates of the center of the circumscribed rectangle n to be processed. L (n) is the larger value of the height hn and the width wn of the circumscribed rectangle to be processed. k is a constant for limiting the size of the search range Sa (n), and is set to 2.0, for example.
(((C (n) x-L (n) ÷ 2) ≤ x ≤ (C (n) x + L (n) ÷ 2)) ∩
((C (n) y−k × L (n)) ≦ y ≦ (C (n) y + k × L (n)))) +
(((C (n) x−k × L (n)) ≦ x ≦ (C (n) x + k × L (n)))
((C (n) y−L (n) / 2) ≦ y ≦ (C (n) y + L (n) / 2)))) (32)

文字領域抽出部83は、ステップd7で、ラベリングテーブル内の除外フラグが設定されていない外接矩形のうちで探索領域Sa(n) と重なる外接矩形の中から、処理対象の外接矩形に最も近い外接矩形を、比較対象の外接矩形として探索する。次いで、ステップd8で、文字領域抽出部83は、比較対象の外接矩形が探索されたか否か、すなわち比較対象の外接矩形が存在するか否かを判定する。比較対象の外接矩形が存在しない場合、ステップd8からステップd16に進む。比較対象の外接矩形が存在する場合、ステップd8からステップd9に進む。   In step d7, the character area extraction unit 83 selects the circumscribed rectangle closest to the circumscribed rectangle to be processed from among the circumscribed rectangles that do not have the exclusion flag set in the labeling table and overlap the search area Sa (n). The rectangle is searched as a circumscribed rectangle to be compared. Next, in step d8, the character region extraction unit 83 determines whether or not a circumscribed rectangle to be compared has been searched, that is, whether or not a circumscribed rectangle to be compared exists. If there is no circumscribed rectangle to be compared, the process proceeds from step d8 to step d16. If there is a circumscribed rectangle to be compared, the process proceeds from step d8 to step d9.

文字領域抽出部83は、ステップd9で、処理対象の外接矩形の大きさと比較対象の外接矩形の大きさとに基づいて、処理対象の外接矩形内の連結部分と比較対象の外接矩形内の連結部分とが、どちらも文字である可能性があるか否かを、判定する。このために、文字領域抽出部83は、処理対象の外接矩形の第1の値L(n) と、比較対象の外接矩形の第1の値L(m) とが、式33の判定条件を満たすか否かを判定する。βは、定数であり、たとえば0.2である。第1の値L(n) ,L(m) が式33の判定条件を満たさない場合、処理対象および比較対象の外接矩形の少なくとも一方は文字に外接していないと見なされる。この場合、ステップd9からステップd16に進む。第1の値L(n) ,L(m) が式33の判定条件を満たす場合、処理対象および比較対象の外接矩形がどちらも文字に外接していると見なされる。この場合、ステップd9からステップd10に進む。
|L(n)−L(m)|÷L(n)<β …(33)
In step d9, the character region extraction unit 83 determines the connected portion in the circumscribed rectangle to be processed and the connected portion in the circumscribed rectangle to be compared based on the size of the circumscribed rectangle to be processed and the size of the circumscribed rectangle to be compared. Are determined to be possibly characters. For this purpose, the character region extraction unit 83 determines that the first value L (n) of the circumscribed rectangle to be processed and the first value L (m) of the circumscribed rectangle to be compared satisfy the determination condition of Expression 33. It is determined whether or not it is satisfied. β is a constant, for example 0.2. When the first values L (n) and L (m) do not satisfy the determination condition of Expression 33, at least one of the circumscribed rectangles to be processed and compared is regarded as not circumscribing the character. In this case, the process proceeds from step d9 to step d16. When the first values L (n) and L (m) satisfy the determination condition of Expression 33, it is considered that the circumscribed rectangle to be processed and the comparison target both circumscribe the character. In this case, the process proceeds from step d9 to step d10.
| L (n) −L (m) | ÷ L (n) <β (33)

次いで、ステップd10〜d14で、文字領域抽出部83は、比較対象の外接矩形と探索領域Sa(n) とのずれが予め定める大きさ未満であるか否かを判定する。具体的には、まずステップd10で、比較対象の外接矩形と処理対象の外接矩形とが、縦方向に並んでいるか否かが判定される。縦方向に並んでいる場合、ステップd10からステップd11に進む。縦方向に並んでいない場合、比較対象の外接矩形と処理対象の外接矩形とは横方向に並んでいると見なされ、ステップd10からステップd13に進む。   Next, in steps d10 to d14, the character area extraction unit 83 determines whether or not the deviation between the circumscribed rectangle to be compared and the search area Sa (n) is less than a predetermined size. Specifically, first, at step d10, it is determined whether or not the circumscribed rectangle to be compared and the circumscribed rectangle to be processed are aligned in the vertical direction. If they are aligned in the vertical direction, the process proceeds from step d10 to step d11. When not arranged in the vertical direction, the circumscribed rectangle to be compared and the circumscribed rectangle to be processed are considered to be arranged in the horizontal direction, and the process proceeds from step d10 to step d13.

文字領域抽出部83は、ステップd11では、比較対象の外接矩形の左端の辺の座標Pos(m)left 、すなわち比較対象の外接矩形の左上隅の頂点の座標のx座標値smが、以下の式34に示す判定条件を満たすか否かを判定する。比較対象の外接矩形の左端の辺の座標Pos(m)left が式34の判定条件を満たさない場合、ステップd11からステップd16に進む。比較対象の外接矩形の左端の辺の座標Pos(m)left が式34の判定条件を満たす場合、ステップd11からステップd12に進む。続いて文字領域抽出部83は、ステップd12で、比較対象の外接矩形の右端の辺の座標Pos(m)right、すなわち比較対象の外接矩形の右下隅の頂点の座標のx座標値umが、以下の式35に示す判定条件を満たすか否かを判定する。比較対象の外接矩形の右端の辺の座標Pos(m)rightが式35の判定条件を満たさない場合、ステップd12からステップd16に進む。比較対象の外接矩形の右端の辺の座標Pos(m)rightが式35の判定条件を満たす場合、ステップd12からステップd15に進む。
(Pos(m)right<(C(n)x+L(n) ×δ)) …(35)
(Pos(m)left >(C(n)x−L(n) ×δ))and …(34)
In step d11, the character region extraction unit 83 determines that the coordinate Pos (m) left of the left end side of the circumscribed rectangle to be compared, that is, the x coordinate value sm of the vertex coordinate of the upper left corner of the circumscribed rectangle to be compared is It is determined whether or not the determination condition shown in Expression 34 is satisfied. When the coordinate Pos (m) left of the leftmost side of the circumscribed rectangle to be compared does not satisfy the determination condition of Expression 34, the process proceeds from step d11 to step d16. When the coordinate Pos (m) left of the left end side of the circumscribed rectangle to be compared satisfies the determination condition of Expression 34, the process proceeds from step d11 to step d12. Subsequently, in step d12, the character region extracting unit 83 determines that the coordinate Pos (m) right of the rightmost side of the circumscribed rectangle to be compared, that is, the x coordinate value um of the coordinate of the lower right corner of the circumscribed rectangle to be compared, It is determined whether the determination condition shown in the following Expression 35 is satisfied. When the coordinate Pos (m) right of the right end side of the circumscribed rectangle to be compared does not satisfy the determination condition of Expression 35, the process proceeds from step d12 to step d16. When the coordinate Pos (m) right of the right end side of the circumscribed rectangle to be compared satisfies the determination condition of Expression 35, the process proceeds from step d12 to step d15.
(Pos (m) right <(C (n) x + L (n) × δ)) (35)
(Pos (m) left> (C (n) x−L (n) × δ)) and (34)

また文字領域抽出部83は、ステップd13で、比較対象の外接矩形の上端の辺の座標Pos(m)top 、すなわち比較対象の外接矩形の左上隅の頂点の座標のy座標値tmが、式36に示す判定条件を満たすか否かを判定する。比較対象の外接矩形の上端の辺の座標Pos(m)top が式36の判定条件を満たさない場合、ステップd13からステップd16に進む。比較対象の外接矩形の左端の辺の座標Pos(m)top が式36の判定条件を満たす場合、ステップd13からステップd14に進む。続いて文字領域抽出部83は、ステップd14で、比較対象の外接矩形の下端の辺の座標Pos(m)bottom 、すなわち比較対象の外接矩形の右下隅の頂点の座標のy座標値vmが、式37に示す判定条件を満たすか否かを判定する。比較対象の外接矩形の下端の辺の座標Pos(m)bottom が式37の判定条件を満たさない場合、ステップd14からステップd16に進む。比較対象の外接矩形の下端の辺の座標Pos(m)bottom が式37の判定条件を満たす場合、ステップd14からステップd15に進む。
(Pos(m)top >(C(n)y−L(n) ×δ))and …(36)
(Pos(m)bottom<(C(n)y+L(n) ×δ)) …(37)
In step d13, the character region extracting unit 83 determines that the coordinate Pos (m) top of the upper edge of the circumscribed rectangle to be compared, that is, the y coordinate value tm of the vertex of the upper left corner of the circumscribed rectangle to be compared is expressed by It is determined whether or not the determination condition shown in 36 is satisfied. When the coordinate Pos (m) top of the upper edge of the circumscribed rectangle to be compared does not satisfy the determination condition of Expression 36, the process proceeds from step d13 to step d16. When the coordinate Pos (m) top of the left end side of the circumscribed rectangle to be compared satisfies the determination condition of Expression 36, the process proceeds from step d13 to step d14. Subsequently, in step d14, the character region extraction unit 83 determines that the coordinate Pos (m) bottom of the lower edge of the circumscribed rectangle to be compared, that is, the y coordinate value vm of the coordinate of the lower right corner of the circumscribed rectangle to be compared, It is determined whether or not the determination condition shown in Expression 37 is satisfied. When the coordinate Pos (m) bottom of the lower edge of the circumscribed rectangle to be compared does not satisfy the determination condition of Expression 37, the process proceeds from step d14 to step d16. When the coordinate Pos (m) bottom of the lower edge of the circumscribed rectangle to be compared satisfies the determination condition of Expression 37, the process proceeds from step d14 to step d15.
(Pos (m) top> (C (n) y−L (n) × δ)) and (36)
(Pos (m) bottom <(C (n) y + L (n) × δ)) (37)

すなわち、ステップd10〜d11では、比較対象の外接矩形と処理対象の外接矩形とが縦方向にほぼ平行に並んでいる場合、処理対象の外接矩形の中心を通り縦方向に平行な仮想直線から比較対象の外接矩形の左端および右端の辺までのそれぞれの距離が、どちらも予め定める距離L(n) ×δ未満である場合だけ、比較対象の外接矩形と探索領域Sa(n) とのずれが、基準のずれ未満であると見なされる。また、比較対象の外接矩形と処理対象の外接矩形とが横方向にほぼ平行に並んでいる場合、処理対象の外接矩形の中心を通り横方向に平行な仮想直線から比較対象の外接矩形の上端および下端の辺までのそれぞれの距離が、どちらも予め定める距離L(n) ×δ未満である場合だけ、比較対象の外接矩形と探索領域Sa(n) とのずれが、基準のずれ未満であると見なされる。予め定める距離は基本的には第1の値L(n) の半分の値である。しかしながら、文字の違いや誤差を考慮して、定数δはたとえば8分の5(5/8)に設定される。   That is, in steps d10 to d11, when the circumscribed rectangle to be compared and the circumscribed rectangle to be processed are arranged substantially in parallel in the vertical direction, the comparison is performed from a virtual straight line that passes through the center of the circumscribed rectangle to be processed and is parallel to the vertical direction. The shift between the circumscribed rectangle to be compared and the search area Sa (n) is made only when the distances to the left and right edges of the circumscribed rectangle are both less than a predetermined distance L (n) × δ. Is considered to be less than the standard deviation. In addition, when the circumscribed rectangle to be compared and the circumscribed rectangle to be processed are arranged substantially in parallel in the horizontal direction, the upper end of the circumscribed rectangle to be compared from the virtual straight line that passes through the center of the circumscribed rectangle to be processed and is parallel to the horizontal direction. And the distance between the circumscribed rectangle to be compared and the search area Sa (n) is less than the reference deviation only when each of the distances to the lower edge is less than a predetermined distance L (n) × δ. It is considered to be. The predetermined distance is basically half of the first value L (n). However, in consideration of character differences and errors, the constant δ is set to, for example, 5/8 (5/8).

ステップd9〜d14の処理によって、処理対象の外接矩形と比較対象の外接矩形の大きさがほぼ等しく、かつ、処理対象の外接矩形と比較対象の外接矩形とが縦方向または横方向にほぼ平行に並んでいる場合だけ、ステップd15の処理が行われる。文字領域抽出部83は、ステップd15で、処理対象の外接矩形の文字フラグと比較対象の外接矩形の文字フラグとに、それぞれ1をセットする。   By the processing of steps d9 to d14, the size of the circumscribed rectangle to be processed and the circumscribed rectangle to be compared are substantially equal, and the circumscribed rectangle to be processed and the circumscribed rectangle to be compared are substantially parallel in the vertical direction or the horizontal direction. Only when they are lined up, the process of step d15 is performed. In step d15, the character region extraction unit 83 sets 1 to the circumscribed rectangle character flag to be processed and the circumscribed rectangle character flag to be compared.

続いて、文字領域抽出部83は、ステップd16で、カウンタnに記憶された値に1を加算して更新し、ステップd4に戻る。これによって、カウンタnに更新された値と等しいラベルに対応するパラメータによって定義される外接矩形を処理対象の外接矩形として、ステップd4〜d16の処理が繰返される。   Subsequently, in step d16, the character area extraction unit 83 updates the value stored in the counter n by adding 1, and returns to step d4. As a result, the circumscribed rectangle defined by the parameter corresponding to the label equal to the value updated in the counter n is set as the circumscribed rectangle to be processed, and the processes of steps d4 to d16 are repeated.

また、ステップd5で、カウンタnが記憶する値が、定義された外接矩形の総数を越えた場合、文字領域抽出部83は、ステップd5からステップd17に進み、第3の除外処理を終了する。   If the value stored in the counter n exceeds the total number of defined circumscribed rectangles in step d5, the character area extraction unit 83 proceeds from step d5 to step d17, and ends the third exclusion process.

以後、文字領域抽出部83は、文字フラグがセットされていない外接矩形の除外フラグを1にセットする。これによって、入力画像内の全ての外接矩形のうちで、予め定める文字の並ぶ方向にほぼ平行に並ぶ複数の外接矩形だけが、文字領域の候補としてラベリングテーブル内に残される。図18のフローチャートの説明では、入力画像内では、文字は縦方向または横方向に平行に並んでいると仮定して説明したが、文字が縦方向でも横方向でもない斜め方向に平行に並んでいる場合、探索領域Sa(n) やステップd10〜d14の判定を、文字が並ぶ方向に併せて変更してもよい。   Thereafter, the character region extraction unit 83 sets the circumscribed rectangle exclusion flag for which the character flag is not set to 1. As a result, among all the circumscribed rectangles in the input image, only a plurality of circumscribed rectangles arranged substantially parallel to the predetermined character arrangement direction are left in the labeling table as character area candidates. In the description of the flowchart in FIG. 18, it is assumed that the characters are arranged in parallel in the vertical direction or the horizontal direction in the input image, but the characters are arranged in parallel in an oblique direction that is neither vertical nor horizontal. If there is, the determination in the search area Sa (n) or steps d10 to d14 may be changed in accordance with the direction in which the characters are arranged.

以上のように説明した第2実施形態の画像処理装置が行う選択的鮮鋭化処理では、文字領域の鮮鋭化の度合が、文字領域以外の残余の領域の鮮鋭化の度合よりも強い。さらに、鮮鋭化画像に階調補正LUTを用いた輝度変換処理が施されている。これによって、文字領域内にある鮮鋭化を施すべき文字は、コントラストが輝度変換処理によって補正されかつエッジのぼけが鮮鋭化処理によって改善される。同時に、前記残余の領域は、コントラストが輝度変換処理によって補正され、かつ鮮鋭化処理に起因したノイズの強調が防止される。これによって、出力画像を表示装置に表示した場合に、文字領域内の文字が読み易くなり、同時に前記残余部分がノイズの少ない滑らかな見易い画像になる。   In the selective sharpening process performed by the image processing apparatus according to the second embodiment described above, the sharpening degree of the character area is stronger than the sharpening degree of the remaining area other than the character area. Further, the brightness conversion process using the gradation correction LUT is performed on the sharpened image. Accordingly, the contrast of the character to be sharpened in the character region is corrected by the luminance conversion process, and the blur of the edge is improved by the sharpening process. At the same time, the remaining area is corrected in contrast by the luminance conversion process, and noise enhancement due to the sharpening process is prevented. Thereby, when the output image is displayed on the display device, the characters in the character region are easy to read, and at the same time, the remaining portion becomes a smooth and easy-to-view image with little noise.

以下に、本発明の第3実施形態である画像処理装置について説明する。第3実施形態の画像処理装置は、第1実施形態の画像処理装置と比較して、データ処理装置34が図20に示すデータ処理装置101に置換えられる点が異なり、他は等しいので、同じ構成の装置、データ、およびテーブルには、同じ符号を付し、説明は省略する。   The image processing apparatus according to the third embodiment of the present invention will be described below. The image processing apparatus according to the third embodiment is different from the image processing apparatus according to the first embodiment in that the data processing apparatus 34 is replaced with the data processing apparatus 101 shown in FIG. These devices, data, and tables are denoted by the same reference numerals and description thereof is omitted.

図20は、第3実施形態の画像処理装置内のデータ処理装置101の電気的な構成を表すブロック図である。データ処理装置101のうちで、第1および第2実施形態のデータ処理装置34,81内の装置と同じ動作を行う部には、同じ符号を付し、詳細な説明は省略する。   FIG. 20 is a block diagram illustrating an electrical configuration of the data processing apparatus 101 in the image processing apparatus according to the third embodiment. In the data processing apparatus 101, parts that perform the same operations as those in the data processing apparatuses 34 and 81 of the first and second embodiments are denoted by the same reference numerals, and detailed description thereof is omitted.

データ処理装置101は、コントラスト推定部37、コントラスト補正用LUT作成部104、文字領域抽出部83、画像鮮鋭化部84、画像輝度変換部107、階調補正用LUT記憶部44、データ記憶部108、および操作部40を含む。コントラスト補正用LUT作成部104は、コントラスト推定部37によって推定されたコントラスト〔Lv,Hv〕に基づいて、コントラスト補正用ルックアップテーブルCLUT を作成する。画像輝度変換部107は、コントラスト補正のための輝度補正処理と、階調補正のための輝度補正処理とを行う。データ記憶部108は、コントラスト推定部37、コントラスト補正用LUT作成部104、文字領域抽出部83、画像鮮鋭化部84、および画像輝度変換部107がそれぞれ処理を行う際に、処理に用いる各種のデータを一時的に記憶する。このためにデータ記憶部108内には、各種のデータをそれぞれ記憶するための複数の記憶領域が予め設定されており、各記憶領域のアドレスは予め定められているヒストグラム作成部41、コントラスト検出部42、コントラスト補正用LUT作成部104,文字領域抽出部83,画像鮮鋭化部84,および画像輝度変換部107は、それぞれ個別の回路によって実現される。また、前記部41,42,104,83,84,107のうちの少なくとも2つの部は、単一の中央演算処理回路の演算処理によって実現される仮想回路とされてもよい。 The data processing apparatus 101 includes a contrast estimation unit 37, a contrast correction LUT creation unit 104, a character region extraction unit 83, an image sharpening unit 84, an image luminance conversion unit 107, a tone correction LUT storage unit 44, and a data storage unit 108. And the operation unit 40. The contrast correction LUT creation unit 104 creates a contrast correction lookup table CLUT based on the contrast [Lv, Hv] estimated by the contrast estimation unit 37. The image luminance conversion unit 107 performs luminance correction processing for contrast correction and luminance correction processing for gradation correction. The data storage unit 108 includes various types of processing used when the contrast estimation unit 37, the contrast correction LUT creation unit 104, the character region extraction unit 83, the image sharpening unit 84, and the image luminance conversion unit 107 perform processing. Store data temporarily. For this purpose, a plurality of storage areas for storing various types of data are set in advance in the data storage unit 108, and addresses of the respective storage areas are determined in advance . The histogram creation unit 41, the contrast detection unit 42, the contrast correction LUT creation unit 104, the character region extraction unit 83, the image sharpening unit 84, and the image luminance conversion unit 107 are realized by individual circuits. In addition, at least two of the units 41, 42, 104, 83, 84, and 107 may be virtual circuits that are realized by arithmetic processing of a single central processing circuit.

図21は、第3の実施形態の画像処理装置のデータ処理装置101が実行する画像補正処理を説明するためのフローチャートである。図21のフローチャートを用いて、画像補正処理を説明する。図21のフローチャートは、図2および図9のフローチャートと類似の動作を行うステップを含み、類似の動作を行うステップの詳細な説明は省略する。   FIG. 21 is a flowchart for explaining image correction processing executed by the data processing apparatus 101 of the image processing apparatus according to the third embodiment. The image correction process will be described with reference to the flowchart of FIG. The flowchart of FIG. 21 includes steps for performing operations similar to those in the flowcharts of FIGS. 2 and 9, and detailed description of steps for performing similar operations is omitted.

たとえば、画像処理装置の操作者が、たとえば操作部40を用いて画像補正処理の実行を指示すると、ステップe1からステップe2に進む。ステップe2の画像データの入力処理、およびステップe3〜e12の入力画像のコントラスト〔Lv,Hv〕の推定処理は、図2のフローチャートのステップa2の処理、およびステップa3〜a12の処理とそれぞれ等しい。   For example, when the operator of the image processing apparatus instructs execution of the image correction process using the operation unit 40, for example, the process proceeds from step e1 to step e2. The image data input process in step e2 and the contrast [Lv, Hv] estimation process in steps e3 to e12 are the same as the process in step a2 and the processes in steps a3 to a12 in the flowchart of FIG.

コントラスト補正用LUT作成部104は、ステップe13で、ステップa13と同じ処理によって、コントラスト補正用ルックアップテーブルCLUT を作成する。次いで、コントラスト補正用LUT作成部104は、ステップe14で作成したコントラスト補正用ルックアップテーブルCLUT を、データ記憶部108の予め定める第2の記憶領域に記憶させる。   In step e13, the contrast correction LUT creation unit 104 creates a contrast correction lookup table CLUT by the same processing as in step a13. Next, the contrast correction LUT creation unit 104 stores the contrast correction lookup table CLUT created in step e14 in a predetermined second storage area of the data storage unit 108.

次いで、画像輝度変換部107は、ステップe15でコントラスト補正を行うためのコントラスト補正手段として動作する。この場合、画像輝度変換部107は、入力画像データ51に、コントラスト補正用ルックアップテーブルCLUT に基づいて、輝度補正処理を施す。具体的には、まずデータ記憶部108からコントラスト補正用ルックアップテーブルCLUT を読出し、さらに入力画像データ51をデータ記憶部108から読出す。続いて、以下の式38とコントラスト特性補正用ルックアップテーブルCLUT とに基づいて、入力画像データ51の各画素データf(x,y) をそれぞれ輝度変換して、補正画像データの各画素データfa(x,y) をそれぞれ得る。得られた各画素データfa(x,y) は、データ記憶部86の予め定める第3の記憶領域内のアドレスに記憶される。前記アドレスは、得られた各画素データfa(x,y) が対応する画素の補正画像内の位置座標に基づいて、それぞれ予め定められている。補正画像とは補正画像データが表す画像である。
fa(x,y) =CLUT〔f(x,y)〕 …(38)
Next, the image luminance conversion unit 107 operates as a contrast correction unit for performing contrast correction in step e15. In this case, the image luminance conversion unit 107 performs luminance correction processing on the input image data 51 based on the contrast correction lookup table CLUT. Specifically, the contrast correction lookup table CLUT is first read from the data storage unit 108, and the input image data 51 is further read from the data storage unit 108. Subsequently, each pixel data f (x, y) of the input image data 51 is subjected to luminance conversion based on the following equation 38 and the contrast characteristic correction lookup table CLUT, and each pixel data fa of the corrected image data is converted. Get (x, y) respectively. Each obtained pixel data fa (x, y) is stored at an address in a predetermined third storage area of the data storage unit 86. The address is determined in advance based on the position coordinates in the corrected image of the pixel corresponding to the obtained pixel data fa (x, y). The corrected image is an image represented by the corrected image data.
fa (x, y) = CLUT [f (x, y)] (38)

ステップe15の輝度変換処理は、第1実施形態の画像処理装置のステップa16の輝度変換処理と比較して、輝度補正用ルックアップテーブルCaLUT に代わってコントラスト補正用ルックアップテーブルCL UT を用いる点が異なり、他は等しい。これによって、入力画像のコントラスト〔Lv,Hv〕が、画素データの規格上最大のコントラスト〔Vmin ,Vmax〕まで拡大される。   The brightness conversion process of step e15 uses a contrast correction lookup table CL UT instead of the brightness correction lookup table CaLUT, as compared with the brightness conversion process of step a16 of the image processing apparatus of the first embodiment. Different, others are equal. As a result, the contrast [Lv, Hv] of the input image is expanded to the maximum contrast [Vmin, Vmax] according to the pixel data standard.

ステップe16〜e23の文字領域の抽出処理は、図9のフローチャートのステップb3〜b10と比較して、入力画像データ51に代わって前記補正画像データを処理対象とする点が異なり、他は等しい。また、ステップe24,e25の画像鮮鋭化処理は、図9のフローチャートのステップb11,b12の処理と等しい。これによって、前記補正画像データに、第2実施形態で説明した選択的鮮鋭化処理が施される。次いで、画像輝度変換部107は、ステップe26で、階調補正を行うための階調補正手段として動作する。この場合、画像輝度変換部107は、入力画像データ51に、階調補正用ルックアップテーブルRLUT に基づいて、輝度補正処理を施す。ステップe24の階調補正用の輝度補正処理は、図9のフローチャートのステップb13の処理と等しい。これによって得られた出力画像データが、ステップe28で表示装置35に与えられ、ステップe29で画像補正処理を終了する。   The character region extraction processing in steps e16 to e23 is different from steps b3 to b10 in the flowchart of FIG. 9 in that the corrected image data is processed instead of the input image data 51, and the others are the same. Further, the image sharpening process at steps e24 and e25 is equal to the process at steps b11 and b12 in the flowchart of FIG. Thereby, the selective sharpening process described in the second embodiment is performed on the corrected image data. Next, the image luminance conversion unit 107 operates as a gradation correction unit for performing gradation correction in step e26. In this case, the image luminance conversion unit 107 performs luminance correction processing on the input image data 51 based on the gradation correction lookup table RLUT. The luminance correction process for gradation correction in step e24 is the same as the process in step b13 in the flowchart of FIG. The output image data obtained in this way is given to the display device 35 in step e28, and the image correction process is terminated in step e29.

図21で説明した画像補正処理のうちで、ステップe13のコントラスト補正用ルックアップテーブルCLUT に代わって、第1実施形態において式13〜式15を用いて説明した手法で輝度補正用CaLUT を作成し、ステップe15で輝度補正用ルックアップテーブルを用いた輝度補正処理を行っても良い。この場合、ステップa26の階調特性の補正のための輝度補正処理を省略することができるので、処理が簡略化される。   In the image correction processing described with reference to FIG. 21, instead of the contrast correction lookup table CLUT in step e13, the luminance correction CaLUT is created by the method described using Expressions 13 to 15 in the first embodiment. In step e15, luminance correction processing using a luminance correction lookup table may be performed. In this case, since the luminance correction process for correcting the gradation characteristics in step a26 can be omitted, the process is simplified.

以上の処理によって、表示装置に表示される画像は、コントラストが入力画像よりも拡大される。また、入力画像内の文字領域に施された鮮鋭化処理の鮮鋭化の度合は、文字領域以外の残余の領域に施された鮮鋭化処理の鮮鋭化の度合よりも強くなっている。さらに、表示装置に応じた階調補正が施されている。これら3つの理由のために、表示装置に表示される画像内に記載される文字が読み易くなり、また、視認性が高くなる。   With the above processing, the contrast of the image displayed on the display device is enlarged as compared with the input image. Further, the sharpening degree of the sharpening process applied to the character area in the input image is stronger than the sharpening degree of the sharpening process applied to the remaining area other than the character area. Further, gradation correction according to the display device is performed. For these three reasons, the characters described in the image displayed on the display device are easy to read and the visibility is improved.

図22は、本発明の第4実施形態である画像処理装置121の電気的構成を表すブロック図である。第4実施形態の画像処理装置内で、第1実施形態の画像処理装置と同じ構成の装置、データ、およびテーブルには、同じ符号を付し、説明は省略する。画像処理装置121は、データ作成装置123とデータ閲覧装置124とから構成される。データ作成装置123は、画像入力装置33と、データ処理装置34と、記憶媒体書込み装置126とから構成される。データ閲覧装置124は、記憶媒体読取り装置127と表示装置35とから構成される。   FIG. 22 is a block diagram showing an electrical configuration of the image processing apparatus 121 according to the fourth embodiment of the present invention. In the image processing apparatus according to the fourth embodiment, devices, data, and tables having the same configurations as those of the image processing apparatus according to the first embodiment are denoted by the same reference numerals and description thereof is omitted. The image processing device 121 includes a data creation device 123 and a data browsing device 124. The data creation device 123 includes an image input device 33, a data processing device 34, and a storage medium writing device 126. The data browsing device 124 includes a storage medium reading device 127 and a display device 35.

データ処理装置34は、画像入力装置33から入力された画像データに予め定める画像補正処理を施して出力画像データを作成し、出力画像データを記憶媒体書込み装置126に与える。この際、前記画像補正処理は、データ閲覧装置124の表示装置35の表示特性に基づいて行われる。記憶媒体書込み装置126は、出力画像データを記憶媒体128に書込む。記憶媒体は、たとえば、フレキシブルディスクまたはCD−ROMで実現される。記憶媒体128は、記憶媒体書込み装置126および記憶媒体読取り装置127に、それぞれ着脱自在に装着可能である。出力画像データが書込まれた記憶媒体は、記憶媒体書込み装置126から取外されて、記憶媒体読取り装置127に装着される。記憶媒体読取り装置127は、記憶媒体128から出力画像データを読取り、表示装置35に与える。表示装置35は、与えられた画像に基づいて、表示画面に画像を表示させる。   The data processing device 34 performs predetermined image correction processing on the image data input from the image input device 33 to generate output image data, and provides the output image data to the storage medium writing device 126. At this time, the image correction process is performed based on the display characteristics of the display device 35 of the data browsing device 124. The storage medium writing device 126 writes the output image data to the storage medium 128. The storage medium is realized by, for example, a flexible disk or a CD-ROM. The storage medium 128 can be detachably attached to the storage medium writing device 126 and the storage medium reading device 127, respectively. The storage medium in which the output image data is written is removed from the storage medium writing device 126 and attached to the storage medium reading device 127. The storage medium reader 127 reads the output image data from the storage medium 128 and gives it to the display device 35. The display device 35 displays an image on the display screen based on the given image.

このような構成の画像処理装置121は、たとえば、データ作成装置123をいわゆる電子出版のオーサリングシステムとして用い、データ閲覧装置124をいわゆる電子出版の電子的な刊行物を閲覧するための装置として用いることができる。この場合、記憶媒体128には、電子的な刊行物として、コンテンツの各頁全体をそれぞれ1枚の画像として表す複数の画像データが記憶される。これら各画像データには、上述した画像処補正処理が施されているので表示装置35の表示画面に表示される画像は、階調特性の偏り、前記画像のコントラスト、および前記画像の解像度に起因する画像の視認性の低下が防止されている。したがって、データ閲覧装置124の表示装置35の表示画面の解像度を、従来技術の解像度に保ったまま、表示画面に表示される画像の記載される文字が読み易くすることができる。これによって、電子的な刊行物の作成の際に校正の手間を省いて作成処理を簡略化することができ、同時に、コンテンツの各頁に印刷された文章の見た目の印象をそのまま保ちかつ読み易くすることができる。   In the image processing device 121 having such a configuration, for example, the data creation device 123 is used as a so-called electronic publishing authoring system, and the data browsing device 124 is used as a device for browsing so-called electronic publications of electronic publishing. Can do. In this case, the storage medium 128 stores, as an electronic publication, a plurality of pieces of image data representing each entire page of content as one image. Since each of these image data has been subjected to the above-described image processing correction processing, the image displayed on the display screen of the display device 35 is caused by the deviation of gradation characteristics, the contrast of the image, and the resolution of the image. Thus, the visibility of the image to be reduced is prevented from being lowered. Therefore, it is possible to make it easier to read the characters described in the image displayed on the display screen while maintaining the resolution of the display screen of the display device 35 of the data browsing device 124 at the resolution of the prior art. This simplifies the creation process by eliminating the need for proofreading when creating electronic publications, and at the same time maintains the visual impression of the text printed on each page of the content and is easy to read can do.

このように、画像処理装置121では、データ作成装置123とデータ閲覧装置124とを、分離することができる。このため、画像処理装置121は、単一のデータ作成装置123と単一のデータ閲覧装置124とから構成されるだけに限らず、複数のデータ作成装置123と単一のデータ閲覧装置124とから構成されてもよく、単一のデータ作成装置123と複数のデータ閲覧装置124とから構成されてもよく、複数のデータ作成装置123と複数のデータ閲覧装置124とから構成されてもよい。また、データ処理装置34に代わって、第2実施形態の画像処理装置のデータ処理装置81および第3実施形態の画像処理装置のデータ処理装置101のいずれか一方を用いても良い。   Thus, in the image processing device 121, the data creation device 123 and the data browsing device 124 can be separated. For this reason, the image processing apparatus 121 is not limited to a single data creation apparatus 123 and a single data browsing apparatus 124, but includes a plurality of data creation apparatuses 123 and a single data browsing apparatus 124. It may be configured from a single data creation device 123 and a plurality of data browsing devices 124, or may be configured from a plurality of data creation devices 123 and a plurality of data browsing devices 124. Instead of the data processing device 34, either the data processing device 81 of the image processing device of the second embodiment or the data processing device 101 of the image processing device of the third embodiment may be used.

第1〜第4実施形態の画像処理装置の説明では、入力画像データは白黒画像であると仮定した。これら画像処理装置は、入力画像データに、カラー画像を用いることもできる。入力画像データがいわゆるRGB信号の形態のデータ、すなわち赤の輝度信号成分と緑の輝度信号成分と青の輝度信号成分とから構成されるデータである場合の上記画像処理装置の処理手順を、簡略に説明する。前記場合、入力画像データにコントラスト補正および階調補正のための輝度変換処理を施すには、画像処理装置は、まず入力画像データから、輝度信号成分のみ(明度信号成分)を抽出する。次いで、前記明度信号成分を用いて、階調補正用およびコントラスト補正用のルックアップテーブルを作成する。さらに、元の画像、すなわちRGB信号の形態の入力画像データの前記各色信号成分に、ルックアップテーブルをそれぞれ作用させ、出力画像データを得る。前記明度成分データは、いわゆるYUV信号の形態のデータのうちのY信号である。   In the description of the image processing apparatuses of the first to fourth embodiments, it is assumed that the input image data is a monochrome image. These image processing apparatuses can also use color images for input image data. The processing procedure of the image processing apparatus is simplified when the input image data is data in the form of a so-called RGB signal, that is, data composed of a red luminance signal component, a green luminance signal component, and a blue luminance signal component. Explained. In this case, in order to perform luminance conversion processing for contrast correction and gradation correction on the input image data, the image processing apparatus first extracts only the luminance signal component (brightness signal component) from the input image data. Next, a lookup table for gradation correction and contrast correction is created using the lightness signal component. Further, a look-up table is applied to each color signal component of the original image, that is, input image data in the form of RGB signals, to obtain output image data. The lightness component data is a Y signal among data in the form of a so-called YUV signal.

また、前記場合に入力画像データに鮮鋭化処理を施すには、画像処理装置は、まず、入力画像データから、輝度信号成分(Y信号)を抽出し、前記輝度信号成分だけを用いて文字領域抽出処理を行う。続いて、元の画像、すなわちRGB信号の形態の入力画像データの前記各色信号成分に、前記文字抽出処理で得られた文字領域に基づいた選択的鮮鋭化処理をそれぞれ施して、出力画像データを得る。   In addition, in order to perform the sharpening process on the input image data in the above case, the image processing apparatus first extracts a luminance signal component (Y signal) from the input image data, and uses only the luminance signal component to perform a character region. Perform the extraction process. Subsequently, each color signal component of the original image, that is, input image data in the form of RGB signals, is subjected to selective sharpening processing based on the character region obtained by the character extraction processing, respectively, and output image data is obtained. obtain.

第1〜第4の実施形態の画像処理装置は、コンピュータによって実現されてもよい。このために、図2,8,20でそれぞれ説明した画像補正処理をコンピュータの中央演算処理装置に行わせるためのプログラムおよびデータを含むソフトウエアを、コンピュータによって読出し可能な記憶媒体に記憶させておく。この記憶媒体には、たとえば、CD−ROMおよびフレキシブルディスクが挙げられる。画像入力装置と表示装置とを備えたコンピュータを前記データ処理装置として動作させるには、まず、前記記憶媒体をコンピュータに装着して、記憶媒体内のソフトウエアをコンピュータにインストールし、次いで、インストールしたソフトウエア内のプログラムを中央演算処理装置に実行させる。これによって、コンピュータ内の中央演算処理装置およびメモリが、データ処理装置として動作するので、コンピュータ全体が画像処理装置として動作する。これによって、汎用的なコンピュータを用いて、容易に第1〜第4の実施形態の画像処理装置を実現することができる。   The image processing apparatuses according to the first to fourth embodiments may be realized by a computer. For this purpose, software including a program and data for causing the central processing unit of the computer to perform the image correction processing described in FIGS. 2, 8, and 20 is stored in a computer-readable storage medium. . Examples of the storage medium include a CD-ROM and a flexible disk. In order to operate a computer including an image input device and a display device as the data processing device, the storage medium is first installed in the computer, and the software in the storage medium is installed in the computer, and then installed. The central processing unit is caused to execute the program in the software. As a result, the central processing unit and the memory in the computer operate as a data processing device, so that the entire computer operates as an image processing device. Accordingly, the image processing apparatuses according to the first to fourth embodiments can be easily realized using a general-purpose computer.

第1〜第4実施形態の画像処理装置は本発明の画像処理装置の例示であり、主要な動作が等しければ、他の様々な形で実施することができる。特に各装置および部の詳細な動作は、同じ処理結果が得られれば、これに限らず他の動作によって実現されてもよい。   The image processing apparatuses of the first to fourth embodiments are examples of the image processing apparatus of the present invention, and can be implemented in various other forms as long as the main operations are the same. In particular, the detailed operation of each device and unit is not limited to this and may be realized by other operations as long as the same processing result is obtained.

本発明は、次の実施の形態が可能である。
(1)予め定める階調特性を有する表示手段と、複数の画素から構成される画像を入力する画像入力手段と、前記画像のコントラストを推定するコントラスト推定手段と、推定された前記コントラストに基づいて前記画像のコントラストを増大させ、かつ、前記階調特性に基づいて前記画像を構成する各画素の輝度を補正する輝度補正手段とを含み、前記表示手段は、前記輝度補正手段によって各画素の輝度が補正された画像を表示することを特徴とする画像処理装置。
The following embodiments are possible for the present invention.
(1) Based on the estimated contrast, display means having predetermined gradation characteristics, image input means for inputting an image composed of a plurality of pixels, contrast estimation means for estimating the contrast of the image, and Brightness correction means for increasing the contrast of the image and correcting the brightness of each pixel constituting the image based on the gradation characteristics, and the display means uses the brightness correction means to increase the brightness of each pixel. An image processing apparatus that displays an image corrected for the above.

(2)複数の画素から構成される画像を入力させ、前記画像のコントラストを推定し、推定された前記コントラストに基づいて前記画像のコントラストを増大させ、かつ、前記画像を表示させるための表示手段が有する階調特性に基づいて前記画像を構成する各画素の輝度を補正して、前記各画素の輝度が補正された前記画像を前記表示手段に表示させることを特徴とする画像処理方法。   (2) Display means for inputting an image composed of a plurality of pixels, estimating the contrast of the image, increasing the contrast of the image based on the estimated contrast, and displaying the image An image processing method, comprising: correcting the luminance of each pixel constituting the image based on gradation characteristics of the image, and displaying the image with the corrected luminance of each pixel on the display means.

本発明に従えば、前記画像を処理した場合、前記表示手段の階調特性だけでなく推定した前記コントラストも考慮して、前記画像を構成する前記各画素の輝度変換を行うことができる。したがって、前記表示手段に前記画像を表示した場合、前記画像のコントラストおよび前記表示手段の階調特性の両方に起因する前記画像の視認性の低下を、防止することができる。同時に、前記画像の再現性を向上させることができる。   According to the present invention, when the image is processed, luminance conversion of each pixel constituting the image can be performed in consideration of not only the gradation characteristic of the display means but also the estimated contrast. Therefore, when the image is displayed on the display means, it is possible to prevent a reduction in the visibility of the image due to both the contrast of the image and the gradation characteristics of the display means. At the same time, the reproducibility of the image can be improved.

表示手段の階調特性と推定された処理対象の画像のコントラストを同時に考慮して、前記画像を構成する各画素の輝度変換を行う。したがって、表示手段に画像を表示した場合、前記画像のコントラストおよび前記表示手段の階調特性の両方に起因する画像の視認性の低下を、防止することができる。   Considering the gradation characteristics of the display means and the estimated contrast of the image to be processed, luminance conversion of each pixel constituting the image is performed. Therefore, when an image is displayed on the display means, it is possible to prevent a decrease in the visibility of the image due to both the contrast of the image and the gradation characteristics of the display means.

(3)予め定める階調特性を有する表示手段と、複数の画素から構成される画像を入力する画像入力手段と、前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、前記表示手段が有する前記階調特性に基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する各画素の輝度を補正する輝度補正手段とを含み、前記表示手段は、前記輝度補正手段によって各画素の輝度が補正された画像を表示することを特徴とする画像処理装置。   (3) display means having predetermined gradation characteristics, image input means for inputting an image composed of a plurality of pixels, character area extraction means for extracting a character area in which characters are drawn from the image, Sharpening means for applying a predetermined degree of sharpening to the remaining area other than the character area in the image, and for applying a sharpening degree higher than the degree of sharpening applied to the residual area to the character area, respectively. And brightness correction means for correcting the brightness of each pixel constituting the sharpened character and the remaining area based on the gradation characteristics of the display means, and the display means An image processing apparatus for displaying an image in which the luminance of each pixel is corrected by the luminance correction means.

(4)複数の画素から構成される画像を入力させ、前記画像内の文字が描かれた文字領域を抽出し、前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化を施し、前記画像内の前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施し、前記画像を表示するための表示手段が有する階調特性に基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する各画素の輝度を補正し、前記各画素の輝度が補正された前記画像を前記表示手段に表示させることを特徴とする画像処理方法。   (4) Input an image composed of a plurality of pixels, extract a character area in which characters are drawn in the image, and perform a predetermined degree of sharpening on a remaining area other than the character area in the image. The character area in the image is sharpened to a degree stronger than the degree of sharpening applied to the remaining area, respectively, and the sharpness is based on the gradation characteristics of the display means for displaying the image. An image processing method comprising: correcting the luminance of each pixel constituting the character and the remaining area, and displaying the image with the corrected luminance of each pixel on the display means.

本発明に従えば、前記画像を処理した場合、前記文字領域に施す鮮鋭化の度合が、前記残余領域に施す鮮鋭化の度合よりも強くなる。これによって、前記画像が表示手段に表示された場合に文字が読み易くなり、同時に前記残余領域内の絵を滑らかなままにすることができる。また、前記画像が前記表示手段に表示された場合、前記表示手段の階調特性の偏りに拘わらず、前記画像内に描かれる文字が見易くなる。したがって、前記画像の解像度と前記表示手段の解像度との差および前記表示手段の階調特性の両方に起因する前記画像の視認性の低下を、防止することができる。同時に、前記画像の再現性を向上させることができる。   According to the present invention, when the image is processed, the degree of sharpening applied to the character area is stronger than the degree of sharpening applied to the remaining area. This makes it easier to read characters when the image is displayed on the display means, and at the same time allows the picture in the remaining area to remain smooth. In addition, when the image is displayed on the display means, it is easy to see the characters drawn in the image regardless of the bias of the gradation characteristics of the display means. Therefore, it is possible to prevent a reduction in the visibility of the image due to both the difference between the resolution of the image and the resolution of the display unit and the gradation characteristics of the display unit. At the same time, the reproducibility of the image can be improved.

前記文字領域に施す鮮鋭化の度合を前記残余領域に施す鮮鋭化の度合よりも強くした選択的鮮鋭化処理が処理対象の画像に施され、かつ前記画像に前記表示手段の階調特性に基づく輝度変換処理が施される、したがって、前記画像の解像度と前記表示手段の解像度との差および前記表示手段の階調特性の両方に起因する画像の視認性の低下を、防止することができる。   A selective sharpening process in which the degree of sharpening applied to the character area is made stronger than the degree of sharpening applied to the remaining area is applied to the image to be processed, and the image is based on the gradation characteristics of the display means. A luminance conversion process is performed. Therefore, it is possible to prevent a reduction in the visibility of the image due to both the difference between the resolution of the image and the resolution of the display unit and the gradation characteristics of the display unit.

本発明の第1実施形態である画像処理装置31に含まれるデータ処理装置34の電気的構成を表すブロック図である。It is a block diagram showing the electric constitution of the data processor included in the image processor which is 1st Embodiment of this invention. 前記画像処理装置31の概略的な電気的構成を表すブロック図である。2 is a block diagram illustrating a schematic electrical configuration of the image processing apparatus 31. FIG. 前記画像処理装置31が実行する画像補正処理を説明するためのフローチャートである。4 is a flowchart for explaining image correction processing executed by the image processing device 31; 入力画像データ51がいわゆる文書画像を表す場合の輝度ヒストグラムである。It is a brightness | luminance histogram in case the input image data 51 represents what is called a document image. 入力画像データがいわゆる文書画像を表す場合の輝度ヒストグラムである。It is a brightness | luminance histogram in case input image data represents what is called a document image. 入力画像データがいわゆる文書画像を表す場合の輝度ヒストグラムである。It is a brightness | luminance histogram in case input image data represents what is called a document image. 輝度補正用ルックアップテーブルCaLUT 内の処理前の輝度値kと処理後の輝度値CaLUT〔k〕との関係を表すグラフである。It is a graph showing the relationship between the luminance value k before processing in the lookup table CaLUT for luminance correction and the luminance value CaLUT [k] after processing. 第2実施形態の画像処理装置内のデータ処理装置81の電気的な構成を表すブロック図である。It is a block diagram showing the electric constitution of the data processing apparatus 81 in the image processing apparatus of 2nd Embodiment. 第2実施形態の画像処理装置が実行する画像補正処理を説明するためのフローチャートである。It is a flowchart for demonstrating the image correction process which the image processing apparatus of 2nd Embodiment performs. 入力画像データ51が表す入力画像91を表す図である。It is a figure showing the input image 91 which the input image data 51 represents. 2値化処理が施された入力画像データであるラベル画像データが表すラベル画像92を表す図である。It is a figure showing the label image 92 which the label image data which is the input image data in which the binarization process was performed represents. 図9の画像補正処理内の外接矩形抽出処理終了後に得られる前記ラベル画像92内の連結部分の外接矩形N1〜Nn+2を表す図である。FIG. 10 is a diagram illustrating circumscribed rectangles N1 to Nn + 2 of a connected portion in the label image 92 obtained after the circumscribed rectangle extraction process in the image correction process of FIG. 9 is completed. 図9の画像補正処理内の第1の除外処理終了後に得られる前記ラベル画像92内の連結部分の外接矩形N2〜Nn+2を表す図である。FIG. 10 is a diagram illustrating circumscribed rectangles N2 to Nn + 2 of a connected portion in the label image 92 obtained after the completion of the first exclusion process in the image correction process of FIG. 図9の画像補正処理内の第2の除外処理終了後に得られる前記ラベル画像92内の連結部分の外接矩形N2〜Nn+2に対応する前記入力画像91内の部分M2〜Mnを表す図である。FIG. 10 is a diagram showing portions M2 to Mn in the input image 91 corresponding to the circumscribed rectangles N2 to Nn + 2 of the connected portions in the label image 92 obtained after completion of the second exclusion processing in the image correction processing of FIG. is there. 図9の画像補正処理のステップb11において設定された各画素の鮮鋭化の度合h(x,y) を表す図である。It is a figure showing the sharpening degree h (x, y) of each pixel set in step b11 of the image correction process of FIG. 図9の画像補正処理内の第2の統合処理を詳細に説明するためのフローチャートである。10 is a flowchart for explaining in detail a second integration process in the image correction process of FIG. 9. 前記第2の統合処理を説明するための図である。It is a figure for demonstrating a said 2nd integration process. 図9の画像補正処理内の第3の除外処理を詳細に説明するためのフローチャートである。10 is a flowchart for explaining in detail a third exclusion process in the image correction process of FIG. 9. 前記第3の除外処理で用いられる探索領域Sa(n)を説明するための図である。It is a figure for demonstrating search area | region Sa (n) used by the said 3rd exclusion process. 第3実施形態の画像処理装置内のデータ処理装置101の電気的な構成を表すブロック図である。It is a block diagram showing the electric constitution of the data processing apparatus 101 in the image processing apparatus of 3rd Embodiment.

第3の実施形態の画像処理装置が実行する画像補正処理を説明するためのフローチャートである。14 is a flowchart for explaining image correction processing executed by the image processing apparatus according to the third embodiment. 本発明の第4実施形態である画像処理装置121の電気的構成を表すブロック図である。It is a block diagram showing the electric constitution of the image processing apparatus 121 which is 4th Embodiment of this invention. 従来技術において、画像データの規格上最大のコントラストよりも小さいコントラストの画像と、前記最大のコントラストの画像とを表す図である。FIG. 6 is a diagram illustrating an image having a contrast smaller than the maximum contrast in the standard of image data and the image having the maximum contrast in the related art. 従来技術において、表示装置の表示画面の構造を説明するための図である。FIG. 6 is a diagram for explaining a structure of a display screen of a display device in the conventional technology. 従来技術において、印刷ドットが前記表示画面の表示画素よりも小さい原稿と、該原稿を表示した表示画面とを表す図である。FIG. 4 is a diagram illustrating a document in which print dots are smaller than display pixels of the display screen and a display screen displaying the document in the related art. 従来技術において、鮮鋭化処理が施されていない画像と、鮮鋭化処理が施された画像とを表す図である。In prior art, it is a figure showing the image in which the sharpening process was not performed, and the image in which the sharpening process was performed. 従来技術において、表示装置の階調特性を表すグラフである。In the prior art, it is a graph showing the gradation characteristic of a display apparatus. 図27のグラフの階調特性の表示装置の表示例である。It is a display example of the display device of the gradation characteristic of the graph of FIG. 図27のグラフの階調特性に応じた階調補正テーブルの入力濃度と出力輝度との関係を表すグラフである。It is a graph showing the relationship between the input density of a gradation correction table according to the gradation characteristic of the graph of FIG. 27, and output luminance. 図27のグラフの階調特性の表示装置を有し、かつ、図29の階調補正テーブルの補正処理を行う画像処理装置全体の階調特性を表すグラフである。FIG. 30 is a graph showing the gradation characteristics of the entire image processing apparatus that has the gradation characteristic display device of FIG. 27 and performs the correction processing of the gradation correction table of FIG. 29; 図27のグラフの階調特性に応じたガンマ補正テーブルの入力濃度と出力輝度との関係を表すグラフである。It is a graph showing the relationship between the input density of a gamma correction table according to the gradation characteristic of the graph of FIG. 27, and output luminance. 図27のグラフの階調特性の表示装置を有し、かつ、図31のガンマ補正テーブルの補正処理を行う画像処理装置全体の階調特性を表すグラフである。It is a graph showing the gradation characteristic of the whole image processing apparatus which has the display apparatus of the gradation characteristic of the graph of FIG. 27, and performs the correction process of the gamma correction table of FIG. 従来技術において、階調補正処理が施されていない画像と、階調補正処理が施された画像とを表す図である。FIG. 6 is a diagram illustrating an image that has not been subjected to gradation correction processing and an image that has been subjected to gradation correction processing in the related art.

符号の説明Explanation of symbols

33 画像入力装置
34 データ処理装置
35 表示装置
37 コントラスト推定部
38,85 輝度補正部
46,87,107 画像輝度変換部
51 入力画像データ
52,89,109 出力画像データ
83 文字領域抽出部
84 画像鮮鋭化部
33 Image Input Device 34 Data Processing Device 35 Display Device 37 Contrast Estimation Unit 38, 85 Brightness Correction Unit 46, 87, 107 Image Brightness Conversion Unit 51 Input Image Data 52, 89, 109 Output Image Data 83 Character Area Extraction Unit 84 Image Sharpening Chemical department

Claims (21)

予め定める階調特性を有する表示手段と、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
前記表示手段が有する前記階調特性に基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する各画素の輝度を補正する輝度補正手段とを含み、
前記鮮鋭化手段は、前記画像を構成する各画素の輝度f(x,y)と前記各画素の鮮鋭化の度合の係数h(x,y)とを、式
g(x,y)=f(x,y)−h(x,y)×▽f(x,y)
に代入して、鮮鋭化された各画素の輝度g(x,y)を個別に求め、
前記各画素の鮮鋭化の度合の係数h(x,y)は、前記各画素が前記残余領域内にある場合、予め定める第1の定数αiであり、前記各画素が前記文字領域内にある場合、第1の定数αiよりも大きい第2の定数αcであり、
前記表示手段は、前記輝度補正手段によって各画素の輝度が補正された画像を表示することを特徴とする画像処理装置。
Display means having predetermined gradation characteristics;
An image input means for inputting an image composed of a plurality of pixels;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
Brightness correcting means for correcting the brightness of each of the pixels that respectively form the character and the remaining area that have been sharpened based on the gradation characteristics of the display means,
The sharpening means calculates the brightness f (x, y) of each pixel constituting the image and the coefficient h (x, y) of the sharpening degree of each pixel by the equation g (x, y) = f (X, y) -h (x, y) × ▽ 2 f (x, y)
To obtain the brightness g (x, y) of each sharpened pixel individually,
The sharpening degree coefficient h (x, y) of each pixel is a predetermined first constant αi when each pixel is in the remaining area, and each pixel is in the character area. A second constant αc that is greater than the first constant αi,
The image processing apparatus, wherein the display unit displays an image in which the luminance of each pixel is corrected by the luminance correction unit.
予め定める階調特性を有する表示手段と、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
前記表示手段が有する前記階調特性に基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する各画素の輝度を補正する輝度補正手段とを含み、
前記文字領域抽出手段は、
前記画像を構成する各画素の輝度を2値化した画像に基づき、文字領域を抽出し、
前記表示手段は、前記輝度補正手段によって各画素の輝度が補正された画像を表示することを特徴とする画像処理装置。
Display means having predetermined gradation characteristics;
An image input means for inputting an image composed of a plurality of pixels;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
Brightness correcting means for correcting the brightness of each of the pixels that respectively form the character and the remaining area that have been sharpened based on the gradation characteristics of the display means,
The character area extracting means includes:
Based on an image obtained by binarizing the luminance of each pixel constituting the image, a character region is extracted,
The image processing apparatus, wherein the display unit displays an image in which the luminance of each pixel is corrected by the luminance correction unit.
予め定める階調特性を有する表示手段と、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
前記表示手段が有する前記階調特性に基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する各画素の輝度を補正する輝度補正手段とを含み、
前記各画素の輝度が予め定める3色の成分の演算によって表される場合、前記文字領域抽出手段は、3色の成分の演算に基づいて文字領域を抽出し、前記鮮鋭化手段は、3色の成分に個別に鮮鋭化を施し、前記輝度補正手段は、3色の成分を個別に補正し、
前記表示手段は、前記輝度補正手段によって各画素の輝度が補正された画像を表示することを特徴とする画像処理装置。
Display means having predetermined gradation characteristics;
An image input means for inputting an image composed of a plurality of pixels;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
Brightness correcting means for correcting the brightness of each of the pixels that respectively form the character and the remaining area that have been sharpened based on the gradation characteristics of the display means,
When the luminance of each pixel is represented by the calculation of a predetermined three-color component, the character region extraction unit extracts a character region based on the calculation of the three-color component, and the sharpening unit The brightness correction means individually corrects the components of the three colors,
The image processing apparatus, wherein the display unit displays an image in which the luminance of each pixel is corrected by the luminance correction unit.
予め定められた階調特性を有する表示手段を備えたデータ閲覧装置と、入力画像を処理して前記表示手段に表示させるための画像データを作成する画像データ作成装置とを備える画像処理装置であって、
前記画像データ作成装置は、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像のコントラストを推定するコントラスト推定手段と、
推定された前記コントラストに基づいて前記画像のコントラストを増大させ、かつ、前記表示手段の階調特性に基づいて前記画像を構成する各画素の輝度を補正する輝度補正手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段とを備え、
前記データ閲覧装置は、
前記記録媒体から画像データを読み取る記録媒体読み取り手段を備え、
前記鮮鋭化手段は、前記画像を構成する各画素の輝度f(x,y)と前記各画素の鮮鋭化の度合の係数h(x,y)とを、式
g(x,y)=f(x,y)−h(x,y)×▽f(x,y)
に代入して、鮮鋭化された各画素の輝度g(x,y)を個別に求め、
前記各画素の鮮鋭化の度合の係数h(x,y)は、前記各画素が前記残余領域内にある場合、予め定める第1の定数αiであり、前記各画素が前記文字領域内にある場合、第1の定数αiよりも大きい第2の定数αcであり、
読み取った前記画像データに基づいて画像を前記表示手段に表示することを特徴とする画像処理装置。
An image processing apparatus comprising: a data browsing apparatus including a display unit having a predetermined gradation characteristic; and an image data generation apparatus that processes an input image and generates image data for display on the display unit. And
The image data creation device includes:
An image input means for inputting an image composed of a plurality of pixels;
Contrast estimation means for estimating the contrast of the image;
Brightness correction means for increasing the contrast of the image based on the estimated contrast, and correcting the brightness of each pixel constituting the image based on the gradation characteristics of the display means;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
A recording medium writing means for writing the luminance-corrected image data to a recording medium,
The data browsing device is:
A recording medium reading means for reading image data from the recording medium;
The sharpening means calculates the brightness f (x, y) of each pixel constituting the image and the coefficient h (x, y) of the sharpening degree of each pixel by the equation g (x, y) = f (X, y) -h (x, y) × ▽ 2 f (x, y)
To obtain the brightness g (x, y) of each sharpened pixel individually,
The sharpening degree coefficient h (x, y) of each pixel is a predetermined first constant αi when each pixel is in the remaining area, and each pixel is in the character area. A second constant αc that is greater than the first constant αi,
An image processing apparatus that displays an image on the display unit based on the read image data.
予め定められた階調特性を有する表示手段を備えたデータ閲覧装置と、入力画像を処理して前記表示手段に表示させるための画像データを作成する画像データ作成装置とを備える画像処理装置であって、
前記画像データ作成装置は、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像のコントラストを推定するコントラスト推定手段と、
推定された前記コントラストに基づいて前記画像のコントラストを増大させ、かつ、前記表示手段の階調特性に基づいて前記画像を構成する各画素の輝度を補正する輝度補正手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段と、
前記画像を構成する各画素の輝度を2値化した画像に基づき、文字領域を抽出する文字領域抽出手段とを備え、
前記データ閲覧装置は、
前記記録媒体から画像データを読み取る記録媒体読み取り手段を備え、
読み取った前記画像データに基づいて画像を前記表示手段に表示することを特徴とする画像処理装置。
An image processing apparatus comprising: a data browsing apparatus including a display unit having a predetermined gradation characteristic; and an image data generation apparatus that processes an input image and generates image data for display on the display unit. And
The image data creation device includes:
An image input means for inputting an image composed of a plurality of pixels;
Contrast estimation means for estimating the contrast of the image;
Brightness correction means for increasing the contrast of the image based on the estimated contrast, and correcting the brightness of each pixel constituting the image based on the gradation characteristics of the display means;
Recording medium writing means for writing the luminance-corrected image data to a recording medium;
A character area extracting means for extracting a character area based on an image obtained by binarizing the luminance of each pixel constituting the image;
The data browsing device is:
A recording medium reading means for reading image data from the recording medium;
An image processing apparatus that displays an image on the display unit based on the read image data.
予め定められた階調特性を有する表示手段を備えたデータ閲覧装置と、入力画像を処理して前記表示手段に表示させるための画像データを作成する画像データ作成装置とを備える画像処理装置であって、
前記画像データ作成装置は、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像のコントラストを推定するコントラスト推定手段と、
推定された前記コントラストに基づいて前記画像のコントラストを増大させ、かつ、前記表示手段の階調特性に基づいて前記画像を構成する各画素の輝度を補正する輝度補正手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段とを備え、
前記各画素の輝度が予め定める3色の成分の演算によって表される場合、前記文字領域抽出手段は、3色の成分の演算に基づいて文字領域を抽出し、前記鮮鋭化手段は、3色の成分に個別に鮮鋭化を施し、前記輝度補正手段は、3色の成分を個別に補正し、
前記データ閲覧装置は、
前記記録媒体から画像データを読み取る記録媒体読み取り手段を備え、
読み取った前記画像データに基づいて画像を前記表示手段に表示することを特徴とする画像処理装置。
An image processing apparatus comprising: a data browsing apparatus including a display unit having a predetermined gradation characteristic; and an image data generation apparatus that processes an input image and generates image data for display on the display unit. And
The image data creation device includes:
An image input means for inputting an image composed of a plurality of pixels;
Contrast estimation means for estimating the contrast of the image;
Brightness correction means for increasing the contrast of the image based on the estimated contrast, and correcting the brightness of each pixel constituting the image based on the gradation characteristics of the display means;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
A recording medium writing means for writing the luminance-corrected image data to a recording medium,
When the luminance of each pixel is represented by the calculation of a predetermined three-color component, the character region extraction unit extracts a character region based on the calculation of the three-color component, and the sharpening unit The brightness correction means individually corrects the components of the three colors,
The data browsing device is:
A recording medium reading means for reading image data from the recording medium;
An image processing apparatus that displays an image on the display unit based on the read image data.
入力画像を処理して予め定められた階調特性を有する表示手段に画像を表示させるための画像データを作成する画像データ作成装置であって、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像のコントラストを推定するコントラスト推定手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
推定された前記コントラストに基づいて前記画像のコントラストを増大させ、かつ、前記表示手段の階調特性に基づいて前記画像を構成する各画素の輝度を補正する輝度補正手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段とを備え、
前記鮮鋭化手段は、前記画像を構成する各画素の輝度f(x,y)と前記各画素の鮮鋭化の度合の係数h(x,y)とを、式
g(x,y)=f(x,y)−h(x,y)×▽f(x,y)
に代入して、鮮鋭化された各画素の輝度g(x,y)を個別に求め、
前記各画素の鮮鋭化の度合の係数h(x,y)は、前記各画素が前記残余領域内にある場合、予め定める第1の定数αiであり、前記各画素が前記文字領域内にある場合、第1の定数αiよりも大きい第2の定数αcであることを特徴とする画像データ作成装置。
An image data creation device for processing an input image and creating image data for displaying the image on display means having a predetermined gradation characteristic,
An image input means for inputting an image composed of a plurality of pixels;
Contrast estimation means for estimating the contrast of the image;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
Brightness correction means for increasing the contrast of the image based on the estimated contrast, and correcting the brightness of each pixel constituting the image based on the gradation characteristics of the display means;
A recording medium writing means for writing the luminance-corrected image data to a recording medium,
The sharpening means calculates the brightness f (x, y) of each pixel constituting the image and the coefficient h (x, y) of the sharpening degree of each pixel by the equation g (x, y) = f (X, y) -h (x, y) × ▽ 2 f (x, y)
To obtain the brightness g (x, y) of each sharpened pixel individually,
The sharpening degree coefficient h (x, y) of each pixel is a predetermined first constant αi when each pixel is in the remaining area, and each pixel is in the character area. In this case, the image data creating apparatus is characterized in that the second constant αc is larger than the first constant αi.
入力画像を処理して予め定められた階調特性を有する表示手段に画像を表示させるための画像データを作成する画像データ作成装置であって、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像のコントラストを推定するコントラスト推定手段と、
推定された前記コントラストに基づいて前記画像のコントラストを増大させ、かつ、前記表示手段の階調特性に基づいて前記画像を構成する各画素の輝度を補正する輝度補正手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段と、
前記画像を構成する各画素の輝度を2値化した画像に基づき、文字領域を抽出する文字領域抽出手段とを備えることを特徴とする画像データ作成装置。
An image data creation device for processing an input image and creating image data for displaying the image on display means having a predetermined gradation characteristic,
An image input means for inputting an image composed of a plurality of pixels;
Contrast estimation means for estimating the contrast of the image;
Brightness correction means for increasing the contrast of the image based on the estimated contrast, and correcting the brightness of each pixel constituting the image based on the gradation characteristics of the display means;
Recording medium writing means for writing the luminance-corrected image data to a recording medium;
An image data creating apparatus comprising: a character area extracting unit that extracts a character area based on an image obtained by binarizing the luminance of each pixel constituting the image.
入力画像を処理して予め定められた階調特性を有する表示手段に画像を表示させるための画像データを作成する画像データ作成装置であって、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像のコントラストを推定するコントラスト推定手段と、
推定された前記コントラストに基づいて前記画像のコントラストを増大させ、かつ、前記表示手段の階調特性に基づいて前記画像を構成する各画素の輝度を補正する輝度補正手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段とを備え、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段とをさらに含み、
前記各画素の輝度が予め定める3色の演算の和によって表される場合、前記文字領域抽出手段は、3色の成分の演算に基づいて文字領域を抽出し、前記鮮鋭化手段は、3色の成分に個別に鮮鋭化を施し、前記輝度補正手段は、3色の成分を個別に補正することを特徴とする画像データ作成装置。
An image data creation device for processing an input image and creating image data for displaying the image on display means having a predetermined gradation characteristic,
An image input means for inputting an image composed of a plurality of pixels;
Contrast estimation means for estimating the contrast of the image;
Brightness correction means for increasing the contrast of the image based on the estimated contrast, and correcting the brightness of each pixel constituting the image based on the gradation characteristics of the display means;
A recording medium writing means for writing the luminance-corrected image data to a recording medium,
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. And further including
When the luminance of each pixel is represented by a predetermined sum of three color operations, the character region extraction unit extracts a character region based on the calculation of three color components, and the sharpening unit includes three colors. The image data generating apparatus according to claim 1, wherein the brightness correction unit individually corrects the three color components.
予め定められた階調特性を有する表示手段を備えたデータ閲覧装置と、入力画像を処理して前記表示手段に表示させるための画像データを作成する画像データ作成装置とを備える画像処理装置であって、
前記画像データ作成装置は、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
前記表示手段が有する前記階調特性に基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する各画素の輝度を補正する輝度補正手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段とを備え、
前記鮮鋭化手段は、前記画像を構成する各画素の輝度f(x,y)と前記各画素の鮮鋭化の度合の係数h(x,y)とを、式
g(x,y)=f(x,y)−h(x,y)×▽f(x,y)に代入して、鮮鋭化された各画素の輝度g(x,y)を個別に求め、
前記各画素の鮮鋭化の度合の係数h(x,y)は、前記各画素が前記残余領域内にある場合、予め定める第1の定数αiであり、前記各画素が前記文字領域内にある場合、第1の定数αiよりも大きい第2の定数αcであり、
前記データ閲覧装置は、
前記記録媒体から画像データを読み取る記録媒体読み取り手段を備え、
読み取った前記画像データに基づいて画像を前記表示手段に表示することを特徴とする画像処理装置。
An image processing apparatus comprising: a data browsing apparatus including a display unit having a predetermined gradation characteristic; and an image data generation apparatus that processes an input image and generates image data for display on the display unit. And
The image data creation device includes:
An image input means for inputting an image composed of a plurality of pixels;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
Brightness correcting means for correcting the brightness of each of the pixels constituting the character and the remaining area that have been sharpened based on the gradation characteristics of the display means;
A recording medium writing means for writing the luminance-corrected image data to a recording medium,
The sharpening means calculates the brightness f (x, y) of each pixel constituting the image and the coefficient h (x, y) of the sharpening degree of each pixel by the equation g (x, y) = f Substituting into (x, y) −h (x, y) × ▽ 2 f (x, y), the brightness g (x, y) of each sharpened pixel is obtained individually,
The sharpening degree coefficient h (x, y) of each pixel is a predetermined first constant αi when each pixel is in the remaining area, and each pixel is in the character area. A second constant αc that is greater than the first constant αi,
The data browsing device is:
A recording medium reading means for reading image data from the recording medium;
An image processing apparatus that displays an image on the display unit based on the read image data.
予め定められた階調特性を有する表示手段を備えたデータ閲覧装置と、入力画像を処理して前記表示手段に表示させるための画像データを作成する画像データ作成装置とを備える画像処理装置であって、
前記画像データ作成装置は、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
前記表示手段が有する前記階調特性に基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する各画素の輝度を補正する輝度補正手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段とを備え、
前記文字領域抽出手段は、
前記画像を構成する各画素の輝度を2値化した画像に基づき、文字領域を抽出し、
前記データ閲覧装置は、
前記記録媒体から画像データを読み取る記録媒体読み取り手段を備え、
読み取った前記画像データに基づいて画像を前記表示手段に表示することを特徴とする画像処理装置。
An image processing apparatus comprising: a data browsing apparatus including a display unit having a predetermined gradation characteristic; and an image data generation apparatus that processes an input image and generates image data for display on the display unit. And
The image data creation device includes:
An image input means for inputting an image composed of a plurality of pixels;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
Brightness correcting means for correcting the brightness of each of the pixels constituting the character and the remaining area that have been sharpened based on the gradation characteristics of the display means;
A recording medium writing means for writing the luminance-corrected image data to a recording medium,
The character area extracting means includes:
Based on an image obtained by binarizing the luminance of each pixel constituting the image, a character region is extracted,
The data browsing device is:
A recording medium reading means for reading image data from the recording medium;
An image processing apparatus that displays an image on the display unit based on the read image data.
予め定められた階調特性を有する表示手段を備えたデータ閲覧装置と、入力画像を処理して前記表示手段に表示させるための画像データを作成する画像データ作成装置とを備える画像処理装置であって、
前記画像データ作成装置は、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
前記表示手段が有する前記階調特性に基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する各画素の輝度を補正する輝度補正手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段とを備え、
前記各画素の輝度が予め定める3色の成分の演算によって表される場合、前記文字領域抽出手段は、3色の成分の演算に基づいて文字領域を抽出し、前記鮮鋭化手段は、3色の成分に個別に鮮鋭化を施し、前記輝度補正手段は、3色の成分を個別に補正し、
前記データ閲覧装置は、
前記記録媒体から画像データを読み取る記録媒体読み取り手段を備え、
読み取った前記画像データに基づいて画像を前記表示手段に表示することを特徴とする画像処理装置。
An image processing apparatus comprising: a data browsing apparatus including a display unit having a predetermined gradation characteristic; and an image data generation apparatus that processes an input image and generates image data for display on the display unit. And
The image data creation device includes:
An image input means for inputting an image composed of a plurality of pixels;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
Brightness correcting means for correcting the brightness of each of the pixels constituting the character and the remaining area that have been sharpened based on the gradation characteristics of the display means;
A recording medium writing means for writing the luminance-corrected image data to a recording medium,
When the luminance of each pixel is represented by the calculation of a predetermined three-color component, the character region extraction unit extracts a character region based on the calculation of the three-color component, and the sharpening unit The brightness correction means individually corrects the components of the three colors,
The data browsing device is:
A recording medium reading means for reading image data from the recording medium;
An image processing apparatus that displays an image on the display unit based on the read image data.
入力画像を処理して予め定められた階調特性を有する表示手段に画像を表示させるための画像データを作成する画像データ作成装置であって、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
前記表示手段が有する前記階調特性に基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する各画素の輝度を補正する輝度補正手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段とを備え、
前記鮮鋭化手段は、前記画像を構成する各画素の輝度f(x,y)と前記各画素の鮮鋭化の度合の係数h(x,y)とを、式
g(x,y)=f(x,y)−h(x,y)×▽f(x,y)
に代入して、鮮鋭化された各画素の輝度g(x,y)を個別に求め、
前記各画素の鮮鋭化の度合の係数h(x,y)は、前記各画素が前記残余領域内にある場合、予め定める第1の定数αiであり、前記各画素が前記文字領域内にある場合、第1の定数αiよりも大きい第2の定数αcであることを特徴とする画像データ作成装置。
An image data creation device for processing an input image and creating image data for displaying the image on display means having a predetermined gradation characteristic,
An image input means for inputting an image composed of a plurality of pixels;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
Brightness correcting means for correcting the brightness of each of the pixels constituting the character and the remaining area that have been sharpened based on the gradation characteristics of the display means;
A recording medium writing means for writing the luminance-corrected image data to a recording medium,
The sharpening means calculates the brightness f (x, y) of each pixel constituting the image and the coefficient h (x, y) of the sharpening degree of each pixel by the equation g (x, y) = f (X, y) -h (x, y) × ▽ 2 f (x, y)
To obtain the brightness g (x, y) of each sharpened pixel individually,
The sharpening degree coefficient h (x, y) of each pixel is a predetermined first constant αi when each pixel is in the remaining area, and each pixel is in the character area. In this case, the image data creating apparatus is characterized in that the second constant αc is larger than the first constant αi.
入力画像を処理して予め定められた階調特性を有する表示手段に画像を表示させるための画像データを作成する画像データ作成装置であって、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
前記表示手段が有する前記階調特性に基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する各画素の輝度を補正する輝度補正手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段とを備え、
前記文字領域抽出手段は、
前記画像を構成する各画素の輝度を2値化した画像に基づき、文字領域を抽出することを特徴とする画像データ作成装置。
An image data creation device for processing an input image and creating image data for displaying the image on display means having a predetermined gradation characteristic,
An image input means for inputting an image composed of a plurality of pixels;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
Brightness correcting means for correcting the brightness of each of the pixels constituting the character and the remaining area that have been sharpened based on the gradation characteristics of the display means;
A recording medium writing means for writing the luminance-corrected image data to a recording medium,
The character area extracting means includes:
An image data generating apparatus, wherein a character region is extracted based on an image obtained by binarizing the luminance of each pixel constituting the image.
入力画像を処理して予め定められた階調特性を有する表示手段に画像を表示させるための画像データを作成する画像データ作成装置であって、
複数の画素から構成される画像を入力する画像入力手段と、
前記画像内から文字が描かれた文字領域を抽出する文字領域抽出手段と、
前記画像内の前記文字領域以外の残余領域に予め定める度合の鮮鋭化をそれぞれ施し、前記文字領域に、前記残余領域に施した鮮鋭化の度合よりも強い度合の鮮鋭化をそれぞれ施す鮮鋭化手段と、
前記表示手段が有する前記階調特性に基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する各画素の輝度を補正する輝度補正手段と、
前記輝度が補正された画像データを記録媒体に書き込む記録媒体書き込み手段とを備え、
前記各画素の輝度が予め定める3色の成分の演算によって表される場合、前記文字領域抽出手段は、3色の成分の演算に基づいて文字領域を抽出し、前記鮮鋭化手段は、3色の成分に個別に鮮鋭化を施し、前記輝度補正手段は、3色の成分を個別に補正することを特徴とする画像データ作成装置。
An image data creation device for processing an input image and creating image data for displaying the image on display means having a predetermined gradation characteristic,
An image input means for inputting an image composed of a plurality of pixels;
A character region extracting means for extracting a character region in which characters are drawn from the image;
Sharpening means for applying a predetermined degree of sharpening to a remaining area other than the character area in the image, and for applying a sharpening degree to the character area that is stronger than the degree of sharpening applied to the residual area. When,
Brightness correcting means for correcting the brightness of each of the pixels constituting the character and the remaining area that have been sharpened based on the gradation characteristics of the display means;
A recording medium writing means for writing the luminance-corrected image data to a recording medium,
When the luminance of each pixel is represented by the calculation of a predetermined three-color component, the character region extraction unit extracts a character region based on the calculation of the three-color component, and the sharpening unit The image data generating apparatus according to claim 1, wherein the brightness correction unit individually corrects the three color components.
前記文字領域抽出手段は、
前記画像を構成する各画素の輝度を2値化した画像に基づき、文字領域をそれぞれ抽出することを特徴とする請求項1,3,4,6,10,12のうちの1つに記載の画像処理装置。
The character area extracting means includes:
The character region is extracted on the basis of an image obtained by binarizing the luminance of each pixel constituting the image, respectively, according to any one of claims 1, 3, 4, 6, 10, and 12. Image processing device.
前記文字領域抽出手段は、
前記画像を構成する各画素の輝度を2値化した画像に基づき、文字領域をそれぞれ抽出することを特徴とする請求項7,9,13,15のうちの1つに記載の画像データ作成装置。
The character area extracting means includes:
16. The image data creation device according to claim 7, wherein character regions are extracted based on an image obtained by binarizing the luminance of each pixel constituting the image. .
前記画像のコントラストを推定するコントラスト推定手段と、
推定された前記コントラストに基づいて、前記画像のコントラストを増大させるコントラスト補正手段とをさらに含み、
前記コントラスト推定手段は、
前記画像を構成する各画素の輝度のヒストグラムを作成に基づき、画像のコントラストを推定し、第2の範囲内の前記ヒストグラムの最大値が基準値未満である場合、第1の輝度と前記画像を構成する全ての画素の輝度のうちで最低の輝度とに基づいて画像のコントラストを推定し、
前記輝度補正手段は、
前記表示手段が有する前記階調特性およびコントラスト補正手段によって補正されたコントラストに基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する画素の輝度を補正することを特徴とする請求項1,2,3,10,11,12のうちの1つに記載の画像処理装置。
Contrast estimation means for estimating the contrast of the image;
Contrast correction means for increasing the contrast of the image based on the estimated contrast,
The contrast estimation means includes
Based on the creation of a histogram of the luminance of each pixel constituting the image, the contrast of the image is estimated, and when the maximum value of the histogram within a second range is less than a reference value, the first luminance and the image are Estimate the contrast of the image based on the lowest luminance among the luminance of all the constituent pixels,
The brightness correction means includes
The brightness of the pixels that respectively form the sharpened character and the remaining area is corrected based on the gradation characteristic of the display unit and the contrast corrected by the contrast correcting unit. Item 15. The image processing apparatus according to one of Items 1, 2, 3, 10, 11, and 12.
前記画像のコントラストを推定するコントラスト推定手段と、
推定された前記コントラストに基づいて、前記画像のコントラストを増大させるコントラスト補正手段とをさらに含み、
前記コントラスト推定手段は、
前記画像を構成する各画素の輝度のヒストグラムに基づき、画像のコントラストを推定し、
前記輝度補正手段は、
前記表示手段が有する前記階調特性およびコントラスト補正手段によって補正されたコントラストに基づいて、鮮鋭化が施された前記文字および前記残余領域をそれぞれ構成する画素の輝度を補正することを特徴とする請求項13,14,15のうちの1つに記載の画像データ作成装置。
Contrast estimation means for estimating the contrast of the image;
Contrast correction means for increasing the contrast of the image based on the estimated contrast,
The contrast estimation means includes
Based on the luminance histogram of each pixel constituting the image, the image contrast is estimated,
The brightness correction means includes
The brightness of the pixels that respectively form the sharpened character and the remaining area is corrected based on the gradation characteristic of the display unit and the contrast corrected by the contrast correcting unit. Item 16. The image data creation device according to one of Items 13, 14, and 15.
前記コントラスト推定手段は、
前記画像を構成する各画素の輝度のヒストグラムに基づき、画像のコントラストを推定することを特徴とする請求項4,5,6のうちの1つに記載の画像処理装置。
The contrast estimation means includes
The image processing apparatus according to claim 4, wherein the contrast of the image is estimated based on a luminance histogram of each pixel constituting the image.
前記コントラスト推定手段は、
前記画像を構成する各画素の輝度のヒストグラムに基づき、画像のコントラストを推定することを特徴とする請求項7,8,9のうちの1つに記載の画像データ作成装置。
The contrast estimation means includes
10. The image data creation device according to claim 7, wherein the image contrast is estimated based on a luminance histogram of each pixel constituting the image.
JP2006274508A 2006-10-05 2006-10-05 Image processor Pending JP2007079587A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006274508A JP2007079587A (en) 2006-10-05 2006-10-05 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006274508A JP2007079587A (en) 2006-10-05 2006-10-05 Image processor

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP01164598A Division JP3881439B2 (en) 1998-01-23 1998-01-23 Image processing device

Publications (1)

Publication Number Publication Date
JP2007079587A true JP2007079587A (en) 2007-03-29

Family

ID=37939872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006274508A Pending JP2007079587A (en) 2006-10-05 2006-10-05 Image processor

Country Status (1)

Country Link
JP (1) JP2007079587A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007079586A (en) * 2006-10-05 2007-03-29 Sharp Corp Image processor
JP2020144719A (en) * 2019-03-08 2020-09-10 国立大学法人秋田大学 Page space area classification device and program therefor
WO2022097600A1 (en) * 2020-11-05 2022-05-12 京セラドキュメントソリューションズ株式会社 Image processing device and image processing method
CN114630090A (en) * 2020-12-11 2022-06-14 夏普株式会社 Image processing apparatus and image processing method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03126180A (en) * 1989-10-11 1991-05-29 Oki Electric Ind Co Ltd Image processing device
JPH08223424A (en) * 1995-02-10 1996-08-30 Nikon Corp Negative/positive converter and film image converter using it
JPH0991419A (en) * 1995-09-25 1997-04-04 Nec Corp Image processor
JPH09186866A (en) * 1996-01-05 1997-07-15 Fuji Xerox Co Ltd Image processing unit and image processing method
JPH11213149A (en) * 1998-01-23 1999-08-06 Sharp Corp Device and method for processing image
JP2007079586A (en) * 2006-10-05 2007-03-29 Sharp Corp Image processor

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03126180A (en) * 1989-10-11 1991-05-29 Oki Electric Ind Co Ltd Image processing device
JPH08223424A (en) * 1995-02-10 1996-08-30 Nikon Corp Negative/positive converter and film image converter using it
JPH0991419A (en) * 1995-09-25 1997-04-04 Nec Corp Image processor
JPH09186866A (en) * 1996-01-05 1997-07-15 Fuji Xerox Co Ltd Image processing unit and image processing method
JPH11213149A (en) * 1998-01-23 1999-08-06 Sharp Corp Device and method for processing image
JP2007079586A (en) * 2006-10-05 2007-03-29 Sharp Corp Image processor

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007079586A (en) * 2006-10-05 2007-03-29 Sharp Corp Image processor
JP2020144719A (en) * 2019-03-08 2020-09-10 国立大学法人秋田大学 Page space area classification device and program therefor
JP7243981B2 (en) 2019-03-08 2023-03-22 国立大学法人秋田大学 Paper area classification device and its program
WO2022097600A1 (en) * 2020-11-05 2022-05-12 京セラドキュメントソリューションズ株式会社 Image processing device and image processing method
CN114630090A (en) * 2020-12-11 2022-06-14 夏普株式会社 Image processing apparatus and image processing method
JP2022092667A (en) * 2020-12-11 2022-06-23 シャープ株式会社 Image processing device and image processing method
JP7271492B2 (en) 2020-12-11 2023-05-11 シャープ株式会社 Image processing device and image processing method

Similar Documents

Publication Publication Date Title
JP3881439B2 (en) Image processing device
JP5616308B2 (en) Document modification detection method by character comparison using character shape feature
US7965894B2 (en) Method for detecting alterations in printed document using image comparison analyses
JP2004272902A (en) Labelling method of digital image data, recording medium, segmentation method of compound document, microprocessor and image reproduction device
JP6781406B2 (en) Image processing equipment and computer programs
JP3142550B2 (en) Graphic processing unit
CN114549670A (en) Image processing method and image processing system
KR20050001932A (en) Method for improving image quality
US7724981B2 (en) Adaptive contrast control systems and methods
JP2007079586A (en) Image processor
US7965409B2 (en) Methods and systems for rendering and printing reverse fine features
US8285036B2 (en) Image processing method, image processing apparatus, and computer-readable storage medium for computer program
JP2007079587A (en) Image processor
JP2017123015A (en) Information processing apparatus, image processing method, and program
US8401290B2 (en) Method and system for processing to enhance digital images
US11069043B1 (en) Background noise reduction using a variable range of color values dependent upon the initial background color distribution
US8554005B1 (en) Digital image enhancement method and system that embolden or thin image features
JP2018147199A (en) Image processing device, and computer program
US6741751B1 (en) Logic based tagging for hyperacuity rendering of an input image with a 5×5 context
KR20160069452A (en) Image processing device, image processing method and program
JP2018148378A (en) Image processing device and computer program
JP6797763B2 (en) Character recognition device
JP2009060216A (en) Image processor, and image processing program
JP2006107018A (en) Method and apparatus for image analysis, method and system for image processing, and operation program therefor
JP5062156B2 (en) Photo image processing method, photo image processing program, and photo image processing apparatus

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100119

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100525