JP2013210887A - Image processing apparatus and control method therefor - Google Patents

Image processing apparatus and control method therefor Download PDF

Info

Publication number
JP2013210887A
JP2013210887A JP2012081334A JP2012081334A JP2013210887A JP 2013210887 A JP2013210887 A JP 2013210887A JP 2012081334 A JP2012081334 A JP 2012081334A JP 2012081334 A JP2012081334 A JP 2012081334A JP 2013210887 A JP2013210887 A JP 2013210887A
Authority
JP
Japan
Prior art keywords
area
boundary
color
region
monochrome
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012081334A
Other languages
Japanese (ja)
Other versions
JP5911352B2 (en
JP2013210887A5 (en
Inventor
Izumi Kanai
泉 金井
Yasuo Suzuki
康夫 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012081334A priority Critical patent/JP5911352B2/en
Priority to US13/797,080 priority patent/US9135718B2/en
Publication of JP2013210887A publication Critical patent/JP2013210887A/en
Priority to US14/520,982 priority patent/US20150043813A1/en
Publication of JP2013210887A5 publication Critical patent/JP2013210887A5/ja
Application granted granted Critical
Publication of JP5911352B2 publication Critical patent/JP5911352B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of reducing deterioration of image quality caused by an erroneous determination that a color area is erroneously determined to be a monochrome area.SOLUTION: An image processing apparatus of the present invention, in which in an input image separation is made between a color area and a monochrome area, includes: acquisition means for acquiring a statistical amount of a pixel value for each divided area obtained by dividing an input image; separation means for separating an input image into a color area and a monochrome area on the basis of a statistical amount for each divided area acquired by the acquisition means; and moving means for causing a boundary to move in such a manner that the boundary passes a boundary vicinity area when a luminance value in a boundary vicinity area is lower than a prescribed value, the boundary vicinity area being an area deviated by a prescribed distance to the monochrome area side from a boundary between the color area and the monochrome area separated by the separation means.

Description

本発明は、画像処理装置及びその制御方法に関する。   The present invention relates to an image processing apparatus and a control method thereof.

従来、入力画像をモノクロ領域(モノクロ画像の領域)とカラー領域(カラー画像の領域)に区分し、モノクロ領域とカラー領域に対し、個別にγ補正する画像処理装置が提案されている。例えば、モノクロ領域にDICOM(Digital Imaging and COmmunication in Medicine)Part14で規定されたγ補正(以下、「DICOMγ補正」と呼ぶ)を施し、カラー領域にγ=2.2のγ補正(以下、「2.2γ補正」と呼ぶ)を施す画像処理装置が提案されている。このような画像処理装置を用いれば、レントゲン画像などのモノクロ画像と、内視鏡画像などのカラー画像とを表示した場合に、モノクロ画像にはDICOMγ補正が、カラー画像には2.2γ補正が施され、各画像を適切な階調で表示することができる。   Conventionally, there has been proposed an image processing apparatus that divides an input image into a monochrome area (monochrome image area) and a color area (color image area) and individually γ-corrects the monochrome area and the color area. For example, γ correction (hereinafter referred to as “DICOM γ correction”) defined by DICOM (Digital Imaging and Communication in Medicine) Part 14 is performed on the monochrome area, and γ correction of γ = 2.2 (hereinafter “2” is applied to the color area). Image processing apparatus that performs “.2γ correction” has been proposed. When such an image processing apparatus is used, when a monochrome image such as an X-ray image and a color image such as an endoscopic image are displayed, DICOMγ correction is applied to the monochrome image, and 2.2γ correction is applied to the color image. Thus, each image can be displayed with an appropriate gradation.

入力画像をモノクロ領域とカラー領域に区分する方法は、例えば特許文献1に開示されている。具体的には、特許文献1には、入力画像を複数の矩形ブロックに分割し、矩形ブロック毎にモノクロ領域かカラー領域かを判定することが開示されている。   A method of dividing an input image into a monochrome area and a color area is disclosed in Patent Document 1, for example. Specifically, Patent Document 1 discloses that an input image is divided into a plurality of rectangular blocks, and whether each of the rectangular blocks is a monochrome area or a color area is disclosed.

ここで、モノクロ領域かカラー領域かを判定する際には、以下の点を注意しなければならない。
モノクロ画像(例えば、レントゲン画像)中にカラーの注釈など多少のカラー画素が存在する場合がある。しかし、カラー画素が含まれてもモノクロ画像はDICOMγ補正を施して表示する必要がある。そのため、モノクロ領域を判定する際に、領域内に多少のカラー画素が存在してもその領域をモノクロ領域と判定する必要がある。
Here, when determining whether the area is a monochrome area or a color area, the following points must be noted.
There may be some color pixels such as color annotations in a monochrome image (eg, an X-ray image). However, even if color pixels are included, it is necessary to display a monochrome image after performing DICOMγ correction. Therefore, when determining a monochrome area, even if there are some color pixels in the area, it is necessary to determine that area as a monochrome area.

しかしながら、上記注意点を考慮して特許文献1に開示の技術を用いた場合、カラー画像の縁部の領域が、カラー領域であるにも拘らずモノクロ領域であると誤判定される場合があった。具体的には、背景がモノクロのカラー画像の縁部では、矩形ブロック内に多少のカラー画素しか含まれなくなる。そのため、上記注意点を考慮したことによりカラー画像の縁部の領域がモノクロ領域と誤判定されてしまう。カラー領域は2.2γ補正を適用すべき画像であるが、モノクロ領域と誤判定されるとDICOMγ補正が適用されてしまう。その結果、正しくカラー領域と判定されたカラー画素とモノクロ領域と誤判定されたカラー画素との間に輝度差が生じ、画質が劣化してしまう(画質的な妨害が生じてしまう)。   However, when the technique disclosed in Patent Document 1 is used in consideration of the above precautions, the edge area of a color image may be erroneously determined to be a monochrome area even though it is a color area. It was. Specifically, at the edge of a monochrome color image, only a few color pixels are included in the rectangular block. For this reason, by taking the above cautions into consideration, the edge area of the color image is erroneously determined as a monochrome area. The color area is an image to which 2.2γ correction is to be applied, but if it is erroneously determined as a monochrome area, DICOMγ correction is applied. As a result, a luminance difference is generated between the color pixel correctly determined as the color area and the color pixel erroneously determined as the monochrome area, and the image quality is deteriorated (the image quality is disturbed).

特開2003−244469号公報JP 2003-244469 A

本発明は、カラー領域をモノクロ領域と誤判定することによる画質の劣化を低減することのできる技術を提供することを目的とする。   An object of the present invention is to provide a technique capable of reducing deterioration in image quality due to erroneous determination of a color area as a monochrome area.

本発明の画像処理装置は、
入力画像をカラー領域とモノクロ領域に区分する画像処理装置であって、
前記入力画像を分割して得られる分割領域毎の画素値の統計量を取得する取得手段と、
前記取得手段で取得された分割領域毎の統計量に基づいて、前記入力画像をカラー領域とモノクロ領域に区分する区分手段と、
前記区分手段で区分されたカラー領域とモノクロ領域の境界からモノクロ領域側に所定距離だけ離れた領域である境界近傍領域の輝度値が所定値より低い場合に、当該境界近傍領域内を通るように前記境界を移動させる移動手段と、
を有する。
The image processing apparatus of the present invention
An image processing apparatus for dividing an input image into a color area and a monochrome area,
An acquisition means for acquiring a statistic of a pixel value for each divided region obtained by dividing the input image;
Sorting means for classifying the input image into a color area and a monochrome area based on the statistics for each divided area obtained by the obtaining means;
When the luminance value of the boundary vicinity area that is a predetermined distance away from the boundary between the color area and the monochrome area divided by the classification means to the monochrome area side is lower than the predetermined value, it passes through the boundary vicinity area. Moving means for moving the boundary;
Have

本発明の画像処理装置の制御方法は、
入力画像をカラー領域とモノクロ領域に区分する画像処理装置の制御方法であって、
前記入力画像を分割して得られる分割領域毎の画素値の統計量を取得する取得ステップと、
前記取得ステップで取得された分割領域毎の統計量に基づいて、前記入力画像をカラー領域とモノクロ領域に区分する区分ステップと、
前記区分ステップで区分されたカラー領域とモノクロ領域の境界からモノクロ領域側に所定距離だけ離れた領域である境界近傍領域の輝度値が所定値より低い場合に、当該境界近傍領域内を通るように前記境界を移動させる移動ステップと、
を有する。
The control method of the image processing apparatus of the present invention includes:
A control method of an image processing apparatus for dividing an input image into a color area and a monochrome area,
An acquisition step of acquiring a statistic of a pixel value for each divided region obtained by dividing the input image;
A step of dividing the input image into a color region and a monochrome region based on the statistics for each divided region acquired in the acquisition step;
If the luminance value of the boundary vicinity area that is a predetermined distance away from the boundary between the color area and the monochrome area divided in the classification step toward the monochrome area side is lower than the predetermined value, the luminance value of the boundary vicinity area passes through the boundary vicinity area. A moving step for moving the boundary;
Have

本発明によれば、カラー領域をモノクロ領域と誤判定することによる画質の劣化を低減することができる。   According to the present invention, it is possible to reduce deterioration in image quality due to erroneous determination of a color area as a monochrome area.

実施例1,2に係る画像処理装置の機能構成の一例を示すブロック図FIG. 3 is a block diagram illustrating an example of a functional configuration of the image processing apparatus according to the first and second embodiments. 実施例1〜3のモノクロ/カラー判定部の詳細の一例を示すブロック図FIG. 3 is a block diagram illustrating an example of details of a monochrome / color determination unit according to the first to third embodiments. 実施例1,3のモノクロ/カラー判定部の処理フローの一例を説明する図FIG. 6 is a diagram illustrating an example of a processing flow of a monochrome / color determination unit according to the first and third embodiments. 実施例1,2の輝度検出部の詳細の一例を示すブロック図The block diagram which shows an example of the detail of the brightness | luminance detection part of Example 1,2. 実施例1の細分割領域の一例を示す図The figure which shows an example of the subdivision area | region of Example 1. FIG. 実施例1,2の領域検出部の詳細の一例を示すブロック図The block diagram which shows an example of the detail of the area | region detection part of Example 1,2. 実施例1〜3の水平統合部と垂直統合部の処理フローの一例を説明する図The figure explaining an example of the processing flow of the horizontal integration part and vertical integration part of Examples 1-3. 実施例1の境界移動部の処理フローの一例を説明する図The figure explaining an example of the processing flow of the boundary moving part of Example 1. 実施例2のモノクロ/カラー判定部の処理フローの一例を説明する図FIG. 10 is a diagram illustrating an example of a processing flow of a monochrome / color determination unit according to the second embodiment. 実施例2の細分割領域の一例を示す図The figure which shows an example of the subdivision area | region of Example 2. 実施例2の水平統合部の処理結果の一例を示す図The figure which shows an example of the processing result of the horizontal integration part of Example 2. 実施例2の境界移動部の処理フローの一例を説明する図The figure explaining an example of the processing flow of the boundary moving part of Example 2. 実施例3に係る画像処理装置の機能構成の一例を示すブロック図FIG. 9 is a block diagram illustrating an example of a functional configuration of an image processing apparatus according to a third embodiment. 実施例3の領域検出部の詳細の一例を示すブロック図FIG. 9 is a block diagram illustrating an example of details of an area detection unit according to the third embodiment. 実施例3の境界移動部の境界近傍領域決定処理の一例を説明する図The figure explaining an example of the boundary vicinity area | region determination process of the boundary moving part of Example 3. 実施例3の輝度検出部の詳細の一例を示すブロック図FIG. 9 is a block diagram illustrating an example of details of a luminance detection unit according to the third embodiment. 実施例3の境界移動部の処理結果の一例を示す図The figure which shows an example of the process result of the boundary moving part of Example 3.

<実施例1>
以下、本発明の実施例1に係る画像処理装置及びその制御方法について説明する。
本実施例に係る画像処理装置は、入力画像をカラー領域とモノクロ領域に区分し、カラー領域とモノクロ領域に対して個別に画像処理を施す。本実施例では、モノクロ領域にDICOM(Digital Imaging and COmmunication in Medicine)Part14で規定されたγ補正(DICOMγ補正)が適用され、カラー領域にγ=2.2のγ補正(2.2γ補正)が適用される。
図1は、本実施例に係る画像処理装置の機能構成の一例を示すブロック図である。本実施例に係る画像処理装置は、モノクロ/カラー判定部1、輝度検出部2、領域検出部3、γ補正部4、表示パネル5などを有する。本実施例に係る画像処理装置には、不図示のパーソナル・コンピューターから画像データs0(入力画像)が入力される。そして、本実施例に係る画像処理装置は、画像データs0にγ補正を施すことにより画像データs1を生成し、画像データs1に基づく画像を表示パネル5で表示する。本実施例では、画像データs0,s1はRGBデータであるものとする。
なお、本実施例では、表示パネル5が画像処理装置の一部である場合の例を説明するが、表示パネル5は画像処理装置と別体の装置であってもよい。
また、画像データはRGBデータでなくてもよい。例えば、画像データはYCbCrデータであってもよい。
<Example 1>
Hereinafter, an image processing apparatus and a control method thereof according to Embodiment 1 of the present invention will be described.
The image processing apparatus according to the present embodiment divides an input image into a color area and a monochrome area, and individually performs image processing on the color area and the monochrome area. In this embodiment, γ correction (DICOM γ correction) defined by DICOM (Digital Imaging and Communication in Medicine) Part 14 is applied to the monochrome area, and γ correction (2.2 γ correction) with γ = 2.2 is applied to the color area. Applied.
FIG. 1 is a block diagram illustrating an example of a functional configuration of the image processing apparatus according to the present embodiment. The image processing apparatus according to the present embodiment includes a monochrome / color determination unit 1, a luminance detection unit 2, a region detection unit 3, a γ correction unit 4, a display panel 5, and the like. The image processing apparatus according to the present embodiment receives image data s0 (input image) from a personal computer (not shown). The image processing apparatus according to the present embodiment generates image data s1 by performing γ correction on the image data s0, and displays an image based on the image data s1 on the display panel 5. In this embodiment, it is assumed that the image data s0 and s1 are RGB data.
In this embodiment, an example in which the display panel 5 is a part of the image processing apparatus will be described. However, the display panel 5 may be a separate apparatus from the image processing apparatus.
Further, the image data may not be RGB data. For example, the image data may be YCbCr data.

モノクロ/カラー判定部1は、入力画像(画像データs0)を分割して得られる分割領域(矩形ブロック)毎のモノクロ判定信号mcを生成し、出力する。モノクロ判定信号mcは、対応する分割領域がモノクロ領域であるかカラー領域であるかを示す信号である。
図2は、モノクロ/カラー判定部1の詳細を示すブロック図である。モノクロ/カラー判定部1は、分割座標指定部100、カウント部101、判定部102から構成される。
図3(a)〜3(c)は、モノクロ/カラー判定部1の処理フローを説明する図である。
以下、図2,3(a)〜3(c)を用いてモノクロ/カラー判定部1の処理について説明する。
The monochrome / color determination unit 1 generates and outputs a monochrome determination signal mc for each divided region (rectangular block) obtained by dividing the input image (image data s0). The monochrome determination signal mc is a signal indicating whether the corresponding divided area is a monochrome area or a color area.
FIG. 2 is a block diagram showing details of the monochrome / color determination unit 1. The monochrome / color determination unit 1 includes a divided coordinate specification unit 100, a count unit 101, and a determination unit 102.
FIGS. 3A to 3C are diagrams for explaining the processing flow of the monochrome / color determination unit 1.
Hereinafter, the processing of the monochrome / color determination unit 1 will be described with reference to FIGS. 2 and 3 (a) to 3 (c).

図3(a)は画像データs0の一例である。図3(a)の例では、画像データs0は、左側に内視鏡画像150、右側にレントゲン画像151が配置された画像のデータである。レントゲン画像151はモノクロ画像(R値=G値=B値の画素からなる画像)である。また、内視鏡画像150は、内視鏡で撮影された画像の領域である前景部152と、それ以外の領域である背景部153から成るものとする。前景部152の画素は全てカラー画素であり、背景部153の画素は低輝度値(本実施例ではR値=G値=B値=0)の画素である。本実施例では、画像データs0の画像サイズは水平方向1920画素×垂直方向1200画素とする。   FIG. 3A is an example of the image data s0. In the example of FIG. 3A, the image data s0 is image data in which an endoscopic image 150 is arranged on the left side and an X-ray image 151 is arranged on the right side. The X-ray image 151 is a monochrome image (an image made up of R value = G value = B value pixels). The endoscopic image 150 includes a foreground portion 152 that is a region of an image photographed by the endoscope and a background portion 153 that is the other region. The pixels of the foreground portion 152 are all color pixels, and the pixels of the background portion 153 are pixels with a low luminance value (R value = G value = B value = 0 in this embodiment). In this embodiment, the image size of the image data s0 is 1920 pixels in the horizontal direction × 1200 pixels in the vertical direction.

分割座標指定部100は、複数の分割領域を決定し、各分割領域を表す座標情報(分割座標情報b0)をカウント部101へ出力する。本実施例では、複数の分割領域は、画像データs0を水平方向5個×垂直方向3個に分割して得られる15個の領域であるものとする。なお、分割領域の数は15個に限らない。分割領域の数は10個や20個など、15個より多くても少なくてもよい。
図3(b)は、分割座標指定部100により決定される15個の分割領域A(0,0)〜A(4,2)の一例を示す図である。本実施例では、分割領域のサイズは、水平方向384(=1920÷5)画素×垂直方向400(=1200÷3)画素となる。
The divided coordinate designating unit 100 determines a plurality of divided areas and outputs coordinate information (divided coordinate information b0) representing each divided area to the counting unit 101. In the present embodiment, it is assumed that the plurality of divided areas are 15 areas obtained by dividing the image data s0 into 5 in the horizontal direction and 3 in the vertical direction. The number of divided areas is not limited to 15. The number of divided areas may be more or less than 15, such as 10 or 20.
FIG. 3B is a diagram illustrating an example of 15 divided areas A (0, 0) to A (4, 2) determined by the divided coordinate designating unit 100. In the present embodiment, the size of the divided area is 384 (= 1920 ÷ 5) pixels in the horizontal direction × 400 (= 1200 ÷ 3) pixels in the vertical direction.

カウント部101は、分割領域毎の画素値の統計量を取得する。具体的には、カウント部101は、分割座標指定部100で決定された分割領域毎に、その分割領域内のモノクロ画素の数(以下、「モノクロ度数」と呼ぶ)をカウントし、分割領域毎のモノクロ度数を表すモノクロ度数データm0を出力する。本実施例では、カウント部101は、R値、G値、B値が全て等しい画素をモノクロ画素と判定し、モノクロ度数をカウントする。但し、モノクロ画素か否かの判定方法はこれに限らない。例えば、RGBデータが輝度データ(Y)と色差データ(Cb,Cr)に変換され、色差データ(Cb,Cr)が0である画素がモノクロ画素と判定されてもよい。モノクロ度数データm0は、分割領域毎に1つのモノクロ度数を表すデータである。そのため、本実施例では、モノクロ度数データm0は、1フレームの画像データs0に対して15個のモノクロ度数を表すデータとなる。
なお、本実施例では、統計量がモノクロ度数であるものとしたが、統計量はこれに限らない。統計量は、例えば、モノクロ画素とカラー画素を含めた全画素の画素値であってもよいし、カラー画素の数であってもよいし、色差値(Cb,Cr)毎のヒストグラム(8bit:−128〜127)であってもよい。分割領域がモノクロ領域かカラー領域かを判定することのできる統計量であれば、どのような統計量であってもよい。
また、統計量は外部から取得されてもよい。
The count unit 101 acquires a statistic of pixel values for each divided region. Specifically, the count unit 101 counts the number of monochrome pixels in the divided region (hereinafter referred to as “monochrome frequency”) for each divided region determined by the divided coordinate designating unit 100, and for each divided region. Monochrome power data m0 representing the monochrome power of is output. In this embodiment, the counting unit 101 determines that pixels having the same R value, G value, and B value are all monochrome pixels, and counts the monochrome frequency. However, the method for determining whether or not the pixel is a monochrome pixel is not limited to this. For example, RGB data may be converted into luminance data (Y) and color difference data (Cb, Cr), and a pixel for which the color difference data (Cb, Cr) is 0 may be determined as a monochrome pixel. The monochrome frequency data m0 is data representing one monochrome frequency for each divided area. Therefore, in the present embodiment, the monochrome power data m0 is data representing 15 monochrome powers for one frame of image data s0.
In this embodiment, the statistic is assumed to be a monochrome frequency, but the statistic is not limited to this. The statistic may be, for example, the pixel values of all pixels including monochrome pixels and color pixels, the number of color pixels, or a histogram (8 bits: for each color difference value (Cb, Cr)). -128 to 127). Any statistical quantity may be used as long as it can determine whether the divided area is a monochrome area or a color area.
The statistics may be acquired from the outside.

判定部102は、モノクロ度数データm0から、分割領域毎に、その分割領域がモノクロ領域かカラー領域かを判定する。そして、判定部102は、分割領域毎の判定結果を表すモノクロ判定信号mcを出力する。モノクロ判定信号mcは、分割領域毎に1つの判定結果を表すデータである。そのため、本実施例では、モノクロ判定信号mcは、1フレームの画像データs0に対して15個の判定結果を表すデータとなる。
本実施例では、判定部102は、分割領域の総画素数に対するモノクロ度数の割合が95%以上ある分割領域をモノクロ領域と判定し、上記割合が95%未満である分割領域をカラー領域と判定する。ここでは、モノクロ画像中のカラー注釈などを考慮し、多少のカラー画素が存在してもモノクロ領域と判定するために、閾値を100%ではなく95%としている。
本実施例では、分割領域のサイズは、水平方向384画素×垂直方向400画素である。そのため、モノクロ度数が145920(=384×400×0.95)以上の分割領域はモノクロ領域、モノクロ度数が145920未満の分割領域はカラー領域と判定される。
図3(c)は、判定部102の判定結果の一例を示す図である。白で示された分割領域はモノクロ領域と判定された分割領域であり、斜線でハッチングされた分割領域はカラー領域と判定された分割領域である。図3(c)の破線で囲んだ5つの分割領域160は、分割領域内の一部にカラー画素が存在するがモノクロ領域と判定されている。これは、上述したように多少のカラー画素が存在してもモノクロ領域と判定するように閾値を95%に設定しているためである。
The determination unit 102 determines, for each divided area, whether the divided area is a monochrome area or a color area from the monochrome frequency data m0. And the determination part 102 outputs the monochrome determination signal mc showing the determination result for every division area. The monochrome determination signal mc is data representing one determination result for each divided region. Therefore, in this embodiment, the monochrome determination signal mc is data representing 15 determination results for one frame of image data s0.
In the present exemplary embodiment, the determination unit 102 determines a divided region having a monochrome ratio of 95% or more with respect to the total number of pixels in the divided region as a monochrome region, and determines a divided region having the ratio less than 95% as a color region. To do. Here, considering a color annotation in a monochrome image, the threshold is set to 95% instead of 100% in order to determine a monochrome area even if some color pixels exist.
In this embodiment, the size of the divided area is 384 pixels in the horizontal direction × 400 pixels in the vertical direction. Therefore, a divided area with a monochrome power of 145920 (= 384 × 400 × 0.95) or more is determined as a monochrome area, and a divided area with a monochrome power of less than 145920 is determined as a color area.
FIG. 3C is a diagram illustrating an example of a determination result of the determination unit 102. A divided area shown in white is a divided area determined as a monochrome area, and a divided area hatched with diagonal lines is a divided area determined as a color area. The five divided areas 160 surrounded by a broken line in FIG. 3C are determined as monochrome areas although color pixels exist in a part of the divided areas. This is because, as described above, the threshold is set to 95% so that a monochrome area is determined even if there are some color pixels.

モノクロ判定信号mcのみに応じて、モノクロ領域にDICOMγ補正、カラー領域に2.2γ補正を適用した場合、5つの分割領域160に含まれるカラー画素(前景部152の画素)にもDICOMγ補正が適用される。一方、カラー領域と判定された4つの分割領域には2.2γ補正が適用される。それにより、前景部152内に表示輝度の段差が生じ、画質が劣化してしまう(画質的な妨害が生じてしまう)。具体的には、モノクロ領域と判定された領域と、カラー領域と判定された領域との境界において表示輝度の段差が生じてしまう。
そこで、本実施例では、カラー領域とモノクロ領域の境界付近に低輝度の領域(以下、「低輝度領域」と呼ぶ)がある場合に、境界を低輝度領域内を通るように移動させる。低輝度領域では、DICOMγ補正を適用したときの表示輝度と、2.2γ補正を適用したときの表示輝度の差は小さい。そのため、境界を低輝度領域内に移動させることにより、上記誤判定による画質の劣化を低減することができる(画質妨害を低減することができる)。特に、医療診断画像であるカラー画像は背景が黒である場合が多い。黒色の領域では上記表示輝度の差は特に小さくなるため、カラー画像が医療診断画像である場合には、本発明により上記画質の劣化を大きく低減することができる。
When DICOMγ correction is applied to the monochrome area and 2.2γ correction is applied to the color area only in accordance with the monochrome determination signal mc, DICOMγ correction is also applied to the color pixels (pixels of the foreground portion 152) included in the five divided areas 160. Is done. On the other hand, 2.2γ correction is applied to the four divided areas determined as color areas. As a result, a difference in display luminance occurs in the foreground portion 152, and the image quality deteriorates (image quality interference occurs). Specifically, a difference in display luminance occurs at the boundary between the area determined as the monochrome area and the area determined as the color area.
Therefore, in this embodiment, when there is a low luminance area (hereinafter referred to as “low luminance area”) near the boundary between the color area and the monochrome area, the boundary is moved so as to pass through the low luminance area. In the low luminance region, the difference between the display luminance when DICOMγ correction is applied and the display luminance when 2.2γ correction is applied is small. Therefore, by moving the boundary into the low luminance region, it is possible to reduce image quality deterioration due to the erroneous determination (image quality interference can be reduced). In particular, color images that are medical diagnostic images often have a black background. Since the difference in display luminance is particularly small in the black region, when the color image is a medical diagnostic image, the image quality deterioration can be greatly reduced by the present invention.

輝度検出部2は、画像データs0を分割領域よりも細かく分割することにより得られる細分割領域毎に、その細分割領域の平均輝度値を算出する。平均輝度値は、後述する領域検出部3で低輝度領域を検出するために用いられる。
図4は、輝度検出部2の詳細を示すブロック図である。輝度検出部2は、分割座標指定部200、平均輝度検出部201から構成される。
以下、図4を用いて輝度検出部2の処理について説明する。
The luminance detection unit 2 calculates the average luminance value of the subdivision area for each subdivision area obtained by dividing the image data s0 more finely than the subarea. The average luminance value is used for detecting a low luminance region by the region detecting unit 3 described later.
FIG. 4 is a block diagram showing details of the luminance detection unit 2. The luminance detection unit 2 includes a divided coordinate designation unit 200 and an average luminance detection unit 201.
Hereinafter, the process of the brightness | luminance detection part 2 is demonstrated using FIG.

分割座標指定部200は、複数の細分割領域を決定し、各細分割領域を表す座標情報(分割座標情報b1)を平均輝度検出部201へ出力する。本実施例では、複数の細分割領域は、画像データs0を水平方向10個×垂直方向6個に分割して得られる60個の領域であるものとする。即ち、本実施例では、細分割領域は、分割領域を2行2列の4つに分割して得られる領域である。なお、細分割領域の数は40個や80個など、60個より多くても少なくてもよい。
図5は、分割座標指定部200により決定される60個の細分割領域B(0,0)〜B(9,5)の一例を示す図である。本実施例では、細分割領域のサイズは、水平方向192(=1920÷10)画素×垂直方向200(=1200÷6)画素となる。即ち、細分割領域の水平方向及び垂直方向のサイズは、分割領域の1/2となる。
The divided coordinate designating unit 200 determines a plurality of subdivided areas and outputs coordinate information (divided coordinate information b1) representing each subdivided area to the average luminance detecting unit 201. In this embodiment, it is assumed that the plurality of subdivided areas are 60 areas obtained by dividing the image data s0 into 10 pieces in the horizontal direction and 6 pieces in the vertical direction. In other words, in the present embodiment, the finely divided area is an area obtained by dividing the divided area into four of 2 rows and 2 columns. Note that the number of subdivided regions may be more or less than 60, such as 40 or 80.
FIG. 5 is a diagram illustrating an example of 60 subdivision areas B (0, 0) to B (9, 5) determined by the division coordinate designating unit 200. In the present embodiment, the size of the subdivision area is 192 (= 1920 ÷ 10) pixels in the horizontal direction × 200 (= 1200/6) pixels in the vertical direction. That is, the size in the horizontal direction and the vertical direction of the subdivided area is ½ of the divided area.

平均輝度検出部201は、細分割領域毎に、その細分割領域の平均輝度値を検出(算出)し、細分割領域毎の平均輝度値を表す平均輝度データAPLを出力する。本実施例では、細分割領域内の画素毎に、式1を用いて、その画素のR値、G値、B値から画素平均値が算出される。そして、細分割領域内の画素毎の画素平均値の平均値が、当該細分割領域の平均輝度値とされる。
画素平均値=(R値+G値+B値)/3 ・・・(式1)
平均輝度データAPLは、細分割領域毎に1つの平均輝度値を表すデータである。そのため、本実施例では、平均輝度データAPLは、1フレームの画像データs0に対して60個の平均輝度値を表すデータとなる。
また、本実施例では画像データs0(R値、G値、B値)は8bit(0〜255)のデータであり、平均輝度値も0〜255の範囲で表されるものとする。なお、本実施例では、輝度検出部2が平均輝度値を検出するものとしたが、この構成に限らない。輝度のヒストグラムなど、低輝度領域か否かを判断できる情報が得られればよい。
The average luminance detection unit 201 detects (calculates) the average luminance value of each subdivision region for each subdivision region, and outputs average luminance data APL representing the average luminance value for each subdivision region. In this embodiment, for each pixel in the subdivision area, the average pixel value is calculated from the R value, G value, and B value of the pixel using Expression 1. Then, the average value of the pixel average values for each pixel in the subdivision area is set as the average luminance value of the subdivision area.
Pixel average value = (R value + G value + B value) / 3 (Expression 1)
The average luminance data APL is data representing one average luminance value for each subdivision area. Therefore, in this embodiment, the average luminance data APL is data representing 60 average luminance values for one frame of image data s0.
In this embodiment, the image data s0 (R value, G value, B value) is 8-bit (0 to 255) data, and the average luminance value is also expressed in the range of 0 to 255. In the present embodiment, the luminance detection unit 2 detects the average luminance value, but the present invention is not limited to this configuration. It is only necessary to obtain information that can determine whether the region is a low luminance region, such as a luminance histogram.

領域検出部3は、入力画像をカラー領域とモノクロ領域に区分する。具体的には、領域検出部3は、モノクロ判定信号mcと平均輝度データAPLからカラー領域を決定し、カラー領域を表す座標情報poをγ補正部4に出力する。本実施例では、座標情報poは、カラー領域の始点である左上座標(x,y)と終点である右下座標(x,y)を含むものとする。本実施例では、画像データs0の左上座標が原点(0,0)、右下座標が(1919,1199)であるものとする。
なお、座標情報poは、左上座標(x,y)と右下座標(x,y)を含む情報に限らない。例えば、座標情報poは、左上座標(x,y)と、カラー領域の水平方向及び垂直方向のサイズとを含む情報であってもよい。
図6は、領域検出部3の詳細を示すブロック図である。領域検出部3は水平統合部300、垂直統合部301、境界移動部302から構成される。
The area detection unit 3 divides the input image into a color area and a monochrome area. Specifically, the area detection unit 3 determines a color area from the monochrome determination signal mc and the average luminance data APL, and outputs coordinate information po representing the color area to the γ correction unit 4. In this embodiment, the coordinate information po includes the upper left coordinates (x, y) that are the start points of the color area and the lower right coordinates (x, y) that are the end points. In this embodiment, it is assumed that the upper left coordinate of the image data s0 is the origin (0, 0) and the lower right coordinate is (1919, 1199).
The coordinate information po is not limited to information including the upper left coordinate (x, y) and the lower right coordinate (x, y). For example, the coordinate information po may be information including the upper left coordinates (x, y) and the horizontal and vertical sizes of the color area.
FIG. 6 is a block diagram showing details of the area detection unit 3. The area detection unit 3 includes a horizontal integration unit 300, a vertical integration unit 301, and a boundary moving unit 302.

水平統合部300は、水平方向に連続する複数のカラー領域(カラー領域と判定された複数の分割領域)を統合して1つのカラー領域とする。そして、水平統合部300は、統合されたカラー領域の左端および右端の水平方向座標(x座標)を表す座標情報H(L)を出力する(Lは行番号)。
垂直統合部301は、垂直方向に連続する複数のカラー領域(水平統合部300で統合して得られた複数のカラー領域)を統合して1つのカラー領域とする。そして、垂直統合部301は、統合されたカラー領域の左上座標および右下座標を表す座標情報HVを出力する。
なお、本実施例では、カラー領域以外の領域はモノクロ領域とされる。
水平統合部300と垂直統合部301による統合の結果、入力画像の領域が分割領域単位でカラー領域とモノクロ領域に区分される。
ただし、本発明は、分割領域単位でカラー領域とモノクロ領域に区分する構成に限定さ
れるものではない。つまり、分割座標指定部100が決定した分割領域間の境界と、カラー領域とモノクロ領域の境界とが一致していなくてもよい。入力画像をカラー領域とモノクロ領域に区分する方法であれば、どのような方法であっても本発明に適用可能である。例えば、分割領域がカラー領域かモノクロ領域かを判定するための閾値として、多少のカラー画素が存在してもモノクロ領域と判定されるような閾値を用いた場合、モノクロ領域と判定された分割領域に内にカラー画像の縁部の画素が含まれる可能性が高い。そのため、カラー分割領域(カラー領域と判定された分割領域)に隣接するモノクロ分割領域(モノクロ領域と判定された分割領域)内に境界が位置するように、入力画像がカラー領域とモノクロ領域に区分されてもよい。
The horizontal integration unit 300 integrates a plurality of color areas (a plurality of divided areas determined as color areas) continuous in the horizontal direction into one color area. Then, the horizontal integration unit 300 outputs coordinate information H (L) indicating the horizontal direction coordinates (x coordinates) of the left end and the right end of the integrated color area (L is a row number).
The vertical integration unit 301 integrates a plurality of color regions that are continuous in the vertical direction (a plurality of color regions obtained by integration by the horizontal integration unit 300) into one color region. Then, the vertical integration unit 301 outputs coordinate information HV representing the upper left coordinates and lower right coordinates of the integrated color area.
In this embodiment, the area other than the color area is a monochrome area.
As a result of the integration by the horizontal integration unit 300 and the vertical integration unit 301, the area of the input image is divided into a color area and a monochrome area in divided areas.
However, the present invention is not limited to a configuration in which a color area and a monochrome area are divided in units of divided areas. That is, the boundary between the divided areas determined by the divided coordinate designating unit 100 and the boundary between the color area and the monochrome area may not coincide with each other. Any method can be applied to the present invention as long as the method divides the input image into a color area and a monochrome area. For example, as a threshold for determining whether a divided area is a color area or a monochrome area, if a threshold that can be determined as a monochrome area even if there are some color pixels is used, the divided area determined as a monochrome area There is a high possibility that the pixel of the edge of the color image is included in this. For this reason, the input image is divided into a color area and a monochrome area so that the boundary is located in a monochrome divided area (a divided area determined to be a monochrome area) adjacent to a color divided area (a divided area determined to be a color area). May be.

図7(a)〜7(c)は、水平統合部300と垂直統合部301の処理フローを説明する図である。図7において白で示された分割領域はモノクロ領域、斜線でハッチングされた分割領域はカラー領域である。
水平統合部300の処理を説明する。
まず、水平統合部300は、1行目(最も上側の行)の分割領域A(0,0)〜A(4,0)を左から右へ走査し、連続したカラー領域があれば統合する。図7(a)の例では、分割領域A(0,0)〜A(4,0)の中にカラー領域は存在しないため、統合は行われない。本実施例ではカラー領域が存在しなかった場合、座標情報H(1)は以下の値とされる。
H(1)=(左端のx座標,右端のx座標)=(−1,−1) ・・・(式2)
次に、水平統合部300は、2行目の分割領域A(0,1)〜A(4,1)を走査する。図7(a)の例では、分割領域A(0,1),A(1,1)がカラー領域である。そのため、水平統合部300は、これら2つの分割領域A(0,1)、A(1,1)を統合し、1つのカラー領域とする。図7(a)において点線で示した領域320が、分割領域A(0,1)、A(1,1)を統合したカラー領域である。統合されたカラー領域320の座標情報H(2)は以下のようになる。
H(2)=(0,767) ・・・(式3)
ここで、式3の右端のx座標=767は、2つ分の分割領域の水平方向サイズ=384×2=768から1を引いた値である。
そして、水平統合部300は、3行目の分割領域A(0,2)〜A(4,2)について同様の処理を行う。図7(a)の例では、分割領域A(0,2),A(1,2)がカラー領域である。そのため、水平統合部300は、これら2つの分割領域A(0,2)、A(1,2)を統合し、1つのカラー領域とする。図7(b)において点線で示した領域321が、分割領域A(0,2)、A(1,2)を統合したカラー領域である。統合されたカラー領域321の座標情報Hは以下のようになる。
H(3)=(0,767) ・・・(式4)
FIGS. 7A to 7C are diagrams illustrating the processing flow of the horizontal integration unit 300 and the vertical integration unit 301. FIG. In FIG. 7, the divided area shown in white is a monochrome area, and the hatched hatched area is a color area.
Processing of the horizontal integration unit 300 will be described.
First, the horizontal integration unit 300 scans the divided areas A (0, 0) to A (4, 0) of the first line (uppermost line) from left to right, and integrates any continuous color areas. . In the example of FIG. 7A, since no color area exists in the divided areas A (0, 0) to A (4, 0), no integration is performed. In this embodiment, when there is no color area, the coordinate information H (1) has the following values.
H (1) = (x coordinate at the left end, x coordinate at the right end) = (− 1, −1) (Expression 2)
Next, the horizontal integration unit 300 scans the divided areas A (0, 1) to A (4, 1) in the second row. In the example of FIG. 7A, the divided areas A (0, 1) and A (1, 1) are color areas. Therefore, the horizontal integration unit 300 integrates these two divided areas A (0, 1) and A (1, 1) into one color area. A region 320 indicated by a dotted line in FIG. 7A is a color region obtained by integrating the divided regions A (0, 1) and A (1, 1). The coordinate information H (2) of the integrated color area 320 is as follows.
H (2) = (0,767) (Formula 3)
Here, the x coordinate = 767 at the right end of Expression 3 is a value obtained by subtracting 1 from the horizontal size of two divided areas = 384 × 2 = 768.
Then, the horizontal integration unit 300 performs the same processing for the divided areas A (0, 2) to A (4, 2) in the third row. In the example of FIG. 7A, the divided areas A (0, 2) and A (1, 2) are color areas. Therefore, the horizontal integration unit 300 integrates these two divided areas A (0, 2) and A (1, 2) into one color area. An area 321 indicated by a dotted line in FIG. 7B is a color area obtained by integrating the divided areas A (0, 2) and A (1, 2). The coordinate information H of the integrated color area 321 is as follows.
H (3) = (0,767) (Formula 4)

垂直統合部301の処理を説明する。
垂直統合部301は、水平統合部300から出力された3つの座標情報H(1)〜H(3)を用いて、垂直方向に連続するカラー領域を統合する。
H(1)より、1行目にはカラー領域が存在しないことが判断される。そして、H(2)とH(3)から、2行目と3行目でカラー領域の水平位置及び水平サイズが等しい(H(2)=H(3)である)と判断される。垂直統合部301は、このように水平位置及び水平サイズが互いに等しく、且つ、垂直方向に連続する複数のカラー領域を1つに統合する。垂直統合部301による統合の結果、図7(c)の点線で示すように、分割領域A(0,1)、A(1,1)、A(0,2)、A(1,2)の4つが1つのカラー領域322に統合される。そして、垂直統合部301は統合されたカラー領域322の左上座標および右下座標を表す座標情報HVを出力する。図7(c)の場合、座標情報HVは以下のようになる。
HV=((左上座標),(右下座標))
=((0,400),(767,1199)) ・・・(式5)
Processing of the vertical integration unit 301 will be described.
The vertical integration unit 301 uses the three pieces of coordinate information H (1) to H (3) output from the horizontal integration unit 300 to integrate color regions that are continuous in the vertical direction.
From H (1), it is determined that there is no color area in the first row. Then, it is determined from H (2) and H (3) that the horizontal position and horizontal size of the color area are the same in the second and third rows (H (2) = H (3)). As described above, the vertical integration unit 301 integrates a plurality of color regions having the same horizontal position and horizontal size and continuous in the vertical direction into one. As a result of integration by the vertical integration unit 301, as shown by the dotted lines in FIG. 7C, the divided areas A (0, 1), A (1, 1), A (0, 2), A (1, 2) Are integrated into one color area 322. Then, the vertical integration unit 301 outputs coordinate information HV representing the upper left coordinates and lower right coordinates of the integrated color region 322. In the case of FIG. 7C, the coordinate information HV is as follows.
HV = ((upper left coordinate), (lower right coordinate))
= ((0,400), (767,1199)) (Formula 5)

境界移動部302は、境界近傍領域の輝度値が所定値より低い場合に、水平統合部300と垂直統合部301により区分されたカラー領域とモノクロ領域の境界を、境界近傍領域内を通るように移動させる。境界近傍領域は、水平統合部300と垂直統合部301により区分されたカラー領域とモノクロ領域の境界からモノクロ領域側に所定距離だけ離れた領域である。   The boundary moving unit 302 passes the boundary between the color region and the monochrome region divided by the horizontal integration unit 300 and the vertical integration unit 301 in the vicinity of the boundary region when the luminance value of the boundary vicinity region is lower than a predetermined value. Move. The boundary vicinity region is a region separated from the boundary between the color region and the monochrome region divided by the horizontal integration unit 300 and the vertical integration unit 301 by a predetermined distance toward the monochrome region side.

図8(a),8(b)は境界移動部302の処理フローを説明する図である。図8(a)は、垂直統合部301で統合されたカラー領域と、細分割領域B(0,0)〜B(9,5)を重ねて示したものである。図8(a)の点線で囲んだ領域(斜線でハッチングされた領域)322は、垂直統合部301で統合されたカラー領域である。   8A and 8B are diagrams for explaining the processing flow of the boundary moving unit 302. FIG. FIG. 8A shows the color area integrated by the vertical integration unit 301 and the subdivision areas B (0, 0) to B (9, 5) in an overlapping manner. A region surrounded by a dotted line (region hatched with diagonal lines) 322 in FIG. 8A is a color region integrated by the vertical integration unit 301.

本実施例では、境界移動部302は、カラー領域322の上、下、左、右の4方向のそれぞれについて、その方向に所定画素数だけ離れた領域が低輝度領域(輝度が所定値より低い領域)か否かを判定する。そして、低輝度領域が存在する場合には、境界移動部302は、その方向に境界を移動させる。
本実施例では、上記所定画素数を1細分割領域分の画素数(水平方向の場合は192画素、垂直方向の場合は200画素)とする。そのため、本実施例では、上記境界に隣接する分割領域内の4つの細分割領域のうち、上記境界に隣接しない細分割領域が境界近傍領域とされる。そして、上、下、左、右の4方向のそれぞれについて、その方向の境界近傍領域である細分割領域の平均輝度値の平均値Lが算出される。算出された平均値Lが所定の閾値thより小さい場合、その境界近傍領域が低輝度領域と判定される。本実施例では所定の閾値thは3であるものとする。但し、閾値thはこの値に限らない。閾値thの値は、どの程度の明るさの領域を低輝度領域とするかなど、目的に応じて適宜設定、変更されるものである。
In this embodiment, the boundary moving unit 302 is a low-luminance region (luminance is lower than a predetermined value) in each of the four directions of the upper, lower, left, and right directions of the color region 322. Area). If a low-luminance area exists, the boundary moving unit 302 moves the boundary in that direction.
In the present embodiment, the predetermined number of pixels is the number of pixels for one subdivision area (192 pixels in the horizontal direction and 200 pixels in the vertical direction). Therefore, in this embodiment, among the four subdivision areas in the subarea adjacent to the boundary, the subdivision area not adjacent to the boundary is set as the boundary vicinity area. Then, for each of the four directions of upper, lower, left, and right, the average value L of the average luminance value of the subdivision area that is the boundary vicinity area in that direction is calculated. When the calculated average value L is smaller than the predetermined threshold th, the boundary vicinity region is determined as the low luminance region. In this embodiment, it is assumed that the predetermined threshold th is 3. However, the threshold th is not limited to this value. The value of the threshold th is appropriately set and changed according to the purpose, such as how bright the region is to be a low luminance region.

図8(a)の例では、カラー領域322の左方向と下方向には画像が無いため、これら2方向については境界近傍領域は設定されない。
一方、カラー領域322の上方向については、カラー領域322の上端から上方向に1細分割領域分離れた位置にある4つの細分割領域B(0,0)〜B(3,0)が境界近傍領域とされる。図5に示すように、細分割領域B(0,0)〜B(3,0)は背景部153の画素のみを含むため、細分割領域B(0,0)〜B(3,0)の平均輝度値は全て0である。従って、細分割領域B(0,0)〜B(3,0)の平均輝度値の平均値L=0となる。この平均値L(=0)は閾値th(=3)よりも小さいため、カラー領域322の上方向の境界近傍領域は低輝度領域であると判定される。
本実施例において、カラー領域から所定距離(1細分割領域分)離れた細分割領域を境界近傍領域とする理由は以下のとおりである。カラー領域に隣接する細分割領域(図8(a)の例では、細分割領域B(0,1)〜B(3,1))の平均輝度値には、カラー画素(本実施例では、図3(a)の前景部152)の画素値が含まれている可能性がある。そのため、カラー領域に隣接する細分割領域内に低輝度領域が存在していたとしても、そのような細分割領域の平均値Lは、必ずしも閾値th以下になるとは限らない。そこで、本実施例では、カラー領域から所定距離離れた細分割領域を境界近傍領域とする。
In the example of FIG. 8A, since there is no image in the left direction and the lower direction of the color area 322, the boundary vicinity area is not set in these two directions.
On the other hand, with respect to the upper direction of the color area 322, four subdivision areas B (0,0) to B (3,0) at positions separated by one subdivision area from the upper end of the color area 322 are boundaries. It is considered as a neighborhood area. As shown in FIG. 5, since the finely divided areas B (0,0) to B (3,0) include only the pixels of the background portion 153, the finely divided areas B (0,0) to B (3,0) The average luminance values of are all zero. Therefore, the average value L = 0 of the average luminance values of the subdivision areas B (0, 0) to B (3, 0) is obtained. Since the average value L (= 0) is smaller than the threshold value th (= 3), it is determined that the region near the upper boundary of the color region 322 is a low luminance region.
In this embodiment, the reason why the subdivision area that is a predetermined distance (one subdivision area) away from the color area is used as the boundary vicinity area is as follows. The average luminance value of the subdivision areas adjacent to the color area (in the example of FIG. 8A, subdivision areas B (0,1) to B (3,1)) includes color pixels (in this embodiment, There is a possibility that the pixel value of the foreground portion 152) of FIG. Therefore, even if a low luminance area exists in the subdivision areas adjacent to the color area, the average value L of such subdivision areas is not necessarily equal to or less than the threshold th. Therefore, in this embodiment, a subdivision area that is a predetermined distance away from the color area is set as a boundary vicinity area.

同様に、カラー領域322の右方向については、カラー領域322の右端から右方向に1細分割領域分離れた位置にある4つの細分割領域B(5,2)〜B(5,5)が境界近傍領域とされる。図5に示すように、細分割領域B(5,2)〜B(5,5)は背景部153の画素のみを含むため、細分割領域B(5,2)〜B(5,5)の平均輝度値の平均値Lは0となる。この平均値Lは閾値thよりも小さいため、カラー領域322の右方向の境界近傍領域は低輝度領域であると判定される。   Similarly, with respect to the right direction of the color area 322, there are four subdivision areas B (5, 2) to B (5, 5) located at a position separated by one subdivision area from the right end of the color area 322 to the right. The region is near the boundary. As shown in FIG. 5, since the finely divided areas B (5,2) to B (5,5) include only the pixels of the background portion 153, the finely divided areas B (5,2) to B (5,5) The average value L of the average luminance values is zero. Since this average value L is smaller than the threshold value th, it is determined that the region near the boundary in the right direction of the color region 322 is a low luminance region.

そして、カラー領域322の上方向と右方向の境界近傍領域が低輝度領域であるため、境界移動部302は、カラー領域322の上側の境界と右側の境界とを、それぞれ、上方向、右方向に移動させる。本実施例では、境界の移動量は水平方向、垂直方向ともに300画素とする。但し、移動量はこれに限るものではなく、境界が低輝度領域内を通れば、どのような値であってもよい。更に、本実施例では、カラー領域が矩形領域となるように、カラー領域322の上側、下側、左側、右側の4つの境界の長さが調整される。   Since the region near the upper and right borders of the color region 322 is a low-luminance region, the border moving unit 302 sets the upper border and the right border of the color region 322 in the upward and right directions, respectively. Move to. In this embodiment, the moving amount of the boundary is 300 pixels in both the horizontal direction and the vertical direction. However, the movement amount is not limited to this, and may be any value as long as the boundary passes through the low luminance region. Furthermore, in this embodiment, the lengths of the four boundaries on the upper side, the lower side, the left side, and the right side of the color region 322 are adjusted so that the color region becomes a rectangular region.

境界を移動したことにより、図8(b)の点線で囲んだ領域(斜線でハッチングされた領域)323が最終的なカラー領域となる。その結果、カラー画像の前景部(カラー画素からなる領域)をすべて含むように、入力画像がカラー領域とモノクロ領域に区分される。
境界移動部302は、このカラー領域323の左上座標と右上座標を示す座標情報poを出力する。カラー領域323の座標情報poは以下のようになる。
po=(左上座標,右下座標)
((0,100),(1067,1199)) ・・・(式6)
式6において右下座標のx座標値=1067は、2つの分割領域の水平方向サイズ(384×2)に300を足し、そこから1を引いた値である。
By moving the boundary, a region (region hatched with diagonal lines) 323 surrounded by a dotted line in FIG. 8B becomes a final color region. As a result, the input image is divided into a color area and a monochrome area so as to include all foreground portions (areas of color pixels) of the color image.
The boundary moving unit 302 outputs coordinate information po indicating the upper left coordinates and upper right coordinates of the color area 323. The coordinate information po of the color area 323 is as follows.
po = (Upper left coordinates, Lower right coordinates)
((0, 100), (1067, 1199)) (Expression 6)
In Equation 6, the x coordinate value of the lower right coordinate = 1067 is a value obtained by adding 300 to the horizontal size (384 × 2) of the two divided regions and subtracting 1 therefrom.

γ補正部4は、座標情報poに基づいて、カラー領域とモノクロ領域に対し、個別にγ補正を施す。座標情報poにより指定された領域はカラー領域であるため、γ=2.2のγ補正が適用され、それ以外の領域はモノクロ領域と判断され、DICOMγが適用される。   The γ correction unit 4 individually performs γ correction on the color area and the monochrome area based on the coordinate information po. Since the area specified by the coordinate information po is a color area, γ correction of γ = 2.2 is applied, and other areas are determined as monochrome areas and DICOMγ is applied.

以上述べたように、本実施例によれば、境界近傍領域が低輝度領域である場合に、当該低輝度領域内を通るように、モノクロ領域とカラー領域の境界が移動される。低輝度領域では、画像処理の違いによる輝度の差が小さいため、カラー領域をモノクロ領域と誤判定することによる画質の劣化(輝度の段差)を低減することができる。特に医療の診断画像は背景が黒である場合が多い。黒色の領域では画像処理の違いによる輝度の差が特に小さいため、本発明は特に医療画像を表示する際に有効である。   As described above, according to the present embodiment, when the boundary vicinity region is a low luminance region, the boundary between the monochrome region and the color region is moved so as to pass through the low luminance region. In the low luminance region, since the difference in luminance due to the difference in image processing is small, it is possible to reduce image quality deterioration (luminance step) due to erroneous determination of the color region as a monochrome region. In particular, medical diagnostic images often have a black background. Since the difference in luminance due to the difference in image processing is particularly small in the black region, the present invention is particularly effective when displaying a medical image.

なお、本実施例では、複数の細分割領域の平均輝度値の平均値Lを閾値thと比較し、当該複数の細分割領域が低輝度領域か否かを判定するものとしたが、この構成に限らない。例えば、上記複数の細分割領域のうち1つの細分割領域の平均輝度値を、閾値thと比較し、当該複数の細分割領域が低輝度領域か否かが判定されてもよい。また、境界近傍領域である細分割領域毎に、その細分割領域の平均輝度値を閾値thと比較し、当該細分割領域が低輝度領域か否かを判定してもよい。
なお、本実施例では、水平統合部300及び垂直統合部301において、カラー領域と判定された分割領域を統合することによりカラー領域を検出し、他の領域をモノクロ領域とする構成としたが、この構成に限らない。例えば、水平統合部300及び垂直統合部301において、モノクロ領域と判定された分割領域を統合することによりモノクロ領域を検出し、他の領域がカラー領域とされてもよい。カラー領域と判定された分割領域を統合することによりカラー領域を検出し、モノクロ領域と判定された分割領域を統合することによりモノクロ領域を検出する構成であってもよい。
なお、本実施例では、カラー領域とモノクロ領域に個別に施す画像処理がγ補正である場合の例を示したが、画像処理はこれに限らない。画像処理は明るさ調整処理や色温度調整処理などであってもよい。
なお、本実施例では、境界近傍領域が、境界に隣接する分割領域内の領域である場合の例について説明しが、境界近傍領域はこれに限らない。境界近傍領域は、境界のモノクロ領域側に隣接する分割領域よりさらにモノクロ領域側に設定されてもよい。例えば、境界
からモノクロ領域側に2細分割領域分離れた細分割領域が境界近傍領域とされてもよい。境界近傍領域は、水平統合部300と垂直統合部301により区分されたカラー領域とモノクロ領域の境界からモノクロ領域側に所定距離だけ離れた領域であればよく、当該所定距離はどのような値であってもよい。但し、低輝度領域としてカラー領域の背景を検出する目的から、境界近傍領域は、境界に隣接する分割領域内の領域であることが好ましい。
なお、本実施例では、細分割領域が分割領域を2行2列の4つに分割して得られる領域である場合の例を説明したが、細分割領域はこれに限らない。細分割領域は、入力画像を分割領域よりも細かく分割して得られる領域であればよい。例えば、細分割領域のサイズは、分割領域のサイズの整数分の1のサイズでなくてもよい。
なお、本実施例では、カラー画像とモノクロ画像が医療画像である場合の例を説明したが、カラー画像とモノクロ画像はこれに限らない。例えば、カラー画像は、画像を表示するためのアプリケーションの画像、アイコン、グラフィックなどであってもよい。
In this embodiment, the average value L of the average luminance values of the plurality of subdivision areas is compared with the threshold th, and it is determined whether or not the plurality of subdivision areas are low luminance areas. Not limited to. For example, an average luminance value of one subdivision area among the plurality of subdivision areas may be compared with a threshold th to determine whether or not the plurality of subdivision areas are low luminance areas. Further, for each subdivision area that is a boundary vicinity area, the average luminance value of the subdivision area may be compared with a threshold th to determine whether or not the subdivision area is a low luminance area.
In the present embodiment, the horizontal integration unit 300 and the vertical integration unit 301 are configured to detect the color region by integrating the divided regions determined as the color region and set the other region as a monochrome region. The configuration is not limited to this. For example, the horizontal integration unit 300 and the vertical integration unit 301 may detect the monochrome region by integrating the divided regions determined as the monochrome region, and set the other region as the color region. The color area may be detected by integrating the divided areas determined as color areas, and the monochrome area may be detected by integrating the divided areas determined as monochrome areas.
In the present embodiment, an example in which the image processing separately applied to the color area and the monochrome area is γ correction has been described, but the image processing is not limited thereto. The image processing may be brightness adjustment processing, color temperature adjustment processing, or the like.
In the present embodiment, an example in which the boundary vicinity region is a region in a divided region adjacent to the boundary will be described, but the boundary vicinity region is not limited thereto. The boundary vicinity region may be set on the monochrome region side further than the divided region adjacent to the boundary on the monochrome region side. For example, a subdivision area that is divided into two subdivision areas from the boundary toward the monochrome area may be set as the boundary vicinity area. The boundary vicinity region may be a region that is separated from the boundary between the color region and the monochrome region divided by the horizontal integration unit 300 and the vertical integration unit 301 by a predetermined distance to the monochrome region side. What is the predetermined distance? There may be. However, for the purpose of detecting the background of the color region as the low luminance region, the region near the boundary is preferably a region in the divided region adjacent to the boundary.
In the present embodiment, the example in which the subdivision area is an area obtained by dividing the subdivision area into four of 2 rows and 2 columns has been described, but the subdivision area is not limited thereto. The subdivision area may be an area obtained by dividing the input image more finely than the division area. For example, the size of the subdivision area may not be a size that is a fraction of the size of the division area.
In this embodiment, an example in which the color image and the monochrome image are medical images has been described, but the color image and the monochrome image are not limited thereto. For example, the color image may be an image, icon, graphic, or the like of an application for displaying the image.

<実施例2>
以下、本発明の実施例2に係る画像処理装置及びその制御方法について説明する。なお、以下では、実施例1と異なる点について詳しく説明し、実施例1と同様の機能や構成についての説明は省略する。
実施例2では、実施例1とは異なる画像データs0の例について説明する。本実施例の画像データs0を図9(a)に示す。本実施例の画像データs0では、内視鏡画像150の前景部152の形状が実施例1と異なる。前景部152の形状以外は実施例1の画像データs0(図3(a))と同じであるものとする。
図9(b)は、分割領域を示した図である。本実施例では、実施例1と同様に15個の分割領域が設定される。
図9(c)は、判定部102の判定結果(分割領域毎のモノクロ領域かカラー領域かの判定結果)を示した図である。
図10は、細分割領域を示した図である。本実施例では、実施例1と同様に60個の細分割領域が設定される。
<Example 2>
Hereinafter, an image processing apparatus and a control method thereof according to Embodiment 2 of the present invention will be described. In the following, differences from the first embodiment will be described in detail, and descriptions of functions and configurations similar to those of the first embodiment will be omitted.
In the second embodiment, an example of image data s0 different from the first embodiment will be described. The image data s0 of this embodiment is shown in FIG. In the image data s0 of the present embodiment, the shape of the foreground portion 152 of the endoscopic image 150 is different from that of the first embodiment. Except for the shape of the foreground portion 152, it is assumed to be the same as the image data s0 of the first embodiment (FIG. 3A).
FIG. 9B shows the divided areas. In the present embodiment, 15 divided areas are set as in the first embodiment.
FIG. 9C is a diagram showing a determination result of the determination unit 102 (determination result for each divided area, which is a monochrome area or a color area).
FIG. 10 is a diagram showing subdivision areas. In the present embodiment, 60 subdivision areas are set as in the first embodiment.

図11は、水平統合部300で統合されたカラー領域を示している。本実施例では、水平統合部300で統合されたカラー領域350の座標情報Hは以下となる。
H(2)=(0,1151) ・・・(式7)
ここで、式7の右端のx座標=1151は、3つ分の分割領域の水平方向サイズ=384×3=1152から1を引いた値である。
また、カラー領域351の座標情報Hは以下となる。
H(3)=(0,767) (式8)
本実施例では、カラー領域350とカラー領域351の座標情報Hが一致していないため、垂直統合部301ではこれら2つのカラー領域は統合されない。従って、垂直統合部301の出力である座標情報HVは以下のように2つのカラー領域の左上座標と右下座標を表す座標情報となる。
HV1=((0,400),(1151,799)) ・・・(式9)
HV2=((0,800),(767,1199)) ・・・(式10)
FIG. 11 shows the color region integrated by the horizontal integration unit 300. In this embodiment, the coordinate information H of the color area 350 integrated by the horizontal integration unit 300 is as follows.
H (2) = (0,1151) (Expression 7)
Here, the x coordinate = 1151 of the right end of Expression 7 is a value obtained by subtracting 1 from the horizontal size of three divided regions = 384 × 3 = 1152.
The coordinate information H of the color area 351 is as follows.
H (3) = (0,767) (Formula 8)
In this embodiment, since the coordinate information H of the color area 350 and the color area 351 do not match, the two color areas are not integrated in the vertical integration unit 301. Therefore, the coordinate information HV that is the output of the vertical integration unit 301 is coordinate information that represents the upper left coordinates and the lower right coordinates of the two color areas as follows.
HV1 = ((0,400), (1151,799)) (Equation 9)
HV2 = ((0,800), (767, 1199)) (Equation 10)

このように、本実施例では複数のカラー領域が設定されるため、カラー領域とモノクロ領域の境界が複数存在することとなる。本実施例では、そのような場合に、境界移動部302は、境界毎に、その境界を移動させる処理を行う。具体的には、図11の例では、カラー領域350とモノクロ領域の境界を移動させる処理と、カラー領域351とモノクロ領域の境界を移動させる処理とが行われる。モノクロ領域を検出して境界を移動させる構成において、モノクロ領域が複数設定される場合も同様である。   As described above, in this embodiment, since a plurality of color areas are set, a plurality of boundaries between the color areas and the monochrome areas exist. In this embodiment, in such a case, the boundary moving unit 302 performs a process of moving the boundary for each boundary. Specifically, in the example of FIG. 11, processing for moving the boundary between the color region 350 and the monochrome region and processing for moving the boundary between the color region 351 and the monochrome region are performed. The same applies to a case where a plurality of monochrome areas are set in a configuration in which a monochrome area is detected and the boundary is moved.

カラー領域350とモノクロ領域の境界を移動させる処理について説明する。
カラー領域350の上方向については、図10に示す6つの細分割領域B(0,0)〜B(5,0)が境界近傍領域とされる。細分割領域B(0,0)〜B(5,0)は、背景部153の画素のみを含むため、平均値Lは0となる。この平均値Lは閾値th(=3)より小さいため、カラー領域350の上方向の境界近傍領域は低輝度領域であると判定される。その結果、カラー領域350の上側の境界が、上方向に300画素移動される。
Processing for moving the boundary between the color area 350 and the monochrome area will be described.
For the upward direction of the color region 350, the six subdivision regions B (0,0) to B (5,0) shown in FIG. Since the subdivision areas B (0, 0) to B (5, 0) include only the pixels of the background portion 153, the average value L is zero. Since the average value L is smaller than the threshold th (= 3), it is determined that the upper boundary vicinity region of the color region 350 is a low luminance region. As a result, the upper boundary of the color area 350 is moved upward by 300 pixels.

カラー領域350の下方向については、図10に示す6つの細分割領域B(0,5)〜B(5,5)が境界近傍領域とされる。細分割領域B(0,5)〜B(5,5)は背景部153の画素のみを含むため、平均値Lは0となる。この平均値Lは閾値thより小さいため、カラー領域350の下方向の境界近傍領域は低輝度領域であると判定される。その結果、カラー領域350の下側の境界が、下方向に300画素移動される。   Regarding the downward direction of the color region 350, the six subdivision regions B (0,5) to B (5,5) shown in FIG. Since the subdivided areas B (0, 5) to B (5, 5) include only the pixels of the background portion 153, the average value L is zero. Since this average value L is smaller than the threshold value th, it is determined that the region near the lower boundary in the color region 350 is a low luminance region. As a result, the lower boundary of the color area 350 is moved downward by 300 pixels.

カラー領域350の右方向については、図10に示す2つの細分割領域B(7,2)、B(7,3)が境界近傍領域とされる。しかし、図10に示すように、細分割領域B(7,2),B(7,3)はレントゲン画像151の画素のみを含むため、平均値Lは閾値th以上となり、カラー領域350の右方向の境界近傍領域は低輝度領域でないと判定される。そのため、境界移動部302はカラー領域350の右側の境界を移動させない。
また、カラー領域350の左方向には画像が存在しないため、境界移動部302は左方向について境界近傍領域を設定せず、カラー領域350の左側の境界を移動させない。
Regarding the right direction of the color area 350, the two subdivision areas B (7, 2) and B (7, 3) shown in FIG. However, as shown in FIG. 10, since the subdivision areas B (7, 2) and B (7, 3) include only the pixels of the X-ray image 151, the average value L is equal to or greater than the threshold th and the right side of the color area 350 It is determined that the direction boundary vicinity region is not a low luminance region. Therefore, the boundary moving unit 302 does not move the right boundary of the color area 350.
In addition, since there is no image in the left direction of the color area 350, the boundary moving unit 302 does not set the boundary vicinity area in the left direction and does not move the left boundary of the color area 350.

図12(a)は、境界移動部302によりカラー領域350の境界を移動した様子を示す図である。図12(a)に示すように、境界移動部302によりカラー領域350の上側と下側の境界が、それぞれ上方向と下方向に移動され、カラー領域350が最終的にカラー領域360とされる。   FIG. 12A is a diagram illustrating a state where the boundary of the color region 350 is moved by the boundary moving unit 302. As shown in FIG. 12A, the boundary moving unit 302 moves the upper and lower boundaries of the color area 350 upward and downward, respectively, so that the color area 350 is finally made the color area 360. .

境界移動部302は、カラー領域351に対しても同様に境界を移動させる処理を行う。その結果、カラー領域351の右側の境界が右方向に300画素移動される。その結果、図12(b)に示すようにカラー領域351はカラー領域361となる。なお、カラー領域351の上側の境界(カラー領域350とカラー領域351の境界)については、低輝度領域が存在するか否かの検証(境界近傍領域の設定、平均値Lと閾値の比較など)を行ってもよいし、行わなくてもよい。   The boundary moving unit 302 performs the same process of moving the boundary with respect to the color area 351 as well. As a result, the right boundary of the color area 351 is moved 300 pixels to the right. As a result, the color area 351 becomes a color area 361 as shown in FIG. As for the upper boundary of the color area 351 (the boundary between the color area 350 and the color area 351), it is verified whether or not a low-luminance area exists (setting of the vicinity area, comparison of the average value L and the threshold value, etc.) May or may not be performed.

領域検出部3は上記2つのカラー領域360,361を表す座標情報poを出力する。γ補正部4は、この座標情報poで表される領域に2.2γ補正を適用する。なお、カラー領域360とカラー領域361が重複する領域については、2.2γ補正が1回だけ適用されるように(2.2γ補正が2回適用されないように)、γ補正が行われる。   The area detector 3 outputs coordinate information po representing the two color areas 360 and 361. The γ correction unit 4 applies 2.2γ correction to the region represented by the coordinate information po. Note that γ correction is performed on a region where the color region 360 and the color region 361 overlap so that 2.2γ correction is applied only once (so that 2.2γ correction is not applied twice).

以上述べたように、本実施例によれば、複数の境界が存在する場合に、各境界を移動させる処理が行われる。そのため、1つの境界のみを移動させるよりも画質の劣化(輝度の段差)を低減することができる。   As described above, according to this embodiment, when there are a plurality of boundaries, the process of moving each boundary is performed. Therefore, it is possible to reduce image quality degradation (brightness level difference) rather than moving only one boundary.

<実施例3>
以下、本発明の実施例3に係る画像処理装置及びその制御方法について説明する。
実施例1,2では、複数の細分割領域を設定し、複数の細分割領域の中から境界近傍領域を選択する構成とした。本実施例では、細分割領域を設定せずに境界近傍領域を設定する構成について説明する。なお、以下では実施例1と異なる点について説明し、実施例1と同様の機能や構成についての説明は省略する。
<Example 3>
Hereinafter, an image processing apparatus and a control method thereof according to Embodiment 3 of the present invention will be described.
In the first and second embodiments, a plurality of subdivision areas are set, and a boundary vicinity area is selected from the plurality of subdivision areas. In the present embodiment, a configuration in which a boundary vicinity region is set without setting a subdivision region will be described. Hereinafter, differences from the first embodiment will be described, and descriptions of functions and configurations similar to those of the first embodiment will be omitted.

図13は、本実施例に係る画像処理装置の機能構成の一例を示すブロック図である。本実施例に係る画像処理装置は、実施例1,2と同様に、モノクロ/カラー判定部1、輝度
検出部2、領域検出部3、γ補正部4、表示パネル5から構成されている。
本実施例では図3(a)の画像データs0を処理する例を説明する。
モノクロ/カラー判定部1は、実施例1と同様の機能を有する。そのため、図3(a)の画像データs0に対するモノクロ/カラー判定部1の判定結果は、図3(c)に示すものとなる。
FIG. 13 is a block diagram illustrating an example of a functional configuration of the image processing apparatus according to the present embodiment. As in the first and second embodiments, the image processing apparatus according to the present embodiment includes a monochrome / color determination unit 1, a luminance detection unit 2, a region detection unit 3, a γ correction unit 4, and a display panel 5.
In this embodiment, an example in which the image data s0 in FIG. 3A is processed will be described.
The monochrome / color determination unit 1 has the same function as that of the first embodiment. Therefore, the determination result of the monochrome / color determination unit 1 for the image data s0 of FIG. 3A is as shown in FIG.

図14は、領域検出部3の詳細を示すブロック図である。本実施例の領域検出部3は、実施例1と同様に、水平統合部300、垂直統合部301、境界移動部302から構成される。
水平統合部300と垂直統合部301の機能は、実施例1と同様である。
本実施例の境界移動部302は、まず、境界近傍領域を決定し、境界近傍領域を表す座標情報arを輝度検出部2に出力する。その後、境界移動部302は、境界近傍領域の平均輝度値を表す平均輝度データAPLを輝度検出部2から受け取る。そして、平均輝度値が所定の閾値thより小さい場合には、境界移動部302は、境界近傍領域が低輝度領域であると判定し、境界近傍領域内を通るように境界を移動させる。
FIG. 14 is a block diagram showing details of the area detection unit 3. As in the first embodiment, the area detection unit 3 according to the present embodiment includes a horizontal integration unit 300, a vertical integration unit 301, and a boundary moving unit 302.
The functions of the horizontal integration unit 300 and the vertical integration unit 301 are the same as those in the first embodiment.
The boundary moving unit 302 according to the present embodiment first determines a boundary vicinity region and outputs coordinate information ar representing the boundary vicinity region to the luminance detection unit 2. Thereafter, the boundary moving unit 302 receives the average luminance data APL representing the average luminance value in the boundary vicinity region from the luminance detection unit 2. When the average luminance value is smaller than the predetermined threshold th, the boundary moving unit 302 determines that the boundary vicinity region is a low luminance region, and moves the boundary so as to pass through the boundary vicinity region.

図15は、境界移動部302が境界近傍領域を決定する処理(境界近傍領域決定処理)を説明する図である。
境界移動部302には、垂直統合部301からカラー領域の座標情報HVが入力される。境界移動部302は、座標情報HVで表されるカラー領域の上、下、左、右の4方向のそれぞれについて、所定画素数離れた領域を境界近傍領域として決定する。本実施例では、1つの方向について、カラー領域322との間隔が100画素で、当該方向の幅が200画素の領域が境界近傍領域とされるものとする。
具体的には、画像データs0が図3(a)であった場合、図15に示すように、2つの領域370,371が境界近傍領域とされる。領域370は、カラー領域322の上端との間隔が100画素で、水平方向768画素×垂直方向200画素の領域である。領域371は、カラー領域322の右端との間隔が100画素で、水平方向200画素×垂直方向800画素の領域である。なお、カラー領域322の左方向と下方向については、画像が無いため、境界近傍領域は設定されない。この場合、座標情報arは、以下のように、領域370,371を表す情報となる。
ar1=(領域370の左上座標,領域370の右下座標)
=((0,101),(767,300)) ・・・(式11)
ar2=(領域371の左上座標,領域371の右下座標)
=((467,400),(666,800)) ・・・(式12)
FIG. 15 is a diagram for explaining processing (boundary vicinity region determination processing) in which the boundary moving unit 302 determines a boundary vicinity region.
The coordinate information HV of the color area is input from the vertical integration unit 301 to the boundary moving unit 302. The boundary moving unit 302 determines an area that is a predetermined number of pixels away from the color area represented by the coordinate information HV in each of the four directions of upper, lower, left, and right as the boundary vicinity area. In this embodiment, it is assumed that an area having an interval of 100 pixels with respect to one direction and a width of 200 pixels in the direction is a boundary vicinity area.
Specifically, when the image data s0 is FIG. 3A, as shown in FIG. 15, the two areas 370 and 371 are the boundary vicinity areas. The area 370 is an area having a distance of 100 pixels from the upper end of the color area 322 and 768 pixels in the horizontal direction × 200 pixels in the vertical direction. The area 371 is an area of 100 pixels at a distance from the right end of the color area 322 and 200 pixels in the horizontal direction × 800 pixels in the vertical direction. For the left direction and the lower direction of the color area 322, since there is no image, the boundary vicinity area is not set. In this case, the coordinate information ar is information representing the areas 370 and 371 as follows.
ar1 = (Upper left coordinates of area 370, Lower right coordinates of area 370)
= ((0, 101), (767, 300)) (Equation 11)
ar2 = (Upper left coordinates of area 371, Lower right coordinates of area 371)
= ((467,400), (666,800)) (Equation 12)

図16は、本実施例の輝度検出部2の詳細を示すブロック図である。
本実施例の輝度検出部2は平均輝度検出部201から構成される。
平均輝度検出部201には、画像データs0と座標情報arが入力される。平均輝度検出部201は、座標情報arにより指定された領域(境界近傍領域)の平均輝度値を検出(算出)する。画像データs0が図3(a)であった場合、図15に示す領域370,371の2つの領域の平均輝度値が検出される。そして、平均輝度検出部201は、検出した2つの平均輝度値を表す平均輝度データAPLを領域検出部3に出力する。
FIG. 16 is a block diagram showing details of the luminance detection unit 2 of the present embodiment.
The luminance detection unit 2 according to the present exemplary embodiment includes an average luminance detection unit 201.
The average luminance detection unit 201 receives image data s0 and coordinate information ar. The average luminance detection unit 201 detects (calculates) the average luminance value of the area (boundary vicinity area) designated by the coordinate information ar. When the image data s0 is shown in FIG. 3A, the average luminance values of the two areas 370 and 371 shown in FIG. 15 are detected. Then, the average luminance detection unit 201 outputs average luminance data APL representing the two detected average luminance values to the region detection unit 3.

上述したように、境界移動部302では、平均輝度検出部201で検出された平均輝度値から、境界近傍領域が低輝度領域か否かを判定する。この判定は実施例1と同様である。図15の領域370,371は、どちらも背景部153の画素のみを含む領域であるため、平均輝度値は0である。そのため、領域370,371はどちらも低輝度領域と判定され、領域370,371内に境界が移動される。本実施例では、境界の移動量は200画素とする。この結果、カラー領域320は図17の領域323となる。   As described above, the boundary moving unit 302 determines whether or not the boundary vicinity region is a low luminance region from the average luminance value detected by the average luminance detection unit 201. This determination is the same as in the first embodiment. The areas 370 and 371 in FIG. 15 are areas including only the pixels of the background portion 153, and thus the average luminance value is zero. Therefore, both the areas 370 and 371 are determined to be low-luminance areas, and the boundaries are moved into the areas 370 and 371. In this embodiment, the moving amount of the boundary is 200 pixels. As a result, the color area 320 becomes the area 323 in FIG.

以上述べたように、本実施例の構成によれば、細分割領域を設定することなく、境界近傍領域を設定することができ、実施例1,2と同様の効果を得ることができる。   As described above, according to the configuration of the present embodiment, the boundary vicinity region can be set without setting the subdivision region, and the same effect as in the first and second embodiments can be obtained.

101 カウント部
300 水平統合部
301 垂直統合部
302 境界移動部
101 Counting unit 300 Horizontal integration unit 301 Vertical integration unit 302 Boundary moving unit

Claims (6)

入力画像をカラー領域とモノクロ領域に区分する画像処理装置であって、
前記入力画像を分割して得られる分割領域毎の画素値の統計量を取得する取得手段と、
前記取得手段で取得された分割領域毎の統計量に基づいて、前記入力画像をカラー領域とモノクロ領域に区分する区分手段と、
前記区分手段で区分されたカラー領域とモノクロ領域の境界からモノクロ領域側に所定距離だけ離れた領域である境界近傍領域の輝度値が所定値より低い場合に、当該境界近傍領域内を通るように前記境界を移動させる移動手段と、
を有することを特徴とする画像処理装置。
An image processing apparatus for dividing an input image into a color area and a monochrome area,
An acquisition means for acquiring a statistic of a pixel value for each divided region obtained by dividing the input image;
Sorting means for classifying the input image into a color area and a monochrome area based on the statistics for each divided area obtained by the obtaining means;
When the luminance value of the boundary vicinity area that is a predetermined distance away from the boundary between the color area and the monochrome area divided by the classification means to the monochrome area side is lower than the predetermined value, it passes through the boundary vicinity area. Moving means for moving the boundary;
An image processing apparatus comprising:
前記境界近傍領域は、前記境界に隣接する分割領域内の領域である
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the boundary vicinity region is a region in a divided region adjacent to the boundary.
前記境界近傍領域は、前記入力画像を前記分割領域よりも細かく分割することにより得られる複数の細分割領域のうち、前記境界からモノクロ領域側に前記所定距離だけ離れた細分割領域である
ことを特徴とする請求項1または2に記載の画像処理装置。
The boundary vicinity region is a subdivision region separated from the boundary by a predetermined distance from the boundary to the monochrome region among a plurality of subdivision regions obtained by dividing the input image more finely than the subregion. The image processing apparatus according to claim 1, wherein the image processing apparatus is characterized.
前記細分割領域は、前記分割領域を2行2列の4つに分割して得られる領域であり、
前記境界近傍領域は、前記境界に隣接する分割領域内の細分割領域のうち、前記境界に隣接しない細分割領域である
ことを特徴とする請求項3に記載の画像処理装置。
The subdivided area is an area obtained by dividing the divided area into four in 2 rows and 2 columns,
The image processing apparatus according to claim 3, wherein the boundary vicinity region is a subdivision region that is not adjacent to the boundary among subdivision regions in a subregion adjacent to the boundary.
前記区分手段で区分されたカラー領域とモノクロ領域の境界が複数存在する場合に、前記移動手段は、境界毎に、その境界を移動させる処理を行う
ことを特徴とする請求項1〜4のいずれか1項に記載の画像処理装置。
5. The method according to claim 1, wherein, when there are a plurality of boundaries between the color area and the monochrome area divided by the classification unit, the moving unit performs a process of moving the boundary for each boundary. The image processing apparatus according to claim 1.
入力画像をカラー領域とモノクロ領域に区分する画像処理装置の制御方法であって、
前記入力画像を分割して得られる分割領域毎の画素値の統計量を取得する取得ステップと、
前記取得ステップで取得された分割領域毎の統計量に基づいて、前記入力画像をカラー領域とモノクロ領域に区分する区分ステップと、
前記区分ステップで区分されたカラー領域とモノクロ領域の境界からモノクロ領域側に所定距離だけ離れた領域である境界近傍領域の輝度値が所定値より低い場合に、当該境界近傍領域内を通るように前記境界を移動させる移動ステップと、
を有することを特徴とする画像処理装置の制御方法。
A control method of an image processing apparatus for dividing an input image into a color area and a monochrome area,
An acquisition step of acquiring a statistic of a pixel value for each divided region obtained by dividing the input image;
A step of dividing the input image into a color region and a monochrome region based on the statistics for each divided region acquired in the acquisition step;
If the luminance value of the boundary vicinity area that is a predetermined distance away from the boundary between the color area and the monochrome area divided in the classification step toward the monochrome area side is lower than the predetermined value, the luminance value of the boundary vicinity area passes through the boundary vicinity area. A moving step for moving the boundary;
A control method for an image processing apparatus, comprising:
JP2012081334A 2012-03-30 2012-03-30 Image processing apparatus and control method thereof Expired - Fee Related JP5911352B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012081334A JP5911352B2 (en) 2012-03-30 2012-03-30 Image processing apparatus and control method thereof
US13/797,080 US9135718B2 (en) 2012-03-30 2013-03-12 Image processing apparatus and control method therefor
US14/520,982 US20150043813A1 (en) 2012-03-30 2014-10-22 Image processing apparatus and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012081334A JP5911352B2 (en) 2012-03-30 2012-03-30 Image processing apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2013210887A true JP2013210887A (en) 2013-10-10
JP2013210887A5 JP2013210887A5 (en) 2015-05-14
JP5911352B2 JP5911352B2 (en) 2016-04-27

Family

ID=49528643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012081334A Expired - Fee Related JP5911352B2 (en) 2012-03-30 2012-03-30 Image processing apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP5911352B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015162782A (en) * 2014-02-27 2015-09-07 ブラザー工業株式会社 Controller, head mount display, and program
CN114527948A (en) * 2020-11-23 2022-05-24 深圳Tcl新技术有限公司 Calculation method and device of cut region, intelligent equipment and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000206756A (en) * 1999-01-20 2000-07-28 Minolta Co Ltd Image processor
JP2003244469A (en) * 2002-02-19 2003-08-29 Nisca Corp Image deciding apparatus, image reader, image deciding method, program and storage medium stored with program
JP2011193380A (en) * 2010-03-16 2011-09-29 Ricoh Co Ltd Image processing apparatus, image processing method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000206756A (en) * 1999-01-20 2000-07-28 Minolta Co Ltd Image processor
JP2003244469A (en) * 2002-02-19 2003-08-29 Nisca Corp Image deciding apparatus, image reader, image deciding method, program and storage medium stored with program
JP2011193380A (en) * 2010-03-16 2011-09-29 Ricoh Co Ltd Image processing apparatus, image processing method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015162782A (en) * 2014-02-27 2015-09-07 ブラザー工業株式会社 Controller, head mount display, and program
CN114527948A (en) * 2020-11-23 2022-05-24 深圳Tcl新技术有限公司 Calculation method and device of cut region, intelligent equipment and storage medium
CN114527948B (en) * 2020-11-23 2024-03-12 深圳Tcl新技术有限公司 Method and device for calculating clipping region, intelligent device and storage medium

Also Published As

Publication number Publication date
JP5911352B2 (en) 2016-04-27

Similar Documents

Publication Publication Date Title
US9135718B2 (en) Image processing apparatus and control method therefor
JP6157138B2 (en) Image processing device
US8781249B2 (en) Image processing apparatus and image processing method
US8194978B2 (en) Method of and apparatus for detecting and adjusting colour values of skin tone pixels
JP6623832B2 (en) Image correction apparatus, image correction method, and computer program for image correction
US20120320223A1 (en) Computing device, storage medium and method for identifying differences between two images
EP2742681B1 (en) Image processing apparatus and control method therefor
US10049610B2 (en) Display apparatus and method for controlling same
AU2011371064B2 (en) Motion image region identification device and method thereof
JP5911352B2 (en) Image processing apparatus and control method thereof
US11594198B2 (en) Display controller and display control method using brightness distribution of input image
JP5930804B2 (en) Image processing apparatus and control method thereof
KR20160069452A (en) Image processing device, image processing method and program
US9336608B2 (en) Color arrangement checking device, information storage medium storing a computer program thereof, and data processing method
KR20100102449A (en) Face detecting apparatus and face detection using the same
US20140118389A1 (en) Character region pixel identification device and method thereof
US10262430B2 (en) Annotation line determining unit, annotation line removing unit, medical display, and method therefor
JP2015200695A (en) Image processor and control method thereof
US8358850B2 (en) Determination method of edge direction
JP5327199B2 (en) Image processing method and image processing apparatus
JP6091128B2 (en) Image processing apparatus and control method thereof
JP2015142160A (en) Image processing device, image processing method, and program
JP2015001967A (en) Edge detector, and edge detection method
JP2014092402A (en) Defect inspection method for display device
CN115880182A (en) Image correction method, image correction device, computer equipment and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150325

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160329

R151 Written notification of patent or utility model registration

Ref document number: 5911352

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees