JP2013210887A - Image processing apparatus and control method therefor - Google Patents
Image processing apparatus and control method therefor Download PDFInfo
- Publication number
- JP2013210887A JP2013210887A JP2012081334A JP2012081334A JP2013210887A JP 2013210887 A JP2013210887 A JP 2013210887A JP 2012081334 A JP2012081334 A JP 2012081334A JP 2012081334 A JP2012081334 A JP 2012081334A JP 2013210887 A JP2013210887 A JP 2013210887A
- Authority
- JP
- Japan
- Prior art keywords
- area
- boundary
- color
- region
- monochrome
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 230000006866 deterioration Effects 0.000 abstract description 6
- 238000000926 separation method Methods 0.000 abstract 3
- 230000010354 integration Effects 0.000 description 53
- 238000001514 detection method Methods 0.000 description 31
- 238000010586 diagram Methods 0.000 description 26
- 238000004891 communication Methods 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置及びその制御方法に関する。 The present invention relates to an image processing apparatus and a control method thereof.
従来、入力画像をモノクロ領域(モノクロ画像の領域)とカラー領域(カラー画像の領域)に区分し、モノクロ領域とカラー領域に対し、個別にγ補正する画像処理装置が提案されている。例えば、モノクロ領域にDICOM(Digital Imaging and COmmunication in Medicine)Part14で規定されたγ補正(以下、「DICOMγ補正」と呼ぶ)を施し、カラー領域にγ=2.2のγ補正(以下、「2.2γ補正」と呼ぶ)を施す画像処理装置が提案されている。このような画像処理装置を用いれば、レントゲン画像などのモノクロ画像と、内視鏡画像などのカラー画像とを表示した場合に、モノクロ画像にはDICOMγ補正が、カラー画像には2.2γ補正が施され、各画像を適切な階調で表示することができる。 Conventionally, there has been proposed an image processing apparatus that divides an input image into a monochrome area (monochrome image area) and a color area (color image area) and individually γ-corrects the monochrome area and the color area. For example, γ correction (hereinafter referred to as “DICOM γ correction”) defined by DICOM (Digital Imaging and Communication in Medicine) Part 14 is performed on the monochrome area, and γ correction of γ = 2.2 (hereinafter “2” is applied to the color area). Image processing apparatus that performs “.2γ correction” has been proposed. When such an image processing apparatus is used, when a monochrome image such as an X-ray image and a color image such as an endoscopic image are displayed, DICOMγ correction is applied to the monochrome image, and 2.2γ correction is applied to the color image. Thus, each image can be displayed with an appropriate gradation.
入力画像をモノクロ領域とカラー領域に区分する方法は、例えば特許文献1に開示されている。具体的には、特許文献1には、入力画像を複数の矩形ブロックに分割し、矩形ブロック毎にモノクロ領域かカラー領域かを判定することが開示されている。
A method of dividing an input image into a monochrome area and a color area is disclosed in
ここで、モノクロ領域かカラー領域かを判定する際には、以下の点を注意しなければならない。
モノクロ画像(例えば、レントゲン画像)中にカラーの注釈など多少のカラー画素が存在する場合がある。しかし、カラー画素が含まれてもモノクロ画像はDICOMγ補正を施して表示する必要がある。そのため、モノクロ領域を判定する際に、領域内に多少のカラー画素が存在してもその領域をモノクロ領域と判定する必要がある。
Here, when determining whether the area is a monochrome area or a color area, the following points must be noted.
There may be some color pixels such as color annotations in a monochrome image (eg, an X-ray image). However, even if color pixels are included, it is necessary to display a monochrome image after performing DICOMγ correction. Therefore, when determining a monochrome area, even if there are some color pixels in the area, it is necessary to determine that area as a monochrome area.
しかしながら、上記注意点を考慮して特許文献1に開示の技術を用いた場合、カラー画像の縁部の領域が、カラー領域であるにも拘らずモノクロ領域であると誤判定される場合があった。具体的には、背景がモノクロのカラー画像の縁部では、矩形ブロック内に多少のカラー画素しか含まれなくなる。そのため、上記注意点を考慮したことによりカラー画像の縁部の領域がモノクロ領域と誤判定されてしまう。カラー領域は2.2γ補正を適用すべき画像であるが、モノクロ領域と誤判定されるとDICOMγ補正が適用されてしまう。その結果、正しくカラー領域と判定されたカラー画素とモノクロ領域と誤判定されたカラー画素との間に輝度差が生じ、画質が劣化してしまう(画質的な妨害が生じてしまう)。
However, when the technique disclosed in
本発明は、カラー領域をモノクロ領域と誤判定することによる画質の劣化を低減することのできる技術を提供することを目的とする。 An object of the present invention is to provide a technique capable of reducing deterioration in image quality due to erroneous determination of a color area as a monochrome area.
本発明の画像処理装置は、
入力画像をカラー領域とモノクロ領域に区分する画像処理装置であって、
前記入力画像を分割して得られる分割領域毎の画素値の統計量を取得する取得手段と、
前記取得手段で取得された分割領域毎の統計量に基づいて、前記入力画像をカラー領域とモノクロ領域に区分する区分手段と、
前記区分手段で区分されたカラー領域とモノクロ領域の境界からモノクロ領域側に所定距離だけ離れた領域である境界近傍領域の輝度値が所定値より低い場合に、当該境界近傍領域内を通るように前記境界を移動させる移動手段と、
を有する。
The image processing apparatus of the present invention
An image processing apparatus for dividing an input image into a color area and a monochrome area,
An acquisition means for acquiring a statistic of a pixel value for each divided region obtained by dividing the input image;
Sorting means for classifying the input image into a color area and a monochrome area based on the statistics for each divided area obtained by the obtaining means;
When the luminance value of the boundary vicinity area that is a predetermined distance away from the boundary between the color area and the monochrome area divided by the classification means to the monochrome area side is lower than the predetermined value, it passes through the boundary vicinity area. Moving means for moving the boundary;
Have
本発明の画像処理装置の制御方法は、
入力画像をカラー領域とモノクロ領域に区分する画像処理装置の制御方法であって、
前記入力画像を分割して得られる分割領域毎の画素値の統計量を取得する取得ステップと、
前記取得ステップで取得された分割領域毎の統計量に基づいて、前記入力画像をカラー領域とモノクロ領域に区分する区分ステップと、
前記区分ステップで区分されたカラー領域とモノクロ領域の境界からモノクロ領域側に所定距離だけ離れた領域である境界近傍領域の輝度値が所定値より低い場合に、当該境界近傍領域内を通るように前記境界を移動させる移動ステップと、
を有する。
The control method of the image processing apparatus of the present invention includes:
A control method of an image processing apparatus for dividing an input image into a color area and a monochrome area,
An acquisition step of acquiring a statistic of a pixel value for each divided region obtained by dividing the input image;
A step of dividing the input image into a color region and a monochrome region based on the statistics for each divided region acquired in the acquisition step;
If the luminance value of the boundary vicinity area that is a predetermined distance away from the boundary between the color area and the monochrome area divided in the classification step toward the monochrome area side is lower than the predetermined value, the luminance value of the boundary vicinity area passes through the boundary vicinity area. A moving step for moving the boundary;
Have
本発明によれば、カラー領域をモノクロ領域と誤判定することによる画質の劣化を低減することができる。 According to the present invention, it is possible to reduce deterioration in image quality due to erroneous determination of a color area as a monochrome area.
<実施例1>
以下、本発明の実施例1に係る画像処理装置及びその制御方法について説明する。
本実施例に係る画像処理装置は、入力画像をカラー領域とモノクロ領域に区分し、カラー領域とモノクロ領域に対して個別に画像処理を施す。本実施例では、モノクロ領域にDICOM(Digital Imaging and COmmunication in Medicine)Part14で規定されたγ補正(DICOMγ補正)が適用され、カラー領域にγ=2.2のγ補正(2.2γ補正)が適用される。
図1は、本実施例に係る画像処理装置の機能構成の一例を示すブロック図である。本実施例に係る画像処理装置は、モノクロ/カラー判定部1、輝度検出部2、領域検出部3、γ補正部4、表示パネル5などを有する。本実施例に係る画像処理装置には、不図示のパーソナル・コンピューターから画像データs0(入力画像)が入力される。そして、本実施例に係る画像処理装置は、画像データs0にγ補正を施すことにより画像データs1を生成し、画像データs1に基づく画像を表示パネル5で表示する。本実施例では、画像データs0,s1はRGBデータであるものとする。
なお、本実施例では、表示パネル5が画像処理装置の一部である場合の例を説明するが、表示パネル5は画像処理装置と別体の装置であってもよい。
また、画像データはRGBデータでなくてもよい。例えば、画像データはYCbCrデータであってもよい。
<Example 1>
Hereinafter, an image processing apparatus and a control method thereof according to
The image processing apparatus according to the present embodiment divides an input image into a color area and a monochrome area, and individually performs image processing on the color area and the monochrome area. In this embodiment, γ correction (DICOM γ correction) defined by DICOM (Digital Imaging and Communication in Medicine) Part 14 is applied to the monochrome area, and γ correction (2.2 γ correction) with γ = 2.2 is applied to the color area. Applied.
FIG. 1 is a block diagram illustrating an example of a functional configuration of the image processing apparatus according to the present embodiment. The image processing apparatus according to the present embodiment includes a monochrome /
In this embodiment, an example in which the
Further, the image data may not be RGB data. For example, the image data may be YCbCr data.
モノクロ/カラー判定部1は、入力画像(画像データs0)を分割して得られる分割領域(矩形ブロック)毎のモノクロ判定信号mcを生成し、出力する。モノクロ判定信号mcは、対応する分割領域がモノクロ領域であるかカラー領域であるかを示す信号である。
図2は、モノクロ/カラー判定部1の詳細を示すブロック図である。モノクロ/カラー判定部1は、分割座標指定部100、カウント部101、判定部102から構成される。
図3(a)〜3(c)は、モノクロ/カラー判定部1の処理フローを説明する図である。
以下、図2,3(a)〜3(c)を用いてモノクロ/カラー判定部1の処理について説明する。
The monochrome /
FIG. 2 is a block diagram showing details of the monochrome /
FIGS. 3A to 3C are diagrams for explaining the processing flow of the monochrome /
Hereinafter, the processing of the monochrome /
図3(a)は画像データs0の一例である。図3(a)の例では、画像データs0は、左側に内視鏡画像150、右側にレントゲン画像151が配置された画像のデータである。レントゲン画像151はモノクロ画像(R値=G値=B値の画素からなる画像)である。また、内視鏡画像150は、内視鏡で撮影された画像の領域である前景部152と、それ以外の領域である背景部153から成るものとする。前景部152の画素は全てカラー画素であり、背景部153の画素は低輝度値(本実施例ではR値=G値=B値=0)の画素である。本実施例では、画像データs0の画像サイズは水平方向1920画素×垂直方向1200画素とする。
FIG. 3A is an example of the image data s0. In the example of FIG. 3A, the image data s0 is image data in which an endoscopic image 150 is arranged on the left side and an X-ray image 151 is arranged on the right side. The X-ray image 151 is a monochrome image (an image made up of R value = G value = B value pixels). The endoscopic image 150 includes a
分割座標指定部100は、複数の分割領域を決定し、各分割領域を表す座標情報(分割座標情報b0)をカウント部101へ出力する。本実施例では、複数の分割領域は、画像データs0を水平方向5個×垂直方向3個に分割して得られる15個の領域であるものとする。なお、分割領域の数は15個に限らない。分割領域の数は10個や20個など、15個より多くても少なくてもよい。
図3(b)は、分割座標指定部100により決定される15個の分割領域A(0,0)〜A(4,2)の一例を示す図である。本実施例では、分割領域のサイズは、水平方向384(=1920÷5)画素×垂直方向400(=1200÷3)画素となる。
The divided coordinate designating
FIG. 3B is a diagram illustrating an example of 15 divided areas A (0, 0) to A (4, 2) determined by the divided coordinate designating
カウント部101は、分割領域毎の画素値の統計量を取得する。具体的には、カウント部101は、分割座標指定部100で決定された分割領域毎に、その分割領域内のモノクロ画素の数(以下、「モノクロ度数」と呼ぶ)をカウントし、分割領域毎のモノクロ度数を表すモノクロ度数データm0を出力する。本実施例では、カウント部101は、R値、G値、B値が全て等しい画素をモノクロ画素と判定し、モノクロ度数をカウントする。但し、モノクロ画素か否かの判定方法はこれに限らない。例えば、RGBデータが輝度データ(Y)と色差データ(Cb,Cr)に変換され、色差データ(Cb,Cr)が0である画素がモノクロ画素と判定されてもよい。モノクロ度数データm0は、分割領域毎に1つのモノクロ度数を表すデータである。そのため、本実施例では、モノクロ度数データm0は、1フレームの画像データs0に対して15個のモノクロ度数を表すデータとなる。
なお、本実施例では、統計量がモノクロ度数であるものとしたが、統計量はこれに限らない。統計量は、例えば、モノクロ画素とカラー画素を含めた全画素の画素値であってもよいし、カラー画素の数であってもよいし、色差値(Cb,Cr)毎のヒストグラム(8bit:−128〜127)であってもよい。分割領域がモノクロ領域かカラー領域かを判定することのできる統計量であれば、どのような統計量であってもよい。
また、統計量は外部から取得されてもよい。
The
In this embodiment, the statistic is assumed to be a monochrome frequency, but the statistic is not limited to this. The statistic may be, for example, the pixel values of all pixels including monochrome pixels and color pixels, the number of color pixels, or a histogram (8 bits: for each color difference value (Cb, Cr)). -128 to 127). Any statistical quantity may be used as long as it can determine whether the divided area is a monochrome area or a color area.
The statistics may be acquired from the outside.
判定部102は、モノクロ度数データm0から、分割領域毎に、その分割領域がモノクロ領域かカラー領域かを判定する。そして、判定部102は、分割領域毎の判定結果を表すモノクロ判定信号mcを出力する。モノクロ判定信号mcは、分割領域毎に1つの判定結果を表すデータである。そのため、本実施例では、モノクロ判定信号mcは、1フレームの画像データs0に対して15個の判定結果を表すデータとなる。
本実施例では、判定部102は、分割領域の総画素数に対するモノクロ度数の割合が95%以上ある分割領域をモノクロ領域と判定し、上記割合が95%未満である分割領域をカラー領域と判定する。ここでは、モノクロ画像中のカラー注釈などを考慮し、多少のカラー画素が存在してもモノクロ領域と判定するために、閾値を100%ではなく95%としている。
本実施例では、分割領域のサイズは、水平方向384画素×垂直方向400画素である。そのため、モノクロ度数が145920(=384×400×0.95)以上の分割領域はモノクロ領域、モノクロ度数が145920未満の分割領域はカラー領域と判定される。
図3(c)は、判定部102の判定結果の一例を示す図である。白で示された分割領域はモノクロ領域と判定された分割領域であり、斜線でハッチングされた分割領域はカラー領域と判定された分割領域である。図3(c)の破線で囲んだ5つの分割領域160は、分割領域内の一部にカラー画素が存在するがモノクロ領域と判定されている。これは、上述したように多少のカラー画素が存在してもモノクロ領域と判定するように閾値を95%に設定しているためである。
The
In the present exemplary embodiment, the
In this embodiment, the size of the divided area is 384 pixels in the horizontal direction × 400 pixels in the vertical direction. Therefore, a divided area with a monochrome power of 145920 (= 384 × 400 × 0.95) or more is determined as a monochrome area, and a divided area with a monochrome power of less than 145920 is determined as a color area.
FIG. 3C is a diagram illustrating an example of a determination result of the
モノクロ判定信号mcのみに応じて、モノクロ領域にDICOMγ補正、カラー領域に2.2γ補正を適用した場合、5つの分割領域160に含まれるカラー画素(前景部152の画素)にもDICOMγ補正が適用される。一方、カラー領域と判定された4つの分割領域には2.2γ補正が適用される。それにより、前景部152内に表示輝度の段差が生じ、画質が劣化してしまう(画質的な妨害が生じてしまう)。具体的には、モノクロ領域と判定された領域と、カラー領域と判定された領域との境界において表示輝度の段差が生じてしまう。
そこで、本実施例では、カラー領域とモノクロ領域の境界付近に低輝度の領域(以下、「低輝度領域」と呼ぶ)がある場合に、境界を低輝度領域内を通るように移動させる。低輝度領域では、DICOMγ補正を適用したときの表示輝度と、2.2γ補正を適用したときの表示輝度の差は小さい。そのため、境界を低輝度領域内に移動させることにより、上記誤判定による画質の劣化を低減することができる(画質妨害を低減することができる)。特に、医療診断画像であるカラー画像は背景が黒である場合が多い。黒色の領域では上記表示輝度の差は特に小さくなるため、カラー画像が医療診断画像である場合には、本発明により上記画質の劣化を大きく低減することができる。
When DICOMγ correction is applied to the monochrome area and 2.2γ correction is applied to the color area only in accordance with the monochrome determination signal mc, DICOMγ correction is also applied to the color pixels (pixels of the foreground portion 152) included in the five divided
Therefore, in this embodiment, when there is a low luminance area (hereinafter referred to as “low luminance area”) near the boundary between the color area and the monochrome area, the boundary is moved so as to pass through the low luminance area. In the low luminance region, the difference between the display luminance when DICOMγ correction is applied and the display luminance when 2.2γ correction is applied is small. Therefore, by moving the boundary into the low luminance region, it is possible to reduce image quality deterioration due to the erroneous determination (image quality interference can be reduced). In particular, color images that are medical diagnostic images often have a black background. Since the difference in display luminance is particularly small in the black region, when the color image is a medical diagnostic image, the image quality deterioration can be greatly reduced by the present invention.
輝度検出部2は、画像データs0を分割領域よりも細かく分割することにより得られる細分割領域毎に、その細分割領域の平均輝度値を算出する。平均輝度値は、後述する領域検出部3で低輝度領域を検出するために用いられる。
図4は、輝度検出部2の詳細を示すブロック図である。輝度検出部2は、分割座標指定部200、平均輝度検出部201から構成される。
以下、図4を用いて輝度検出部2の処理について説明する。
The
FIG. 4 is a block diagram showing details of the
Hereinafter, the process of the brightness |
分割座標指定部200は、複数の細分割領域を決定し、各細分割領域を表す座標情報(分割座標情報b1)を平均輝度検出部201へ出力する。本実施例では、複数の細分割領域は、画像データs0を水平方向10個×垂直方向6個に分割して得られる60個の領域であるものとする。即ち、本実施例では、細分割領域は、分割領域を2行2列の4つに分割して得られる領域である。なお、細分割領域の数は40個や80個など、60個より多くても少なくてもよい。
図5は、分割座標指定部200により決定される60個の細分割領域B(0,0)〜B(9,5)の一例を示す図である。本実施例では、細分割領域のサイズは、水平方向192(=1920÷10)画素×垂直方向200(=1200÷6)画素となる。即ち、細分割領域の水平方向及び垂直方向のサイズは、分割領域の1/2となる。
The divided coordinate designating
FIG. 5 is a diagram illustrating an example of 60 subdivision areas B (0, 0) to B (9, 5) determined by the division coordinate designating
平均輝度検出部201は、細分割領域毎に、その細分割領域の平均輝度値を検出(算出)し、細分割領域毎の平均輝度値を表す平均輝度データAPLを出力する。本実施例では、細分割領域内の画素毎に、式1を用いて、その画素のR値、G値、B値から画素平均値が算出される。そして、細分割領域内の画素毎の画素平均値の平均値が、当該細分割領域の平均輝度値とされる。
画素平均値=(R値+G値+B値)/3 ・・・(式1)
平均輝度データAPLは、細分割領域毎に1つの平均輝度値を表すデータである。そのため、本実施例では、平均輝度データAPLは、1フレームの画像データs0に対して60個の平均輝度値を表すデータとなる。
また、本実施例では画像データs0(R値、G値、B値)は8bit(0〜255)のデータであり、平均輝度値も0〜255の範囲で表されるものとする。なお、本実施例では、輝度検出部2が平均輝度値を検出するものとしたが、この構成に限らない。輝度のヒストグラムなど、低輝度領域か否かを判断できる情報が得られればよい。
The average
Pixel average value = (R value + G value + B value) / 3 (Expression 1)
The average luminance data APL is data representing one average luminance value for each subdivision area. Therefore, in this embodiment, the average luminance data APL is data representing 60 average luminance values for one frame of image data s0.
In this embodiment, the image data s0 (R value, G value, B value) is 8-bit (0 to 255) data, and the average luminance value is also expressed in the range of 0 to 255. In the present embodiment, the
領域検出部3は、入力画像をカラー領域とモノクロ領域に区分する。具体的には、領域検出部3は、モノクロ判定信号mcと平均輝度データAPLからカラー領域を決定し、カラー領域を表す座標情報poをγ補正部4に出力する。本実施例では、座標情報poは、カラー領域の始点である左上座標(x,y)と終点である右下座標(x,y)を含むものとする。本実施例では、画像データs0の左上座標が原点(0,0)、右下座標が(1919,1199)であるものとする。
なお、座標情報poは、左上座標(x,y)と右下座標(x,y)を含む情報に限らない。例えば、座標情報poは、左上座標(x,y)と、カラー領域の水平方向及び垂直方向のサイズとを含む情報であってもよい。
図6は、領域検出部3の詳細を示すブロック図である。領域検出部3は水平統合部300、垂直統合部301、境界移動部302から構成される。
The
The coordinate information po is not limited to information including the upper left coordinate (x, y) and the lower right coordinate (x, y). For example, the coordinate information po may be information including the upper left coordinates (x, y) and the horizontal and vertical sizes of the color area.
FIG. 6 is a block diagram showing details of the
水平統合部300は、水平方向に連続する複数のカラー領域(カラー領域と判定された複数の分割領域)を統合して1つのカラー領域とする。そして、水平統合部300は、統合されたカラー領域の左端および右端の水平方向座標(x座標)を表す座標情報H(L)を出力する(Lは行番号)。
垂直統合部301は、垂直方向に連続する複数のカラー領域(水平統合部300で統合して得られた複数のカラー領域)を統合して1つのカラー領域とする。そして、垂直統合部301は、統合されたカラー領域の左上座標および右下座標を表す座標情報HVを出力する。
なお、本実施例では、カラー領域以外の領域はモノクロ領域とされる。
水平統合部300と垂直統合部301による統合の結果、入力画像の領域が分割領域単位でカラー領域とモノクロ領域に区分される。
ただし、本発明は、分割領域単位でカラー領域とモノクロ領域に区分する構成に限定さ
れるものではない。つまり、分割座標指定部100が決定した分割領域間の境界と、カラー領域とモノクロ領域の境界とが一致していなくてもよい。入力画像をカラー領域とモノクロ領域に区分する方法であれば、どのような方法であっても本発明に適用可能である。例えば、分割領域がカラー領域かモノクロ領域かを判定するための閾値として、多少のカラー画素が存在してもモノクロ領域と判定されるような閾値を用いた場合、モノクロ領域と判定された分割領域に内にカラー画像の縁部の画素が含まれる可能性が高い。そのため、カラー分割領域(カラー領域と判定された分割領域)に隣接するモノクロ分割領域(モノクロ領域と判定された分割領域)内に境界が位置するように、入力画像がカラー領域とモノクロ領域に区分されてもよい。
The
The
In this embodiment, the area other than the color area is a monochrome area.
As a result of the integration by the
However, the present invention is not limited to a configuration in which a color area and a monochrome area are divided in units of divided areas. That is, the boundary between the divided areas determined by the divided coordinate designating
図7(a)〜7(c)は、水平統合部300と垂直統合部301の処理フローを説明する図である。図7において白で示された分割領域はモノクロ領域、斜線でハッチングされた分割領域はカラー領域である。
水平統合部300の処理を説明する。
まず、水平統合部300は、1行目(最も上側の行)の分割領域A(0,0)〜A(4,0)を左から右へ走査し、連続したカラー領域があれば統合する。図7(a)の例では、分割領域A(0,0)〜A(4,0)の中にカラー領域は存在しないため、統合は行われない。本実施例ではカラー領域が存在しなかった場合、座標情報H(1)は以下の値とされる。
H(1)=(左端のx座標,右端のx座標)=(−1,−1) ・・・(式2)
次に、水平統合部300は、2行目の分割領域A(0,1)〜A(4,1)を走査する。図7(a)の例では、分割領域A(0,1),A(1,1)がカラー領域である。そのため、水平統合部300は、これら2つの分割領域A(0,1)、A(1,1)を統合し、1つのカラー領域とする。図7(a)において点線で示した領域320が、分割領域A(0,1)、A(1,1)を統合したカラー領域である。統合されたカラー領域320の座標情報H(2)は以下のようになる。
H(2)=(0,767) ・・・(式3)
ここで、式3の右端のx座標=767は、2つ分の分割領域の水平方向サイズ=384×2=768から1を引いた値である。
そして、水平統合部300は、3行目の分割領域A(0,2)〜A(4,2)について同様の処理を行う。図7(a)の例では、分割領域A(0,2),A(1,2)がカラー領域である。そのため、水平統合部300は、これら2つの分割領域A(0,2)、A(1,2)を統合し、1つのカラー領域とする。図7(b)において点線で示した領域321が、分割領域A(0,2)、A(1,2)を統合したカラー領域である。統合されたカラー領域321の座標情報Hは以下のようになる。
H(3)=(0,767) ・・・(式4)
FIGS. 7A to 7C are diagrams illustrating the processing flow of the
Processing of the
First, the
H (1) = (x coordinate at the left end, x coordinate at the right end) = (− 1, −1) (Expression 2)
Next, the
H (2) = (0,767) (Formula 3)
Here, the x coordinate = 767 at the right end of
Then, the
H (3) = (0,767) (Formula 4)
垂直統合部301の処理を説明する。
垂直統合部301は、水平統合部300から出力された3つの座標情報H(1)〜H(3)を用いて、垂直方向に連続するカラー領域を統合する。
H(1)より、1行目にはカラー領域が存在しないことが判断される。そして、H(2)とH(3)から、2行目と3行目でカラー領域の水平位置及び水平サイズが等しい(H(2)=H(3)である)と判断される。垂直統合部301は、このように水平位置及び水平サイズが互いに等しく、且つ、垂直方向に連続する複数のカラー領域を1つに統合する。垂直統合部301による統合の結果、図7(c)の点線で示すように、分割領域A(0,1)、A(1,1)、A(0,2)、A(1,2)の4つが1つのカラー領域322に統合される。そして、垂直統合部301は統合されたカラー領域322の左上座標および右下座標を表す座標情報HVを出力する。図7(c)の場合、座標情報HVは以下のようになる。
HV=((左上座標),(右下座標))
=((0,400),(767,1199)) ・・・(式5)
Processing of the
The
From H (1), it is determined that there is no color area in the first row. Then, it is determined from H (2) and H (3) that the horizontal position and horizontal size of the color area are the same in the second and third rows (H (2) = H (3)). As described above, the
HV = ((upper left coordinate), (lower right coordinate))
= ((0,400), (767,1199)) (Formula 5)
境界移動部302は、境界近傍領域の輝度値が所定値より低い場合に、水平統合部300と垂直統合部301により区分されたカラー領域とモノクロ領域の境界を、境界近傍領域内を通るように移動させる。境界近傍領域は、水平統合部300と垂直統合部301により区分されたカラー領域とモノクロ領域の境界からモノクロ領域側に所定距離だけ離れた領域である。
The
図8(a),8(b)は境界移動部302の処理フローを説明する図である。図8(a)は、垂直統合部301で統合されたカラー領域と、細分割領域B(0,0)〜B(9,5)を重ねて示したものである。図8(a)の点線で囲んだ領域(斜線でハッチングされた領域)322は、垂直統合部301で統合されたカラー領域である。
8A and 8B are diagrams for explaining the processing flow of the
本実施例では、境界移動部302は、カラー領域322の上、下、左、右の4方向のそれぞれについて、その方向に所定画素数だけ離れた領域が低輝度領域(輝度が所定値より低い領域)か否かを判定する。そして、低輝度領域が存在する場合には、境界移動部302は、その方向に境界を移動させる。
本実施例では、上記所定画素数を1細分割領域分の画素数(水平方向の場合は192画素、垂直方向の場合は200画素)とする。そのため、本実施例では、上記境界に隣接する分割領域内の4つの細分割領域のうち、上記境界に隣接しない細分割領域が境界近傍領域とされる。そして、上、下、左、右の4方向のそれぞれについて、その方向の境界近傍領域である細分割領域の平均輝度値の平均値Lが算出される。算出された平均値Lが所定の閾値thより小さい場合、その境界近傍領域が低輝度領域と判定される。本実施例では所定の閾値thは3であるものとする。但し、閾値thはこの値に限らない。閾値thの値は、どの程度の明るさの領域を低輝度領域とするかなど、目的に応じて適宜設定、変更されるものである。
In this embodiment, the
In the present embodiment, the predetermined number of pixels is the number of pixels for one subdivision area (192 pixels in the horizontal direction and 200 pixels in the vertical direction). Therefore, in this embodiment, among the four subdivision areas in the subarea adjacent to the boundary, the subdivision area not adjacent to the boundary is set as the boundary vicinity area. Then, for each of the four directions of upper, lower, left, and right, the average value L of the average luminance value of the subdivision area that is the boundary vicinity area in that direction is calculated. When the calculated average value L is smaller than the predetermined threshold th, the boundary vicinity region is determined as the low luminance region. In this embodiment, it is assumed that the predetermined threshold th is 3. However, the threshold th is not limited to this value. The value of the threshold th is appropriately set and changed according to the purpose, such as how bright the region is to be a low luminance region.
図8(a)の例では、カラー領域322の左方向と下方向には画像が無いため、これら2方向については境界近傍領域は設定されない。
一方、カラー領域322の上方向については、カラー領域322の上端から上方向に1細分割領域分離れた位置にある4つの細分割領域B(0,0)〜B(3,0)が境界近傍領域とされる。図5に示すように、細分割領域B(0,0)〜B(3,0)は背景部153の画素のみを含むため、細分割領域B(0,0)〜B(3,0)の平均輝度値は全て0である。従って、細分割領域B(0,0)〜B(3,0)の平均輝度値の平均値L=0となる。この平均値L(=0)は閾値th(=3)よりも小さいため、カラー領域322の上方向の境界近傍領域は低輝度領域であると判定される。
本実施例において、カラー領域から所定距離(1細分割領域分)離れた細分割領域を境界近傍領域とする理由は以下のとおりである。カラー領域に隣接する細分割領域(図8(a)の例では、細分割領域B(0,1)〜B(3,1))の平均輝度値には、カラー画素(本実施例では、図3(a)の前景部152)の画素値が含まれている可能性がある。そのため、カラー領域に隣接する細分割領域内に低輝度領域が存在していたとしても、そのような細分割領域の平均値Lは、必ずしも閾値th以下になるとは限らない。そこで、本実施例では、カラー領域から所定距離離れた細分割領域を境界近傍領域とする。
In the example of FIG. 8A, since there is no image in the left direction and the lower direction of the
On the other hand, with respect to the upper direction of the
In this embodiment, the reason why the subdivision area that is a predetermined distance (one subdivision area) away from the color area is used as the boundary vicinity area is as follows. The average luminance value of the subdivision areas adjacent to the color area (in the example of FIG. 8A, subdivision areas B (0,1) to B (3,1)) includes color pixels (in this embodiment, There is a possibility that the pixel value of the foreground portion 152) of FIG. Therefore, even if a low luminance area exists in the subdivision areas adjacent to the color area, the average value L of such subdivision areas is not necessarily equal to or less than the threshold th. Therefore, in this embodiment, a subdivision area that is a predetermined distance away from the color area is set as a boundary vicinity area.
同様に、カラー領域322の右方向については、カラー領域322の右端から右方向に1細分割領域分離れた位置にある4つの細分割領域B(5,2)〜B(5,5)が境界近傍領域とされる。図5に示すように、細分割領域B(5,2)〜B(5,5)は背景部153の画素のみを含むため、細分割領域B(5,2)〜B(5,5)の平均輝度値の平均値Lは0となる。この平均値Lは閾値thよりも小さいため、カラー領域322の右方向の境界近傍領域は低輝度領域であると判定される。
Similarly, with respect to the right direction of the
そして、カラー領域322の上方向と右方向の境界近傍領域が低輝度領域であるため、境界移動部302は、カラー領域322の上側の境界と右側の境界とを、それぞれ、上方向、右方向に移動させる。本実施例では、境界の移動量は水平方向、垂直方向ともに300画素とする。但し、移動量はこれに限るものではなく、境界が低輝度領域内を通れば、どのような値であってもよい。更に、本実施例では、カラー領域が矩形領域となるように、カラー領域322の上側、下側、左側、右側の4つの境界の長さが調整される。
Since the region near the upper and right borders of the
境界を移動したことにより、図8(b)の点線で囲んだ領域(斜線でハッチングされた領域)323が最終的なカラー領域となる。その結果、カラー画像の前景部(カラー画素からなる領域)をすべて含むように、入力画像がカラー領域とモノクロ領域に区分される。
境界移動部302は、このカラー領域323の左上座標と右上座標を示す座標情報poを出力する。カラー領域323の座標情報poは以下のようになる。
po=(左上座標,右下座標)
((0,100),(1067,1199)) ・・・(式6)
式6において右下座標のx座標値=1067は、2つの分割領域の水平方向サイズ(384×2)に300を足し、そこから1を引いた値である。
By moving the boundary, a region (region hatched with diagonal lines) 323 surrounded by a dotted line in FIG. 8B becomes a final color region. As a result, the input image is divided into a color area and a monochrome area so as to include all foreground portions (areas of color pixels) of the color image.
The
po = (Upper left coordinates, Lower right coordinates)
((0, 100), (1067, 1199)) (Expression 6)
In Equation 6, the x coordinate value of the lower right coordinate = 1067 is a value obtained by adding 300 to the horizontal size (384 × 2) of the two divided regions and subtracting 1 therefrom.
γ補正部4は、座標情報poに基づいて、カラー領域とモノクロ領域に対し、個別にγ補正を施す。座標情報poにより指定された領域はカラー領域であるため、γ=2.2のγ補正が適用され、それ以外の領域はモノクロ領域と判断され、DICOMγが適用される。 The γ correction unit 4 individually performs γ correction on the color area and the monochrome area based on the coordinate information po. Since the area specified by the coordinate information po is a color area, γ correction of γ = 2.2 is applied, and other areas are determined as monochrome areas and DICOMγ is applied.
以上述べたように、本実施例によれば、境界近傍領域が低輝度領域である場合に、当該低輝度領域内を通るように、モノクロ領域とカラー領域の境界が移動される。低輝度領域では、画像処理の違いによる輝度の差が小さいため、カラー領域をモノクロ領域と誤判定することによる画質の劣化(輝度の段差)を低減することができる。特に医療の診断画像は背景が黒である場合が多い。黒色の領域では画像処理の違いによる輝度の差が特に小さいため、本発明は特に医療画像を表示する際に有効である。 As described above, according to the present embodiment, when the boundary vicinity region is a low luminance region, the boundary between the monochrome region and the color region is moved so as to pass through the low luminance region. In the low luminance region, since the difference in luminance due to the difference in image processing is small, it is possible to reduce image quality deterioration (luminance step) due to erroneous determination of the color region as a monochrome region. In particular, medical diagnostic images often have a black background. Since the difference in luminance due to the difference in image processing is particularly small in the black region, the present invention is particularly effective when displaying a medical image.
なお、本実施例では、複数の細分割領域の平均輝度値の平均値Lを閾値thと比較し、当該複数の細分割領域が低輝度領域か否かを判定するものとしたが、この構成に限らない。例えば、上記複数の細分割領域のうち1つの細分割領域の平均輝度値を、閾値thと比較し、当該複数の細分割領域が低輝度領域か否かが判定されてもよい。また、境界近傍領域である細分割領域毎に、その細分割領域の平均輝度値を閾値thと比較し、当該細分割領域が低輝度領域か否かを判定してもよい。
なお、本実施例では、水平統合部300及び垂直統合部301において、カラー領域と判定された分割領域を統合することによりカラー領域を検出し、他の領域をモノクロ領域とする構成としたが、この構成に限らない。例えば、水平統合部300及び垂直統合部301において、モノクロ領域と判定された分割領域を統合することによりモノクロ領域を検出し、他の領域がカラー領域とされてもよい。カラー領域と判定された分割領域を統合することによりカラー領域を検出し、モノクロ領域と判定された分割領域を統合することによりモノクロ領域を検出する構成であってもよい。
なお、本実施例では、カラー領域とモノクロ領域に個別に施す画像処理がγ補正である場合の例を示したが、画像処理はこれに限らない。画像処理は明るさ調整処理や色温度調整処理などであってもよい。
なお、本実施例では、境界近傍領域が、境界に隣接する分割領域内の領域である場合の例について説明しが、境界近傍領域はこれに限らない。境界近傍領域は、境界のモノクロ領域側に隣接する分割領域よりさらにモノクロ領域側に設定されてもよい。例えば、境界
からモノクロ領域側に2細分割領域分離れた細分割領域が境界近傍領域とされてもよい。境界近傍領域は、水平統合部300と垂直統合部301により区分されたカラー領域とモノクロ領域の境界からモノクロ領域側に所定距離だけ離れた領域であればよく、当該所定距離はどのような値であってもよい。但し、低輝度領域としてカラー領域の背景を検出する目的から、境界近傍領域は、境界に隣接する分割領域内の領域であることが好ましい。
なお、本実施例では、細分割領域が分割領域を2行2列の4つに分割して得られる領域である場合の例を説明したが、細分割領域はこれに限らない。細分割領域は、入力画像を分割領域よりも細かく分割して得られる領域であればよい。例えば、細分割領域のサイズは、分割領域のサイズの整数分の1のサイズでなくてもよい。
なお、本実施例では、カラー画像とモノクロ画像が医療画像である場合の例を説明したが、カラー画像とモノクロ画像はこれに限らない。例えば、カラー画像は、画像を表示するためのアプリケーションの画像、アイコン、グラフィックなどであってもよい。
In this embodiment, the average value L of the average luminance values of the plurality of subdivision areas is compared with the threshold th, and it is determined whether or not the plurality of subdivision areas are low luminance areas. Not limited to. For example, an average luminance value of one subdivision area among the plurality of subdivision areas may be compared with a threshold th to determine whether or not the plurality of subdivision areas are low luminance areas. Further, for each subdivision area that is a boundary vicinity area, the average luminance value of the subdivision area may be compared with a threshold th to determine whether or not the subdivision area is a low luminance area.
In the present embodiment, the
In the present embodiment, an example in which the image processing separately applied to the color area and the monochrome area is γ correction has been described, but the image processing is not limited thereto. The image processing may be brightness adjustment processing, color temperature adjustment processing, or the like.
In the present embodiment, an example in which the boundary vicinity region is a region in a divided region adjacent to the boundary will be described, but the boundary vicinity region is not limited thereto. The boundary vicinity region may be set on the monochrome region side further than the divided region adjacent to the boundary on the monochrome region side. For example, a subdivision area that is divided into two subdivision areas from the boundary toward the monochrome area may be set as the boundary vicinity area. The boundary vicinity region may be a region that is separated from the boundary between the color region and the monochrome region divided by the
In the present embodiment, the example in which the subdivision area is an area obtained by dividing the subdivision area into four of 2 rows and 2 columns has been described, but the subdivision area is not limited thereto. The subdivision area may be an area obtained by dividing the input image more finely than the division area. For example, the size of the subdivision area may not be a size that is a fraction of the size of the division area.
In this embodiment, an example in which the color image and the monochrome image are medical images has been described, but the color image and the monochrome image are not limited thereto. For example, the color image may be an image, icon, graphic, or the like of an application for displaying the image.
<実施例2>
以下、本発明の実施例2に係る画像処理装置及びその制御方法について説明する。なお、以下では、実施例1と異なる点について詳しく説明し、実施例1と同様の機能や構成についての説明は省略する。
実施例2では、実施例1とは異なる画像データs0の例について説明する。本実施例の画像データs0を図9(a)に示す。本実施例の画像データs0では、内視鏡画像150の前景部152の形状が実施例1と異なる。前景部152の形状以外は実施例1の画像データs0(図3(a))と同じであるものとする。
図9(b)は、分割領域を示した図である。本実施例では、実施例1と同様に15個の分割領域が設定される。
図9(c)は、判定部102の判定結果(分割領域毎のモノクロ領域かカラー領域かの判定結果)を示した図である。
図10は、細分割領域を示した図である。本実施例では、実施例1と同様に60個の細分割領域が設定される。
<Example 2>
Hereinafter, an image processing apparatus and a control method thereof according to
In the second embodiment, an example of image data s0 different from the first embodiment will be described. The image data s0 of this embodiment is shown in FIG. In the image data s0 of the present embodiment, the shape of the
FIG. 9B shows the divided areas. In the present embodiment, 15 divided areas are set as in the first embodiment.
FIG. 9C is a diagram showing a determination result of the determination unit 102 (determination result for each divided area, which is a monochrome area or a color area).
FIG. 10 is a diagram showing subdivision areas. In the present embodiment, 60 subdivision areas are set as in the first embodiment.
図11は、水平統合部300で統合されたカラー領域を示している。本実施例では、水平統合部300で統合されたカラー領域350の座標情報Hは以下となる。
H(2)=(0,1151) ・・・(式7)
ここで、式7の右端のx座標=1151は、3つ分の分割領域の水平方向サイズ=384×3=1152から1を引いた値である。
また、カラー領域351の座標情報Hは以下となる。
H(3)=(0,767) (式8)
本実施例では、カラー領域350とカラー領域351の座標情報Hが一致していないため、垂直統合部301ではこれら2つのカラー領域は統合されない。従って、垂直統合部301の出力である座標情報HVは以下のように2つのカラー領域の左上座標と右下座標を表す座標情報となる。
HV1=((0,400),(1151,799)) ・・・(式9)
HV2=((0,800),(767,1199)) ・・・(式10)
FIG. 11 shows the color region integrated by the
H (2) = (0,1151) (Expression 7)
Here, the x coordinate = 1151 of the right end of Expression 7 is a value obtained by subtracting 1 from the horizontal size of three divided regions = 384 × 3 = 1152.
The coordinate information H of the
H (3) = (0,767) (Formula 8)
In this embodiment, since the coordinate information H of the
HV1 = ((0,400), (1151,799)) (Equation 9)
HV2 = ((0,800), (767, 1199)) (Equation 10)
このように、本実施例では複数のカラー領域が設定されるため、カラー領域とモノクロ領域の境界が複数存在することとなる。本実施例では、そのような場合に、境界移動部302は、境界毎に、その境界を移動させる処理を行う。具体的には、図11の例では、カラー領域350とモノクロ領域の境界を移動させる処理と、カラー領域351とモノクロ領域の境界を移動させる処理とが行われる。モノクロ領域を検出して境界を移動させる構成において、モノクロ領域が複数設定される場合も同様である。
As described above, in this embodiment, since a plurality of color areas are set, a plurality of boundaries between the color areas and the monochrome areas exist. In this embodiment, in such a case, the
カラー領域350とモノクロ領域の境界を移動させる処理について説明する。
カラー領域350の上方向については、図10に示す6つの細分割領域B(0,0)〜B(5,0)が境界近傍領域とされる。細分割領域B(0,0)〜B(5,0)は、背景部153の画素のみを含むため、平均値Lは0となる。この平均値Lは閾値th(=3)より小さいため、カラー領域350の上方向の境界近傍領域は低輝度領域であると判定される。その結果、カラー領域350の上側の境界が、上方向に300画素移動される。
Processing for moving the boundary between the
For the upward direction of the
カラー領域350の下方向については、図10に示す6つの細分割領域B(0,5)〜B(5,5)が境界近傍領域とされる。細分割領域B(0,5)〜B(5,5)は背景部153の画素のみを含むため、平均値Lは0となる。この平均値Lは閾値thより小さいため、カラー領域350の下方向の境界近傍領域は低輝度領域であると判定される。その結果、カラー領域350の下側の境界が、下方向に300画素移動される。
Regarding the downward direction of the
カラー領域350の右方向については、図10に示す2つの細分割領域B(7,2)、B(7,3)が境界近傍領域とされる。しかし、図10に示すように、細分割領域B(7,2),B(7,3)はレントゲン画像151の画素のみを含むため、平均値Lは閾値th以上となり、カラー領域350の右方向の境界近傍領域は低輝度領域でないと判定される。そのため、境界移動部302はカラー領域350の右側の境界を移動させない。
また、カラー領域350の左方向には画像が存在しないため、境界移動部302は左方向について境界近傍領域を設定せず、カラー領域350の左側の境界を移動させない。
Regarding the right direction of the
In addition, since there is no image in the left direction of the
図12(a)は、境界移動部302によりカラー領域350の境界を移動した様子を示す図である。図12(a)に示すように、境界移動部302によりカラー領域350の上側と下側の境界が、それぞれ上方向と下方向に移動され、カラー領域350が最終的にカラー領域360とされる。
FIG. 12A is a diagram illustrating a state where the boundary of the
境界移動部302は、カラー領域351に対しても同様に境界を移動させる処理を行う。その結果、カラー領域351の右側の境界が右方向に300画素移動される。その結果、図12(b)に示すようにカラー領域351はカラー領域361となる。なお、カラー領域351の上側の境界(カラー領域350とカラー領域351の境界)については、低輝度領域が存在するか否かの検証(境界近傍領域の設定、平均値Lと閾値の比較など)を行ってもよいし、行わなくてもよい。
The
領域検出部3は上記2つのカラー領域360,361を表す座標情報poを出力する。γ補正部4は、この座標情報poで表される領域に2.2γ補正を適用する。なお、カラー領域360とカラー領域361が重複する領域については、2.2γ補正が1回だけ適用されるように(2.2γ補正が2回適用されないように)、γ補正が行われる。
The
以上述べたように、本実施例によれば、複数の境界が存在する場合に、各境界を移動させる処理が行われる。そのため、1つの境界のみを移動させるよりも画質の劣化(輝度の段差)を低減することができる。 As described above, according to this embodiment, when there are a plurality of boundaries, the process of moving each boundary is performed. Therefore, it is possible to reduce image quality degradation (brightness level difference) rather than moving only one boundary.
<実施例3>
以下、本発明の実施例3に係る画像処理装置及びその制御方法について説明する。
実施例1,2では、複数の細分割領域を設定し、複数の細分割領域の中から境界近傍領域を選択する構成とした。本実施例では、細分割領域を設定せずに境界近傍領域を設定する構成について説明する。なお、以下では実施例1と異なる点について説明し、実施例1と同様の機能や構成についての説明は省略する。
<Example 3>
Hereinafter, an image processing apparatus and a control method thereof according to
In the first and second embodiments, a plurality of subdivision areas are set, and a boundary vicinity area is selected from the plurality of subdivision areas. In the present embodiment, a configuration in which a boundary vicinity region is set without setting a subdivision region will be described. Hereinafter, differences from the first embodiment will be described, and descriptions of functions and configurations similar to those of the first embodiment will be omitted.
図13は、本実施例に係る画像処理装置の機能構成の一例を示すブロック図である。本実施例に係る画像処理装置は、実施例1,2と同様に、モノクロ/カラー判定部1、輝度
検出部2、領域検出部3、γ補正部4、表示パネル5から構成されている。
本実施例では図3(a)の画像データs0を処理する例を説明する。
モノクロ/カラー判定部1は、実施例1と同様の機能を有する。そのため、図3(a)の画像データs0に対するモノクロ/カラー判定部1の判定結果は、図3(c)に示すものとなる。
FIG. 13 is a block diagram illustrating an example of a functional configuration of the image processing apparatus according to the present embodiment. As in the first and second embodiments, the image processing apparatus according to the present embodiment includes a monochrome /
In this embodiment, an example in which the image data s0 in FIG. 3A is processed will be described.
The monochrome /
図14は、領域検出部3の詳細を示すブロック図である。本実施例の領域検出部3は、実施例1と同様に、水平統合部300、垂直統合部301、境界移動部302から構成される。
水平統合部300と垂直統合部301の機能は、実施例1と同様である。
本実施例の境界移動部302は、まず、境界近傍領域を決定し、境界近傍領域を表す座標情報arを輝度検出部2に出力する。その後、境界移動部302は、境界近傍領域の平均輝度値を表す平均輝度データAPLを輝度検出部2から受け取る。そして、平均輝度値が所定の閾値thより小さい場合には、境界移動部302は、境界近傍領域が低輝度領域であると判定し、境界近傍領域内を通るように境界を移動させる。
FIG. 14 is a block diagram showing details of the
The functions of the
The
図15は、境界移動部302が境界近傍領域を決定する処理(境界近傍領域決定処理)を説明する図である。
境界移動部302には、垂直統合部301からカラー領域の座標情報HVが入力される。境界移動部302は、座標情報HVで表されるカラー領域の上、下、左、右の4方向のそれぞれについて、所定画素数離れた領域を境界近傍領域として決定する。本実施例では、1つの方向について、カラー領域322との間隔が100画素で、当該方向の幅が200画素の領域が境界近傍領域とされるものとする。
具体的には、画像データs0が図3(a)であった場合、図15に示すように、2つの領域370,371が境界近傍領域とされる。領域370は、カラー領域322の上端との間隔が100画素で、水平方向768画素×垂直方向200画素の領域である。領域371は、カラー領域322の右端との間隔が100画素で、水平方向200画素×垂直方向800画素の領域である。なお、カラー領域322の左方向と下方向については、画像が無いため、境界近傍領域は設定されない。この場合、座標情報arは、以下のように、領域370,371を表す情報となる。
ar1=(領域370の左上座標,領域370の右下座標)
=((0,101),(767,300)) ・・・(式11)
ar2=(領域371の左上座標,領域371の右下座標)
=((467,400),(666,800)) ・・・(式12)
FIG. 15 is a diagram for explaining processing (boundary vicinity region determination processing) in which the
The coordinate information HV of the color area is input from the
Specifically, when the image data s0 is FIG. 3A, as shown in FIG. 15, the two
ar1 = (Upper left coordinates of area 370, Lower right coordinates of area 370)
= ((0, 101), (767, 300)) (Equation 11)
ar2 = (Upper left coordinates of
= ((467,400), (666,800)) (Equation 12)
図16は、本実施例の輝度検出部2の詳細を示すブロック図である。
本実施例の輝度検出部2は平均輝度検出部201から構成される。
平均輝度検出部201には、画像データs0と座標情報arが入力される。平均輝度検出部201は、座標情報arにより指定された領域(境界近傍領域)の平均輝度値を検出(算出)する。画像データs0が図3(a)であった場合、図15に示す領域370,371の2つの領域の平均輝度値が検出される。そして、平均輝度検出部201は、検出した2つの平均輝度値を表す平均輝度データAPLを領域検出部3に出力する。
FIG. 16 is a block diagram showing details of the
The
The average
上述したように、境界移動部302では、平均輝度検出部201で検出された平均輝度値から、境界近傍領域が低輝度領域か否かを判定する。この判定は実施例1と同様である。図15の領域370,371は、どちらも背景部153の画素のみを含む領域であるため、平均輝度値は0である。そのため、領域370,371はどちらも低輝度領域と判定され、領域370,371内に境界が移動される。本実施例では、境界の移動量は200画素とする。この結果、カラー領域320は図17の領域323となる。
As described above, the
以上述べたように、本実施例の構成によれば、細分割領域を設定することなく、境界近傍領域を設定することができ、実施例1,2と同様の効果を得ることができる。 As described above, according to the configuration of the present embodiment, the boundary vicinity region can be set without setting the subdivision region, and the same effect as in the first and second embodiments can be obtained.
101 カウント部
300 水平統合部
301 垂直統合部
302 境界移動部
101
Claims (6)
前記入力画像を分割して得られる分割領域毎の画素値の統計量を取得する取得手段と、
前記取得手段で取得された分割領域毎の統計量に基づいて、前記入力画像をカラー領域とモノクロ領域に区分する区分手段と、
前記区分手段で区分されたカラー領域とモノクロ領域の境界からモノクロ領域側に所定距離だけ離れた領域である境界近傍領域の輝度値が所定値より低い場合に、当該境界近傍領域内を通るように前記境界を移動させる移動手段と、
を有することを特徴とする画像処理装置。 An image processing apparatus for dividing an input image into a color area and a monochrome area,
An acquisition means for acquiring a statistic of a pixel value for each divided region obtained by dividing the input image;
Sorting means for classifying the input image into a color area and a monochrome area based on the statistics for each divided area obtained by the obtaining means;
When the luminance value of the boundary vicinity area that is a predetermined distance away from the boundary between the color area and the monochrome area divided by the classification means to the monochrome area side is lower than the predetermined value, it passes through the boundary vicinity area. Moving means for moving the boundary;
An image processing apparatus comprising:
ことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the boundary vicinity region is a region in a divided region adjacent to the boundary.
ことを特徴とする請求項1または2に記載の画像処理装置。 The boundary vicinity region is a subdivision region separated from the boundary by a predetermined distance from the boundary to the monochrome region among a plurality of subdivision regions obtained by dividing the input image more finely than the subregion. The image processing apparatus according to claim 1, wherein the image processing apparatus is characterized.
前記境界近傍領域は、前記境界に隣接する分割領域内の細分割領域のうち、前記境界に隣接しない細分割領域である
ことを特徴とする請求項3に記載の画像処理装置。 The subdivided area is an area obtained by dividing the divided area into four in 2 rows and 2 columns,
The image processing apparatus according to claim 3, wherein the boundary vicinity region is a subdivision region that is not adjacent to the boundary among subdivision regions in a subregion adjacent to the boundary.
ことを特徴とする請求項1〜4のいずれか1項に記載の画像処理装置。 5. The method according to claim 1, wherein, when there are a plurality of boundaries between the color area and the monochrome area divided by the classification unit, the moving unit performs a process of moving the boundary for each boundary. The image processing apparatus according to claim 1.
前記入力画像を分割して得られる分割領域毎の画素値の統計量を取得する取得ステップと、
前記取得ステップで取得された分割領域毎の統計量に基づいて、前記入力画像をカラー領域とモノクロ領域に区分する区分ステップと、
前記区分ステップで区分されたカラー領域とモノクロ領域の境界からモノクロ領域側に所定距離だけ離れた領域である境界近傍領域の輝度値が所定値より低い場合に、当該境界近傍領域内を通るように前記境界を移動させる移動ステップと、
を有することを特徴とする画像処理装置の制御方法。 A control method of an image processing apparatus for dividing an input image into a color area and a monochrome area,
An acquisition step of acquiring a statistic of a pixel value for each divided region obtained by dividing the input image;
A step of dividing the input image into a color region and a monochrome region based on the statistics for each divided region acquired in the acquisition step;
If the luminance value of the boundary vicinity area that is a predetermined distance away from the boundary between the color area and the monochrome area divided in the classification step toward the monochrome area side is lower than the predetermined value, the luminance value of the boundary vicinity area passes through the boundary vicinity area. A moving step for moving the boundary;
A control method for an image processing apparatus, comprising:
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012081334A JP5911352B2 (en) | 2012-03-30 | 2012-03-30 | Image processing apparatus and control method thereof |
US13/797,080 US9135718B2 (en) | 2012-03-30 | 2013-03-12 | Image processing apparatus and control method therefor |
US14/520,982 US20150043813A1 (en) | 2012-03-30 | 2014-10-22 | Image processing apparatus and control method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012081334A JP5911352B2 (en) | 2012-03-30 | 2012-03-30 | Image processing apparatus and control method thereof |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013210887A true JP2013210887A (en) | 2013-10-10 |
JP2013210887A5 JP2013210887A5 (en) | 2015-05-14 |
JP5911352B2 JP5911352B2 (en) | 2016-04-27 |
Family
ID=49528643
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012081334A Expired - Fee Related JP5911352B2 (en) | 2012-03-30 | 2012-03-30 | Image processing apparatus and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5911352B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015162782A (en) * | 2014-02-27 | 2015-09-07 | ブラザー工業株式会社 | Controller, head mount display, and program |
CN114527948A (en) * | 2020-11-23 | 2022-05-24 | 深圳Tcl新技术有限公司 | Calculation method and device of cut region, intelligent equipment and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000206756A (en) * | 1999-01-20 | 2000-07-28 | Minolta Co Ltd | Image processor |
JP2003244469A (en) * | 2002-02-19 | 2003-08-29 | Nisca Corp | Image deciding apparatus, image reader, image deciding method, program and storage medium stored with program |
JP2011193380A (en) * | 2010-03-16 | 2011-09-29 | Ricoh Co Ltd | Image processing apparatus, image processing method and program |
-
2012
- 2012-03-30 JP JP2012081334A patent/JP5911352B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000206756A (en) * | 1999-01-20 | 2000-07-28 | Minolta Co Ltd | Image processor |
JP2003244469A (en) * | 2002-02-19 | 2003-08-29 | Nisca Corp | Image deciding apparatus, image reader, image deciding method, program and storage medium stored with program |
JP2011193380A (en) * | 2010-03-16 | 2011-09-29 | Ricoh Co Ltd | Image processing apparatus, image processing method and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015162782A (en) * | 2014-02-27 | 2015-09-07 | ブラザー工業株式会社 | Controller, head mount display, and program |
CN114527948A (en) * | 2020-11-23 | 2022-05-24 | 深圳Tcl新技术有限公司 | Calculation method and device of cut region, intelligent equipment and storage medium |
CN114527948B (en) * | 2020-11-23 | 2024-03-12 | 深圳Tcl新技术有限公司 | Method and device for calculating clipping region, intelligent device and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP5911352B2 (en) | 2016-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9135718B2 (en) | Image processing apparatus and control method therefor | |
JP6157138B2 (en) | Image processing device | |
US8781249B2 (en) | Image processing apparatus and image processing method | |
US8194978B2 (en) | Method of and apparatus for detecting and adjusting colour values of skin tone pixels | |
JP6623832B2 (en) | Image correction apparatus, image correction method, and computer program for image correction | |
US20120320223A1 (en) | Computing device, storage medium and method for identifying differences between two images | |
EP2742681B1 (en) | Image processing apparatus and control method therefor | |
US10049610B2 (en) | Display apparatus and method for controlling same | |
AU2011371064B2 (en) | Motion image region identification device and method thereof | |
JP5911352B2 (en) | Image processing apparatus and control method thereof | |
US11594198B2 (en) | Display controller and display control method using brightness distribution of input image | |
JP5930804B2 (en) | Image processing apparatus and control method thereof | |
KR20160069452A (en) | Image processing device, image processing method and program | |
US9336608B2 (en) | Color arrangement checking device, information storage medium storing a computer program thereof, and data processing method | |
KR20100102449A (en) | Face detecting apparatus and face detection using the same | |
US20140118389A1 (en) | Character region pixel identification device and method thereof | |
US10262430B2 (en) | Annotation line determining unit, annotation line removing unit, medical display, and method therefor | |
JP2015200695A (en) | Image processor and control method thereof | |
US8358850B2 (en) | Determination method of edge direction | |
JP5327199B2 (en) | Image processing method and image processing apparatus | |
JP6091128B2 (en) | Image processing apparatus and control method thereof | |
JP2015142160A (en) | Image processing device, image processing method, and program | |
JP2015001967A (en) | Edge detector, and edge detection method | |
JP2014092402A (en) | Defect inspection method for display device | |
CN115880182A (en) | Image correction method, image correction device, computer equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150325 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150325 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160329 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5911352 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |