JP5362052B2 - Display device, image processing device, image region detection method, and computer program - Google Patents

Display device, image processing device, image region detection method, and computer program Download PDF

Info

Publication number
JP5362052B2
JP5362052B2 JP2012012426A JP2012012426A JP5362052B2 JP 5362052 B2 JP5362052 B2 JP 5362052B2 JP 2012012426 A JP2012012426 A JP 2012012426A JP 2012012426 A JP2012012426 A JP 2012012426A JP 5362052 B2 JP5362052 B2 JP 5362052B2
Authority
JP
Japan
Prior art keywords
line segment
horizontal
vertical
image
horizontal line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012012426A
Other languages
Japanese (ja)
Other versions
JP2012216184A (en
Inventor
正樹 北
裕介 伴場
磊 朱
暁 朱
義行 鈴木
玲央 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eizo Corp
Original Assignee
Eizo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eizo Corp filed Critical Eizo Corp
Priority to JP2012012426A priority Critical patent/JP5362052B2/en
Publication of JP2012216184A publication Critical patent/JP2012216184A/en
Application granted granted Critical
Publication of JP5362052B2 publication Critical patent/JP5362052B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • Digital Computer Display Output (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a display device, an image processing device, an image area detecting method, and computer program capable of detecting with high accuracy window areas arranged in a tile-like manner in an image and displaying the window areas in display characteristics suitable for the image in each window area. <P>SOLUTION: A display device detects, as horizontal direction line segments, a group of edge pixels arranged continuously in the horizontal direction exceeding a predetermined value in number; detects, as vertical direction line segments, a group of edge pixels arranged continuously in the vertical direction falling into a predetermined range in number; further detects pairs of horizontal direction segments and pairs of vertical direction segments; and detects, as a fundamental window, an area enclosed by the pairs of the horizontal and vertical direction segments. Based on horizontal direction segments or vertical direction segments that are identified as neither pairs of horizontal direction segments nor those of vertical direction segments, the display device detects pairs of short vertical direction segments and pairs of short horizontal direction segments and detects, as a pop-up window, an area enclosed by those segments. The display device determines the image type of the detected window, selects a lookup table (LUT) according to the image type, and performs a correction process. <P>COPYRIGHT: (C)2013,JPO&amp;INPIT

Description

本発明は、入力画像中に含まれる特定の画像領域を検出して画像処理を施すことができる表示装置、画像処理装置、画像領域検出方法及びコンピュータプログラムに関する。   The present invention relates to a display device, an image processing device, an image region detection method, and a computer program that can detect a specific image region included in an input image and perform image processing.

近年、液晶パネル又はPDP(Plasma Display Panel)等を用いたカラーの表示装置が広く普及している。例えば医療向けの表示装置は、X線撮影による画像の表示及び内視鏡などで撮影した画像の表示等に利用されている。   In recent years, color display devices using a liquid crystal panel or a PDP (Plasma Display Panel) are widely used. For example, medical display devices are used for displaying images by X-ray imaging, displaying images captured by an endoscope, and the like.

表示装置は、PC(Personal Computer)などからの入力画像の画素値を、表示装置の
表示特性に適した画素値に変換する補正処理(いわゆるガンマ補正処理)を行っている。医療向けの表示装置では、X線撮影によるモノクローム(以下、単にモノクロという)画像と、内視鏡などの撮影によるカラー画像とでは適した表示特性が異なるため、表示画像に最適な補正処理を行うことが望まれる。
The display device performs correction processing (so-called gamma correction processing) for converting pixel values of an input image from a PC (Personal Computer) or the like into pixel values suitable for display characteristics of the display device. In a display device for medical use, since a suitable display characteristic is different between a monochrome image obtained by X-ray photography (hereinafter simply referred to as monochrome) and a color image obtained by photography using an endoscope or the like, an optimal correction process is performed on the display image. It is desirable.

しかし近年では、PCに搭載されるOS(Operating System)がマルチウインドウシステムを備え、表示装置に複数のウインドウを表示することができる。このため、医療向けの表示装置においては、X線撮影のモノクロ画像と、内視鏡などのカラー画像とが一画面中に同時的に表示される場合があり、このような場合には上記の補正処理を適切に行うことが難しいという問題があった。   However, in recent years, an OS (Operating System) installed in a PC has a multi-window system, and can display a plurality of windows on a display device. For this reason, in a medical display device, a monochrome image of X-ray photography and a color image such as an endoscope may be displayed simultaneously on one screen. There is a problem that it is difficult to perform the correction process appropriately.

特許文献1においては、複数のルックアップテーブルを備え、画像情報からルックアップテーブルを切り替える引金となる画素を検出し、引金を検出したことを受けて使用すべきルックアップテーブルを決定する鍵となる画素を保持し、鍵に基づいてルックアップテーブルを選択して画素値の変換を行うことにより、表示するウインドウ毎に使用すべきルックアップテーブルを切り替えることができるビットマップ表示装置が提案されている。しかしながら特許文献1に記載のビットマップ表示装置では、ウインドウの垂直方向の境界線が予め定められた画素値の画素(引金及び鍵となる画素)で構成されている必要があり、この構成以外のウインドウについてはルックアップテーブルの切り替えを行うことができないため、汎用性が低いという問題がある。   In Patent Document 1, a key that includes a plurality of look-up tables, detects pixels that are triggers for switching look-up tables from image information, and determines a look-up table to be used in response to the detection of the trigger. A bitmap display device is proposed that can switch the look-up table to be used for each window to be displayed by holding the pixels to be used and converting the pixel value by selecting the look-up table based on the key. ing. However, in the bitmap display device described in Patent Document 1, it is necessary that the vertical boundary line of the window is composed of pixels having predetermined pixel values (trigger and key pixels). Since there is a problem that versatility is low, the lookup table cannot be switched for the window.

特許文献2においては、主画面及び副画面を有する他画面の画像信号から副画面領域を検出し、検出結果に応じて走査状態を制御することによって、文字又は図形表示に適した表示条件を設定して、ラインフリッカが目立たず鮮明な画像表示が実現できるテレビジョン受信機が提案されている。副画面領域の検出は、例えば主画面に画像を表示し、副画面に文字を表示した場合に、文字が表示された領域では画像信号の信号レベルが急激に変化することから、信号レベルの変化具合を微分回路及び比較器等にて判定することで行われる。   In Patent Document 2, a display condition suitable for character or graphic display is set by detecting a subscreen area from an image signal of another screen having a main screen and a subscreen, and controlling a scanning state according to the detection result. Thus, there has been proposed a television receiver capable of realizing a clear image display without noticeable line flicker. For example, when an image is displayed on the main screen and characters are displayed on the sub screen, the signal level of the image signal changes abruptly in the area where the characters are displayed. This is done by determining the condition using a differentiation circuit and a comparator.

特開平01−188896号公報Japanese Patent Laid-Open No. 01-188896 特開平08−181932号公報JP 08-181932 A

医療用の表示装置では、カラー画像、モノクロ画像及びアプリケーションを操作するためのアイコンなどが設けられたツール画像等の複数種の画像を、その境界が接するようにタイル状に並べて表示することが多い。例えば複数のカラー画像をタイル状に並べて表示した場合など、同種の複数の画像をタイル状に並べて表示した場合には、各画像(を表示するウインドウ)は境界を共有し、境界を示す画像も著しく細い線である場合もあるから、境界を判別することは難しく、各画像に適した補正処理を行うことが難しいという問題があった。特許文献2に記載のテレビジョン受信機も、主画面に画像を表示し、副画面に文字を表示した場合などには有効であるが、主画面及び副画面に同種の画像を表示した場合には、境界を判別できず、副画面を検出することは難しい。   In medical display devices, a plurality of types of images such as a color image, a monochrome image, and a tool image provided with an icon for operating an application are often displayed in a tiled manner so that the borders are in contact with each other. . For example, when multiple color images are tiled and displayed, such as when multiple images of the same type are tiled and displayed, each image (display window) shares a boundary, and an image indicating the boundary is also displayed. Since the line may be extremely thin, it is difficult to determine the boundary, and it is difficult to perform correction processing suitable for each image. The television receiver described in Patent Document 2 is also effective when an image is displayed on the main screen and characters are displayed on the sub screen, but when the same kind of image is displayed on the main screen and the sub screen. Cannot detect the boundary and it is difficult to detect the sub-screen.

本発明は、斯かる事情に鑑みてなされたものであって、その目的とするところは、表示画像中に存在する特定の画像領域(例えばウインドウ領域)を精度よく検出することができ、各領域に適した画像処理を施し、各領域の画像に適した表示特性での表示を実現することができる表示装置、画像処理装置、画像領域検出方法及びコンピュータプログラムを提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to accurately detect a specific image area (for example, a window area) existing in a display image. It is an object of the present invention to provide a display device, an image processing device, an image region detection method, and a computer program that can perform image processing suitable for each region and realize display with display characteristics suitable for each region image.

本発明に係る表示装置は、水平方向及び垂直方向に画素が並べられた画像の表示を行う表示装置において、入力画像から水平方向の長さが所定水平範囲内の線分を検出する水平線分検出手段と、該水平線分検出手段が検出した水平方向線分から、一の水平方向線分に対して最近傍に存在する他の水平方向線分を探索して、2つの水平方向線分の組を検出する水平線分組検出手段と、前記入力画像から垂直方向の長さが所定垂直範囲内の線分を検出する垂直線分検出手段と、該垂直線分検出手段が検出した垂直方向線分から、一の垂直方向線分に対して最近傍に存在する他の垂直方向線分を探索して、2つの垂直方向線分の組を検出する垂直線分組検出手段と、前記水平線分組検出手段が検出した水平方向線分の組、及び、前記垂直線分組検出手段が検出した垂直方向線分の組で囲まれた領域を、特定領域として検出する特定領域検出手段と、該特定領域検出手段が検出した特定領域毎に画像処理を施す画像処理手段とを備え、前記所定水平範囲が前記入力画像の水平方向の長さに対する比率として定められ、且つ、前記所定垂直範囲が前記水平線分検出手段が検出した水平方向線分間の最大距離に対する比率として定められ、又は、前記所定垂直範囲が前記入力画像の垂直方向の長さに対する比率として定められ、且つ、前記所定水平範囲が前記垂直線分検出手段が検出した垂直方向線分間の最大距離に対する比率として定められており、前記画像処理手段が画像処理を施した画像を表示するようにしてあることを特徴とする。 The display device according to the present invention is a display device that displays an image in which pixels are arranged in a horizontal direction and a vertical direction, and that detects a line segment whose length in the horizontal direction is within a predetermined horizontal range from an input image. A horizontal line segment detected by the horizontal line segment detecting means and another horizontal line segment nearest to the one horizontal line segment, and a set of two horizontal line segments is obtained. a horizontal line segment pairs detecting means for detecting a vertical line segment detecting means for vertical length from the input image to detect a line segment within a predetermined vertical range from the vertical direction line segments detected by said vertical straight line segment detecting means, one The vertical line segment detecting means for searching for another vertical line segment existing nearest to the vertical line segment and detecting a pair of two vertical line segments and the horizontal line segment detecting means Horizontal line segment set and vertical line segment check A specific area detecting means for detecting the area surrounded by the set of vertical line segments detected by the means as a specific area; and an image processing means for performing image processing for each specific area detected by the specific area detecting means. The predetermined horizontal range is defined as a ratio with respect to a horizontal length of the input image, and the predetermined vertical range is defined as a ratio with respect to a maximum distance between horizontal line segments detected by the horizontal line segment detection unit, or The predetermined vertical range is determined as a ratio to the vertical length of the input image, and the predetermined horizontal range is determined as a ratio to the maximum distance of the vertical line segments detected by the vertical line segment detecting means. The image processing means displays an image subjected to image processing.

また、本発明に係る表示装置は、前記水平線分組検出手段が、所定垂直距離以上離れた2つの水平方向線分の組を検出するようにしてあり、前記垂直線分組検出手段は、所定水平距離以上離れた2つの垂直方向線分の組を検出するようにしてあることを特徴とする。   In the display device according to the present invention, the horizontal line segment detection unit detects a pair of two horizontal direction line segments separated by a predetermined vertical distance or more, and the vertical line segment detection unit detects the predetermined horizontal distance. It is characterized in that a pair of two vertical line segments separated from each other is detected.

また、本発明に係る表示装置は、前記入力画像からエッジに相当する画素を抽出するエッジ画素抽出手段と、水平方向に連続する複数のエッジ画素を水平エッジ画素群として検出する水平エッジ画素群検出手段と、垂直方向に連続する複数のエッジ画素を垂直エッジ画素群として検出する垂直エッジ画素群検出手段とを更に備え、前記水平線分検出手段は、連続数が所定値を超える水平方向エッジ画素群を、水平方向線分として検出するようにしてあり、前記垂直線分検出手段は、連続数が所定範囲内の垂直エッジ画素群を、垂直方向線分として検出するようにしてあることを特徴とする。   In addition, the display device according to the present invention includes an edge pixel extraction unit that extracts pixels corresponding to edges from the input image, and a horizontal edge pixel group detection that detects a plurality of edge pixels continuous in the horizontal direction as a horizontal edge pixel group. And a vertical edge pixel group detecting means for detecting a plurality of edge pixels continuous in the vertical direction as a vertical edge pixel group, wherein the horizontal line segment detecting means has a horizontal direction edge pixel group whose continuous number exceeds a predetermined value. Is detected as a horizontal line segment, and the vertical line segment detection means detects a vertical edge pixel group having a continuous number within a predetermined range as a vertical line segment. To do.

また、本発明に係る表示装置は、前記水平線分検出手段は、水平方向に並ぶ2つの水平エッジ画素群の間に存在する非エッジ画素の数が所定数以下の場合、前記2つの水平エッジ画素群を1つの水平エッジ画素群として扱うようにしてあり、前記垂直線分検出手段は、垂直方向に並ぶ2つの垂直エッジ画素群の間に存在する非エッジ画素の数が所定数以下の場合、前記2つの垂直エッジ画素群を1つの垂直エッジ画素群として扱うようにしてあることを特徴とする。 Further, in the display device according to the present invention, the horizontal line segment detection means is configured such that when the number of non-edge pixels existing between two horizontal edge pixel groups arranged in the horizontal direction is equal to or less than a predetermined number, the two horizontal edge pixels When the group is treated as one horizontal edge pixel group, the vertical line segment detecting means has a number of non-edge pixels existing between two vertical edge pixel groups arranged in the vertical direction equal to or less than a predetermined number. The two vertical edge pixel groups are treated as one vertical edge pixel group.

また、本発明に係る表示装置は、前記特定領域検出手段が検出した特定領域に含まれる画素のうち、画素値が所定条件を満たす画素の画素数を計数する計数手段と、該計数手段の計数結果に応じて、前記特定領域の画像の種別を判定する判定手段とを更に備え、前記画像処理手段は、前記判定手段の判定結果に応じた画像処理を前記特定領域に対して施すようにしてあることを特徴とする。   In addition, the display device according to the present invention includes a counting unit that counts the number of pixels whose pixel value satisfies a predetermined condition among the pixels included in the specific region detected by the specific region detecting unit, and a counting unit that counts the counting unit. And determining means for determining the type of the image in the specific area according to the result, wherein the image processing means performs image processing on the specific area according to the determination result of the determining means. It is characterized by being.

また、本発明に係る表示装置は、前記計数手段の計数結果に基づいて、前記特定領域に含まれる画素の画素値に係る度数分布を算出する算出手段を更に備え、前記判定手段は、前記算出手段が算出した度数分布の分布パターンに基づいて画像の種別を判定するようにしてあることを特徴とする。   In addition, the display device according to the present invention further includes a calculation unit that calculates a frequency distribution related to pixel values of pixels included in the specific region based on a counting result of the counting unit, and the determination unit includes the calculation unit The image type is determined based on the distribution pattern of the frequency distribution calculated by the means.

また、本発明に係る表示装置は、入力画像の画素値に対する表示画素の画素値が対応付けられた表示特性を複数記憶する記憶手段を更に備え、前記画像処理手段は、前記判定手段の判定結果に応じて前記記憶手段から一の表示特性を読み出し、該表示特性に基づく画素値の変換処理を行うようにしてあることを特徴とする。   The display device according to the present invention further includes storage means for storing a plurality of display characteristics in which the pixel values of the display pixels are associated with the pixel values of the input image, and the image processing means is the determination result of the determination means. Accordingly, one display characteristic is read out from the storage means, and pixel value conversion processing based on the display characteristic is performed.

また、本発明に係る表示装置は、前記判定手段が判定した画像の種別、及び、特定領域の頂点間の距離に応じて、2つの特定領域を1つの特定領域に結合する特定領域結合手段を更に備えることを特徴とする。 The display device according to the present invention, the type of image that the determination means determines, and, depending on the distance between the vertices of a specific area, a specific area coupling means for coupling the two specific regions in one specific area It is further provided with the feature.

また、本発明に係る表示装置は、前記入力画像から処理対象の画像領域の指定を受け付ける受付手段を更に備え、前記特定領域検出手段は、前記受付手段が受け付けた画像領域内について、特定領域の検出を行うようにしてあることを特徴とする。   In addition, the display device according to the present invention further includes a reception unit that receives designation of an image area to be processed from the input image, and the specific area detection unit includes a specific area in the image area received by the reception unit. The detection is performed.

また、本発明に係る画像処理装置は、水平方向及び垂直方向に画素が並べられた画像に対して所定の画像処理を施す画像処理装置において、入力画像から水平方向の長さが所定水平範囲内の線分を検出する水平線分検出手段と、該水平線分検出手段が検出した水平方向線分から、一の水平方向線分に対して最近傍に存在する他の水平方向線分を探索して、2つの水平方向線分の組を検出する水平線分組検出手段と、前記入力画像から垂直方向の長さが所定垂直範囲内の線分を検出する垂直線分検出手段と、該垂直線分検出手段が検出した垂直方向線分から、一の垂直方向線分に対して最近傍に存在する他の垂直方向線分を探索して、2つの垂直方向線分の組を検出する垂直線分組検出手段と、前記水平線分組検出手段が検出した水平方向線分の組、及び、前記垂直線分組検出手段が検出した垂直方向線分の組で囲まれた領域を検出する特定領域検出手段とを備え、前記所定水平範囲が前記入力画像の水平方向の長さに対する比率として定められ、且つ、前記所定垂直範囲が前記水平線分検出手段が検出した水平方向線分間の最大距離に対する比率として定められ、又は、前記所定垂直範囲が前記入力画像の垂直方向の長さに対する比率として定められ、且つ、前記所定水平範囲が前記垂直線分検出手段が検出した垂直方向線分間の最大距離に対する比率として定められることを特徴とする。 The image processing apparatus according to the present invention is an image processing apparatus that performs predetermined image processing on an image in which pixels are arranged in a horizontal direction and a vertical direction, and the horizontal length from an input image is within a predetermined horizontal range. From the horizontal line segment detecting means for detecting the line segment, and the horizontal line segment detected by the horizontal line segment detecting means, the other horizontal line segment existing nearest to one horizontal line segment is searched, Horizontal line segment detection means for detecting a set of two horizontal line segments, vertical line segment detection means for detecting a line segment whose vertical length is within a predetermined vertical range from the input image, and the vertical line segment detection means Searching for another vertical line segment that is nearest to one vertical line segment from the detected vertical line segments, and detecting a pair of two vertical line segments; The horizontal line detected by the horizontal line segment detection means Set, and a specific area detecting means for detecting said vertical line segment group detecting means enclosed by a set of vertical line segments detected region, the horizontal length of the predetermined horizontal range the input image And the predetermined vertical range is determined as a ratio to the maximum distance between horizontal line segments detected by the horizontal line detection means, or the predetermined vertical range is the vertical length of the input image. And the predetermined horizontal range is defined as a ratio to the maximum distance of the vertical line segments detected by the vertical line segment detecting means .

また、本発明に係る画像領域検出方法は、水平方向及び垂直方向に画素が並べられた画像から特定条件を満たす画像領域を検出する画像領域検出方法において、入力画像から水平方向の長さが所定水平範囲内の線分を検出し、検出した水平方向線分から、一の水平方向線分に対して最近傍に存在する他の水平方向線分を探索して、2つの水平方向線分の組を検出し、前記入力画像から垂直方向の長さが所定垂直範囲内の線分を検出し、検出した垂直方向線分から、一の垂直方向線分に対して最近傍に存在する他の垂直方向線分を探索して、2つの垂直方向線分の組を検出し、検出した水平方向線分の組及び垂直方向線分の組で囲まれた領域を検出し、前記所定水平範囲が前記入力画像の水平方向の長さに対する比率として定められ、且つ、前記所定垂直範囲が前記水平線分検出手段が検出した水平方向線分間の最大距離に対する比率として定められ、又は、前記所定垂直範囲が前記入力画像の垂直方向の長さに対する比率として定められ、且つ、前記所定水平範囲が前記垂直線分検出手段が検出した垂直方向線分間の最大距離に対する比率として定められることを特徴とする。 The image region detection method according to the present invention is an image region detection method for detecting an image region that satisfies a specific condition from an image in which pixels are arranged in a horizontal direction and a vertical direction. A line segment within a horizontal range is detected, and from the detected horizontal line segment, another horizontal line segment that is closest to one horizontal line segment is searched, and a pair of two horizontal line segments is searched. Detecting a line segment whose vertical length is within a predetermined vertical range from the input image, and detecting from the detected vertical line segment another vertical direction existing closest to one vertical line segment Search for a line segment, detect a pair of two vertical line segments, detect a region surrounded by the detected horizontal line segment group and a vertical line segment group, and the predetermined horizontal range is the input Defined as a ratio to the horizontal length of the image, and The predetermined vertical range is defined as a ratio to the maximum distance between horizontal line segments detected by the horizontal line segment detection means, or the predetermined vertical range is defined as a ratio to the vertical length of the input image, and The predetermined horizontal range is defined as a ratio to a maximum distance of vertical line segments detected by the vertical line segment detecting means .

また、本発明に係るコンピュータプログラムは、コンピュータに、水平方向及び垂直方向に画素が並べられた画像から特定条件を満たす画像領域を検出させるコンピュータプログラムにおいて、コンピュータに、入力画像から水平方向の長さが所定水平範囲内の線分を検出させる水平線分検出ステップと、コンピュータに、前記水平線分検出ステップにて検出した水平方向線分から、一の水平方向線分に対して最近傍に存在する他の水平方向線分を探索して、2つの水平方向線分の組を検出させる水平線分組検出ステップと、コンピュータに、前記入力画像から垂直方向の長さが所定垂直範囲内の線分を検出させる垂直線分検出ステップと、コンピュータに、前記垂直線分検出ステップにて検出した垂直方向線分から、一の垂直方向線分に対して最近傍に存在する他の垂直方向線分を探索して、2つの垂直方向線分の組を検出させる垂直線分組検出ステップと、コンピュータに、前記水平線分組検出ステップにて検出した水平方向線分の組、及び、前記垂直線分組検出ステップにて検出した垂直方向線分の組で囲まれた領域を検出させるステップとを行わせ、前記所定水平範囲が前記入力画像の水平方向の長さに対する比率として定められ、且つ、前記所定垂直範囲が前記水平線分検出手段が検出した水平方向線分間の最大距離に対する比率として定められ、又は、前記所定垂直範囲が前記入力画像の垂直方向の長さに対する比率として定められ、且つ、前記所定水平範囲が前記垂直線分検出手段が検出した垂直方向線分間の最大距離に対する比率として定められることを特徴とする。 The computer program according to the present invention is a computer program for causing a computer to detect an image region that satisfies a specific condition from an image in which pixels are arranged in a horizontal direction and a vertical direction. Detects a line segment within a predetermined horizontal range, and causes the computer to detect another line segment closest to the one horizontal line segment from the horizontal line segments detected in the horizontal line segment detection step. A horizontal line segment detection step of searching for a horizontal line segment and detecting a pair of two horizontal direction line segments, and a vertical direction causing the computer to detect a line segment whose vertical length is within a predetermined vertical range from the input image. A line segment detection step, and a computer detects a vertical line segment detected from the vertical line segment detected in the vertical line segment detection step . And a vertical line segment detection step for searching for other vertical line segments existing in the vicinity and detecting a pair of two vertical line segments, and a horizontal direction detected by the computer in the horizontal line segment detection step. Detecting a region surrounded by a set of line segments and a set of vertical line segments detected in the vertical line segment detection step, and the predetermined horizontal range is a horizontal length of the input image. And the predetermined vertical range is determined as a ratio to the maximum distance between the horizontal line segments detected by the horizontal line detection means, or the predetermined vertical range is the length of the input image in the vertical direction. And the predetermined horizontal range is determined as a ratio to the maximum distance of the vertical line segments detected by the vertical line segment detecting means . The

本発明においては、入力画像から水平方向線分の検出を行い、検出された複数の水平方向線分のうち、隣り合う2つの水平方向線分を組として検出する。例えば入力画像からm本の水平方向線分が検出された場合、(m−1)組の水平方向線分の組が(最多で)得られる(3本の水平方向線分が検出された場合、1番目及び2番目の水平方向線分の組と、2番目及び3番目の水平方向線分の組との2組が得られる)。同様に、入力画像から垂直方向線分の検出を行い、検出された複数の垂直方向線分のうち、隣り合う2つの垂直方向線分を組として検出する。例えば入力画像からn本の垂直方向線分が検出された場合、(n−1)組の垂直方向線分の組が(最多で)得られる。水平方向線分の組及び垂直方向線分の組で囲まれた領域は、矩形領域であり、ウインドウ領域(又はその候補)として扱うことができる領域である。(m−1)組の水平方向線分の組と、(n−1)組の垂直方向線分の組とからは、最多で(m−1)×(n−1)個の領域を(最多で)得ることができ、この領域を特定領域として検出する。複数のウインドウがタイル状に配された画像表示する場合、ウインドウの境界のほとんどが1つの領域の境界を担うことになるが、上記のような特定領域の検出を行うことによって、画像中のウインドウを特定領域として高精度に検出することができる。
検出した各特定領域について、例えば画素値に応じて画像の種別を判定し、判定結果に応じた画像処理を施すことができる。特定領域毎の画像処理を施した画像を表示することによって、ウインドウ毎に最適な表示特性での表示を行うことが可能となる。
In the present invention, horizontal line segments are detected from the input image, and two adjacent horizontal line segments are detected as a set from among the plurality of detected horizontal line segments. For example, when m horizontal line segments are detected from the input image, (m−1) sets of horizontal line segments are obtained (at most) (when three horizontal line segments are detected). 2 sets of 1st and 2nd horizontal line segments and 2nd and 3rd horizontal line segments are obtained). Similarly, vertical line segments are detected from the input image, and two adjacent vertical line segments are detected as a set from the plurality of detected vertical line segments. For example, when n vertical line segments are detected from the input image, (n−1) sets of vertical line segments are obtained (at most). An area surrounded by a set of horizontal line segments and a set of vertical line segments is a rectangular area, and can be handled as a window area (or a candidate thereof). From (m−1) sets of horizontal line segments and (n−1) sets of vertical line segments, a maximum of (m−1) × (n−1) regions ( This region is detected as a specific region. When displaying an image in which a plurality of windows are arranged in a tile shape, most of the boundary of the window is responsible for the boundary of one area. By detecting the specific area as described above, the window in the image is displayed. Can be detected as a specific region with high accuracy.
For each detected specific area, for example, the type of the image can be determined according to the pixel value, and image processing according to the determination result can be performed. By displaying an image subjected to image processing for each specific area, it is possible to perform display with optimal display characteristics for each window.

また、本発明においては、入力画像からエッジに相当する画素(エッジ画素)を抽出する。エッジを抽出する処理は、例えばソーベルフィルタを用いたものなど、既存の画像処理技術により行うことができる。次いで、エッジ画素が水平方向に連続している部分を入力画像から探し出し、エッジ画素の連続数が所定値を超える場合に、これら複数のエッジ画素を水平方向線分として検出する。同様にエッジ画素が垂直方向に連続している部分を入力画像から探し出し、エッジ画素の連続数が所定範囲内の場合に、これら複数のエッジ画素を垂直方向線分として検出する。
ウインドウの境界はエッジに相当する可能性が高いため、エッジ画素に基づく検出を行うことによって、ウインドウを構成する水平方向線分及び垂直方向線分を精度よく検出することができる。
In the present invention, pixels (edge pixels) corresponding to edges are extracted from the input image. The process of extracting the edge can be performed by an existing image processing technique such as a process using a Sobel filter. Next, a portion where the edge pixels are continuous in the horizontal direction is searched from the input image, and when the number of continuous edge pixels exceeds a predetermined value, the plurality of edge pixels are detected as horizontal line segments. Similarly, a portion where edge pixels are continuous in the vertical direction is searched from the input image, and when the number of continuous edge pixels is within a predetermined range, the plurality of edge pixels are detected as vertical line segments.
Since the window boundary is highly likely to correspond to an edge, by performing detection based on edge pixels, it is possible to accurately detect the horizontal and vertical line segments constituting the window.

なお、上記のように水平方向又は垂直方向に連続するエッジ画素を水平方向線分又は垂直方向線分として検出する構成において、本来はウインドウの境界として1つの線分として検出されるべきエッジ画素の連続が、途中にいくつかの非エッジ画素を含むことによって途切れる場合がある。このような場合には、1つの線分が2つ以上の線分として検出され、ウインドウの検出精度を低下させる虞がある。
そこで、水平方向に隣り合う2つの水平方向線分の間の非エッジ画素数が所定値(数画素〜数十画素程度)以下の場合に、これら2つの水平方向線分を1つの水平方向線分として検出してもよい(ただし、1つとみなした水平方向線分が、上記の水平方向線分判定のための所定値より大きい必要がある)。同様に、垂直方向に隣り合う2つの垂直方向線分の間の非エッジ画素数が所定値以下の場合に、これら2つの垂直方向線分を1つの垂直方向線分として検出してもよい。
Note that, in the configuration in which edge pixels that are continuous in the horizontal direction or the vertical direction are detected as horizontal line segments or vertical line segments as described above, the edge pixels that should be detected as one line segment as the boundary of the window are supposed to be detected. The continuity may be interrupted by including some non-edge pixels in the middle. In such a case, one line segment is detected as two or more line segments, which may reduce the window detection accuracy.
Therefore, when the number of non-edge pixels between two horizontal line segments adjacent in the horizontal direction is equal to or smaller than a predetermined value (several pixels to several tens of pixels), these two horizontal line segments are combined into one horizontal line. It may be detected as a minute (however, a horizontal line segment regarded as one needs to be larger than a predetermined value for the above-described horizontal line segment determination). Similarly, when the number of non-edge pixels between two vertical line segments adjacent in the vertical direction is equal to or smaller than a predetermined value, these two vertical line segments may be detected as one vertical line segment.

また、水平方向線分の組を検出する場合には、垂直方向に所定距離以上離れて隣り合う2つの水平方向線分の組を検出してもよい。水平方向線分の組はウインドウの上下の境界をなすものであるが、その距離が近いものは1つのウインドウの上下の境界をなすものである可能性は低いため、これらの水平方向線分の組を検出の対象から除外することができる。
同様に、垂直方向線分の組を検出する場合には、水平方向に所定距離以上離れて隣り合う2つの垂直方向線分の組を検出してもよい。垂直方向線分の組はウインドウの左右の境界をなすものであるが、その距離が近いものは1つのウインドウの左右の境界をなすものである可能性は低いため、これら垂直方向線分の組を検出対象から除外することができる。
Further, when detecting a pair of horizontal line segments, a pair of two horizontal line segments adjacent to each other at a predetermined distance or more in the vertical direction may be detected. A set of horizontal line segments forms the upper and lower boundaries of a window, but those that are close to each other are unlikely to form the upper and lower boundaries of a single window. Sets can be excluded from detection.
Similarly, when detecting a set of vertical line segments, a set of two vertical line segments adjacent to each other at a predetermined distance in the horizontal direction may be detected. A set of vertical line segments forms the left and right borders of a window, but those that are close to each other are unlikely to form the left and right boundaries of a window. Can be excluded from detection targets.

また、本発明においては、検出された各特定領域について、所定条件を満たす画素を計数し、計数結果に応じてこの特定領域に表示された画像の種別を判定し、画像の種別に応じた画像処理を施す。
例えば特定領域の画素値の度数分布を算出し、分布パターンに応じて画像種別を判定することができる。例えば一般的な画像とアプリケーションのツール画像又はテキスト等との度数分布を比較すると、アプリケーションのツール画像又はテキスト等は特定階調に度数が偏った分布となる。
このように特定領域の画像種別を判定し、画像種別に応じた画像処理を施すことによって、ウインドウ毎に最適な表示特性での表示を行うことができる。
Further, in the present invention, for each detected specific area, the pixels satisfying the predetermined condition are counted, the type of the image displayed in the specific area is determined according to the counting result, and the image corresponding to the type of image is determined. Apply processing.
For example, a frequency distribution of pixel values in a specific area can be calculated, and the image type can be determined according to the distribution pattern. For example, when comparing the frequency distribution between a general image and a tool image or text of an application, the tool image or text of the application has a distribution whose frequency is biased to a specific gradation.
Thus, by determining the image type of the specific area and performing image processing according to the image type, it is possible to perform display with optimal display characteristics for each window.

また、本発明においては、入力画素値に対する表示画素値が対応付けられた表示特性、即ちルックアップテーブルを複数記憶しておき、画像種別の判定結果に応じたルックアップテーブルを用いて特定領域毎に画素値を変換し、表示を行う。これにより特定領域毎に最適な表示特性での画像表示を実現できる。   In the present invention, a plurality of display characteristics associated with display pixel values corresponding to input pixel values, that is, look-up tables are stored, and each specific region is stored using a look-up table corresponding to the image type determination result. The pixel value is converted into and displayed. Thus, it is possible to realize image display with optimal display characteristics for each specific region.

また、本発明においては、検出した複数の特定領域について、隣り合う2つの特定領域の画像種別及び頂点間の距離を調べ、例えば画像種別が同一であり且つ頂点間の距離が所定範囲内の2つの特定領域を1つの特定領域に結合する。複数の特定領域を1つに結合することによって、特定領域に関する情報の情報量を削減でき、この情報を記憶するためのメモリを削減できる。   Further, in the present invention, for a plurality of detected specific areas, the image type and distance between vertices of two adjacent specific areas are examined. For example, the image types are the same and the distance between vertices is within a predetermined range. Two specific areas are combined into one specific area. By combining a plurality of specific areas into one, the amount of information about the specific area can be reduced, and the memory for storing this information can be reduced.

また、本発明においては、上述の処理を入力画像全体に対して行うのではなく、ユーザから処理対象とする画像領域の指定を受け付け、受け付けた画像領域内についてのみ特定領域の検出を行い、検出した特定領域についての画像処理を行う。これにより、ユーザが必要とする領域に限定して処理を行うことができ、処理負荷を低減できる。   In the present invention, the above-described processing is not performed on the entire input image, but the specification of the image region to be processed is received from the user, and the specific region is detected only within the received image region. Image processing is performed for the specified area. As a result, processing can be performed only in the area required by the user, and the processing load can be reduced.

本発明による場合は、入力画像から検出した水平方向線分の組及び垂直方向線分の組に囲まれた領域を特定領域として検出することにより、複数のウインドウがタイル状に配された画像において、画像中のウインドウを特定領域として高精度に検出することができる。よって、高精度に検出した特定領域について画像種別を判定し、画像種別に適した画像処理を施すことにより、特定領域毎に最適な表示特性での表示を行うことができる。   In the case of the present invention, by detecting a region surrounded by a set of horizontal line segments and a set of vertical line segments detected from an input image as a specific area, in an image in which a plurality of windows are arranged in a tile shape The window in the image can be detected with high accuracy as the specific area. Therefore, it is possible to perform display with optimal display characteristics for each specific area by determining the image type for the specific area detected with high accuracy and performing image processing suitable for the image type.

本発明に係る表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the display apparatus which concerns on this invention. 画像処理部の構成を示すブロック図である。It is a block diagram which shows the structure of an image process part. 基本ウインドウ検出部が行う基本ウインドウ検出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the basic window detection process which a basic window detection part performs. 基本ウインドウ検出部が行う水平方向線分ペア検出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the horizontal direction line segment pair detection process which a basic window detection part performs. 基本ウインドウ検出部が行う垂直方向線分ペア検出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the vertical direction line segment pair detection process which a basic window detection part performs. 基本ウインドウ検出処理を説明するための模式図である。It is a schematic diagram for demonstrating a basic window detection process. 基本ウインドウ検出部の処理結果の一例を示す模式図である。It is a schematic diagram which shows an example of the process result of a basic window detection part. ポップアップウインドウ検出部が行うポップアップウインドウ検出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the popup window detection process which a popup window detection part performs. ポップアップウインドウ検出部が行うショート垂直方向線分検出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the short vertical direction line segment detection process which a pop-up window detection part performs. ポップアップウインドウ検出部が行うショート水平方向線分検出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the short horizontal direction line segment detection process which a pop-up window detection part performs. 画像種別判定部が行う画像種別判定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the image type determination process which an image type determination part performs. 画像種別判定部が作成するヒストグラムの一例を示す模式図である。It is a schematic diagram which shows an example of the histogram which an image classification determination part produces. 画像種別判定部が行うカラー/モノクロ判定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the color / monochrome determination process which an image classification determination part performs. 変形例1に係る表示装置が行うウインドウ検出処理を説明するための模式図である。10 is a schematic diagram for explaining window detection processing performed by a display device according to Modification Example 1. FIG. 変形例2に係る表示装置の画像処理部の構成を示すブロック図である。10 is a block diagram illustrating a configuration of an image processing unit of a display device according to Modification 2. FIG. ポップアップウインドウの結合処理を説明するための模式図である。It is a schematic diagram for demonstrating the combining process of a popup window. ポップアップウインドウの結合処理を説明するための模式図である。It is a schematic diagram for demonstrating the combining process of a popup window. 基本ウインドウの結合処理を説明するための模式図である。It is a schematic diagram for demonstrating the combination process of a basic window. 変形例3に係る表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the display system which concerns on the modification 3. 画像処理の処理対象領域の指定を説明するための模式図である。It is a schematic diagram for demonstrating designation | designated of the process target area | region of an image process.

以下、本発明をその実施の形態を示す図面に基づき具体的に説明する。なお、本実施の形態においては、液晶表示装置を例に説明を行うが、これに限るものではなく、本発明はOLED(Organic Light Emitting Diode)を用いた表示装置又は電子ペーパー等のような他の構成の表示装置にも適用可能である。図1は、本発明に係る表示装置の構成を示すブロック図である。図において1は、表示用のデバイスとして液晶パネル19を備えるカラーの表示装置であり、PC9から入力される画像の表示を行うものである。表示装置1は、例えば医療用として用いることができ、X線撮影によるモノクロ画像、内視鏡などの撮影によるカラー画像及びその他の画像(テキスト、グラフ、表など)等の種々の画像を表示することができる。   Hereinafter, the present invention will be specifically described with reference to the drawings showing embodiments thereof. In this embodiment, a liquid crystal display device will be described as an example. However, the present invention is not limited to this, and the present invention is not limited to a display device using an OLED (Organic Light Emitting Diode) or an electronic paper. The present invention can also be applied to a display device having the above configuration. FIG. 1 is a block diagram showing a configuration of a display device according to the present invention. In the figure, reference numeral 1 denotes a color display device having a liquid crystal panel 19 as a display device, and displays an image input from the PC 9. The display device 1 can be used for medical purposes, for example, and displays various images such as a monochrome image obtained by X-ray photography, a color image obtained by photography using an endoscope, and other images (text, graph, table, etc.). be able to.

表示装置1は、制御部11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、操作部14、バックライト駆動部15、液晶駆動部16、画像入力部17、バックライト18、液晶パネル19及び画像処理部20等を備えて構成されている。制御部11は、具体的にはCPU(Central Processing Unit)又はMPU(MicroProcessing Unit)等の演算処理装置にて構成することができ、表示装置1内の各部と情報の授受を行ってこれら各部の動作を制御することにより、液晶パネル19に画像を表示するための種々の処理を実行する。   The display device 1 includes a control unit 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, an operation unit 14, a backlight driving unit 15, a liquid crystal driving unit 16, an image input unit 17, a backlight 18, and a liquid crystal. A panel 19 and an image processing unit 20 are provided. Specifically, the control unit 11 can be configured by an arithmetic processing device such as a CPU (Central Processing Unit) or an MPU (MicroProcessing Unit), and exchanges information with each unit in the display device 1 so that each of these units Various processes for displaying an image on the liquid crystal panel 19 are executed by controlling the operation.

ROM12は、例えばEEPROM(Electrically Erasable Programmable ROM)又はフラッシュメモリ等の不揮発性のメモリ素子により構成され、制御部11の動作に必要な制御プログラム12aと、個の制御プログラム12aの実行に際して利用される種々のデータ(図示は省略する)とが予め記憶されている。RAM13は、例えばSRAM(Static RAM)又はDRAM(Dynamic RAM)等のデータ書き換え可能なメモリ素子により構成されており、制御部11の処理過程にて発生する一時的なデータを記憶することができる。   The ROM 12 is configured by a nonvolatile memory element such as an EEPROM (Electrically Erasable Programmable ROM) or a flash memory, for example, and is used when executing the control program 12a necessary for the operation of the control unit 11 and the individual control programs 12a. Data (not shown) are stored in advance. The RAM 13 is constituted by a data rewritable memory element such as SRAM (Static RAM) or DRAM (Dynamic RAM), and can store temporary data generated in the process of the control unit 11.

操作部14は、ユーザが表示装置1を操作するための各種のファンクションキーなどを有している。例えば、液晶パネル19の画像表示の明るさ(ブライトネス)を変更するためのキー、又は画像表示のカラーバランスを変更するためのキー等のように、表示装置1の表示特性を設定するための設定キーが操作部14に設けられている。操作部14は、これらのファンクションキーに対するユーザの操作を受け付けて制御部11へ通知し、制御部11は操作部14からの通知に応じて各部の動作を制御することができる。   The operation unit 14 includes various function keys for the user to operate the display device 1. For example, a setting for setting display characteristics of the display device 1 such as a key for changing the brightness (brightness) of the image display of the liquid crystal panel 19 or a key for changing the color balance of the image display. A key is provided on the operation unit 14. The operation unit 14 accepts user operations on these function keys and notifies the control unit 11, and the control unit 11 can control the operation of each unit in response to the notification from the operation unit 14.

バックライト18は、表示装置1内にて液晶パネル19の背面側に配設されており、バックライト駆動部15から与えられる出力電圧により駆動される。バックライト駆動部15は、制御部11の制御に応じて、バックライト18への出力電圧を調整する。これにより、例えばユーザが操作部14を操作して設定したブライトネス設定に応じて、バックライト駆動部15に出力電圧を調整させて、バックライト18の輝度を調整することができる。例えばバックライト駆動部15からバックライト18へパルス状の電圧が与えられる場合、バックライト駆動部15による出力電圧の調整は、パルスの振幅を変更すること(いわゆる振幅変調)で行ってもよく、パルス幅を変更すること(いわゆるパルス幅変調)で行ってもよい。   The backlight 18 is disposed on the back side of the liquid crystal panel 19 in the display device 1 and is driven by an output voltage supplied from the backlight driving unit 15. The backlight drive unit 15 adjusts the output voltage to the backlight 18 according to the control of the control unit 11. Accordingly, for example, the brightness of the backlight 18 can be adjusted by causing the backlight drive unit 15 to adjust the output voltage in accordance with the brightness setting set by the user operating the operation unit 14. For example, when a pulsed voltage is applied from the backlight driving unit 15 to the backlight 18, the adjustment of the output voltage by the backlight driving unit 15 may be performed by changing the amplitude of the pulse (so-called amplitude modulation) The pulse width may be changed (so-called pulse width modulation).

液晶パネル19は、一対のガラス基板が対向配置され、その間隙内に液晶物質である液晶層が形成された構造をなしている。一方のガラス基板には、複数の画素電極と、画素電極のそれぞれにドレインを接続したTFT(Thin Film Transistor)とが設けられ、他方のガラス基板には共通電極が設けられている。各TFTのゲート及びソースは、液晶駆動部16のゲートドライバ及びソースドライバ(図示は省略する)に接続され、液晶駆動部16から駆動信号がそれぞれ入力されている。   The liquid crystal panel 19 has a structure in which a pair of glass substrates are opposed to each other and a liquid crystal layer, which is a liquid crystal substance, is formed in the gap. One glass substrate is provided with a plurality of pixel electrodes and TFTs (Thin Film Transistors) each having a drain connected to the pixel electrode, and the other glass substrate is provided with a common electrode. The gate and source of each TFT are connected to a gate driver and a source driver (not shown) of the liquid crystal drive unit 16, and drive signals are input from the liquid crystal drive unit 16, respectively.

液晶駆動部16は、与えられた画像信号に応じて液晶パネル19を駆動するための駆動信号を出力する。詳しくは、液晶駆動部16のゲートドライバは、液晶パネル19が有する多数のTFTのゲートに、与えられた画像信号に応じて選択的に電圧を印加し、また同様に、液晶駆動部16のソースドライバは、TFTのソースに、入力された映像信号に応じた電圧値で電圧を印加する。これにより液晶パネル19は、液晶駆動部16のゲートドライバから印加される電圧によって各画素のTFTのオン/オフが制御され、液晶駆動部16のソースドライバから入力される出力電圧(液晶パネル19への入力レベル)が各画素のTFTに印加されることにより、液晶物質の電気光学特性によって決定される光透過率が制御されて、バックライト18からの光の透過が調整され、所望の画像を階調表示することができる。液晶パネル19の各画素は、RGBのように複数色分の副画素で更に構成され、光の透過方向にカラーフィルムを配することで、カラー表示を可能としている。   The liquid crystal driving unit 16 outputs a driving signal for driving the liquid crystal panel 19 in accordance with the given image signal. Specifically, the gate driver of the liquid crystal driving unit 16 applies a voltage selectively to the gates of a large number of TFTs of the liquid crystal panel 19 in accordance with a given image signal, and similarly, the source of the liquid crystal driving unit 16 The driver applies a voltage to the source of the TFT with a voltage value corresponding to the input video signal. As a result, the liquid crystal panel 19 controls the on / off state of the TFT of each pixel by the voltage applied from the gate driver of the liquid crystal driving unit 16, and the output voltage (to the liquid crystal panel 19) input from the source driver of the liquid crystal driving unit 16 Is applied to the TFT of each pixel, the light transmittance determined by the electro-optical characteristics of the liquid crystal substance is controlled, and the transmission of light from the backlight 18 is adjusted, so that a desired image can be obtained. Gradation can be displayed. Each pixel of the liquid crystal panel 19 is further composed of sub-pixels for a plurality of colors such as RGB, and color display is possible by arranging a color film in the light transmission direction.

画像入力部17は、PC9などの外部機器に信号ケーブルを介して接続される接続端子を有しており、PC9から入力される画像信号を取得する。画像信号は、RGB又はCMY等のように複数色で構成され、色毎に入力される。この画像信号は、画像処理部20により明るさ調整又はカラーバランス調整等の種々の画像処理が施された後に液晶駆動部16へ与えられ、与えられた画像信号に応じて液晶駆動部16が液晶パネル19を駆動することにより、表示装置1はPC9からの画像信号に基づく画像表示を行うことができる。なお、PC9から画像入力部17へ入力される画像信号は、アナログ信号又はデジタル信号のいずれであってもよい。   The image input unit 17 has a connection terminal connected to an external device such as the PC 9 via a signal cable, and acquires an image signal input from the PC 9. The image signal is composed of a plurality of colors such as RGB or CMY, and is input for each color. The image signal is subjected to various image processing such as brightness adjustment or color balance adjustment by the image processing unit 20 and then applied to the liquid crystal driving unit 16, and the liquid crystal driving unit 16 responds to the received image signal by the liquid crystal driving unit 16. By driving the panel 19, the display device 1 can perform image display based on the image signal from the PC 9. The image signal input from the PC 9 to the image input unit 17 may be either an analog signal or a digital signal.

画像処理部20は、制御部11の制御に応じて、画像入力部17から与えられた画像信号(入力画像)に対して種々の画像処理を施し、画像処理後の画像信号(出力画像)を液晶駆動部16へ与える。また画像処理部20は、画像入力部17からの入力画像の階調値を、予め記憶されたLUT(ルックアップテーブル)に応じて補正する画像処理(いわゆるガンマ補正)を行う。更に、本実施の形態に係る表示装置1の画像処理部20は、入力画像からウインドウを検出し、ウインドウ毎に最適なルックアップテーブルを用いた補正を行うことができる。   The image processing unit 20 performs various image processing on the image signal (input image) given from the image input unit 17 in accordance with the control of the control unit 11, and outputs the image signal (output image) after the image processing. This is given to the liquid crystal drive unit 16. The image processing unit 20 performs image processing (so-called gamma correction) for correcting the gradation value of the input image from the image input unit 17 in accordance with a previously stored LUT (lookup table). Furthermore, the image processing unit 20 of the display device 1 according to the present embodiment can detect a window from an input image and perform correction using an optimum lookup table for each window.

図2は、画像処理部20の構成を示すブロック図である。画像処理部20は、エッジ検出部21、基本ウインドウ検出部22、ポップアップウインドウ検出部23、画像種別判定部24及び画質補正部25等の画像処理を行うための各部と、画質補正部25が行う画像処理に必要な情報を記憶したLUT記憶部26とを備えて構成されている。   FIG. 2 is a block diagram illustrating a configuration of the image processing unit 20. The image processing unit 20 includes an edge detection unit 21, a basic window detection unit 22, a pop-up window detection unit 23, an image type determination unit 24, an image quality correction unit 25, and other units for performing image processing and an image quality correction unit 25. And an LUT storage unit 26 that stores information necessary for image processing.

エッジ検出部21は、画像入力部17から画像処理部20へ与えられた入力画像から、画像のエッジ部分を構成する画素(エッジ画素)を検出する画像処理を行うものである。例えばエッジ検出部21は、入力画像に対してソーベルフィルタを用いた画像処理を行うことによって、エッジ画素の検出を行うことができる(ただしエッジ検出方法はソーベルフィルタを用いるものに限定されない)。   The edge detection unit 21 performs image processing for detecting pixels (edge pixels) constituting the edge portion of the image from the input image given from the image input unit 17 to the image processing unit 20. For example, the edge detection unit 21 can detect edge pixels by performing image processing using a Sobel filter on an input image (however, the edge detection method is not limited to that using a Sobel filter). .

基本ウインドウ検出部22は、エッジ検出部21が検出したエッジ画素に基づいて、入力画像に含まれるサイズが大きいウインドウを基本ウインドウとして検出する画像処理を行うものである。詳細は後述するが、基本ウインドウ検出部22は、水平方向及び垂直方向に並ぶエッジ画素から水平方向線分及び垂直方向線分を検出し、水平方向線分のペア及び垂直方向線分のペアで囲まれた特定領域を基本ウインドウとして検出する。   The basic window detection unit 22 performs image processing for detecting, as a basic window, a window having a large size included in the input image, based on the edge pixels detected by the edge detection unit 21. Although details will be described later, the basic window detection unit 22 detects a horizontal line segment and a vertical line segment from edge pixels arranged in the horizontal direction and the vertical direction, and uses a pair of horizontal line segments and a pair of vertical line segments. The enclosed specific area is detected as a basic window.

ポップアップウインドウ検出部23は、エッジ検出部21が検出したエッジ画素及び基本ウインドウ検出部22の検出結果に基づいて、入力画像に含まれる基本ウインドウに重畳されて表示されるウインドウをポップアップウインドウとして検出する画像処理を行うものである。詳細は後述するが、ポップアップウインドウ検出部23は、基本ウインドウ検出部22にて基本ウインドウを構成する水平方向線分のペア又は垂直方向線分のペアとされなかった水平方向線分及び垂直方向線分を取得し、取得した水平方向線分のペア及び垂直方向線分のペアで囲まれた特定領域をポップアップウインドウとして検出する。   Based on the edge pixel detected by the edge detection unit 21 and the detection result of the basic window detection unit 22, the pop-up window detection unit 23 detects a window superimposed and displayed on the basic window included in the input image as a pop-up window. Image processing is performed. Although the details will be described later, the pop-up window detection unit 23 is configured so that the basic window detection unit 22 does not form a horizontal line segment or a vertical line segment that constitutes the basic window in the basic window detection unit 22. Minutes are acquired, and a specific area surrounded by the acquired horizontal line segment pair and vertical line segment pair is detected as a pop-up window.

画像種別判定部24は、基本ウインドウ検出部22が検出した基本ウインドウ及びポップアップウインドウ検出部23が検出したポップアップウインドウのそれぞれについて、ウインドウ内の画像種別を判定する画像処理を行うものである。画像種別判定部24が判定する画像種別は、例えばカラー画像、モノクロ画像、アプリケーションのツール画像、及びその他のウインドウ外の画像である。詳細は後述するが、画像種別判定部24は、例えばウインドウ内のカラー画素の比率又はモノクロ画素の比率をカウントすることで、カラー画像であるか、又は、モノクロ画像であるかを判定する。   The image type determination unit 24 performs image processing for determining the image type in the window for each of the basic window detected by the basic window detection unit 22 and the pop-up window detected by the pop-up window detection unit 23. The image types determined by the image type determining unit 24 are, for example, color images, monochrome images, application tool images, and other images outside the window. Although details will be described later, the image type determination unit 24 determines whether the image is a color image or a monochrome image, for example, by counting the ratio of color pixels or the ratio of monochrome pixels in the window.

画質補正部25は、画像種別判定部24の判定結果に基づいて、入力画像のウインドウ毎に異なるLUTを用いてガンマ補正を行う。画質補正部25が用いるLUTはLUT記憶部26に予め記憶されている。本実施の形態においては、LUT記憶部26には、高輝度sRGB(standard RGB)用のLUT26a、低輝度sRGB用のLUT26b、及び、高輝度DICOM(Digital Imaging and Communications in Medicine)用のLUT26cの3つのLUTが記憶されている。画質補正部25が補正処理を行った画像は、出力画像(表示画像)として液晶駆動部16へ与えられ、液晶パネル19に表示される。   Based on the determination result of the image type determination unit 24, the image quality correction unit 25 performs gamma correction using a different LUT for each window of the input image. The LUT used by the image quality correction unit 25 is stored in advance in the LUT storage unit 26. In the present embodiment, the LUT storage unit 26 includes three LUTs 26a for high luminance sRGB (standard RGB), LUT 26b for low luminance sRGB, and LUT 26c for high luminance DICOM (Digital Imaging and Communications in Medicine). One LUT is stored. The image subjected to the correction processing by the image quality correction unit 25 is given to the liquid crystal drive unit 16 as an output image (display image) and displayed on the liquid crystal panel 19.

<基本ウインドウ検出処理>
次に、画像処理部20の基本ウインドウ検出部22にて行われる基本ウインドウ検出処理の詳細を説明する。図3は、基本ウインドウ検出部22が行う基本ウインドウ検出処理の手順を示すフローチャートである。まず基本ウインドウ検出部22は、エッジ検出部21の画像処理により検出された入力画像のエッジ画素に関する情報を取得する(ステップS1)。次いで基本ウインドウ検出部22は、入力画像のエッジ画素に基づいて、基本ウインドウを構成する水平方向線分のペアを検出する処理を行う(ステップS2)。
<Basic window detection processing>
Next, details of the basic window detection process performed by the basic window detection unit 22 of the image processing unit 20 will be described. FIG. 3 is a flowchart showing a procedure of basic window detection processing performed by the basic window detection unit 22. First, the basic window detection unit 22 acquires information related to the edge pixels of the input image detected by the image processing of the edge detection unit 21 (step S1). Next, the basic window detection unit 22 performs a process of detecting a pair of horizontal line segments constituting the basic window based on the edge pixels of the input image (step S2).

図4は、基本ウインドウ検出部22が行う水平方向線分ペア検出処理の手順を示すフローチャートであり、図3に示すフローチャートのステップS2にて行われる処理である。基本ウインドウ検出部22は、エッジ検出部21が検出した入力画像のエッジ画素から、入力画像の水平方向に連続する複数のエッジ画素(エッジ画素群)を検出する(ステップS11)。このときに基本ウインドウ検出部22は、水平方向に隣り合う2つのエッジ画素群の間に存在する非エッジ画素の数が所定数(例えば数画素〜十数画素程度)以下であれば、この2つのエッジ画素群を1つのエッジ画素群として扱い、以下の処理を行ってよい。   FIG. 4 is a flowchart showing a procedure of horizontal line segment pair detection processing performed by the basic window detection unit 22, and is processing performed in step S2 of the flowchart shown in FIG. The basic window detection unit 22 detects a plurality of edge pixels (edge pixel group) continuous in the horizontal direction of the input image from the edge pixels of the input image detected by the edge detection unit 21 (step S11). At this time, if the number of non-edge pixels existing between two edge pixel groups adjacent in the horizontal direction is equal to or less than a predetermined number (for example, about several pixels to several tens of pixels), the basic window detection unit 22 One edge pixel group may be treated as one edge pixel group, and the following processing may be performed.

次いで基本ウインドウ検出部22は、検出したエッジ画素群の水平方向の長さが所定値以上であるか否かを判定する(ステップS12)。なおステップS12の判定に用いる所定値は、例えば入力画像の水平方向のサイズに対する比率として予め定められる。エッジ画素群の長さが所定値に満たない場合(S12:NO)、基本ウインドウ検出部22は、このエッジ画素群が水平方向線分でないと判断し、ステップS17へ処理を進める。エッジ画素群の長さが所定値以上の場合(S12:YES)、基本ウインドウ検出部22は、このエッジ画素群が水平方向線分であると判断し、この水平方向線分に関する情報(座標情報など)を記憶する(ステップS13)。   Next, the basic window detection unit 22 determines whether or not the length of the detected edge pixel group in the horizontal direction is greater than or equal to a predetermined value (step S12). The predetermined value used for the determination in step S12 is determined in advance as a ratio to the horizontal size of the input image, for example. If the length of the edge pixel group is less than the predetermined value (S12: NO), the basic window detection unit 22 determines that the edge pixel group is not a horizontal line segment, and proceeds to step S17. When the length of the edge pixel group is equal to or greater than the predetermined value (S12: YES), the basic window detection unit 22 determines that the edge pixel group is a horizontal line segment, and information (coordinate information) about the horizontal line segment. Etc.) is stored (step S13).

次いで基本ウインドウ検出部22は、現時点で処理対象としている水平方向線分(現水平方向線分)の以前に検出されて記憶された水平方向線分があるか否かを判定し(ステップS14)、記憶済みの水平方向線分がない場合には(S14:NO)、ステップS17へ処理を進める。記憶済みの水平方向線分がある場合(S14:YES)、基本ウインドウ検出部22は、現水平方向線分とこれの直前に記憶された水平方向線分との垂直方向の距離を算出し、この距離が所定距離以上であるか否かを判定する(ステップS15)。現水平方向線分と直前の水平方向線分との距離が所定距離未満の場合(S15:NO)、基本ウインドウ検出部22は、ステップS17へ処理を進める。現水平方向線分と直前の水平方向線分との距離が所定距離以上の場合(S15:YES)、基本ウインドウ検出部22は、直前の水平方向線分と現水平方向線分とを水平方向線分ペアとして記憶する(ステップS16)。   Next, the basic window detection unit 22 determines whether there is a horizontal line segment detected and stored before the horizontal line segment (current horizontal line segment) currently processed (step S14). If there is no stored horizontal line segment (S14: NO), the process proceeds to step S17. When there is a stored horizontal line segment (S14: YES), the basic window detection unit 22 calculates the vertical distance between the current horizontal line segment and the horizontal line segment stored immediately before this, It is determined whether this distance is equal to or greater than a predetermined distance (step S15). If the distance between the current horizontal line segment and the immediately preceding horizontal line segment is less than the predetermined distance (S15: NO), the basic window detection unit 22 advances the process to step S17. When the distance between the current horizontal line segment and the immediately preceding horizontal line segment is equal to or greater than the predetermined distance (S15: YES), the basic window detection unit 22 uses the previous horizontal line segment and the current horizontal line segment in the horizontal direction. Stored as a line segment pair (step S16).

その後、基本ウインドウ検出部22は、入力画像の全エッジ画素について上記S11〜S16の処理を終了したか否かを判定し(ステップS17)、処理を終了していない場合には(S17:NO)、ステップS11へ処理を戻し、全エッジ画素についての処理を終了するまでS11〜S16の処理を繰り返し行う。全エッジ画素についての処理を終了した場合(S17:YES)、基本ウインドウ検出部22は、図3に示したフローチャートへ処理を戻す。   Thereafter, the basic window detection unit 22 determines whether or not the processes of S11 to S16 have been completed for all edge pixels of the input image (step S17), and if the process has not been completed (S17: NO). Then, the process is returned to step S11, and the processes of S11 to S16 are repeated until the processes for all the edge pixels are completed. When the processing for all edge pixels is completed (S17: YES), the basic window detection unit 22 returns the processing to the flowchart shown in FIG.

水平方向線分ペア検出処理を行った後、基本ウインドウ検出部22は、入力画像のエッジ画素に基づいて垂直方向線分のペアを検出する処理を行う(ステップS3)。   After performing the horizontal line segment pair detection process, the basic window detection unit 22 performs a process of detecting a vertical line segment pair based on the edge pixels of the input image (step S3).

図5は、基本ウインドウ検出部22が行う垂直方向線分ペア検出処理の手順を示すフローチャートであり、図3に示すフローチャートのステップS3にて行われる処理である。基本ウインドウ検出部22は、エッジ検出部21が検出した入力画像のエッジ画素から、入力画像の垂直方向に連続するエッジ画素群を検出する(ステップS21)。このときに基本ウインドウ検出部22は、垂直方向に隣り合う2つのエッジ画素群の間に存在する非エッジ画素の数が所定数(例えば数画素〜十数画素程度)以下であれば、この2つのエッジ画素群を1つのエッジ画素群として扱い、以下の処理を行ってよい。   FIG. 5 is a flowchart showing the procedure of the vertical line segment pair detection process performed by the basic window detection unit 22, and is the process performed in step S3 of the flowchart shown in FIG. The basic window detection unit 22 detects a group of edge pixels continuous in the vertical direction of the input image from the edge pixels of the input image detected by the edge detection unit 21 (step S21). At this time, if the number of non-edge pixels existing between two edge pixel groups adjacent in the vertical direction is equal to or less than a predetermined number (for example, about several pixels to about a dozen pixels), the basic window detection unit 22 One edge pixel group may be treated as one edge pixel group, and the following processing may be performed.

次いで基本ウインドウ検出部22は、検出したエッジ画素群の垂直方向の長さが所定範囲内であるか否かを判定する(ステップS22)。なおステップS22の判定に用いる所定範囲は、水平方向線分ペア検出処理にて検出された複数の水平方向線分のうち、垂直方向の最上及び最下に位置する2つの水平方向線分間の距離を算出し、この距離に対して例えば±10%の範囲のように定められる。エッジ画素群の長さが所定範囲外の場合(S22:NO)、基本ウインドウ検出部22は、このエッジ画素群が垂直方向線分でないと判断し、ステップS27へ処理を進める。エッジ画素群の長さが所定範囲内の場合(S22:YES)、基本ウインドウ検出部22は、このエッジ画素群が垂直方向線分であると判断し、この垂直方向線分に関する情報(座標情報など)を記憶する(ステップS23)。   Next, the basic window detection unit 22 determines whether or not the length of the detected edge pixel group in the vertical direction is within a predetermined range (step S22). The predetermined range used for the determination in step S22 is the distance between two horizontal line segments positioned at the top and bottom in the vertical direction among the plurality of horizontal line segments detected by the horizontal line segment detection process. For example, is determined in a range of ± 10% with respect to this distance. If the length of the edge pixel group is outside the predetermined range (S22: NO), the basic window detection unit 22 determines that the edge pixel group is not a vertical line segment, and proceeds to step S27. When the length of the edge pixel group is within the predetermined range (S22: YES), the basic window detection unit 22 determines that the edge pixel group is a vertical line segment, and information (coordinate information) regarding the vertical line segment. Etc.) is stored (step S23).

次いで基本ウインドウ検出部22は、現時点で処理対象としている垂直方向線分(現垂直方向線分)の以前に検出されて記憶された垂直方向線分があるか否かを判定し(ステップS24)、記憶済みの垂直方向線分がない場合には(S24:NO)、ステップS27へ処理を進める。記憶済みの垂直方向線分がある場合(S24:YES)、基本ウインドウ検出部22は、現垂直方向線分とこれの直前に記憶された垂直方向線分との水平方向の距離を算出し、この距離が所定距離以上であるか否かを判定する(ステップS25)。現垂直方向線分と直前の垂直方向線分との距離が所定距離未満の場合(S25:NO)、基本ウインドウ検出部22は、ステップS27へ処理を進める。現垂直方向線分と直前の垂直方向線分との距離が所定距離以上の場合(S25:YES)、基本ウインドウ検出部22は、直前の垂直方向線分と現垂直方向線分とを垂直方向線分ペアとして記憶する(ステップS26)。   Next, the basic window detection unit 22 determines whether there is a vertical line segment detected and stored before the vertical line segment (current vertical line segment) currently processed (step S24). If there is no stored vertical line segment (S24: NO), the process proceeds to step S27. If there is a stored vertical line segment (S24: YES), the basic window detection unit 22 calculates the horizontal distance between the current vertical line segment and the vertical line segment stored immediately before it, It is determined whether this distance is greater than or equal to a predetermined distance (step S25). If the distance between the current vertical line segment and the immediately preceding vertical line segment is less than the predetermined distance (S25: NO), the basic window detection unit 22 advances the process to step S27. When the distance between the current vertical line segment and the immediately preceding vertical line segment is equal to or greater than the predetermined distance (S25: YES), the basic window detection unit 22 uses the previous vertical line segment and the current vertical line segment in the vertical direction. Stored as a line segment pair (step S26).

その後、基本ウインドウ検出部22は、入力画像の全エッジ画素について上記S21〜S26の処理を終了したか否かを判定し(ステップS27)、処理を終了していない場合には(S27:NO)、ステップS21へ処理を戻し、全エッジ画素についての処理を終了するまでS21〜S26の処理を繰り返し行う。全エッジ画素についての処理を終了した場合(S27:YES)、基本ウインドウ検出部22は、図3に示したフローチャートへ処理を戻す。   Thereafter, the basic window detection unit 22 determines whether or not the processing of S21 to S26 has been completed for all edge pixels of the input image (step S27). If the processing has not been completed (S27: NO) Then, the process returns to step S21, and the processes of S21 to S26 are repeated until the processes for all edge pixels are completed. When the process for all edge pixels is completed (S27: YES), the basic window detection unit 22 returns the process to the flowchart shown in FIG.

図6は、基本ウインドウ検出処理を説明するための模式図であり、入力画像100に対して基本ウインドウ検出部22が検出した水平方向線分及び垂直方向線分を示したものである。本図においては、例えば基本ウインドウ検出処理部22は、3つの水平方向線分Y1〜Y3を検出しており、水平方向線分ペアとして(Y1、Y2)、(Y2、Y3)の2つのペアを検出する。また基本ウインドウ検出処理部2は、4つの垂直方向線分X1〜X4を検出しており、垂直方向線分ペアとして(X1、X2)、(X2、X3)、(X3、X4)の3つのペアを検出する。   FIG. 6 is a schematic diagram for explaining the basic window detection process, and shows the horizontal and vertical line segments detected by the basic window detection unit 22 with respect to the input image 100. In this figure, for example, the basic window detection processing unit 22 detects three horizontal line segments Y1 to Y3, and two pairs of (Y1, Y2) and (Y2, Y3) as horizontal line segment pairs. Is detected. The basic window detection processing unit 2 detects four vertical line segments X1 to X4, and three vertical line segment pairs (X1, X2), (X2, X3), and (X3, X4) are detected. Detect a pair.

垂直方向線分ペア検出処理を行った後、基本ウインドウ検出部22は、検出した水平方向線分ペア及び垂直方向線分ペアで囲まれた矩形領域を基本ウインドウ(特定領域)として検出する(ステップS4)。なお検出する特定領域は、必ずしも4つの線分で完全に囲まれている(即ち閉塞されている)必要はなく、各線分の延長線を含めて囲まれた矩形領域であればよい。   After performing the vertical line segment pair detection process, the basic window detection unit 22 detects a rectangular area surrounded by the detected horizontal line segment pair and the vertical line segment pair as a basic window (specific area) (step). S4). Note that the specific area to be detected does not necessarily have to be completely surrounded (that is, closed) by four line segments, and may be a rectangular area that includes the extension lines of the line segments.

例えば図6に示す例では、2つの水平方向線分ペアと3つの垂直方向線分ペアとによって、基本ウインドウ検出部22は、6つ(=2×3)の基本ウインドウW1〜W6を検出する。なお、基本ウインドウW1は(Y1、Y2)及び(X1、X2)で囲まれた領域であり、基本ウインドウW2は(Y2、Y3)及び(X1、X2)で囲まれた領域であり、基本ウインドウW3は(Y1、Y2)及び(X2、X3)で囲まれた領域であり、基本ウインドウW4は(Y2、Y3)及び(X2、X3)で囲まれた領域であり、基本ウインドウW5は(Y1、Y2)及び(X3、X4)で囲まれた領域であり、基本ウインドウW6は(Y2、Y3)及び(X3、X4)で囲まれた領域である。   For example, in the example shown in FIG. 6, the basic window detection unit 22 detects six (= 2 × 3) basic windows W1 to W6 by using two horizontal line segment pairs and three vertical line segment pairs. . The basic window W1 is an area surrounded by (Y1, Y2) and (X1, X2), and the basic window W2 is an area surrounded by (Y2, Y3) and (X1, X2). W3 is an area surrounded by (Y1, Y2) and (X2, X3), the basic window W4 is an area surrounded by (Y2, Y3) and (X2, X3), and the basic window W5 is (Y1 , Y2) and (X3, X4), and the basic window W6 is an area surrounded by (Y2, Y3) and (X3, X4).

その後、基本ウインドウ検出部22は、検出した基本ウインドウの4つの位置情報を記憶して(ステップS5)、処理を終了する。   Thereafter, the basic window detection unit 22 stores the four pieces of positional information of the detected basic window (step S5), and ends the process.

図7は、基本ウインドウ検出部22の処理結果の一例を示す模式図であり、図3に示したフローチャートのステップS5にて記憶される基本ウインドウの位置情報である。なお、図7に示す位置情報は、水平方向線分YnのY座標をynとし、垂直方向線分XnのX座標をxnとして、基本ウインドウの位置を4つの座標で表したものである。基本ウインドウ検出部22は、処理結果として図示のようなテーブルを作成して出力する。   FIG. 7 is a schematic diagram illustrating an example of a processing result of the basic window detection unit 22, which is position information of the basic window stored in step S5 of the flowchart illustrated in FIG. The position information shown in FIG. 7 represents the position of the basic window with four coordinates, where the Y coordinate of the horizontal line segment Yn is yn and the X coordinate of the vertical line segment Xn is xn. The basic window detection unit 22 creates and outputs a table as shown in the figure as a processing result.

<ポップアップウインドウ検出処理>
次に、画像処理部20のポップアップウインドウ検出部23にて行われるポップアップウインドウ検出処理の詳細を説明する。図8は、ポップアップウインドウ検出部23が行うポップアップウインドウ検出処理の手順を示すフローチャートである。まずポップアップウインドウ検出部23は、基本ウインドウを構成する垂直方向線分ペアとされず、ポップアップウインドウを構成する可能性のある垂直方向線分(ショート垂直方向線分)を検出する処理を行う(ステップS31)。
<Pop-up window detection processing>
Next, details of the pop-up window detection process performed by the pop-up window detection unit 23 of the image processing unit 20 will be described. FIG. 8 is a flowchart showing the procedure of the pop-up window detection process performed by the pop-up window detection unit 23. First, the pop-up window detection unit 23 performs a process of detecting a vertical line segment (short vertical line segment) that may constitute a pop-up window, not a vertical line segment pair constituting the basic window (step S31).

図9は、ポップアップウインドウ検出部23が行うショート垂直方向線分検出処理の手順を示すフローチャートであり、図8に示すフローチャートのステップS31にて行われる処理である。ポップアップウインドウ検出部23は、基本ウインドウ検出処理にて垂直方向線分ペアを構成しなかった垂直方向線分(ただし、ステップS23にて記憶した垂直方向線分のみでなく、ステップS21にて検出されたエッジ画素群を対象とする)を取得し(ステップS41)、取得した垂直方向線分の長さが所定範囲内であるか否かを判定する(ステップS42)。なおステップS42にて判定に用いる所定範囲は、例えばポップアップウインドウの標準的な垂直方向の幅又は基本ウインドウの垂直方向の幅等から予め算出することができる。   FIG. 9 is a flowchart showing a procedure of the short vertical line segment detection process performed by the pop-up window detection unit 23, and is a process performed in step S31 of the flowchart shown in FIG. The pop-up window detection unit 23 detects not only the vertical line segments that have not formed the vertical line segment pair in the basic window detection process (however, not only the vertical line segments stored in step S23 but also the step S21). (Step S41), and determines whether the length of the acquired vertical line segment is within a predetermined range (step S42). The predetermined range used for the determination in step S42 can be calculated in advance from, for example, the standard vertical width of the pop-up window or the vertical width of the basic window.

垂直方向線分の長さが所定範囲内である場合(S42:YES)、ポップアップウインドウ検出部23は、この垂直方向線分をショート垂直方向線分として記憶し(ステップS43)、ステップS44へ処理を進める。垂直方向線分の長さが所定範囲外である場合(S42:NO)、ポップアップウインドウ検出部23は、ステップS44へ処理を進める。   If the length of the vertical line segment is within the predetermined range (S42: YES), the pop-up window detection unit 23 stores the vertical line segment as a short vertical line segment (step S43), and the process proceeds to step S44. To proceed. When the length of the vertical line segment is outside the predetermined range (S42: NO), the pop-up window detection unit 23 advances the process to step S44.

その後、ポップアップウインドウ検出部23は、基本ウインドウ検出処理にて垂直方向線分ペアを構成しなかった全ての垂直方向線分について上記S41〜S43の処理を終了したか否かを判定し(ステップS44)、処理を終了していない場合には(S44:NO)、ステップS41へ処理を戻し、全ての垂直方向成分についての処理を終了するまでS41〜S43の処理を繰り返し行う。全ての垂直方向線分について処理を終了した場合(S44:YES)、ポップアップウインドウ検出部23は、図8に示したフローチャートへ処理を戻す。   Thereafter, the pop-up window detection unit 23 determines whether or not the processes of S41 to S43 have been completed for all the vertical line segments that did not constitute the vertical line segment pair in the basic window detection process (step S44). ) If the process has not ended (S44: NO), the process returns to step S41, and the processes of S41 to S43 are repeated until the processes for all the vertical components are completed. When the process has been completed for all vertical line segments (S44: YES), the pop-up window detection unit 23 returns the process to the flowchart shown in FIG.

ショート垂直方向線分検出処理の終了後、ポップアップウインドウ検出部23は、基本ウインドウを構成する水平方向線分ペアとされず、ポップアップウインドウを構成する可能性のある水平方向線分(ショート水平方向線分)を検出する処理を行う(ステップS32)。   After completion of the short vertical line segment detection processing, the pop-up window detection unit 23 does not form a horizontal line segment pair constituting the basic window, but may constitute a horizontal line segment (short horizontal line) that may constitute the pop-up window. Minute) is detected (step S32).

図10は、ポップアップウインドウ検出部23が行うショート水平方向線分検出処理の手順を示すフローチャートであり、図8に示すフローチャートのステップS32にて行われる処理である。ポップアップウインドウ検出部23は、基本ウインドウ検出処理にて水平方向線分ペアを構成しなかった水平方向線分(ただし、ステップS13にて記憶した水平方向線分のみでなく、ステップS11にて検出されたエッジ画素群を対象とする)を取得し(ステップS51)、取得した水平方向線分の長さが所定範囲内であるか否かを判定する(ステップS52)。なおステップS52にて判定に用いる所定範囲は、例えばポップアップウインドウの標準的な水平方向の幅又は基本ウインドウの水平方向の幅等から予め算出することができる。   FIG. 10 is a flowchart showing a procedure of short horizontal line segment detection processing performed by the pop-up window detection unit 23, and is processing performed in step S32 of the flowchart shown in FIG. The pop-up window detection unit 23 detects not only the horizontal line segment that did not form the horizontal line segment pair in the basic window detection process (however, not only the horizontal line segment stored in step S13 but also the step S11). (Step S51), and determines whether the length of the acquired horizontal line segment is within a predetermined range (step S52). The predetermined range used for the determination in step S52 can be calculated in advance from, for example, the standard horizontal width of the pop-up window or the horizontal width of the basic window.

水平方向線分の長さが所定範囲内である場合(S52:YES)、ポップアップウインドウ検出部23は、この水平方向線分をショート水平方向線分として記憶し(ステップS53)、ステップS54へ処理を進める。水平方向線分の長さが所定範囲外である場合(S52:NO)、ポップアップウインドウ検出部23は、ステップS54へ処理を進める。   When the length of the horizontal line segment is within the predetermined range (S52: YES), the pop-up window detection unit 23 stores the horizontal line segment as a short horizontal line segment (step S53), and the process proceeds to step S54. To proceed. If the length of the horizontal line segment is outside the predetermined range (S52: NO), the pop-up window detection unit 23 advances the process to step S54.

その後、ポップアップウインドウ検出部23は、基本ウインドウ検出処理にて水平方向線分ペアを構成しなかった全ての水平方向線分について上記S51〜S53の処理を終了したか否かを判定し(ステップS54)、処理を終了していない場合には(S54:NO)、ステップS51へ処理を戻し、全ての水平方向成分についての処理を終了するまでS51〜S53の処理を繰り返し行う。全ての水平方向線分について処理を終了した場合(S54:YES)、ポップアップウインドウ検出部23は、図8に示したフローチャートへ処理を戻す。   Thereafter, the pop-up window detection unit 23 determines whether or not the processes of S51 to S53 have been completed for all the horizontal line segments that did not constitute the horizontal line segment pair in the basic window detection process (step S54). ) If the process has not been completed (S54: NO), the process returns to step S51, and the processes of S51 to S53 are repeated until the process for all the horizontal components is completed. When the process is completed for all the horizontal line segments (S54: YES), the pop-up window detecting unit 23 returns the process to the flowchart shown in FIG.

ショート水平方向線分検出処理の終了後、ポップアップウインドウ検出部23は、ステップS31のショート垂直方向線分検出処理にて検出したショート垂直方向線分を基に、ポップアップウインドウを構成する可能性のあるショート垂直方向線分のペアを検出する(ステップS33)。このときポップアップウインドウ検出部23は、ステップS31にて検出された複数のショート垂直方向線分を水平方向へ順に走査し、各ショート垂直方向線分について、その前後に存在する所定個数(例えば20個)のショート垂直方向線分とのペアを作成する。   After the completion of the short horizontal line segment detection process, the pop-up window detection unit 23 may configure a pop-up window based on the short vertical line segment detected by the short vertical line segment detection process in step S31. A pair of short vertical line segments is detected (step S33). At this time, the pop-up window detection unit 23 sequentially scans the plurality of short vertical line segments detected in step S31 in the horizontal direction, and each short vertical line segment has a predetermined number (for example, 20) before and after the short vertical line segment. ) Create a pair with the short vertical line segment.

次いでポップアップウインドウ検出部23は、ステップS33にて検出した複数のショート垂直方向線分ペアをそれぞれ比較し、例えば頂点の座標の差が所定範囲内であるなど、比較したショート垂直方向線分ペアが略同じものであると判断できる場合、複数のショート垂直方向線分ペアをいずれか1つに統合し、不要なショート垂直方向線分ペアを削減する(ステップS34)。   Next, the pop-up window detecting unit 23 compares the plurality of short vertical line segment pairs detected in step S33, and the short vertical line segment pair thus compared is, for example, the difference in vertex coordinates is within a predetermined range. If it can be determined that they are substantially the same, a plurality of short vertical line segment pairs are integrated into one, and unnecessary short vertical line segment pairs are reduced (step S34).

次いでポップアップウインドウ検出部23は、ステップS34の処理によって得られた各ショート垂直方向線分ペアに対して、ステップS32にて検出された複数のショート水平方向線分から、ポップアップウインドウを構成するのに最も適した2つのショート水平方向線分を探索することによって、ショート垂直方向線分ペアに対するショート水平方向線分ペアを決定する(ステップS35)。ポップアップウインドウ検出部23は、ショート垂直方向線分ペアを構成する2つのショート垂直方向線分の両端の座標に基づいて、2つのショート垂直方向線分の両端を連結するのに適した2つのショート水平方向線分を探索する。   Next, the pop-up window detecting unit 23 is the most suitable for constructing a pop-up window from the plurality of short horizontal line segments detected in step S32 for each short vertical line segment pair obtained by the process of step S34. By searching for two suitable short horizontal line segments, a short horizontal line segment pair for the short vertical line segment pair is determined (step S35). The pop-up window detection unit 23 uses two shorts suitable for connecting the two short vertical line segments based on the coordinates of the two short vertical line segments constituting the short vertical line segment pair. Search for horizontal line segments.

次いでポップアップウインドウ検出部23は、ステップS35にて得られたショート垂直方向線分ペア及びショート水平線分ペアの組み合わせをポップアップウインドウとして検出し、このポップアップウインドウの位置情報を記憶して(ステップS36)、処理を終了する。なおポップアップウインドウの位置情報は、図7に示した基本ウインドウの位置情報と同様に、4つの座標で表すことができる。ポップアップウインドウ検出部23は、処理結果としてポップアップウインドウの位置情報を作成して出力する。   Next, the pop-up window detection unit 23 detects the combination of the short vertical line segment pair and the short horizontal line segment pair obtained in step S35 as a pop-up window, stores the position information of the pop-up window (step S36), End the process. Note that the position information of the pop-up window can be represented by four coordinates in the same manner as the position information of the basic window shown in FIG. The pop-up window detection unit 23 creates and outputs position information of the pop-up window as a processing result.

<画像種別判定処理>
次に、画像処理部20の画像種別判定部24にて行われる画像種別判定処理の詳細を説明する。画像処理部20へ入力される入力画像は、ウインドウ(基本ウインドウ及びポップアップウインドウ)の領域と、ウインドウ以外のその他の領域とに分類することができる。これは上述の基本ウインドウ検出処理及びポップアップウインドウ検出処理にて検出された領域であるか否かにより判定することができる。ウインドウ以外のその他の領域は、画像処理部20の画質補正部25によって低輝度sRGB用のLUT26bを用いた補正処理が施される。
<Image type determination processing>
Next, details of the image type determination process performed by the image type determination unit 24 of the image processing unit 20 will be described. The input image input to the image processing unit 20 can be classified into a window (basic window and pop-up window) area and another area other than the window. This can be determined based on whether or not the area is detected by the basic window detection process and the pop-up window detection process described above. In other areas other than the window, correction processing using the low-brightness sRGB LUT 26b is performed by the image quality correction unit 25 of the image processing unit 20.

ウインドウと判定された領域は、更に、ウインドウ内に画像を表示したものと、アプリケーションのツール又は文字などを表示したものとに分類することができる。画像処理部20の画像種別判定部24は、ウインドウ内の画素値についてのヒストグラムを生成し、ヒストグラムの分布パターンに応じて画像又はツール、文字等のいずれの領域であるかを判定する。ツール、文字等と判定されたウインドウは、画質補正部25によって低輝度sRGB用のLUT26bを用いた補正処理が施される。   The area determined to be a window can be further classified into one displaying an image in the window and one displaying an application tool or characters. The image type determination unit 24 of the image processing unit 20 generates a histogram for the pixel values in the window, and determines whether the region is an image, a tool, a character, or the like according to the distribution pattern of the histogram. The window determined to be a tool, character, or the like is subjected to correction processing using the low-brightness sRGB LUT 26b by the image quality correction unit 25.

画像のウインドウと判定された領域は、更に、ウインドウ内の画像がカラー画像であるか又はモノクロ画像であるかで分類することができる。画像種別判定部24は、ウインドウ内の各画素の画素値を調べ、カラー画素の画素数をカウントし、ウインドウ内の全画素に対するカラー画素の比率が閾値を超えるか否かに応じて、カラー画像又はモノクロ画像のいずれであるかを判定する。モノクロ画像と判定されたウインドウは、画質補正部25によって高輝度DICOM用のLUT26cを用いた補正処理が施される。   The area determined to be an image window can be further classified according to whether the image in the window is a color image or a monochrome image. The image type determination unit 24 checks the pixel value of each pixel in the window, counts the number of color pixels, and determines whether the color image is in proportion to whether the ratio of the color pixels to all the pixels in the window exceeds a threshold value. Alternatively, it is determined whether the image is a monochrome image. The window determined to be a monochrome image is subjected to correction processing using the high-intensity DICOM LUT 26 c by the image quality correction unit 25.

カラー画像のウインドウと判定された領域は、画質補正部25によって高輝度sRGB用のLUT26a又は低輝度sRGB用のLUT26bが適宜に選択され、補正処理が施される。   A region determined to be a color image window is subjected to correction processing by appropriately selecting the high-brightness sRGB LUT 26a or the low-brightness sRGB LUT 26b by the image quality correction unit 25.

このように画像種別判定部24は、ウインドウ内の画素の画素値に基づいて、ヒストグラムの作成及びカラー画素の比率算出等の処理を行って画像種別を判定する。なお画像種別判定部24は、ウインドウ内の全ての画素についてヒストグラムの作成又はカラー画素の比率算出等の処理を行う必要はなく、ウインドウ内の一部の画素についてこれらの処理を行って画像種別を判定してもよい。   As described above, the image type determination unit 24 determines the image type by performing processing such as creation of a histogram and calculation of the ratio of color pixels based on the pixel values of the pixels in the window. Note that the image type determination unit 24 does not need to perform processing such as histogram creation or color pixel ratio calculation for all pixels in the window, and performs these processing for some pixels in the window to determine the image type. You may judge.

図11は、画像種別判定部24が行う画像種別判定処理の手順を示すフローチャートである。まず画像種別判定部24は、基本ウインドウ検出部22及びポップアップウインドウ検出部23の検出結果を基に、入力画像のウインドウ(基本ウインドウ又はポップアップウインドウ)を1つ取得し(ステップS61)、取得したウインドウに対して図12に示したような判定領域を決定する(ステップS62)。次いで画像種別判定部24は、ウインドウの判定領域内に存在する画素の画素値(階調)に関するヒストグラムを作成し(ステップS63)、作成したヒストグラムに基づいて、このウインドウが画像を表示するものであるか、又は、アプリケーションのツールなどの非画像であるかを判定する(ステップS64)。   FIG. 11 is a flowchart illustrating a procedure of image type determination processing performed by the image type determination unit 24. First, the image type determination unit 24 acquires one input image window (basic window or pop-up window) based on the detection results of the basic window detection unit 22 and the pop-up window detection unit 23 (step S61). On the other hand, a determination region as shown in FIG. 12 is determined (step S62). Next, the image type determination unit 24 creates a histogram relating to pixel values (gradation) of pixels existing in the determination region of the window (step S63), and this window displays an image based on the created histogram. It is determined whether there is a non-image such as an application tool (step S64).

図12は、画像種別判定部24が作成するヒストグラムの一例を示す模式図であり、上段に一般的な画像を基に作成したヒストグラムを示し、下段にアプリケーションのツール画像を基に作成したヒストグラムを示す。また図12に示すヒストグラムは、横軸を画素値(階調)とし、縦軸を度数としたものである。図示のように、一般的な画像のヒストグラムでは複数の階調に亘って画素が分布しているが、ツール画像のヒストグラムでは特定の階調に画素が集中している。またウインドウがテキストなどの情報を表示するものである場合も同様に、ヒストグラムでは特定の階調に画素が集中する。よって画像種別判定部24は、作成したヒストグラムの分布パターンを調べ、度数が特定階調に集中しているか否かに応じて画像種別を判定することができる。   FIG. 12 is a schematic diagram showing an example of a histogram created by the image type determination unit 24. The upper part shows a histogram created based on a general image, and the lower part shows a histogram created based on an application tool image. Show. In the histogram shown in FIG. 12, the horizontal axis is the pixel value (gradation), and the vertical axis is the frequency. As shown in the figure, in a general image histogram, pixels are distributed over a plurality of gradations, but in a tool image histogram, pixels are concentrated in a specific gradation. Similarly, in the case where the window displays information such as text, pixels are concentrated on a specific gradation in the histogram. Therefore, the image type determination unit 24 can check the distribution pattern of the created histogram and determine the image type depending on whether the frequency is concentrated on a specific gradation.

特定階調に度数が集中しており、対象のウインドウが一般的な画像を表示したものでないと判定した場合(S65:NO)、画像種別判定部24は、対象のウインドウの画像種別をツール、文字等と判定し、判定結果として”ツール、文字等”を記憶して(ステップS66)、ステップS69へ処理を進める。また特定階調に度数が集中しておらず、対象のウインドウが一般的な画像を表示したものであると判定した場合(S65:YES)、画像種別判定部24は、ウインドウの画像がカラーであるか又はモノクロであるかを判定する処理を更に行う(ステップS67)。   When it is determined that the frequency is concentrated on the specific gradation and the target window does not display a general image (S65: NO), the image type determination unit 24 sets the image type of the target window as a tool, It is determined to be a character or the like, “tool, character, etc.” is stored as a determination result (step S66), and the process proceeds to step S69. If the frequency is not concentrated on the specific gradation and it is determined that the target window displays a general image (S65: YES), the image type determination unit 24 uses a color image for the window. A process of determining whether the image is monochrome or monochrome is further performed (step S67).

図13は、画像種別判定部24が行うカラー/モノクロ判定処理の手順を示すフローチャートであり、図11に示すフローチャートのステップS67にて行われる処理である。画像種別判定部24は、ウインドウの判定領域内のカラー画素数をカウントし(ステップS81)、判定領域内の全画素数に対するカラー画素数の比率を算出する(ステップS82)。次いで画像種別判定部24は、算出したカラー画素の比率が閾値(例えば90%など)を超えるか否かを判定する(ステップS83)。画像種別判定部24は、カラー画素の比率が閾値を超える場合には(S83:YES)、カラー画像であると判定し(ステップS84)、またカラー画素の比率が閾値を超えない場合には(S83:NO)、モノクロ画像であると判定して(ステップS85)、カラー/モノクロ判定処理を終了し、図11に示したフローチャートへ処理を戻す。   FIG. 13 is a flowchart showing the procedure of the color / monochrome determination process performed by the image type determination unit 24, and is the process performed in step S67 of the flowchart shown in FIG. The image type determination unit 24 counts the number of color pixels in the determination region of the window (step S81), and calculates the ratio of the number of color pixels to the total number of pixels in the determination region (step S82). Next, the image type determination unit 24 determines whether or not the calculated color pixel ratio exceeds a threshold value (for example, 90%) (step S83). When the color pixel ratio exceeds the threshold (S83: YES), the image type determination unit 24 determines that the image is a color image (step S84), and when the color pixel ratio does not exceed the threshold ( S83: NO), it is determined that the image is a monochrome image (step S85), the color / monochrome determination process is terminated, and the process returns to the flowchart shown in FIG.

カラー/モノクロ判定処理の後、画像種別判定部24は、カラー画像と判定されたウインドウ及び/又はモノクロ画像と判定されたウインドウに対して、更にその他の画像種別を判定する処理を行ってもよい(ステップS68)。   After the color / monochrome determination processing, the image type determination unit 24 may further perform processing for determining other image types for the window determined to be a color image and / or the window determined to be a monochrome image. (Step S68).

その後、画像種別判定部24は、基本ウインドウ検出部22及びポップアップウインドウ検出部23にて検出された全てのウインドウについて上記S61〜S68の処理を終了したか否かを判定し(ステップS69)、処理を終了していない場合には(S69:NO)、ステップS61へ処理を戻し、全てのウインドウについての処理を終了するまでS61〜S68の処理を繰り返し行う。全てのウインドウについて処理を終了した場合(S69:YES)、画像種別判定部24は、画像種別判定処理を終了する。なお、画像種別判定部24は、画像種別の判定結果をステップS66、S84及びS85にて記憶する際に、図7に示したウインドウの情報に画像種別を対応付けて記憶しており、この情報を処理結果として画質補正部25へ出力する。   Thereafter, the image type determination unit 24 determines whether or not the processing of S61 to S68 has been completed for all windows detected by the basic window detection unit 22 and the pop-up window detection unit 23 (step S69). If not completed (S69: NO), the process returns to step S61, and the processes of S61 to S68 are repeated until the processes for all windows are completed. When the process is completed for all windows (S69: YES), the image type determination unit 24 ends the image type determination process. The image type determination unit 24 stores the image type determination result in association with the window information shown in FIG. 7 when storing the determination result of the image type in steps S66, S84, and S85. Is output to the image quality correction unit 25 as a processing result.

画質補正部25は、入力画像の各画素について、LUT記憶部26に記憶された高輝度sRGB用のLUT26a、低輝度sRGB用のLUT26b又は高輝度DICOM用のLUT26cのいずれかを選択して読み出し、画素値(階調)の補正を行う。各LUTは、入力画像の階調値と、液晶駆動部16へ与える出力画像の階調値とが対応付けられたテーブルであり、表示装置1の設計段階又は製造工程等にて画像種別に応じた理想的な表示特性となるように最適な値がそれぞれ記憶されている。   The image quality correction unit 25 selects and reads either the high-brightness sRGB LUT 26a, the low-brightness sRGB LUT 26b, or the high-brightness DICOM LUT 26c stored in the LUT storage unit 26 for each pixel of the input image. The pixel value (gradation) is corrected. Each LUT is a table in which the gradation value of the input image and the gradation value of the output image given to the liquid crystal driving unit 16 are associated with each other, and is in accordance with the image type at the design stage or manufacturing process of the display device 1. The optimum values are stored so as to obtain ideal display characteristics.

高輝度sRGB用のLUT26a及び低輝度sRGB用のLUT26bは、共にsRGB規格のカラー画像の補正を行うためのものであるが、画質補正部25は、高輝度sRGB用のLUT26aを用いることで入力されたカラー画像の輝度を高めて表示することができ、低輝度sRGB用のLUT26bを用いることで入力されたカラー画像の輝度を低減して表示することができる。即ち画質補正部25は、高輝度sRGB用のLUT26a又は低輝度sRGB用のLUT26bのいずれを用いるかによって、カラー画像の輝度を調整することができる。また高輝度DICOM用のLUT26cは、X線撮影画像などの医療用画像で用いられるDICOM規格のモノクロ画像の補正を行うためのものである。   The high-brightness sRGB LUT 26a and the low-brightness sRGB LUT 26b are both for correcting color images in the sRGB standard, but the image quality correction unit 25 is input by using the high-brightness sRGB LUT 26a. The brightness of the color image can be increased and displayed, and the brightness of the input color image can be reduced and displayed by using the LUT 26b for low brightness sRGB. That is, the image quality correction unit 25 can adjust the luminance of the color image depending on whether the LUT 26a for high luminance sRGB or the LUT 26b for low luminance sRGB is used. The high-intensity DICOM LUT 26c is used to correct a DICOM standard monochrome image used for medical images such as an X-ray image.

画質補正部25は、画像種別判定部24にてカラー画像と判定されたウインドウを高輝度sRGB用のLUT26a又は低輝度sRGB用のLUT26bにて補正し、モノクロ画像と判定されたウインドウを高輝度DICOM用のLUT26cにて補正し、その他の画像(ツール、文字、ウインドウ以外の領域など)と判定されたウインドウを低輝度sRGB用のLUT26bにて補正する。画質補正部25にて補正処理が施された入力画像は、画像処理部20の出力画像として液晶駆動部16へ与えられ、補正後の出力階調にて液晶パネル19の画像表示が行われる。   The image quality correction unit 25 corrects the window determined to be a color image by the image type determination unit 24 using the high-brightness sRGB LUT 26a or the low-brightness sRGB LUT 26b, and corrects the window determined as a monochrome image to the high-brightness DICOM. The window determined as the other image (the area other than the tool, the character, the window, etc.) is corrected by the LUT 26b for low luminance sRGB. The input image that has been subjected to the correction processing by the image quality correction unit 25 is given to the liquid crystal drive unit 16 as an output image of the image processing unit 20, and the image display on the liquid crystal panel 19 is performed with the corrected output gradation.

以上の構成の表示装置1においては、基本ウインドウ検出部22が入力画像から水平方向線分ペア及び垂直方向線分ペアを検出し、水平方向線分ペア及び垂直方向線分ペアで囲まれた領域をウインドウ(基本ウインドウ)として検出する構成とすることにより、複数のウインドウがタイル状に配された(複数の基本ウインドウが重ならずに縦横に並べて配された)入力画像からウインドウを高精度に検出することができる。   In the display device 1 having the above configuration, the basic window detection unit 22 detects a horizontal line segment pair and a vertical line segment pair from an input image, and is an area surrounded by the horizontal line segment pair and the vertical line segment pair. Is detected as a window (basic window), so that multiple windows are tiled (a plurality of basic windows are arranged vertically and horizontally without overlapping). Can be detected.

またエッジ検出部21が入力画像からエッジ画素を抽出し、基本ウインドウ検出部22が、水平方向に連続しているエッジ画素群を探し出し、連続数が所定値を超えるエッジ画素群を水平方向線分として検出すると共に、垂直方向に連続しているエッジ画素群を探し出し、連続数が所定範囲内のエッジ画素群を垂直方向線分として検出する構成とすることにより、ウインドウを構成する可能性が高い水平方向線分及び垂直方向線分を容易且つ高精度に検出することができる。また基本ウインドウ検出部22が水平方向線分又は垂直方向線分の検出を行う際に、複数のエッジ画素群の間に少数の非エッジ画素が含まれている場合であっても、非エッジ画素数が所定値以下であればこれら複数のエッジ画素群を1つの水平方向線分又は垂直方向線分として検出する構成とすることにより、ウインドウの検出精度をより高めることができる。また、基本ウインドウ検出部22が水平方向線分ペア又は垂直方向線分ペアを検出する際に、所定距離以上離れて隣り合う2つの水平方向線分又は垂直方向線分をペアとして検出する構成とすることにより、ウインドウを構成する可能性が低い水平方向線分ペア又は垂直方向線分ペアが検出されることを防止でき、ウインドウの検出精度をより高めることができる。   Further, the edge detection unit 21 extracts edge pixels from the input image, the basic window detection unit 22 searches for edge pixel groups that are continuous in the horizontal direction, and sets edge pixel groups for which the continuous number exceeds a predetermined value as horizontal line segments. It is possible to construct a window by detecting edge pixel groups that are continuous in the vertical direction and detecting edge pixel groups that have a continuous number within a predetermined range as vertical line segments. A horizontal line segment and a vertical line segment can be detected easily and with high accuracy. Further, when the basic window detection unit 22 detects a horizontal line segment or a vertical line segment, even if a small number of non-edge pixels are included between the plurality of edge pixel groups, the non-edge pixels If the number is equal to or less than a predetermined value, the detection accuracy of the window can be further improved by adopting a configuration in which the plurality of edge pixel groups are detected as one horizontal line segment or vertical line segment. Further, when the basic window detection unit 22 detects a horizontal line segment pair or a vertical line segment pair, two horizontal line segments or vertical line segments adjacent to each other at a predetermined distance or more are detected as a pair. By doing so, it is possible to prevent the detection of a horizontal line pair or a vertical line segment pair that is unlikely to constitute a window, and the detection accuracy of the window can be further improved.

また、基本ウインドウ検出部22によって基本ウインドウを構成する水平方向線分ペア又は垂直方向線分ペアでないとされた水平方向線分又は垂直方向線分(水平方向のエッジ画素群又は垂直方向のエッジ画素群)を基に、ポップアップウインドウ検出部23がポップアップウインドウを構成するショート垂直方向線分ペア及びショート水平方向線分ペアを検出し、これらに囲まれた領域をポップアップウインドウとして検出する構成とすることにより、基本ウインドウ検出部22によって検出されない小さいウインドウをポップアップウインドウとして再検出することができ、ウインドウの検出精度をより高めることができる。   In addition, a horizontal line segment or a vertical line segment (a horizontal edge pixel group or a vertical edge pixel) which is determined not to be a horizontal line segment pair or a vertical line segment pair constituting the basic window by the basic window detection unit 22. Group), the pop-up window detection unit 23 detects the short vertical line segment pair and the short horizontal line segment pair constituting the pop-up window, and detects the area surrounded by these as a pop-up window. Thus, a small window that is not detected by the basic window detection unit 22 can be re-detected as a pop-up window, and the detection accuracy of the window can be further increased.

また、検出されたウインドウに表示された画像の種別を画像種別判定部24が判定し、画像の種別に応じて画質補正部25がLUTを選択して補正処理を行う構成とすることにより、ウインドウ毎に最適な表示特性での画像表示を実現できる。また、画像種別判定部24がウインドウ内の画素値のヒストグラムを生成し、ヒストグラムの分布パターンから一般の画像又はツール画像、文字等のいずれであるかを判定する構成とすることにより、ウインドウの画像種別を容易且つ精度よく判定することができる。また、画像種別判定部24がウインドウ内のカラー画素数をカウントし、ウインドウ内の全体画素数に対するカラー画素数の比率を算出し、カラー画素の比率が閾値を超えるか否かに応じてカラー画像又はモノクロ画像の判定を行う構成とすることにより、ウインドウの画像種別を容易且つ精度よく判定することができる。   Further, the image type determination unit 24 determines the type of the image displayed in the detected window, and the image quality correction unit 25 selects the LUT according to the type of the image to perform the correction process. It is possible to realize image display with optimal display characteristics for each. Further, the image type determination unit 24 generates a histogram of pixel values in the window and determines whether the image is a general image, a tool image, a character, or the like from the distribution pattern of the histogram. The type can be easily and accurately determined. In addition, the image type determination unit 24 counts the number of color pixels in the window, calculates the ratio of the number of color pixels to the total number of pixels in the window, and determines whether the color image exceeds the threshold. Alternatively, the configuration for determining a monochrome image makes it possible to easily and accurately determine the image type of the window.

なお、本実施の形態においては、入力画像から検出したウインドウの画像種別を、カラー画像、モノクロ画像、ツール、文字等の画像、及び、その他の画像に分類したが、これら画像種別は一例であって、これに限るものではない。また、カラー画像に高輝度sRGB用のLUT26a又は低輝度sRGB用のLUT26bを適用し、モノクロ画像に高輝度DICOM用のLUT26cを適用し、その他の画像に低輝度sRGB用のLUT26bを適用する構成としたが、これに限るものではない。また、LUT記憶部26に記憶するLUTの種類は、像に高輝度sRGB用のLUT26a、低輝度sRGB用のLUT26b及び高輝度DICOM用のLUT26cに限らず、その他のLUTを記憶して画質補正部25が補正処理を行う構成であってもよい。   In the present embodiment, the image type of the window detected from the input image is classified into a color image, a monochrome image, a tool image, a character image, and other images. However, these image types are only examples. However, it is not limited to this. In addition, a high-brightness sRGB LUT 26a or a low-brightness sRGB LUT 26b is applied to a color image, a high-brightness DICOM LUT 26c is applied to a monochrome image, and a low-brightness sRGB LUT 26b is applied to other images. However, it is not limited to this. The type of LUT stored in the LUT storage unit 26 is not limited to the high-brightness sRGB LUT 26a, the low-brightness sRGB LUT 26b, and the high-brightness DICOM LUT 26c. 25 may perform a correction process.

また、基本ウインドウ検出部22は、まず水平方向線分及び水平方向線分ペアを検出し、その後に垂直方向線分及び垂直方向線分ペアを検出する構成としたが、これに限るものではなく、まず垂直方向線分及び垂直方向線分ペアを検出し、その後に水平方向線分及び水平方向線分ペアを検出する構成であってもよい。この場合、垂直方向の連続数が所定値を超えるエッジ画素群を垂直方向線分として検出し、水平方向の連続数が所定範囲(垂直方向線分間の最大距離の±10%など)内のエッジ画素群を水平方向線分として検出することができる。同様に、ポップアップウインドウ検出部23は、まずショート垂直線分ペアを検出し、その後にショート水平線分ペアを検出する構成としたが、これに限るものではなく、まずショート水平線分ペアを検出し、その後にショート垂直線分ペアを検出する構成としてもよい。   In addition, the basic window detection unit 22 is configured to first detect the horizontal line segment and the horizontal line segment pair, and then detect the vertical line segment and the vertical line segment pair. However, the present invention is not limited to this. First, the configuration may be such that the vertical line segment and the vertical line segment pair are detected, and then the horizontal line segment and the horizontal line segment pair are detected. In this case, an edge pixel group in which the number of consecutive vertical lines exceeds a predetermined value is detected as a vertical line segment, and an edge within a predetermined range (such as ± 10% of the maximum distance between vertical line segments) in the horizontal direction is detected. A pixel group can be detected as a horizontal line segment. Similarly, the pop-up window detection unit 23 is configured to first detect a short vertical line segment pair and then detect a short horizontal line segment pair, but is not limited thereto, and first detects a short horizontal line segment pair, Thereafter, a short vertical line segment pair may be detected.

また、ウインドウ検出処理、画像種別判定処理及び画質補正処理等を表示装置1の画像処理部20が行う構成としたが、これに限るものではなく、表示装置1の制御部11が行う構成としてもよい。この構成の場合、上記の処理は制御プログラム12a(コンピュータプログラム)の一処理として実現され、制御部11が制御プログラム12aを実行することによって、図2に示したエッジ検出部21〜画質補正部25がソフトウェア的な機能ブロックとして実現される。更には、これらの処理をPC9にて行い、表示装置1はPC9から入力された画像信号を直接的に表示する構成としてもよい。この構成の場合、PC9にはこれらの処理を行うためのコンピュータプログラム(例えばデバイスドライバなどとして)が予めインストールされ、PC9がコンピュータプログラムを実行することによって、図2に示したエッジ検出部21〜画質補正部25がPC9にてソフトウェア的な機能ブロックとして実現される。また、エッジ検出部21をPC9に設け、画質補正部25を表示装置1に設けるなど、エッジ検出部21〜画質補正部25が行う各処理をPC9及び表示装置1にて適宜に分担する構成としてもよい。また更には、PC9及び表示装置1の間に中継装置などを設け、この中継装置がエッジ検出部21〜画質補正部25が行う処理の全て又は一部を行う構成としてもよい。   In addition, the window detection process, the image type determination process, the image quality correction process, and the like are performed by the image processing unit 20 of the display device 1. However, the configuration is not limited to this, and the configuration performed by the control unit 11 of the display device 1 is also possible. Good. In the case of this configuration, the above processing is realized as one processing of the control program 12a (computer program), and when the control unit 11 executes the control program 12a, the edge detection unit 21 to the image quality correction unit 25 shown in FIG. Is realized as a software-like functional block. Further, these processes may be performed by the PC 9, and the display device 1 may directly display the image signal input from the PC 9. In the case of this configuration, a computer program (for example, as a device driver) for performing these processes is installed in the PC 9 in advance, and when the PC 9 executes the computer program, the edge detection unit 21 to the image quality shown in FIG. The correction unit 25 is realized by the PC 9 as a software function block. Further, the PC 9 and the display device 1 appropriately share each process performed by the edge detection unit 21 to the image quality correction unit 25, such as providing the edge detection unit 21 in the PC 9 and providing the image quality correction unit 25 in the display device 1. Also good. Furthermore, a relay device or the like may be provided between the PC 9 and the display device 1, and the relay device may perform all or part of the processing performed by the edge detection unit 21 to the image quality correction unit 25.

(変形例1)
上述の実施の形態においては、表示装置1の画像処理部20は入力画像全体に対して一度にウインドウの検出処理を行う構成であるが、これに限るものではない。変形例1に係る表示装置1は、入力画像を水平方向に二分し、左半分の領域と右半分の領域とに対してそれぞれウインドウの検出処理を行う。図14は、変形例1に係る表示装置1が行うウインドウ検出処理を説明するための模式図であり、入力画像100に対して変形例1に係る表示装置1の基本ウインドウ検出部22が検出した水平方向線分及び垂直方向線分を示したものである。変形例1の基本ウインドウ検出部22は、入力画像100を水平方向に二分し(図14中の破線の位置を参照)、左半分の領域と右半分の領域とについて基本ウインドウ検出処理をそれぞれ行う。このとき、図4に示した水平方向線分ペア検出処理のステップS12にて判定に用いる所定値は、入力画像100の水平方向のサイズではなく、入力画像100の左半分の領域又は右半分の領域の水平方向のサイズを基準に決定される。
(Modification 1)
In the above-described embodiment, the image processing unit 20 of the display device 1 is configured to perform window detection processing on the entire input image at one time, but is not limited thereto. The display device 1 according to the first modification bisects the input image in the horizontal direction, and performs window detection processing on the left half area and the right half area, respectively. FIG. 14 is a schematic diagram for explaining the window detection process performed by the display device 1 according to the first modification, and the basic window detection unit 22 of the display device 1 according to the first modification detects the input image 100. The horizontal line segment and the vertical line segment are shown. The basic window detection unit 22 of the first modification bisects the input image 100 in the horizontal direction (see the position of the broken line in FIG. 14), and performs basic window detection processing for the left half area and the right half area, respectively. . At this time, the predetermined value used for the determination in step S12 of the horizontal line segment pair detection process shown in FIG. 4 is not the horizontal size of the input image 100 but the left half region or the right half of the input image 100. It is determined based on the horizontal size of the area.

図示の例では、入力画像100の左半分の領域において、3つの水平方向線分Y11〜Y13及び3つの垂直方向線分X11〜X13が検出され、これにより2組の水平方向線分ペア及び2組の垂直方向線分ペアが検出されるため、4つの基本ウインドウW11〜W14が検出されている。また右半分の領域において、2つの水平方向線分Y21、Y22及び2つの垂直方向線分X21、X22が検出され、これにより1組の水平方向線分ペア及び1組の垂直方向線分ペアが検出されるため、1つの基本ウインドウW21が検出されている。基本ウインドウ検出部22は、検出した5つの基本ウインドウW11〜W14、W21に関する情報を生成して出力する。   In the illustrated example, in the left half region of the input image 100, three horizontal line segments Y11 to Y13 and three vertical line segments X11 to X13 are detected, whereby two horizontal line segment pairs and 2 Since four vertical line segment pairs are detected, four basic windows W11 to W14 are detected. In the right half region, two horizontal line segments Y21 and Y22 and two vertical line segments X21 and X22 are detected, whereby one horizontal line segment pair and one vertical line segment pair are obtained. Since it is detected, one basic window W21 is detected. The basic window detection unit 22 generates and outputs information on the detected five basic windows W11 to W14 and W21.

このように、入力画像100を分割してウインドウの検出を行う構成とすることにより、例えば水平方向に長い液晶パネル19を有する表示装置1では、表示面の左右に異なるウインドウを表示して使用される場合が多く、このような使用態様でのウインドウの検出精度を高めることができる。なお、基本ウインドウ検出部22は、例えば入力画像100の水平方向の中心位置など、予め定められた位置で入力画像100の分割を行う構成であってもよく、また例えば垂直方向線分の検出を先に行って、最も長い垂直方向線分の位置で分割を行うなどの構成であってもよい。また、入力画像100を水平方向(左右)に二分してウインドウの検出を行うのではなく、垂直方向(上下)に二分してウインドウの検出を行ってもよい。また、入力画像100を二分するのではなく、3つ以上の複数の領域に分割してもよい。また、ポップアップウインドウ検出部23についても同様に、入力画像100を分割してポップアップウインドウの検出を行う構成としてよい。   Thus, by adopting a configuration in which the input image 100 is divided and the window is detected, for example, in the display device 1 having the liquid crystal panel 19 that is long in the horizontal direction, different windows are displayed on the left and right of the display surface. In many cases, the detection accuracy of the window in such a usage mode can be improved. Note that the basic window detection unit 22 may be configured to divide the input image 100 at a predetermined position, such as a horizontal center position of the input image 100, or to detect a vertical line segment, for example. The configuration may be such that the division is performed first, and the division is performed at the position of the longest vertical line segment. Further, instead of detecting the window by dividing the input image 100 in the horizontal direction (left and right), the window may be detected by dividing the window in the vertical direction (up and down). Further, the input image 100 may be divided into a plurality of three or more regions instead of being divided into two. Similarly, the pop-up window detection unit 23 may be configured to detect the pop-up window by dividing the input image 100.

(変形例2)
図15は、変形例2に係る表示装置1の画像処理部20の構成を示すブロック図である。変形例2の画像処理部20は、基本ウインドウ検出部22及びポップアップウインドウ検出部23によるウインドウの検出を行い、画像種別判定部24による各ウインドウの画像種別の判定を終えた後、検出された複数のウインドウをウインドウ結合部127にて結合する処理を行う。画像処理部20は、ウインドウ結合部127にて結合処理がなされたウインドウに対して、画質補正部25による画質補正の処理を行う。ウインドウ結合処理において画像処理部20は、まずポップアップウインドウの結合処理を行い、その後に基本ウインドウの結合処理を行う。
(Modification 2)
FIG. 15 is a block diagram illustrating a configuration of the image processing unit 20 of the display device 1 according to the second modification. The image processing unit 20 according to the second modification detects a window by the basic window detection unit 22 and the pop-up window detection unit 23, and after the image type determination unit 24 determines the image type of each window, The window combining unit 127 performs processing for combining the windows. The image processing unit 20 performs image quality correction processing by the image quality correcting unit 25 on the windows that have been combined by the window combining unit 127. In the window combining process, the image processing unit 20 first performs a pop-up window combining process, and then performs a basic window combining process.

図16及び図17は、ポップアップウインドウの結合処理を説明するための模式図であり、ポップアップウインドウ検出部23にて検出されたポップアップウインドウを図16に示し、検出されたポップアップウインドウをウインドウ結合部127が結合した結果を図17に示す。例えば、図16に示すように、ポップアップウインドウ検出部23が9個のポップアップウインドウW1〜W9を検出したとする。ウインドウ結合部127は、検出された各ポップアップウインドウについて、水平方向(左右)に隣り合う他のポップアップウインドウの画像種別を調べ、対象のポップアップウインドウと隣り合う他のポップアップウインドウとの画像種別が同じであるか否かを判定する。ウインドウ結合部127は、画像種別が同じと判定した隣り合う2つのポップアップウインドウについて、隣接する頂点間の距離を算出し、この距離が所定範囲内であれば、この2つのポップアップウインドウを1つのポップアップウインドウに結合する。図17に示す例では、ポップアップウインドウW1及びW3がポップアップウインドウW13に結合され、ポップアップウインドウW6及びW9がポップアップウインドウW69に結合され、ポップアップウインドウW7及びW8がポップアップウインドウW78に結合されている。   FIGS. 16 and 17 are schematic diagrams for explaining the pop-up window combining process. FIG. 16 shows the pop-up window detected by the pop-up window detecting unit 23, and the detected pop-up window is the window combining unit 127. The result of combining is shown in FIG. For example, as shown in FIG. 16, it is assumed that the pop-up window detection unit 23 detects nine pop-up windows W1 to W9. For each detected pop-up window, the window combining unit 127 checks the image type of another pop-up window adjacent in the horizontal direction (left and right), and the target pop-up window and the other pop-up window adjacent to each other have the same image type. It is determined whether or not there is. The window combining unit 127 calculates the distance between adjacent vertices for two adjacent popup windows determined to have the same image type, and if the distance is within a predetermined range, the two popup windows are converted into one popup window. Join to window. In the example shown in FIG. 17, pop-up windows W1 and W3 are combined with pop-up window W13, pop-up windows W6 and W9 are combined with pop-up window W69, and pop-up windows W7 and W8 are combined with pop-up window W78.

図18は、基本ウインドウの結合処理を説明するための模式図であり、上段に基本ウインドウ検出部22にて検出された基本ウインドウを示し、下段に基本ウインドウをウインドウ結合部127が結合した結果を示す。例えば図18上段に示すように、基本ウインドウ検出部22が入力画像中においてタイル状に並べて配された9個の基本ウインドウW1〜W9を検出したとする。ウインドウ結合部127は、検出された基本ウインドウについて、垂直方向(上下)に隣り合う2つの基本ウインドウの画像種別を調べ、これらの画像種別が同じであるか否かを判定する。ウインドウ結合部127は、画像種別が同じと判定した隣り合う2つの基本ウインドウについて、隣接する頂点館の距離を算出し、この距離が所定範囲内であれば、2つの基本ウインドウを1つの基本ウインドウに結合する。図18下段に示す例では、基本ウインドウW2及びW3が基本ウインドウW23に結合され、基本ウインドウW4及びW5が基本ウインドウW45に結合されている。   FIG. 18 is a schematic diagram for explaining the process of combining basic windows. The upper window shows the basic window detected by the basic window detecting unit 22, and the lower part shows the result of combining the basic window by the window combining unit 127. Show. For example, as shown in the upper part of FIG. 18, it is assumed that the basic window detection unit 22 detects nine basic windows W1 to W9 arranged in tiles in the input image. The window combining unit 127 examines the image types of two basic windows adjacent in the vertical direction (up and down) with respect to the detected basic window, and determines whether or not these image types are the same. The window combining unit 127 calculates the distance between adjacent apex halls for two adjacent basic windows determined to have the same image type. If this distance is within a predetermined range, the two basic windows are converted into one basic window. To join. In the example shown in the lower part of FIG. 18, the basic windows W2 and W3 are coupled to the basic window W23, and the basic windows W4 and W5 are coupled to the basic window W45.

このように、画像処理部20のウインドウ結合部127が、検出された基本ウインドウ及びポップアップウインドウを結合する処理を行うことによって、基本ウインドウ及びポップアップウインドウに関する情報の量を削減することができ、画像処理部20が使用する記憶領域(レジスタ又はメモリ等)の量を削減することができる。なおウインドウ結合部127は、水平方向に隣り合うポップアップウインドウを結合する構成としたが、これに限るものではなく、水平方向に隣り合うポップアップウインドウを結合する構成としてもよく、両方向に隣り合うポップアップウインドウを結合する構成としてもよい。同様にウインドウ結合部127は、垂直方向に隣り合う基本ウインドウを結合する構成としたが、これに限るものではなく、水平方向に隣り合う基本ウインドウを結合する構成としてもよく、両方向に隣り合う基本ウインドウを結合する構成としてもよい。   As described above, the window combining unit 127 of the image processing unit 20 performs the process of combining the detected basic window and pop-up window, thereby reducing the amount of information related to the basic window and pop-up window. The amount of storage areas (registers, memories, etc.) used by the unit 20 can be reduced. Note that the window combining unit 127 is configured to combine the pop-up windows adjacent in the horizontal direction, but is not limited thereto, and may be configured to combine the pop-up windows adjacent in the horizontal direction. It is good also as a structure which couple | bonds. Similarly, the window combining unit 127 is configured to combine the basic windows adjacent in the vertical direction, but is not limited thereto, and may be configured to combine the basic windows adjacent in the horizontal direction. It is good also as a structure which combines a window.

(変形例3)
上述の実施の形態は、表示装置1の画像処理部20が、PC9からの入力画像に対するウインドウの検出、画像種別の判定及び画質の補正等の処理を行って、液晶パネル19に表示する構成であるが、これに限るものではない。変形例3に係る表示システムは、PCにてウインドウの検出、画像種別の判定及び画質の補正等の処理を行った画像を表示装置へ与え、表示装置はPCから与えられた画像に対して画像処理を行うことなく(ただし何らかの画像処理を行ってもよい)液晶パネル19に表示する構成である。
(Modification 3)
In the above-described embodiment, the image processing unit 20 of the display device 1 performs processing such as window detection, image type determination, and image quality correction on the input image from the PC 9 and displays the result on the liquid crystal panel 19. There is, but is not limited to this. The display system according to the modified example 3 provides an image that has been subjected to processing such as window detection, image type determination, and image quality correction by a PC to the display device, and the display device applies an image to the image provided from the PC. In this configuration, the image is displayed on the liquid crystal panel 19 without performing any processing (however, some image processing may be performed).

図19は、変形例3に係る表示システムの構成を示すブロック図である。変形例3のPC110は、CPU111、メモリ112、ハードディスク113、画像出力部114、操作部115及びDVD(Digital Versatile Disk)ドライブ116等を備えて構成される汎用のコンピュータである。メモリ112は、SRAM及び/又はDRAM等のメモリ素子で構成されている。ハードディスク113は、大容量の磁気記憶装置であり、画像処理プログラム113a並びにその他の種々のプログラム及びデータが記憶されている。CPU111は、ハードディスク113に記憶されたプログラムをメモリ112に読み出して実行することによって、種々の処理を行うことができる。特に変形例3のPC110では、ハードディスク113に記憶された画像処理プログラム113aを読み出して実行することにより、PC110のCPU111は、図1及び図2等に示した画像処理部20と略同じ処理を行う画像処理部120として動作する。   FIG. 19 is a block diagram illustrating a configuration of a display system according to the third modification. The PC 110 according to the third modification is a general-purpose computer including a CPU 111, a memory 112, a hard disk 113, an image output unit 114, an operation unit 115, a DVD (Digital Versatile Disk) drive 116, and the like. The memory 112 is composed of memory elements such as SRAM and / or DRAM. The hard disk 113 is a large-capacity magnetic storage device, and stores an image processing program 113a and other various programs and data. The CPU 111 can perform various processes by reading the program stored in the hard disk 113 into the memory 112 and executing it. In particular, in the PC 110 according to the third modification, by reading and executing the image processing program 113a stored in the hard disk 113, the CPU 111 of the PC 110 performs substantially the same processing as the image processing unit 20 illustrated in FIGS. It operates as the image processing unit 120.

また、画像出力部114は、表示装置101に信号線を介して接続され、表示装置に対して画像を出力する。操作部115は、例えばマウス及びキーボード等の装置で構成されるものであり、ユーザの操作を受け付けてCPU111へ通知する。DVDドライブ116は、外部記憶媒体であるDVD116aが装着され、DVD116aに記憶されたデータを読み出すことができる。これにより例えばDVD116aに記憶された画像処理プログラム113aをハードディスク113へインストールすることができる。   The image output unit 114 is connected to the display device 101 via a signal line, and outputs an image to the display device. The operation unit 115 is configured by a device such as a mouse and a keyboard, for example, and receives a user operation and notifies the CPU 111 of it. The DVD drive 116 is loaded with a DVD 116a, which is an external storage medium, and can read data stored on the DVD 116a. Thereby, for example, the image processing program 113a stored in the DVD 116a can be installed in the hard disk 113.

変形例3のPC110は、CPU111が画像処理部120として上述の基本ウインドウ検出処理、ポップアップウインドウ検出処理、画像種別判定処理及び画質補正処理を行い、処理後の画像を画像出力部114から表示装置101へ出力する。表示装置101は、PC110から入力された画像に対して画像処理を施すことなく、入力画像をそのまま液晶パネルに表示することができる。   In the PC 110 according to the third modification, the CPU 111 performs the above-described basic window detection process, pop-up window detection process, image type determination process, and image quality correction process as the image processing unit 120, and the processed image is displayed from the image output unit 114 to the display device 101. Output to. The display device 101 can display the input image as it is on the liquid crystal panel without performing image processing on the image input from the PC 110.

更に変形例3に係るPC110は、例えば操作部115のマウスにて始点及び終点の指定を受け付けることによって、表示画面中の矩形領域の指定を受け付けることができ、受け付けた矩形領域内に対して上述の基本ウインドウ検出処理〜画質補正処理の画像処理を行うと共に、矩形領域外についてはこれらの画像処理を行わない。   Further, the PC 110 according to the modification 3 can accept the designation of the rectangular area in the display screen by accepting the designation of the start point and the end point with the mouse of the operation unit 115, for example. The basic window detection process to the image quality correction process are performed, and these image processes are not performed outside the rectangular area.

図20は、画像処理の処理対象領域の指定を説明するための模式図であり、表示装置101に表示される画像の一例を示してある。図示の表示例では、10個のウインドウW1〜W10がタイル状に配置されている。ユーザはPC110の操作部115の例えばマウスを操作することによって、図中の破線で示すような矩形領域を指定することができる。図示の例では、ウインドウW1、W2、W5及びW6の4つを囲む矩形領域が指定されている。PC110の画像処理部120は、指定された矩形領域から4つのウインドウを検出し、検出したウインドウに対して画像種別の判定及び画質補正の処理を行う。また矩形領域外の領域については、画像処理部120は、予め定められたLUT(例えば、低輝度sRGB用のLUT26b)を用いて画像補正処理を行う。   FIG. 20 is a schematic diagram for explaining the designation of the processing target area of the image processing, and shows an example of an image displayed on the display device 101. In the illustrated display example, ten windows W1 to W10 are arranged in a tile shape. The user can designate a rectangular area as indicated by a broken line in the figure by operating, for example, a mouse on the operation unit 115 of the PC 110. In the example shown in the figure, rectangular areas surrounding four windows W1, W2, W5, and W6 are designated. The image processing unit 120 of the PC 110 detects four windows from the designated rectangular area, and performs image type determination and image quality correction processing on the detected windows. For the area outside the rectangular area, the image processing unit 120 performs image correction processing using a predetermined LUT (for example, the LUT 26b for low luminance sRGB).

このように、基本ウインドウ検出処理〜画像補正処理の画像を行う対象領域をユーザが選択することが可能な構成とすることによって、画像処理部120は入力画像全体ではなく、入力画像の一部に対してのみ画像処理を施せばよいため、PC110のCPU111の処理負荷を低減することができる。なお変形例3の表示システムにおいては、画像処理の対象領域をPC110の操作部115にて受け付け、PC110が画像処理を行う構成としたが、これに限るものではなく、例えば図1に示した表示システムにおいて、画像処理の対象領域を表示装置1の操作部14にて受け付け、受け付けた対象領域に対して表示装置1の画像処理部20が画像処理を行う構成としてもよく、また例えば図1に示した表示システムにおいて、画像処理の対象領域をPC9の操作部にて受け付け、受け付けた対象領域の情報をPC9から表示装置1へ与え、与えられた対象領域の情報に基づいて表示装置1の画像処理部20が画像処理を行う構成としてもよい。   In this way, by adopting a configuration in which the user can select the target area for performing the image of the basic window detection process to the image correction process, the image processing unit 120 is not an entire input image but a part of the input image. Since image processing only needs to be performed on the PC 110, the processing load on the CPU 111 of the PC 110 can be reduced. In the display system according to the third modification, the image processing target area is received by the operation unit 115 of the PC 110 and the PC 110 performs the image processing. However, the present invention is not limited to this. For example, the display shown in FIG. In the system, the image processing target area may be received by the operation unit 14 of the display device 1, and the image processing unit 20 of the display device 1 may perform image processing on the received target area. For example, FIG. In the illustrated display system, an image processing target area is received by the operation unit of the PC 9, information on the received target area is given from the PC 9 to the display device 1, and an image of the display device 1 is based on the given target area information. The processing unit 20 may perform image processing.

1 表示装置(画像処理装置)
9 PC
11 制御部
14 操作部(受付手段)
15 バックライト駆動部
16 液晶駆動部
17 画像入力部
18 バックライト
19 液晶パネル
20 画像処理部
21 エッジ検出部(エッジ画素抽出手段)
22 基本ウインドウ検出部(水平線分検出手段、水平線分組検出手段、垂直線分検出手段、垂直線分組検出手段、特定領域検出手段)
23 ポップアップウインドウ検出部(垂直線分再検出手段、垂直線分組再検出手段、水平線分再検出手段、水平線分組再検出手段、特定領域検出手段)
24 画像種別判定部(計数手段、判定手段、算出手段)
25 画質補正部(画像処理手段)
26 LUT記憶部(記憶手段)
26a 高輝度sRGB用のLUT(表示特性)
26b 低輝度sRGB用のLUT(表示特性)
26c 高輝度DICOM用のLUT(表示特性)
100 入力画像
101 表示装置
110 PC(画像処理装置)
111 CPU
113 ハードディスク
113a 画像処理プログラム(コンピュータプログラム)
114 画像出力部
115 操作部(受付手段)
116 DVDドライブ
116a DVD
120 画像処理部
127 ウインドウ結合部(特定領域結合手段)
1 Display device (image processing device)
9 PC
11 control unit 14 operation unit (accepting means)
DESCRIPTION OF SYMBOLS 15 Backlight drive part 16 Liquid crystal drive part 17 Image input part 18 Backlight 19 Liquid crystal panel 20 Image processing part 21 Edge detection part (edge pixel extraction means)
22 Basic window detection section (horizontal line segment detection means, horizontal line segment detection means, vertical line segment detection means, vertical line segment detection means, specific area detection means)
23 Pop-up window detection unit (vertical line segment redetection unit, vertical line segment redetection unit, horizontal line segment redetection unit, horizontal line segment redetection unit, specific area detection unit)
24 Image type determination unit (counting means, determination means, calculation means)
25 Image quality correction unit (image processing means)
26 LUT storage unit (storage means)
26a LUT (display characteristics) for high brightness sRGB
26b LUT for low brightness sRGB (display characteristics)
26c LUT for high brightness DICOM (display characteristics)
100 Input Image 101 Display Device 110 PC (Image Processing Device)
111 CPU
113 Hard disk 113a Image processing program (computer program)
114 Image output unit 115 Operation unit (accepting means)
116 DVD drive 116a DVD
120 image processing unit 127 window combining unit (specific area combining unit)

Claims (12)

水平方向及び垂直方向に画素が並べられた画像の表示を行う表示装置において、
入力画像から水平方向の長さが所定水平範囲内の線分を検出する水平線分検出手段と、
該水平線分検出手段が検出した水平方向線分から、一の水平方向線分に対して最近傍に存在する他の水平方向線分を探索して、2つの水平方向線分の組を検出する水平線分組検出手段と、
前記入力画像から垂直方向の長さが所定垂直範囲内の線分を検出する垂直線分検出手段と、
該垂直線分検出手段が検出した垂直方向線分から、一の垂直方向線分に対して最近傍に存在する他の垂直方向線分を探索して、2つの垂直方向線分の組を検出する垂直線分組検出手段と、
前記水平線分組検出手段が検出した水平方向線分の組、及び、前記垂直線分組検出手段が検出した垂直方向線分の組で囲まれた領域を、特定領域として検出する特定領域検出手段と、
該特定領域検出手段が検出した特定領域毎に画像処理を施す画像処理手段と
を備え、
前記所定水平範囲が前記入力画像の水平方向の長さに対する比率として定められ、且つ、前記所定垂直範囲が前記水平線分検出手段が検出した水平方向線分間の最大距離に対する比率として定められ、
又は、
前記所定垂直範囲が前記入力画像の垂直方向の長さに対する比率として定められ、且つ、前記所定水平範囲が前記垂直線分検出手段が検出した垂直方向線分間の最大距離に対する比率として定められており、
前記画像処理手段が画像処理を施した画像を表示するようにしてあること
を特徴とする表示装置。
In a display device that displays an image in which pixels are arranged in a horizontal direction and a vertical direction,
Horizontal line segment detection means for detecting a line segment whose horizontal length is within a predetermined horizontal range from the input image;
A horizontal line that detects a pair of two horizontal line segments by searching for another horizontal line segment that is closest to one horizontal line segment from the horizontal line segments detected by the horizontal line segment detecting means. A group detection means;
Vertical line segment detection means for detecting a line segment whose vertical length is within a predetermined vertical range from the input image;
From the vertical direction line segments detected by the vertical line segment detection means , search for another vertical direction line segment that is closest to the one vertical direction line segment, and detect a set of two vertical direction line segments. Vertical line segment detection means;
A specific region detection unit that detects a region surrounded by a set of horizontal line segments detected by the horizontal line segment detection unit and a set of vertical line segments detected by the vertical line segment detection unit as a specific region;
Image processing means for performing image processing for each specific area detected by the specific area detection means,
The predetermined horizontal range is defined as a ratio with respect to a horizontal length of the input image, and the predetermined vertical range is defined as a ratio with respect to a maximum distance between horizontal line segments detected by the horizontal line segment detection unit;
Or
The predetermined vertical range is defined as a ratio with respect to the length of the input image in the vertical direction, and the predetermined horizontal range is defined as a ratio with respect to the maximum distance between the vertical direction line segments detected by the vertical line segment detecting means. ,
A display device, wherein the image processing means displays an image subjected to image processing.
前記水平線分組検出手段は、所定垂直距離以上離れた2つの水平方向線分の組を検出するようにしてあり、
前記垂直線分組検出手段は、所定水平距離以上離れた2つの垂直方向線分の組を検出するようにしてあること
を特徴とする請求項1に記載の表示装置。
The horizontal line segment detection means detects a pair of two horizontal line segments separated by a predetermined vertical distance or more;
The display device according to claim 1, wherein the vertical line segment detection unit detects a pair of two vertical line segments separated by a predetermined horizontal distance or more.
前記入力画像からエッジに相当する画素を抽出するエッジ画素抽出手段と、
水平方向に連続する複数のエッジ画素を水平エッジ画素群として検出する水平エッジ画素群検出手段と、
垂直方向に連続する複数のエッジ画素を垂直エッジ画素群として検出する垂直エッジ画素群検出手段と
を更に備え、
前記水平線分検出手段は、連続数が所定値を超える水平方向エッジ画素群を、水平方向線分として検出するようにしてあり、
前記垂直線分検出手段は、連続数が所定範囲内の垂直エッジ画素群を、垂直方向線分として検出するようにしてあること
を特徴とする請求項1又は請求項2に記載の表示装置。
Edge pixel extraction means for extracting pixels corresponding to edges from the input image;
Horizontal edge pixel group detection means for detecting a plurality of edge pixels continuous in the horizontal direction as a horizontal edge pixel group;
Vertical edge pixel group detection means for detecting a plurality of edge pixels continuous in the vertical direction as a vertical edge pixel group, and
The horizontal line detection means detects a horizontal edge pixel group having a continuous number exceeding a predetermined value as a horizontal line segment,
The display device according to claim 1, wherein the vertical line segment detection unit detects a vertical edge pixel group having a continuous number within a predetermined range as a vertical line segment.
前記水平線分検出手段は、水平方向に並ぶ2つの水平エッジ画素群の間に存在する非エッジ画素の数が所定数以下の場合、前記2つの水平エッジ画素群を1つの水平エッジ画素群として扱うようにしてあり、
前記垂直線分検出手段は、垂直方向に並ぶ2つの垂直エッジ画素群の間に存在する非エッジ画素の数が所定数以下の場合、前記2つの垂直エッジ画素群を1つの垂直エッジ画素群として扱うようにしてあること
を特徴とする請求項3に記載の表示装置。
The horizontal line segment detection means treats the two horizontal edge pixel groups as one horizontal edge pixel group when the number of non-edge pixels existing between two horizontal edge pixel groups arranged in the horizontal direction is equal to or smaller than a predetermined number. And
When the number of non-edge pixels existing between two vertical edge pixel groups arranged in the vertical direction is equal to or less than a predetermined number, the vertical line segment detection unit sets the two vertical edge pixel groups as one vertical edge pixel group. The display device according to claim 3, wherein the display device is handled.
前記特定領域検出手段が検出した特定領域に含まれる画素のうち、画素値が所定条件を満たす画素の画素数を計数する計数手段と、
該計数手段の計数結果に応じて、前記特定領域の画像の種別を判定する判定手段と
を更に備え、
前記画像処理手段は、前記判定手段の判定結果に応じた画像処理を前記特定領域に対して施すようにしてあること
を特徴とする請求項1乃至請求項4のいずれか1つに記載の表示装置。
Counting means for counting the number of pixels whose pixel value satisfies a predetermined condition among the pixels included in the specific area detected by the specific area detection means;
Determination means for determining the image type of the specific area according to the counting result of the counting means;
The display according to any one of claims 1 to 4, wherein the image processing means performs image processing on the specific area in accordance with a determination result of the determination means. apparatus.
前記計数手段の計数結果に基づいて、前記特定領域に含まれる画素の画素値に係る度数分布を算出する算出手段を更に備え、
前記判定手段は、前記算出手段が算出した度数分布の分布パターンに基づいて画像の種別を判定するようにしてあること
を特徴とする請求項5に記載の表示装置。
Based on the counting result of the counting means, further comprising a calculating means for calculating a frequency distribution related to pixel values of pixels included in the specific region;
The display device according to claim 5, wherein the determination unit determines an image type based on a distribution pattern of a frequency distribution calculated by the calculation unit.
入力画像の画素値に対する表示画素の画素値が対応付けられた表示特性を複数記憶する記憶手段を更に備え、
前記画像処理手段は、前記判定手段の判定結果に応じて前記記憶手段から一の表示特性を読み出し、該表示特性に基づく画素値の変換処理を行うようにしてあること
を特徴とする請求項5又は請求項6に記載の表示装置。
Storage means for storing a plurality of display characteristics in which pixel values of display pixels are associated with pixel values of an input image;
The image processing means reads out one display characteristic from the storage means in accordance with a determination result of the determination means, and performs a pixel value conversion process based on the display characteristic. Or the display apparatus of Claim 6.
前記判定手段が判定した画像の種別、及び、特定領域の頂点間の距離に応じて、2つの特定領域を1つの特定領域に結合する特定領域結合手段を更に備えること
を特徴とする請求項5乃至請求項7のいずれか1つに記載の表示装置。
Type of image that the determination means determines, and, depending on the distance between the vertices of a specific area, claim 5, further comprising a specific area coupling means for coupling the two specific regions in one specific area The display device according to claim 7.
前記入力画像から処理対象の画像領域の指定を受け付ける受付手段を更に備え、
前記特定領域検出手段は、前記受付手段が受け付けた画像領域内について、特定領域の検出を行うようにしてあること
を特徴とする請求項1乃至請求項8のいずれか1つに記載の表示装置。
A receiving unit that receives a designation of an image area to be processed from the input image;
The display device according to any one of claims 1 to 8, wherein the specific area detection unit detects a specific area in the image area received by the reception unit. .
水平方向及び垂直方向に画素が並べられた画像に対して所定の画像処理を施す画像処理装置において、
入力画像から水平方向の長さが所定水平範囲内の線分を検出する水平線分検出手段と、
該水平線分検出手段が検出した水平方向線分から、一の水平方向線分に対して最近傍に存在する他の水平方向線分を探索して、2つの水平方向線分の組を検出する水平線分組検出手段と、
前記入力画像から垂直方向の長さが所定垂直範囲内の線分を検出する垂直線分検出手段と、
該垂直線分検出手段が検出した垂直方向線分から、一の垂直方向線分に対して最近傍に存在する他の垂直方向線分を探索して、2つの垂直方向線分の組を検出する垂直線分組検出手段と、
前記水平線分組検出手段が検出した水平方向線分の組、及び、前記垂直線分組検出手段が検出した垂直方向線分の組で囲まれた領域を検出する特定領域検出手段と
を備え、
前記所定水平範囲が前記入力画像の水平方向の長さに対する比率として定められ、且つ、前記所定垂直範囲が前記水平線分検出手段が検出した水平方向線分間の最大距離に対する比率として定められ、
又は、
前記所定垂直範囲が前記入力画像の垂直方向の長さに対する比率として定められ、且つ、前記所定水平範囲が前記垂直線分検出手段が検出した垂直方向線分間の最大距離に対する比率として定められること
を特徴とする画像処理装置。
In an image processing apparatus that performs predetermined image processing on an image in which pixels are arranged in a horizontal direction and a vertical direction,
Horizontal line segment detection means for detecting a line segment whose horizontal length is within a predetermined horizontal range from the input image;
A horizontal line that detects a pair of two horizontal line segments by searching for another horizontal line segment that is closest to one horizontal line segment from the horizontal line segments detected by the horizontal line segment detecting means. A group detection means;
Vertical line segment detection means for detecting a line segment whose vertical length is within a predetermined vertical range from the input image;
From the vertical direction line segments detected by the vertical line segment detection means , search for another vertical direction line segment that is closest to the one vertical direction line segment, and detect a set of two vertical direction line segments. Vertical line segment detection means;
A specific area detecting means for detecting a region surrounded by a set of horizontal line segments detected by the horizontal line segment detecting means and a set of vertical line segments detected by the vertical line segment detecting means;
The predetermined horizontal range is defined as a ratio with respect to a horizontal length of the input image, and the predetermined vertical range is defined as a ratio with respect to a maximum distance between horizontal line segments detected by the horizontal line segment detection unit;
Or
The predetermined vertical range is determined as a ratio to the length of the input image in the vertical direction, and the predetermined horizontal range is determined as a ratio to the maximum distance of the vertical line segments detected by the vertical line segment detecting means. A featured image processing apparatus.
水平方向及び垂直方向に画素が並べられた画像から特定条件を満たす画像領域を検出する画像領域検出方法において、
入力画像から水平方向の長さが所定水平範囲内の線分を検出し、
検出した水平方向線分から、一の水平方向線分に対して最近傍に存在する他の水平方向線分を探索して、2つの水平方向線分の組を検出し、
前記入力画像から垂直方向の長さが所定垂直範囲内の線分を検出し、
検出した垂直方向線分から、一の垂直方向線分に対して最近傍に存在する他の垂直方向線分を探索して、2つの垂直方向線分の組を検出し、
検出した水平方向線分の組及び垂直方向線分の組で囲まれた領域を検出し、
前記所定水平範囲が前記入力画像の水平方向の長さに対する比率として定められ、且つ、前記所定垂直範囲が前記水平線分検出手段が検出した水平方向線分間の最大距離に対する比率として定められ、
又は、
前記所定垂直範囲が前記入力画像の垂直方向の長さに対する比率として定められ、且つ、前記所定水平範囲が前記垂直線分検出手段が検出した垂直方向線分間の最大距離に対する比率として定められること
を特徴とする画像領域検出方法。
In an image region detection method for detecting an image region that satisfies a specific condition from an image in which pixels are arranged in a horizontal direction and a vertical direction,
Detect line segments with a horizontal length within a specified horizontal range from the input image,
From the detected horizontal line segments, search for other horizontal line segments that are closest to one horizontal line segment, detect a pair of two horizontal line segments,
Detecting a line segment whose vertical length is within a predetermined vertical range from the input image;
From the detected vertical line segments, search for other vertical line segments that are closest to one vertical line segment, and detect a pair of two vertical line segments,
Detect the area surrounded by the detected horizontal line segment set and vertical line segment set,
The predetermined horizontal range is defined as a ratio with respect to a horizontal length of the input image, and the predetermined vertical range is defined as a ratio with respect to a maximum distance between horizontal line segments detected by the horizontal line segment detection unit;
Or
The predetermined vertical range is determined as a ratio to the length of the input image in the vertical direction, and the predetermined horizontal range is determined as a ratio to the maximum distance of the vertical line segments detected by the vertical line segment detecting means. An image region detection method as a feature.
コンピュータに、水平方向及び垂直方向に画素が並べられた画像から特定条件を満たす画像領域を検出させるコンピュータプログラムにおいて、
コンピュータに、入力画像から水平方向の長さが所定水平範囲内の線分を検出させる水平線分検出ステップと、
コンピュータに、前記水平線分検出ステップにて検出した水平方向線分から、一の水平方向線分に対して最近傍に存在する他の水平方向線分を探索して、2つの水平方向線分の組を検出させる水平線分組検出ステップと、
コンピュータに、前記入力画像から垂直方向の長さが所定垂直範囲内の線分を検出させる垂直線分検出ステップと、
コンピュータに、前記垂直線分検出ステップにて検出した垂直方向線分から、一の垂直方向線分に対して最近傍に存在する他の垂直方向線分を探索して、2つの垂直方向線分の組を検出させる垂直線分組検出ステップと、
コンピュータに、前記水平線分組検出ステップにて検出した水平方向線分の組、及び、前記垂直線分組検出ステップにて検出した垂直方向線分の組で囲まれた領域を検出させるステップと
を行わせ、
前記所定水平範囲が前記入力画像の水平方向の長さに対する比率として定められ、且つ、前記所定垂直範囲が前記水平線分検出手段が検出した水平方向線分間の最大距離に対する比率として定められ、
又は、
前記所定垂直範囲が前記入力画像の垂直方向の長さに対する比率として定められ、且つ、前記所定水平範囲が前記垂直線分検出手段が検出した垂直方向線分間の最大距離に対する比率として定められること
を特徴とするコンピュータプログラム。
In a computer program for causing a computer to detect an image region satisfying a specific condition from an image in which pixels are arranged in a horizontal direction and a vertical direction,
A horizontal line detection step for causing the computer to detect a line segment having a horizontal length within a predetermined horizontal range from the input image;
The computer searches the horizontal line segment detected in the horizontal line segment detection step for another horizontal line segment that is closest to the one horizontal line segment, and sets two horizontal line segments. A horizontal line segment detection step for detecting
A vertical line segment detection step for causing the computer to detect a line segment whose vertical length is within a predetermined vertical range from the input image;
The computer searches the vertical line segment detected in the vertical line segment detection step for another vertical line segment that is closest to the vertical line segment, and finds two vertical line segments. A vertical segment detection step for detecting a set; and
Causing the computer to detect a region surrounded by the set of horizontal line segments detected in the horizontal line segment detection step and the set of vertical line segments detected in the vertical line segment detection step. ,
The predetermined horizontal range is defined as a ratio with respect to a horizontal length of the input image, and the predetermined vertical range is defined as a ratio with respect to a maximum distance between horizontal line segments detected by the horizontal line segment detection unit;
Or
The predetermined vertical range is determined as a ratio to the length of the input image in the vertical direction, and the predetermined horizontal range is determined as a ratio to the maximum distance of the vertical line segments detected by the vertical line segment detecting means. A featured computer program.
JP2012012426A 2012-01-24 2012-01-24 Display device, image processing device, image region detection method, and computer program Active JP5362052B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012012426A JP5362052B2 (en) 2012-01-24 2012-01-24 Display device, image processing device, image region detection method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012012426A JP5362052B2 (en) 2012-01-24 2012-01-24 Display device, image processing device, image region detection method, and computer program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011079952A Division JP4977255B1 (en) 2011-03-31 2011-03-31 Display device, image processing device, image region detection method, image processing method, and computer program

Publications (2)

Publication Number Publication Date
JP2012216184A JP2012216184A (en) 2012-11-08
JP5362052B2 true JP5362052B2 (en) 2013-12-11

Family

ID=47268865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012012426A Active JP5362052B2 (en) 2012-01-24 2012-01-24 Display device, image processing device, image region detection method, and computer program

Country Status (1)

Country Link
JP (1) JP5362052B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10262430B2 (en) 2014-04-28 2019-04-16 Eizo Corporation Annotation line determining unit, annotation line removing unit, medical display, and method therefor
WO2018106213A1 (en) * 2016-12-05 2018-06-14 Google Llc Method for converting landscape video to portrait mobile layout
JP6353893B2 (en) * 2016-12-13 2018-07-04 株式会社アイエスピー Method, program, and apparatus for scraping articles from paper image taken by camera of portable terminal device
JP2019125202A (en) * 2018-01-17 2019-07-25 日本電信電話株式会社 Detection device, detection method and program

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683445B2 (en) * 1986-06-10 1994-10-19 日本電気株式会社 Image communication terminal
JP2548269B2 (en) * 1988-01-25 1996-10-30 松下電器産業株式会社 Bitmap display device
IL108957A (en) * 1994-03-14 1998-09-24 Scidel Technologies Ltd System for implanting an image into a video stream
JP3994519B2 (en) * 1998-05-11 2007-10-24 ソニー株式会社 Display device and image processing method
JP2001266176A (en) * 2000-01-14 2001-09-28 Sony Corp Picture processor, picture processing method and recording medium
US6914611B2 (en) * 2000-07-07 2005-07-05 Koninklijke Philips Electronics N.V. Window detection
JP4525519B2 (en) * 2005-08-18 2010-08-18 日本電信電話株式会社 Quadrilateral evaluation method, apparatus and program
JP4712487B2 (en) * 2005-08-25 2011-06-29 株式会社リコー Image processing method and apparatus, digital camera apparatus, and recording medium recording image processing program
JP4662258B2 (en) * 2005-08-31 2011-03-30 株式会社リコー Image processing method and apparatus, digital camera apparatus, and recording medium recording image processing program
JP2011123084A (en) * 2008-04-03 2011-06-23 Konica Minolta Medical & Graphic Inc Image display system and image display program
JP4715888B2 (en) * 2008-09-02 2011-07-06 カシオ計算機株式会社 Image processing apparatus and computer program
JP4982574B2 (en) * 2008-09-10 2012-07-25 株式会社東芝 Display device and control method thereof

Also Published As

Publication number Publication date
JP2012216184A (en) 2012-11-08

Similar Documents

Publication Publication Date Title
US10325545B2 (en) Display panel, display apparatus and driving method thereof
US10176745B2 (en) Data conversion unit and method
JP4977255B1 (en) Display device, image processing device, image region detection method, image processing method, and computer program
US9818046B2 (en) Data conversion unit and method
US11615769B2 (en) Display device with image shift
US9520103B2 (en) RGB-to-RGBW color converting system and method
US9711080B2 (en) Timing controller, driving method thereof, and display device using the same
JP6919135B2 (en) Brightness adjustment system
US9171496B2 (en) Image control display device and image control method
US9837012B2 (en) Display device and electronic apparatus
US10714019B2 (en) Brightness compensation method for display apparatus, and display apparatus
KR102528996B1 (en) Touch display device
JP5362052B2 (en) Display device, image processing device, image region detection method, and computer program
US10854123B2 (en) Organic light emitting diode display device
KR102239895B1 (en) Method and data converter for upscailing of input display data
JP2018036505A (en) Display device, electronic apparatus, and method of driving display device
JP7391552B2 (en) Display control device and display control method
US10777152B2 (en) Driving method and driving device for display panel, and display device
JP4731182B2 (en) Display device
KR102521364B1 (en) Display apparatus and method of driving the same
KR102203768B1 (en) Organic Light Emitting Display Capable Of Reducing Image Sticking
KR102488783B1 (en) Display device and method of driving the same
KR102410629B1 (en) Data processing device and display device having the same
KR102102906B1 (en) Method for driving Flat Display Device having RBGB pixel structure
TW201820307A (en) Control method for display

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130903

R150 Certificate of patent or registration of utility model

Ref document number: 5362052

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250