JPH11205823A - Frame position/form detection method for crt display monitor - Google Patents

Frame position/form detection method for crt display monitor

Info

Publication number
JPH11205823A
JPH11205823A JP10001318A JP131898A JPH11205823A JP H11205823 A JPH11205823 A JP H11205823A JP 10001318 A JP10001318 A JP 10001318A JP 131898 A JP131898 A JP 131898A JP H11205823 A JPH11205823 A JP H11205823A
Authority
JP
Japan
Prior art keywords
image
display monitor
difference
illumination
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10001318A
Other languages
Japanese (ja)
Inventor
Keisuke Kawame
啓介 川目
Tatsuo Horiuchi
立夫 堀内
Naoki Hosoya
直樹 細谷
Taiji Kitagawa
泰治 北川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP10001318A priority Critical patent/JPH11205823A/en
Publication of JPH11205823A publication Critical patent/JPH11205823A/en
Pending legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To extinguish a non-target and to stably detect a bezel frame by measuring the difference between an image obtained by image-picking up a display monitor while radiating appropriate illumination from outside and an image obtained by picking up an image while lighting out illumination. SOLUTION: A difference in the values of respective pixeles in an image when illumination is radiated on an objective display from outside and an image when it is not radiated is taken to generate, a gradation image C. The gradation image C is binarized by a prescribed threshold and a binary picture D is obtained. Then, the binary image D is labeled and the vertical width and the horizontal width of respective label areas in a label image and checked. The label whose value of the sum of he widths becomes the largest is discriminated to be the label containing a bezel frame and an image, where the label is white/ black-inverted is set to be a binary image F. The binary image F is labeled again and a binary image G which is positioned in the center of a screen and shows the inner area of the bezel with the largest label is obtained. Then, a binary image H showing the inner boundary line of the bezel frame is obtained by tracking the contour line of the image G.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ブラウン管(CR
T)を用いたカラー/モノクロディスプレイ装置やTV
などの自動画質検査方法に関する。
The present invention relates to a cathode ray tube (CR)
T) color / monochrome display device and TV
And other automatic image quality inspection methods.

【0002】[0002]

【従来の技術】TVやディスプレイモニタ(以下ディス
プレイと略す)に映出されるラスタは、偏向系の特性な
どにより様々な形に歪んでしまうため、その調整・検査
が必要である。そのためにはラスタの位置・形状を計測
することが必要である。また、ラスタの位置は通常、ベ
ゼルと呼ばれるディスプレイの外枠の位置を基準にした
相対位置で測られるため、ベゼルの位置測定が重要とな
ってくる。従来、ベゼルの位置測定を行う方法として
は、ストロボなどの光源をディスプレイに照射して、ベ
ゼル枠が他の部分より明るくなることを利用して、明る
さの2値化によりベゼルを検出する方法が一般的であっ
た。
2. Description of the Related Art A raster projected on a TV or a display monitor (hereinafter abbreviated as a display) is distorted into various shapes due to the characteristics of a deflection system and the like. For that purpose, it is necessary to measure the position and shape of the raster. In addition, since the position of the raster is usually measured by a relative position based on the position of the outer frame of the display called a bezel, the position measurement of the bezel becomes important. Conventionally, as a method of measuring the position of the bezel, a method of irradiating a display with a light source such as a strobe and using the fact that the bezel frame becomes brighter than other portions to detect the bezel by binarizing the brightness. Was common.

【0003】この方法では、ベゼルと他の部分との明る
さのコントラストが十分に得られることが条件となる
が、そうでない場合にも対処するため、特開平1−13
3497号公報では、明るさをそのまま2値化するので
はなく、明るさの微分値を計算することによって、その
変化率の大きいところをベゼル枠のへりの部分として検
出する方法を提案している。
In this method, it is required that a sufficient contrast in brightness between the bezel and other parts is obtained.
Japanese Patent No. 3497 proposes a method of calculating a differential value of brightness, instead of binarizing brightness as it is, and detecting a portion having a large change rate as an edge portion of a bezel frame. .

【0004】[0004]

【発明が解決しようとする課題】しかしながら、特開平
1−133497号公報では2つの点で問題がある。1
つは、たとえ微分をとったとしても、ベゼルとその他の
部分とのコントラストが十分になければやはり微分値も
小さいものとなるため、誤検出の可能性が高くなる。
However, JP-A-1-133497 has two problems. 1
First, even if differentiation is performed, if the contrast between the bezel and other parts is not sufficient, the differential value will also be small, and the possibility of erroneous detection will increase.

【0005】本特許の解決しようとする課題のひとつ
は、コントラストが十分に得られない場合に対処するこ
とである。特開平1−133497号公報のもう1つの
問題は、微分した結果を2値化して2値データとしてし
まうため、計測されるエッジ(ベゼルのへり)位置測定
精度が落ちてしまうことである。
[0005] One of the problems to be solved by this patent is to cope with a case where sufficient contrast cannot be obtained. Another problem of Japanese Patent Application Laid-Open No. 1-133497 is that the accuracy of measuring the measured edge (edge of the bezel) is reduced because the differentiated result is binarized and converted into binary data.

【0006】本特許の解決しようとするもうひとつの課
題は、エッジ位置の測定精度を十分に高くすることであ
る。
[0006] Another problem to be solved by the present patent is to sufficiently increase the measurement accuracy of the edge position.

【0007】[0007]

【課題を解決するための手段】上述の第1の課題を解決
するために、本特許では、外部から適当な明るさと分光
強度特性を持った照明光を照射した状態でディスプレイ
を撮像した画像データと、照明を消した状態(もしくは
別の明るさと分光強度特性を持った照明光を照射した状
態)でディスプレイを撮像した画像データとの差違を表
す差画像データを生成しそれを解析する手段をとる。ま
た、第2の課題を解決するために、本特許では、この差
画像データのベゼルエッジ部分におけるデータ値の変化
率すなわち微分値を計算し、この分布曲線の変化率最大
の部分を含む山の濃淡重心を計算する手段を持つ。
In order to solve the above-mentioned first problem, in the present invention, image data obtained by imaging a display in a state where illumination light having appropriate brightness and spectral intensity characteristics is radiated from the outside is disclosed. And means for generating and analyzing difference image data representing a difference between image data obtained by imaging the display in a state where the illumination is turned off (or a state where illumination light having different brightness and spectral intensity characteristics is emitted). Take. Further, in order to solve the second problem, in this patent, the change rate of the data value at the bezel edge portion of the difference image data, that is, the differential value is calculated, and the peak of the mountain including the maximum change rate of the distribution curve is calculated. It has means to calculate the center of gravity.

【0008】[0008]

【発明の実施の形態】以下、本発明の実施の形態を、差
画像を作成しそれからベゼル枠内側境界線を2値画像と
して抽出する方法と、抽出されたベゼル枠内側境界線の
2値画像と元の差画像(濃淡画像)から高精度に境界線
の位置を検出する方法に分けて説明する。なお、本実施
例における装置構成は、ごく一般的な画像処理装置であ
る。すなわち、対象物を撮像するためのTVカメラ(カ
ラーまたはモノクロ)および画像入力装置、そして画像
処理を行う計算機といった構成である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below with reference to a method of creating a difference image, extracting a bezel frame inner boundary line as a binary image, and a binary image of the extracted bezel frame inner boundary line. And a method of detecting the position of the boundary line with high accuracy from the original difference image (shade image). Note that the device configuration in the present embodiment is a very general image processing device. That is, the configuration includes a TV camera (color or monochrome) for capturing an image of an object, an image input device, and a computer for performing image processing.

【0009】図1に、ベゼル枠内側境界線を抽出する手
順を示す。また、各手順中の画像の例を図3に示す。ま
ず、手順102において照明を点灯しながら対象となる
ディスプレイを撮像し、濃淡画像Aとする(図3の20
2)。図2は、被検査ディスプレイを、照明で照らす様
子を示したものであるが、照明を点灯したときと消灯し
たときの明るさの差が、ベゼル枠の各部分において十分
に大きくなるように照明を配置する。
FIG. 1 shows a procedure for extracting a bezel frame inner boundary line. FIG. 3 shows an example of an image during each procedure. First, in step 102, the target display is imaged while the illumination is turned on, and is set as a gray image A (see FIG.
2). FIG. 2 shows a state in which the display to be inspected is illuminated by the illumination. The illumination is set such that the difference in brightness between when the illumination is turned on and when the illumination is turned off is sufficiently large in each part of the bezel frame. Place.

【0010】次に、手順104において照明を消灯して
対象となるディスプレイを撮像し、濃淡画像Bとする
(図3の204)。これらの例図でも分かるように、デ
ィスプレイの画面にはテストパターンが発光していても
良い。また、背景に明るい部分があっても良い。
Next, in step 104, the illumination is turned off, and the target display is imaged to obtain a gray image B (204 in FIG. 3). As can be seen from these example diagrams, a test pattern may be emitted on the screen of the display. Also, there may be a bright part in the background.

【0011】次に、手順106において濃淡画像AとB
の各画素の値の差をとり差画像Cを作成する(図3の2
06)。なお、Aの値がBの値よりも小さい画素ではC
の値は0とする。次に、手順108において濃淡画像C
をある一定のしきい値で2値化して2値画像Dとする
(図3の208)。この際の2値化のしきい値は、予め
実験的に求めることができる。
Next, in step 106, the gray images A and B
The difference between the values of the respective pixels is taken to create a difference image C (2 in FIG. 3).
06). In a pixel where the value of A is smaller than the value of B, C
Is 0. Next, in step 108, the grayscale image C
Is binarized with a certain threshold to obtain a binary image D (208 in FIG. 3). The threshold value for binarization at this time can be obtained experimentally in advance.

【0012】例えば、画像A、Bの左上の明るい背景部
分は差をとることによってほとんど0に近い値をとるし
(ただしノイズレベルは残る)、画面内部のラスタの光
っている部分も同様に差をとることによってほとんど0
となるため、ノイズレベルを十分に除去できる程度の低
いしきい値で2値化することができる。ただし、本例で
は単純な2値化を考えているので、ベゼル枠全体が不均
一に照明されていて差画像の値が低い部分がカットされ
る危険がある場合がある。
For example, a bright background portion at the upper left of the images A and B takes a value almost close to 0 (however, the noise level remains) by taking the difference, and a shining portion of the raster inside the screen similarly has a difference. By taking almost 0
Therefore, binarization can be performed with a threshold value that is low enough to sufficiently remove the noise level. However, in this example, since simple binarization is considered, there is a case where the entire bezel frame is unevenly illuminated and a portion where the value of the difference image is low may be cut.

【0013】この場合は照明の明るさや配置を工夫し、
また必要ならば2値化のしきい値を調節し、ノイズをあ
まり拾わない程度に低くすればよい。なお、画像Dの例
(208)にも現れているが、ディスプレイ画面の中程
には照明光の正反射が写り込んでいる。
In this case, the brightness and arrangement of the lighting are devised,
If necessary, the threshold value for binarization may be adjusted so that the noise is not so much picked up. As shown in the example (208) of the image D, the specular reflection of the illumination light is reflected in the middle of the display screen.

【0014】また、右側に細い円弧状に光っている部分
があるがこれは照明から漏れた光がカメラに直接入射し
たものである。更に、左下の部分は、ディスプレイが置
かれている台が照明によって光ったものである。また、
ベゼル枠左側には白い物体が枠に接しているがこれは例
えば作業者が背後で動いたことによって差画像に現れた
ものである。2値画像Dに現れるこれらの余計な白領域
は、後続の処理によってその影響を取り除くことができ
る。
On the right side, there is a portion shining in a thin arc shape, which is a result of light leaking from the illumination directly entering the camera. Further, the lower left part is a table on which the display is placed illuminated by illumination. Also,
A white object is in contact with the frame on the left side of the bezel frame, which appears in the difference image due to, for example, the worker moving behind. These extra white areas appearing in the binary image D can be removed by subsequent processing.

【0015】次の手順110では、2値画像Dをラベリ
ングしラベル画像Eを得る。これは通常の2値画像のラ
ベリングである。次に、手順112において、ラベル画
像Eの中の各ラベル領域の縦幅および横幅を調べ、その
和の値が最大となるラベルをベゼル枠を含むラベルと判
定する。そしてこのラベルを白黒反転した画像を2値画
像Fとする(図3の210)。
In the next step 110, a label image E is obtained by labeling the binary image D. This is the labeling of a normal binary image. Next, in step 112, the vertical width and the horizontal width of each label area in the label image E are checked, and the label having the maximum sum is determined as the label including the bezel frame. An image obtained by inverting the label in black and white is defined as a binary image F (210 in FIG. 3).

【0016】画像Fの例210を見て分かる通り、ディ
スプレイ画面中の照明からの正反射光成分は消えてベゼ
ル内側領域を表す白領域と、外側の画像データ外縁に接
する領域と、その他の周辺に存在する小領域に分かれて
いる。そこで、手順114において2値画像Fを再度ラ
ベリングし、画面中央に位置し大きさの最大のラベルを
もってベゼル内側領域を表す2値画像Gを得る。なお、
周辺のラベルは大きいが、通常は画像外縁に接している
ためラベリングでラベル番号が1となることが分かって
おり容易に除去できる。この後、画像Gの輪郭線追跡を
行うことによってベゼル枠内側境界線を表す2値画像H
(図3の214)を得る。
As can be seen from example 210 of image F, the specularly reflected light component from the illumination in the display screen disappears, a white area representing the inner area of the bezel, an area in contact with the outer edge of the image data, and other peripheral areas. Are divided into small areas. Therefore, in step 114, the binary image F is labeled again to obtain a binary image G that is located at the center of the screen and that represents the bezel inner region with the largest label. In addition,
Although the peripheral label is large, it is known that the label number becomes 1 by labeling since the label is usually in contact with the outer edge of the image, and the label can be easily removed. Thereafter, by performing contour line tracing of the image G, a binary image H representing a bezel frame inner boundary line is obtained.
(214 in FIG. 3) is obtained.

【0017】次に、以上の手順で抽出されたベゼル枠内
側境界線の2値画像と、元の差画像(濃淡画像)から、
高精度に境界線の位置を検出する方法について図4を用
いて説明する。図4の最初の手順302では、図1の手
順116にて求められたベゼル枠内側境界線の2値画像
Hの「1」画素上で、差画像CのH方向とV方向の微分
値をそれぞれ求め、H方向微分の値がV方向微分の値よ
りも大きければその点は上辺または下辺に属すると判定
する。逆に、V方向微分の値がH方向微分の値よりも大
きければその点は左辺または右辺に属すると判定する。
Next, from the binary image of the inner boundary line of the bezel frame extracted by the above procedure and the original difference image (shade image),
A method for detecting the position of the boundary line with high accuracy will be described with reference to FIG. In the first step 302 of FIG. 4, the differential values of the difference image C in the H direction and the V direction on the “1” pixel of the binary image H of the inner boundary line of the bezel frame obtained in the step 116 of FIG. If the value of the H-direction derivative is greater than the value of the V-direction derivative, it is determined that the point belongs to the upper side or the lower side. Conversely, if the value of the derivative in the V direction is greater than the value of the derivative in the H direction, it is determined that the point belongs to the left side or the right side.

【0018】そして、上下辺と判定された画素点の縦座
標の平均値を求め、平均値より上方向にある画素を上辺
と判定し、平均値より下方向にある画素を下辺と判定す
る。同様に、左右辺と判定された画素点の横座標の平均
値を求め、平均値より左方向にある画素を左辺と判定
し、平均値より右方向にある画素を右辺と判定する。こ
れにより手順302により輪郭画像H上の点列が上・下
・左・右辺に分割できる。
Then, the average value of the ordinates of the pixel points determined to be the upper and lower sides is determined, and a pixel located above the average value is determined as an upper side, and a pixel located below the average value is determined as a lower side. Similarly, the average value of the abscissas of the pixel points determined to be the left and right sides is determined, the pixel located on the left side of the average value is determined as the left side, and the pixel located on the right side of the average value is determined as the right side. As a result, the point sequence on the contour image H can be divided into upper, lower, left, and right sides by the procedure 302.

【0019】次に、手順304により上・下・左・右辺
に分割された各辺上の各画素につき、その画素の属する
辺に垂直な方向の差画素Cにおける輝度分布を元に、そ
の画素の属する辺に垂直な方向のサブピクセル座標を計
算する。例えば、ある画素について、その画素の属する
辺に垂直な方向の差画像Cにおける輝度分布の例を図5
の402に示す。この曲線の中心にあたり、傾きのもっ
とも大きい点付近にエッジ位置があると推測される。そ
こで本実施例では、エッジ位置のサブピクセル算出方法
として、次のような方法をとる。
Next, for each pixel on each side divided into upper, lower, left, and right sides in step 304, based on the luminance distribution in the difference pixel C in the direction perpendicular to the side to which the pixel belongs, Calculate the sub-pixel coordinates in the direction perpendicular to the side to which belongs. For example, FIG. 5 shows an example of a luminance distribution of a certain pixel in a difference image C in a direction perpendicular to a side to which the pixel belongs.
402. At the center of this curve, it is assumed that there is an edge position near the point with the largest slope. Therefore, in the present embodiment, the following method is used as a sub-pixel calculation method of the edge position.

【0020】まず、図5の402の曲線を微分する。こ
れは図5の404のような曲線になる。この404の曲
線の最大点の位置では元の曲線402の傾きが最大にな
っている。しかし、このままでは位置算出分解能は画素
単位であり、サブピクセル精度は出ない。そこで404
の曲線の、エッジ位置にできる微分の極大点を含む山の
輝度重心位置を算出し、これを測定値とすることにす
る。これにより、計算分解能がサブピクセルになると同
時に、実際に実験で確かめた結果、測定絶対精度もサブ
ピクセルになることが分かった。
First, the curve 402 in FIG. 5 is differentiated. This results in a curve like 404 in FIG. At the position of the maximum point of the curve 404, the slope of the original curve 402 is maximum. However, in this state, the position calculation resolution is on a pixel-by-pixel basis, and no sub-pixel accuracy is obtained. So 404
Of the curve including the local maximum point of the derivative formed at the edge position is calculated, and this is used as a measured value. As a result, at the same time as the calculation resolution becomes a sub-pixel, it was found that the absolute measurement accuracy was also a sub-pixel as a result of actual experiments.

【0021】また、更なる精度の向上を目指して、曲線
402を適当な方法で補間し、その微分値をとって輝度
重心位置を求めることが考えられる。
In order to further improve the accuracy, it is conceivable to interpolate the curve 402 by an appropriate method and obtain the luminance centroid position by taking the differential value.

【0022】以上に説明した手順304により、ベゼル
枠内側境界線の高精度位置座標が求められる。残る、手
順306および308は、ベゼル枠内側境界の基準点と
なるべき四隅の4点のサブピクセル座標を求める手順で
ある。まず、手順306において各コーナー4点に近い
部分の各辺のサブピクセル座標列を、各辺ごとに直線な
いしは2次曲線近似する。
According to the procedure 304 described above, high-precision position coordinates of the inner boundary line of the bezel frame are obtained. The remaining steps 306 and 308 are steps for obtaining four sub-pixel coordinates at four corners to be used as reference points for the inner boundary of the bezel frame. First, in step 306, the sub-pixel coordinate sequence of each side near the four corners is approximated by a straight line or a quadratic curve for each side.

【0023】例えば、左上コーナー点のサブピクセル座
標を求めるためには、左辺および上辺を構成する点列の
うち左上コーナーに近い部分の点をとり、直線ないしは
曲線近似する。そして、手順308においてこれらの交
点座標を計算し、求める四隅の4点のサブピクセル座標
とする。以上の手順302〜308により、ベゼル枠内
側の四隅の4点のサブピクセル座標が求められ、高精度
にベゼル座標系を構成することができるようになる。
For example, in order to obtain the sub-pixel coordinates of the upper left corner point, a point close to the upper left corner in a sequence of points forming the left side and the upper side is taken and a straight line or a curve is approximated. Then, in step 308, the coordinates of these intersections are calculated and used as the subpixel coordinates of the four points at the four corners to be obtained. By the above procedures 302 to 308, the subpixel coordinates of the four points at the four corners inside the bezel frame are obtained, and the bezel coordinate system can be configured with high accuracy.

【0024】[0024]

【発明の効果】本発明によれば、外部から照明を当てた
ときと当てないときの差画像を利用することにより、非
目的物が消滅し、目的部分すなわちベゼル枠の鮮明な画
像が得られるので、安定してベゼル枠を検出することが
できる。更に、ベゼルの各エッジ部分において、輝度分
布の微分曲線の輝度重心位置を、必要とあらば補間処理
を組み合わせて計算することにより、高精度なサブピク
セル位置検出が可能となる。
According to the present invention, the non-object is eliminated by using the difference image between when the illumination is applied from the outside and when the illumination is not applied, and a clear image of the target portion, that is, the bezel frame is obtained. Therefore, the bezel frame can be detected stably. Further, in each edge portion of the bezel, the luminance centroid position of the differential curve of the luminance distribution is calculated by combining interpolation processing as necessary, thereby enabling highly accurate sub-pixel position detection.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例におけるベゼル枠検出処理手
順を示すフローチャート図。
FIG. 1 is a flowchart illustrating a bezel frame detection processing procedure according to an embodiment of the present invention.

【図2】ベゼル枠を検出するための照明をディスプレイ
の前方に配置したことを示す図。
FIG. 2 is a diagram showing that illumination for detecting a bezel frame is arranged in front of a display.

【図3】図1に示す処理手順に従って処理を行った場合
の処理画像の例を示す図。
FIG. 3 is a view showing an example of a processed image when processing is performed according to the processing procedure shown in FIG. 1;

【図4】本発明の一実施例におけるベゼル枠位置高精度
算出処理手順を示すフローチャート図。
FIG. 4 is a flowchart showing a bezel frame position high-accuracy calculation processing procedure in one embodiment of the present invention.

【図5】ベゼルエッジにおける輝度分布とその部分曲線
を例示した図。
FIG. 5 is a diagram exemplifying a luminance distribution at a bezel edge and a partial curve thereof.

【符号の説明】[Explanation of symbols]

───────────────────────────────────────────────────── フロントページの続き (72)発明者 北川 泰治 神奈川県横浜市戸塚区吉田町292番地株式 会社日立製作所生産技術研究所内 ──────────────────────────────────────────────────の Continuing on the front page (72) Inventor Taiji Kitagawa 292 Yoshida-cho, Totsuka-ku, Yokohama-shi, Kanagawa Pref.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】CRTディスプレイモニタに適当な照明を
照射してディスプレイモニタを撮像した画像と照明を消
灯して撮像した画像との差を計測することにより、ベゼ
ル枠の位置・形状を測定することを特徴とするCRTデ
ィスプレイモニタの枠位置・形状検出方法。
1. A method for measuring the position and shape of a bezel frame by irradiating an appropriate illumination to a CRT display monitor and measuring a difference between an image captured by the display monitor and an image captured by extinguishing the illumination. A method for detecting the position and shape of a frame of a CRT display monitor.
【請求項2】CRTディスプレイモニタのベゼル枠位置
を検出する方法であって、適当な照明を照射してディス
プレイモニタを撮像した画像と照明を消灯して撮像した
画像との違いを表す画像すなわち差画像を求めるステッ
プと、この差画像を定められたしきい値により2値化を
行うステップと、2値化された画像からディスプレイモ
ニタのベゼル枠の上下左右の4辺を求め、それぞれの辺
の輪郭点列の座標を元の差画像からサブピクセル精度で
求めるステップと、サブピクセル精度で求めた上下左右
の4辺の点列を直線、ないしは二次曲線等で近似し、そ
れらの交点を求めるステップを持ったCRTディスプレ
イモニタの枠位置・形状検出方法。
2. A method for detecting the position of a bezel frame of a CRT display monitor, comprising: an image representing a difference between an image obtained by irradiating an appropriate illumination on the display monitor and an image obtained by turning off the illumination, that is, a difference. An image obtaining step, a step of binarizing the difference image with a predetermined threshold value, and obtaining the four sides of the bezel frame of the display monitor from the binarized image. A step of obtaining the coordinates of the contour point sequence from the original difference image with sub-pixel accuracy, and approximating a point sequence of four sides of upper, lower, left and right obtained with sub-pixel accuracy by a straight line or a quadratic curve, and obtaining an intersection thereof A method for detecting the frame position / shape of a CRT display monitor having steps.
【請求項3】CRTディスプレイモニタのベゼル枠位置
を検出する方法であって、適当な照明を照射してディス
プレイモニタを撮像した画像と照明を消灯して撮像した
画像との違いを表す画像すなわち差画像を求めるステッ
プと、この差画像の2値化を行うステップと、この2値
化画像をラベリングするステップと、出てきたラベルの
中から画面枠内側を表す2値画像を抽出するステップ
と、この2値画像の輪郭追跡を行うステップと、抽出さ
れた輪郭点列を、上下左右の4辺に分割し、それぞれの
辺の輪郭点列の座標を元の差画像からサブピクセル精度
で求めるステップと、サブピクセル精度で求めた上下左
右の4辺の点列を直線、ないしは二次曲線等で近似し、
それらの交点を求めるステップを持ったCRTディスプ
レイモニタの枠位置・形状検出方法。
3. A method for detecting the position of a bezel frame of a CRT display monitor, comprising: an image representing a difference between an image obtained by irradiating an appropriate illumination on the display monitor and an image obtained by turning off the illumination, that is, a difference. A step of obtaining an image, a step of binarizing the difference image, a step of labeling the binarized image, and a step of extracting a binary image representing the inside of the screen frame from the labels that appear. A step of tracking the outline of the binary image and a step of dividing the extracted outline point sequence into four sides, that is, upper, lower, left, and right, and obtaining coordinates of the outline point sequence of each side from the original difference image with subpixel accuracy. And the point sequence of the four sides of the upper, lower, left and right obtained with sub-pixel accuracy is approximated by a straight line or a quadratic curve,
A method for detecting a frame position / shape of a CRT display monitor having a step of obtaining those intersections.
JP10001318A 1998-01-07 1998-01-07 Frame position/form detection method for crt display monitor Pending JPH11205823A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10001318A JPH11205823A (en) 1998-01-07 1998-01-07 Frame position/form detection method for crt display monitor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10001318A JPH11205823A (en) 1998-01-07 1998-01-07 Frame position/form detection method for crt display monitor

Publications (1)

Publication Number Publication Date
JPH11205823A true JPH11205823A (en) 1999-07-30

Family

ID=11498156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10001318A Pending JPH11205823A (en) 1998-01-07 1998-01-07 Frame position/form detection method for crt display monitor

Country Status (1)

Country Link
JP (1) JPH11205823A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004207852A (en) * 2002-12-24 2004-07-22 Denso Wave Inc Image communication system
US7239735B2 (en) 1999-12-16 2007-07-03 Nec Corporation Pattern inspection method and pattern inspection device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7239735B2 (en) 1999-12-16 2007-07-03 Nec Corporation Pattern inspection method and pattern inspection device
JP2004207852A (en) * 2002-12-24 2004-07-22 Denso Wave Inc Image communication system

Similar Documents

Publication Publication Date Title
JP6745173B2 (en) Image inspection apparatus, image inspection method, image inspection program, computer-readable recording medium, and recorded device
JP3185559B2 (en) Surface defect inspection equipment
JP4060558B2 (en) Defect inspection method and apparatus
JP2002148195A (en) Surface inspection apparatus and surface inspection method
JP3189588B2 (en) Surface defect inspection equipment
JP4320990B2 (en) Screen defect detection method and apparatus, and screen defect detection program
JPH08145906A (en) Method and equipment for inspection of defect of surface to be inspected
JPH0979988A (en) Surface defect inspecting device
JP3688520B2 (en) Surface inspection apparatus and surface inspection method
JPH09126744A (en) Device for inspecting coated film smoothness
JPH0629707B2 (en) Optical cutting line measuring device
JP3159063B2 (en) Surface defect inspection equipment
JPH11205823A (en) Frame position/form detection method for crt display monitor
JP3508518B2 (en) Appearance inspection method
JPH03175343A (en) Method for extracting flaw by inspection appearance
JP2005140655A (en) Method of detecting stain flaw, and stain flaw detector
JP2004219176A (en) Method and apparatus for detecting pixel irregulality failing
JP2006145228A (en) Unevenness defect detecting method and unevenness defect detector
JPH06281595A (en) Apparatus for detecting flaw on surface of object
JP3160838B2 (en) Surface defect inspection equipment
JPH1010053A (en) Inspection device for surface defect
JPH08159712A (en) Pattern recognition method
JP3055323B2 (en) Circular container inner surface inspection device
JP2955686B2 (en) Surface defect inspection equipment
JP2002140695A (en) Inspection method and its device