JPH0719289B2 - Multilayer discrimination method and apparatus - Google Patents

Multilayer discrimination method and apparatus

Info

Publication number
JPH0719289B2
JPH0719289B2 JP62279240A JP27924087A JPH0719289B2 JP H0719289 B2 JPH0719289 B2 JP H0719289B2 JP 62279240 A JP62279240 A JP 62279240A JP 27924087 A JP27924087 A JP 27924087A JP H0719289 B2 JPH0719289 B2 JP H0719289B2
Authority
JP
Japan
Prior art keywords
image
sample
image data
layer
perspective
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP62279240A
Other languages
Japanese (ja)
Other versions
JPH01121742A (en
Inventor
千弥 喜安
隆典 二宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP62279240A priority Critical patent/JPH0719289B2/en
Priority to US07/266,369 priority patent/US4910757A/en
Publication of JPH01121742A publication Critical patent/JPH01121742A/en
Publication of JPH0719289B2 publication Critical patent/JPH0719289B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Analysing Materials By The Use Of Radiation (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、多層構造を持った対象物の透視像を検出し、
観察あるいは検査を行う際に、各部分の存在層を判別す
るのに好適な、多層判別方法およびその装置に関するも
のである。
DETAILED DESCRIPTION OF THE INVENTION [Industrial application] The present invention detects a perspective image of an object having a multilayer structure,
The present invention relates to a multilayer discriminating method and its apparatus, which are suitable for discriminating the existing layer of each portion when performing observation or inspection.

〔従来の技術〕[Conventional technology]

通常、物体の透視像は、対象物にX線等の電磁波やα
線、β線等の粒子線を照射し、その透視強度を検出する
ことによって得られる。X線画像はこのような透視像の
代表例である。
Generally, a perspective image of an object is obtained by electromagnetic waves such as X-rays or α on the object.
It is obtained by irradiating a particle beam such as a ray or β ray and detecting the fluoroscopic intensity. An X-ray image is a typical example of such a fluoroscopic image.

従来これらの透視像では、複数の物体が重なった場合に
目視での前後関係の判断が困難になることが多かった。
このようなX線透視画像に対して両眼視法による奥行き
情報抽出を適用し、各物体を奥行の差で分離検出する方
法が、第24回計測自動制御学会学術講演会予稿集(198
5)第845頁から第846頁において述べられている。
Conventionally, in these perspective images, it is often difficult to visually determine the context when a plurality of objects overlap each other.
A method of applying depth information extraction by binocular vision to such an X-ray fluoroscopic image and separating and detecting each object by the depth difference is the proceedings of the 24th Annual Conference of the Society of Instrument and Control Engineers (198).
5) At pages 845-846.

両眼視法とは一般に、一定間隔離れた2点から対象の画
像を検出し、その2方向からの画像の視差をもとに、対
象までの距離を検出する手法である。
The binocular vision method is generally a method in which an image of a target is detected from two points separated by a constant distance and the distance to the target is detected based on the parallax of the images from the two directions.

上記従来技術では、まず第11図に示すように、一群の対
象物体を透視方向に対して垂直な軸のまわりに微小角Δ
θ回転させ、回転前と回転後の2枚の透視像を検出す
る。これは第12図に示すように、両眼により2方向から
対象を透視したことに相当する。これら2枚の透視像を
比較すると、個々の物体はその透視方向の奥行きに応じ
て微小量シフトしている。従ってシフト量の違いから、
各物体の奥行き情報を得ることができる。
In the above prior art, first, as shown in FIG. 11, a group of target objects are separated by a small angle Δ about an axis perpendicular to the perspective direction.
The image is rotated by θ and two perspective images before and after the rotation are detected. This corresponds to seeing through the object from two directions with both eyes as shown in FIG. When these two perspective images are compared, each object is shifted by a small amount according to the depth in the perspective direction. Therefore, due to the difference in shift amount,
The depth information of each object can be obtained.

上記公知例では、奥行き量h(x)は以下のように算出
される。
In the above-mentioned known example, the depth amount h (x) is calculated as follows.

シフト量の回転による影響は2次の微小量として無視す
ると、両透視画像f1(x)、f2(x)は ここでD=HsinΔθ と近似できる。ここでf1(x)、f2(x)の差をとる
と、 となるが、h(x)の空間変化がなめらかであり、物体
の大きさが距離Hに比べて十分小さいと仮定すれば、x
方向微分が となることよりh(x)が求められる。
If the effect of rotation of the shift amount is neglected as a secondary minute amount, both perspective images f 1 (x) and f 2 (x) are Here, it can be approximated as D = Hsin Δθ. Here, taking the difference between f 1 (x) and f 2 (x), However, if the spatial variation of h (x) is smooth and the size of the object is sufficiently smaller than the distance H, then x
Direction differential Therefore, h (x) is obtained.

よって、2枚の透視像より奥行き情報が得られる。Therefore, depth information can be obtained from two perspective images.

本従来技術は、以上のようにして抽出した奥行情報をも
とに、重なった物体を分離検出しようとするものであ
る。
This conventional technique is intended to separate and detect overlapping objects based on the depth information extracted as described above.

〔発明が解決しようとする問題点〕[Problems to be solved by the invention]

上記従来技術の方法は、対象を微小角Δθ回転させて検
出した2枚の透視像より奥行き情報を抽出し、奥行きの
差を用いて対象物体を判別分離しようとするものであ
る。上記の方法では、式(1)及び(2)における近似
を仮定している。従って奥行き量h(x)に対して、対
象物の大きさが小さくなるほど、回転角Δθも十分小さ
くしなければならない。ところが、Δθが小さくなけれ
ばなるほど、f1(x)とf2(x)の差も小さくなり、従
って(3)式の値が小さくなる。これは(3)式より求
められる奥行き量h(x)の精度が悪化することを示し
ている。このように、上記方法には、検出する奥行き量
に対して、対象物の大きさが十分大きくなければ適用で
きないという問題がある。
The above-mentioned method of the prior art is to extract depth information from two perspective images detected by rotating the target by a small angle Δθ, and to discriminate and separate the target object using the difference in depth. In the above method, the approximation in equations (1) and (2) Is assumed. Therefore, with respect to the depth amount h (x), the smaller the size of the object, the smaller the rotation angle Δθ must be. However, the smaller Δθ is, the smaller the difference between f 1 (x) and f 2 (x) is, and the smaller the value of the equation (3) is. This indicates that the accuracy of the depth amount h (x) obtained from the equation (3) deteriorates. As described above, the above method has a problem that it cannot be applied unless the size of the object is sufficiently large with respect to the detected depth amount.

両眼視による奥行き情報抽出に用いられる他の手法に
は、次のようなものがある。まず、一定間隔離れた2点
より対象物の画像を検出する。次に2枚の画像間で個々
の部分の対応関係を調べ、視差によるシフト量を検出す
る。そしてそのシフト量より三角測量の原理で対象の奥
行き情報を得る。通常2画像間の対応関係は、画像から
エッジなどの特徴量を抽出し、この特徴量が一致する部
分を2画像間で探索することにより検出される。本方法
は、奥行き量に対し対象物の大きさが十分大きくなくて
も適用できるという点では、上記従来技術よりも有利で
ある。しかし、本方法には、2画像間の対応点検出に膨
大な処理を要し、大量の処理時間が必要であるという問
題がある。
Other methods used for binocular depth information extraction include the following. First, the image of the object is detected from two points separated by a constant interval. Next, the correspondence between individual parts between the two images is checked to detect the shift amount due to parallax. Then, the depth information of the target is obtained from the shift amount by the principle of triangulation. Usually, the correspondence between two images is detected by extracting a feature amount such as an edge from the image and searching for a portion where the feature amounts match between the two images. This method is more advantageous than the above-mentioned conventional techniques in that it can be applied even if the size of the object is not sufficiently large with respect to the depth amount. However, this method has a problem that a huge amount of processing is required to detect corresponding points between two images and a large amount of processing time is required.

本発明の目的は、多層構造を持つ対象物の大きさに制限
されず、かつ高速に透視像上の部分から層判別を行うこ
とができるようにした多層判別方法及び装置を提供する
ことにある。
An object of the present invention is to provide a multi-layer discrimination method and apparatus which are not limited to the size of an object having a multi-layer structure and can perform high-speed layer discrimination from a portion on a perspective image. .

〔問題点を解決するための手段〕[Means for solving problems]

上記目的を達成するため、検出対象層のおおまかな存在
位置の情報を積極的に利用する。本発明では以下の手段
を用いて、検出対象層の情報を抽出する。
In order to achieve the above object, the information on the rough existence position of the detection target layer is positively used. In the present invention, the information of the detection target layer is extracted using the following means.

(1)多層構造を持った対象物を、層に垂直な軸のまわ
りに一定角Δθ回転させ、2方向からの透視像f
(θ1)、f(θ2)を検出する。
(1) An object having a multi-layer structure is rotated by a constant angle Δθ about an axis perpendicular to the layers, and a perspective image f from two directions is obtained.
1 ) and f (θ 2 ) are detected.

(2)すべての対象物がある特定層に存在すると仮定
し、Δθ回転させる前の対象物の画像f′(θ1)を、
f(θ2)より求める。
(2) Assuming that all objects exist in a certain layer, the image f ′ (θ 1 ) of the object before Δθ rotation is
Calculated from f (θ 2 ).

(3)f(θ1)とf′(θ1)を比較し、一致した部分
を抽出する。
(3) f (θ 1 ) is compared with f ′ (θ 1 ) and the coincident portion is extracted.

(4)抽出された部分は、仮定した層に存在すると判定
する。
(4) It is determined that the extracted portion exists in the assumed layer.

(5)上記(3)〜(5)の手順を異なる層に対して繰
り返すことにより、各部分の存在層を判別する。
(5) By repeating the above steps (3) to (5) for different layers, the existence layer of each portion is determined.

〔作用〕[Action]

上記手段を用いた透視像における層判別は、以下のよう
な原理に基づくものである。
The layer discrimination in a perspective image using the above means is based on the following principle.

多層構造を持つ対象物に対し、第2図のように層に垂直
でない方向から、平行ビームによって透視像検出を行う
場合を考える。本方法は、X線等の電磁波や、α線,β
線等の荷電粒子の発生点が検出対象物に比べて十分に小
さく、その発生点から放射状にそれらが発せられると見
做し得る、いわゆる点線源から放射された円錘ビームに
よる透視像に対しても、同様に適用可能である。いま、
層に垂直な方向にz軸をとり、対象物をこの軸まわりに
回転させる。すると第3図に示すように対象物中の1点
Pは、回転軸に垂直な平面H上で円を描いて移動する。
このとき、透視像上の点Pの対応点Qは、第3図に示す
ように点O′を中心とした楕円を描いて移動する。平行
ビームを用いた場合には、点O′は、平面Hと回転軸の
交点をOとしたとき、点Oの透視像上の対応点である。
従って、同一平面H上にあるすべての点は、透視像上で
同一の点O′を中心として楕円を描いて回転する。とこ
ろが、平面HのZ座標が異なれば、点O′の位置も異な
る。従って、透視像上の1点Qをとったとき、その点の
回転による移動の方向と距離は点Pが存在する平面Hの
Z座標によって異なる。
Consider a case where a perspective image is detected by a parallel beam from a direction not perpendicular to the layers as shown in FIG. 2 for an object having a multilayer structure. This method uses electromagnetic waves such as X-rays, α rays, β
For a perspective image by a cone beam emitted from a so-called point source, where the generation points of charged particles such as lines are sufficiently small compared to the detection target, and it can be considered that they are emitted radially from the generation points. However, the same is applicable. Now
The z axis is taken in the direction perpendicular to the layers and the object is rotated around this axis. Then, as shown in FIG. 3, one point P in the object moves in a circle on a plane H perpendicular to the rotation axis.
At this time, the corresponding point Q of the point P on the perspective image moves in an ellipse centered on the point O'as shown in FIG. When a parallel beam is used, the point O ′ is the corresponding point on the perspective image of the point O, where O is the intersection of the plane H and the rotation axis.
Therefore, all the points on the same plane H rotate by drawing an ellipse around the same point O'on the perspective image. However, if the Z coordinate of the plane H is different, the position of the point O'is also different. Therefore, when one point Q on the perspective image is taken, the direction and distance of movement by the rotation of the point differ depending on the Z coordinate of the plane H on which the point P exists.

以上の原理に基づき、本発明では対象物をΔθ回転させ
た2枚の透視像f(θ1)、f(θ2)を検出し、それを
相互に比較することによって対象物の層判別を行う。上
記原理によると、f(θ1)、f(θ2)から透視像上で
の回転による移動を検出できれば、その部分の層判別が
可能である。しかし、2枚の画像の対応関係を見出し、
移動状態を検出するのは困難を伴う。そこで本発明は、
多層構造を持った対象物では、検出対象部分の存在領域
はある幅を持ったいくつかの既知の層に限定されている
ことを利用する。
Based on the above principle, in the present invention, two perspective images f (θ 1 ) and f (θ 2 ) obtained by rotating the object by Δθ are detected, and the layers are discriminated by comparing them with each other. To do. According to the above principle, if the movement due to the rotation on the perspective image can be detected from f (θ 1 ) and f (θ 2 ), the layer discrimination of that portion can be performed. However, finding the correspondence between the two images,
It is difficult to detect the moving state. Therefore, the present invention is
For an object having a multi-layered structure, it is used that the existence region of the detection target portion is limited to several known layers having a certain width.

対象物の中である1つの層Xに着目すると、その層に存
在する部分の透視像上での移動は、あらかじめ予測する
ことができる。従ってすべての対象部分が層Xにだけ存
在する場合には、画像f(θ2)は画像f(θ1)の全画
素を、この予測に従って楕円回転移動したものと一致す
る。また同様にf(θ2)を逆向きに回転させたもの
は、f(θ1)と一致する。よって対象をΔθ回転させ
た前後の透視像は、一方のみからもう一方を求めること
ができる。
Focusing on one layer X in the object, the movement of the portion existing in that layer on the perspective image can be predicted in advance. Therefore, if all the target parts exist only in the layer X, the image f (θ 2 ) coincides with all the pixels of the image f (θ 1 ) rotated by an ellipse according to this prediction. Similarly, when f (θ 2 ) is rotated in the opposite direction, it coincides with f (θ 1 ). Therefore, the perspective images before and after the subject is rotated by Δθ can be obtained from only one.

ここでこの事実を利用し、まずf(θ2)を層Xを基準
としてf(θ1)に一致するように回転させる。これを
f′(θ1)とする。この操作は、対象部分が層Xにの
み存在すると仮定し、Δθ回転させる前の画像を求めた
ことにあたる。(第4図(b))f(θ1)と、f′
(θ1)を比較すると層Xに存在する部分29は一致して
いる。しかし、f(θ1)、f(θ2)には層X以外に存
在する部分30の像も含まれているのでこの部分30は一致
しない。ここで第4図(c)に示すように、一致した部
分を抽出することにより、f(θ1)の中から、層Xに
存在する部分29を抽出することができる。以上の手順を
すべての層に対して順次実施すると、各層に存在する部
分を個別に抽出することが可能である。
Here, utilizing this fact, f (θ 2 ) is first rotated so that it coincides with f (θ 1 ) with reference to the layer X. Let this be f ′ (θ 1 ). This operation corresponds to obtaining the image before rotating by Δθ, assuming that the target portion exists only in the layer X. (Fig. 4 (b)) f (θ 1 ) and f '
Comparing (θ 1 ), the portions 29 existing in the layer X are in agreement. However, since f (θ 1 ) and f (θ 2 ) also include the image of the portion 30 existing other than the layer X, the portions 30 do not match. Here, as shown in FIG. 4 (c), by extracting the coincident portion, the portion 29 existing in the layer X can be extracted from f (θ 1 ). When the above procedure is sequentially performed for all layers, it is possible to individually extract the portions existing in each layer.

〔実施例〕〔Example〕

以下本発明を図に示す実施例に基いて説明する。 The present invention will be described below based on the embodiments shown in the drawings.

第1図は本発明の多層判別方法を実施する装置の一実施
例を示す図である。この実施例は、両面実装基板など多
重構造を持つ回路基板において、はんだ付部の観察及び
欠陥検出をX線画像により行う際に好適な装置である。
1はX線源、2は多層構造の検査基板3を載置するシー
タステージ、4はシータステージ2を回転させるモー
タ、5はモータ4の回転出力をシータステージ2に伝達
するゴムベルト、6は透過像を撮像するイメージインテ
ンシファイア、7はΔθ、h等を指令すると共に同期信
号を発生する全体制御部、9は上記シータステージを回
転させるべく、モータ4を駆動するステージ駆動回路、
10はイメージインテンシフアイアから得られる映像信号
を増幅する増幅器、11は増幅器10から得られる映像信号
を多値信号に変換するA/D変換器である。
FIG. 1 is a diagram showing an embodiment of an apparatus for carrying out the multi-layer discrimination method of the present invention. This embodiment is an apparatus suitable for observing soldering portions and detecting defects by X-ray images in a circuit board having a multiple structure such as a double-sided mounting board.
1 is an X-ray source, 2 is a theta stage on which a multilayer inspection board 3 is mounted, 4 is a motor for rotating the theta stage 2, 5 is a rubber belt for transmitting the rotational output of the motor 4 to the theta stage 2, and 6 is a transmission. An image intensifier for picking up an image, 7 is an overall control unit for instructing Δθ, h and the like and generating a synchronizing signal, 9 is a stage drive circuit for driving the motor 4 to rotate the theta stage,
Reference numeral 10 is an amplifier that amplifies a video signal obtained from the image intensifier, and 11 is an A / D converter that converts the video signal obtained from the amplifier 10 into a multilevel signal.

本実施例では、検査基板3は、たとえば第5図(a)に
断面図を示すような両面実装回路基板や、第5図(b)
に断面図を示す多重構造回路基板である。第5図(a)
の回路基板においては、IC31a、31bのICリード32が、は
んだ付部33a、bにより、両面プリント基板34と接続さ
れる。基板両面の対称位置にIC31a、31bが実装される場
合には、基板に垂直な方向からX線画像を検出すると、
基板両面のはんだ付部33a、33bが重なって検出され、両
はんだ付部の弁別が不可能となる。従って、透視方向を
基板に対し斜め上方とすることは、この場合特に不可欠
である。第5図(b)の回路基板においては、IC31a、3
1bのICリード32が、はんだ付部33aによりプリント基板3
6に接続され、さらにその基板接続リード37が、はんだ
付部33bによりプリント基板L35と接続される。はんだ付
部33a、33bは、上下2層にわたって存在している。本実
施例は、以上のような検査基板のX線画像検出におい
て、画像上のはんだ付各部分が、両面基板のどちらの
面、あるいは多重構造基板のどの層にあるかの判別を、
透視像の検出と同時に行うことを目的とする。
In the present embodiment, the inspection board 3 is, for example, a double-sided mounting circuit board whose sectional view is shown in FIG. 5 (a), or FIG. 5 (b).
It is a multi-structure circuit board whose cross-sectional view is shown in FIG. Fig. 5 (a)
In this circuit board, the IC leads 32 of the ICs 31a and 31b are connected to the double-sided printed board 34 by the soldering portions 33a and 33b. When the ICs 31a and 31b are mounted at symmetrical positions on both sides of the board, when the X-ray image is detected from the direction perpendicular to the board,
The soldered portions 33a and 33b on both surfaces of the board are detected to be overlapped, and it becomes impossible to discriminate both soldered portions. Therefore, it is particularly indispensable in this case to set the perspective direction obliquely above the substrate. In the circuit board of FIG. 5 (b), IC31a, 3
The IC lead 32 of 1b is connected to the printed circuit board 3 by the soldering part 33a.
6, and the board connecting lead 37 is connected to the printed board L35 by the soldering portion 33b. The soldered portions 33a and 33b are present in two layers, upper and lower. In the present embodiment, in the X-ray image detection of the inspection board as described above, it is possible to determine which surface of the double-sided board or which layer of the multi-structure board each soldering portion on the image is.
It is intended to be performed simultaneously with the detection of the fluoroscopic image.

第1図に示すように多層構造対象物である検査基板3
は、モータ4により回転可能なシータステージ2の上に
置かれ、その上方に設置されたX線源1よりX線が照射
される。X線のエネルギー及び線量は、X線制御部7に
おいて、X線発生電圧及び電流を調節することにより可
変できる。シータステージ2の傾斜角は固定とする必
要はないが、しかしその値は、常に画像回転処理部13に
与えられていなければならない。X線画像の検出及び層
判別処理の流れは、全体制御部8により制御される。全
体制御部8は、全体の制御手順をプログラムしたマイク
ロコンピュータにより構成される。検査基板3を透過し
たX線は、イメージインテンシファイア6により検出さ
れ、増幅器10により増幅される。全体制御部8は、まず
この信号をA/D変換器11で変換し、多値画像として画像
メモリ12aに記憶する。次にステージ駆動回路9を通し
てモータ4を駆動し、シータステージ2を角度Δθ回転
させる。そして同様に、X線透過像を画像メモリ12bに
記憶する。これで2方向から検出した透視像f(θ1
及びf(θ2)が得られる。次に全体制御部8は、画像
回転処理部13を起動する。そして、画像メモリ12bに記
憶された画像f(θ2)の各画素を、層判別を行おうと
する特定層を基準として(即ち特定層のZs座標であるh
を指定させて)回転させ、ステージをΔθ回転させる前
の位置に変換して、画像メモリ12cに出力する。画像回
転処理部13は、演算処理を行うマイクロコンピュータ
と、処理手順を記録したメモリから構成される。この部
分は、全体制御部8を構成するマイクロコンピュータ及
びプログラムメモリを、共用することも可能である。画
像回転処理部13における処理内容は、具体的には、以下
の通りである。イメージインテンシファイア6により画
像が検出される撮像面、及びシータステージ2に平行な
層平面39について、それぞれ座標を第6図のように設定
する。X線源1の線源S38より撮像面26に下した垂線の
足をxy座標の原点Oとし、xsyszs座標の原点Os(Zs軸と
直線SOの交点)は、SとOを結んだ直線上にあるとす
る。そして、シータステージ2の回転軸はZs軸に一致し
ているものとする。この座標系において、xsyszs空間内
のzsがhなる層平面39の1点P(xs、ysh)が、撮像面
26上の点Q(X、y)に対応しているとする。今、シー
タステージ2を反時計方向を正として−Δθ回転させた
とき、点Qが点Q′(x′、y′)まで移動したとする
と、点QからQ′への変換は以下の式で表される。
As shown in FIG. 1, the inspection board 3 which is a multilayer structure object
Is placed on a theta stage 2 rotatable by a motor 4, and X-rays are emitted from an X-ray source 1 installed above it. The X-ray energy and dose can be changed by adjusting the X-ray generation voltage and current in the X-ray controller 7. The inclination angle of the theta stage 2 does not have to be fixed, but its value must always be given to the image rotation processing unit 13. The flow of X-ray image detection and layer discrimination processing is controlled by the overall control unit 8. The overall control unit 8 is composed of a microcomputer programmed with the overall control procedure. The X-ray transmitted through the inspection substrate 3 is detected by the image intensifier 6 and amplified by the amplifier 10. The overall controller 8 first converts this signal by the A / D converter 11 and stores it as a multi-valued image in the image memory 12a. Next, the motor 4 is driven through the stage drive circuit 9 to rotate the theta stage 2 by an angle Δθ. Then, similarly, the X-ray transmission image is stored in the image memory 12b. With this, the perspective image f (θ 1 ) detected from two directions
And f (θ 2 ) are obtained. Next, the overall control unit 8 activates the image rotation processing unit 13. Then, each pixel of the image f (θ 2 ) stored in the image memory 12b is based on a specific layer for which layer discrimination is to be performed (that is, h is the Zs coordinate of the specific layer).
Is rotated), the stage is converted to the position before being rotated by Δθ, and is output to the image memory 12c. The image rotation processing unit 13 includes a microcomputer that performs arithmetic processing and a memory that records a processing procedure. This part can also share the microcomputer and program memory that form the overall control unit 8. The processing contents of the image rotation processing unit 13 are specifically as follows. Coordinates are set as shown in FIG. 6 on the imaging plane on which the image is detected by the image intensifier 6 and the layer plane 39 parallel to the theta stage 2. The foot of the perpendicular line from the radiation source S38 of the X-ray source 1 to the imaging surface 26 is the origin O of the xy coordinates, and the origin Os of the xsyszs coordinates (the intersection of the Zs axis and the straight line SO) is on the straight line connecting S and O. Suppose The rotation axis of the theta stage 2 is assumed to coincide with the Zs axis. In this coordinate system, one point P (xs, ysh) of the layer plane 39 where zs in the xsyszs space is h is the imaging plane.
It is assumed that it corresponds to the point Q (X, y) on 26. Now, if the point Q moves to the point Q '(x', y ') when the theta stage 2 is rotated by -.DELTA..theta. With the counterclockwise direction being positive, the conversion from the point Q to Q' It is represented by.

L、dは予め決められた寸法である。は固定の場合は
決められた寸法であり、可変する場合には検出器(図示
せず)によって検出される傾斜角である。hはZs座標値
であるから、多層構造物の検査基板3の層位置に対応
し、順次変化させて指定される。
L and d are predetermined dimensions. Is a fixed size when fixed, and is a tilt angle detected by a detector (not shown) when variable. Since h is the Zs coordinate value, it corresponds to the layer position of the inspection board 3 of the multilayer structure and is designated by sequentially changing.

ところで、画像メモリ12bに記憶された画像データは、
n×nの2次元配列で表され、上記撮像面座標(x,y)
と、第7図に示すように対応するものとする。そこで画
像メモリ12bに記憶された撮像f(θ2)を、画像回転処
理部13においてZs=hの層平面39を基準として、Δθ回
転させる前の画像f′(θ1)に変換するには、次の手
順を用いる。即ち画像回転処理部13は、全体制御部8か
らの指令に基いて画像f(θ1)の画素(i,j)(第7図
(a))について画像メモリ12bの番地である座標(x
i、yj)を順次変えていって指定されたΔθ及びh
(、d、Lは予め決められた寸法とする)に基いて上
述の変換式により座標(xi′、yj′)を演算して求め
る。そして画像回転処理部13は画像メモリ12bの番地(x
i、yj)に記憶された画素(i、j)の多値データを読
み出して画像メモリ12cの番地(xi′、yj′)の画素
(i′、j′)に書き込む。
By the way, the image data stored in the image memory 12b is
Represented by an n × n two-dimensional array, the above-mentioned imaging plane coordinates (x, y)
And correspond as shown in FIG. Therefore, in order to convert the imaged f (θ 2 ) stored in the image memory 12b into an image f ′ (θ 1 ) before being rotated by Δθ with reference to the layer plane 39 of Zs = h in the image rotation processing unit 13. , Use the following procedure. That is, the image rotation processing unit 13 receives the coordinates (x, which is the address of the image memory 12b for the pixel (i, j) of the image f (θ 1 ) (FIG. 7A) based on the instruction from the overall control unit 8.
i, yj) are sequentially changed and designated Δθ and h
The coordinates (xi ', yj') are calculated by the above conversion formula based on (, d, L are predetermined dimensions). Then, the image rotation processing unit 13 determines the address (x
The multi-valued data of the pixel (i, j) stored in i, yj) is read and written in the pixel (i ', j') of the address (xi ', yj') of the image memory 12c.

以上の操作すべての画素(i、j)について行うと、画
像メモリ12cには、画像f′(θ1)が記憶される。ただ
し(i′、j′)が画像の範囲をはみ出たものについて
は無視する。
When the above operation is performed for all the pixels (i, j), the image f ′ (θ 1 ) is stored in the image memory 12c. However, if (i ', j') exceeds the range of the image, it is ignored.

以上の処理により画像メモリ12cに画像f′(θ1)が得
られる。最後に、全体制御部8はエッジ検出回路14a、1
4bを動作させ、画像メモリ12a及び12cに記憶された画像
f(θ1)及びf′(θ1)について、エッジ検出を行な
う。エッジ検出は、両画像間で同期して行われ、対応し
た画素の一致がAND回路15により即座に検出されて画像
メモリ12dに2値画像として書き込まれる。これによ
り、Zs=hに対応した特定層に存在するはんだ付部のエ
ッジ画像が、画像メモリ12dに得られる。エッジ検出回
路14a、14bは、ここでは第8図に示す回路により構成で
きる。多値画像データは、画像メモリ12aより順次読出
し回路42により図に示したように順次読出され、シフト
レジスタ43a及び43bに送られる。シフトレジスタはn段
(43a、43b)及び3段(44a、44b、44c)のものが図の
ように接続され、画像メモリ12a内のある3×3領域の
データが、A〜Iに得られる。A〜Iの値は積和演算LS
I45に送られ、エッジ検出のための演算が行われる。た
とえば、エッジ検出オペレーターとしてラプラシアンを
利用する場合には、Ex4−B−D−F−Hを計算すれば
よい。この結果は閾値回路46に送られ、あらかじめ定め
た一定の値以上であればH、それ以外ではLの信号が出
力される。
By the above processing, the image f '(θ 1 ) is obtained in the image memory 12c. Finally, the overall control unit 8 uses the edge detection circuits 14a, 1
4b is operated to perform edge detection on the images f (θ 1 ) and f ′ (θ 1 ) stored in the image memories 12a and 12c. The edge detection is performed in synchronization between both images, and the coincidence of corresponding pixels is immediately detected by the AND circuit 15 and written as a binary image in the image memory 12d. As a result, the edge image of the soldered portion existing in the specific layer corresponding to Zs = h is obtained in the image memory 12d. The edge detection circuits 14a and 14b can be configured by the circuit shown in FIG. 8 here. The multi-valued image data is sequentially read from the image memory 12a by the sequential reading circuit 42 as shown in the figure and sent to the shift registers 43a and 43b. The shift registers having n stages (43a, 43b) and three stages (44a, 44b, 44c) are connected as shown in the figure, and data of a certain 3 × 3 area in the image memory 12a is obtained in A to I. . The values of A to I are the sum of products operation LS
It is sent to I45, and calculation for edge detection is performed. For example, when Laplacian is used as the edge detection operator, Ex4−B−D−F−H may be calculated. This result is sent to the threshold circuit 46, and an H signal is output if it is equal to or greater than a predetermined constant value, and an L signal is output otherwise.

なお、本実施例によれば、エッジ検出の出力を画像メモ
リに記憶せずに、一致検出が行えるので、メモリの容量
が比較的少なくて良いという点が有利である。
According to the present embodiment, coincidence detection can be performed without storing the output of edge detection in the image memory, which is advantageous in that the memory capacity can be relatively small.

第9図に第2の実施例を示す。X線画像を検出し、画像
メモリ12a,12bに記憶するまでは、第1の実施例と全く
同一である。その後、前実施例では、多値画像に対して
画像回転処理を行った後、エッジ検出を行い、一致する
エッジを抽出して層判別結果を得る。本実施例は、画像
メモリ12bに記憶されたX線画像に対してまずエッジ検
出回路14bでエッジ検出を行い、エッジ画像を画像メモ
リ12cに得る。次にこの2値画像を用いて、前実施例と
同様に全体制御部8からのΔθ、h等の指令に基いて画
像回転処理部13において画像回転処理を行い、結果を画
像メモリ12dに記憶する。そして最後に、これを順次読
出し回路43で1画素ずつ読出しながら、前実施例と同様
にAND回路15で一致検出を行い、層判別結果を得る。こ
のように画像回転処理部13における画像回転処理を2値
画像で行うため、処理が高速になるという利点がある。
FIG. 9 shows a second embodiment. The procedure until the X-ray image is detected and stored in the image memories 12a and 12b is exactly the same as that of the first embodiment. After that, in the previous embodiment, after the image rotation processing is performed on the multi-valued image, edge detection is performed and the matching edges are extracted to obtain the layer discrimination result. In this embodiment, the edge detection circuit 14b first performs edge detection on the X-ray image stored in the image memory 12b to obtain the edge image in the image memory 12c. Next, using this binary image, image rotation processing is performed in the image rotation processing unit 13 based on commands such as Δθ, h from the overall control unit 8 as in the previous embodiment, and the result is stored in the image memory 12d. To do. Then, finally, while sequentially reading this pixel by pixel, the AND circuit 15 performs coincidence detection as in the previous embodiment, and the layer discrimination result is obtained. Since the image rotation processing in the image rotation processing unit 13 is performed on the binary image as described above, there is an advantage that the processing speed becomes high.

第10図に第3の実施例を示す。本実施例は、第2の実施
例に対し、X線画像からはんだ像のみを抽出する手段を
付加したものである。X線画像を直接用いて層判別処理
を行うのではなく、X線画像から一度はんだ像を抽出
し、それに対して同様の処理を行うものである。対象物
が、はんだ以外にはX線吸収率の高い材質を含む場合、
たとえば基板の配線材としてタングステンが使用されて
いる場合などに、はんだ付部の検出を有効に行えるとい
う利点がある。本実施例で用いる手法は、波長の異なる
X線に対する吸収率の差を利用して、はんだ像のみを顕
在化させるものであり、特願昭61−114504に述べられて
いる。X線源1とシータステージ2の間には、フィルタ
49を設け、X線照射路に、数種の暑さの銅板を挿入でき
るようにする。X線スペクトルは、X線発生電圧と、銅
板フィルタの厚さを調節することにより、変化させるこ
とができる。全体制御部8は、X線制御部7とフィルタ
駆動回路50を制御して照射X線の波長を変化させ、異な
る波長で検出したX線画像を画像メモリ12a及び12bに記
憶させる。次にこれらのX線画像を、はんだ像抽出部51
aで処理し、はんだ像のみを顕在化した結果を画像メモ
リ12eに記憶させる。はんだ像抽出部51a、51bは、マイ
クロコンピュータ及び処理手順をプログラムしたメモリ
により構成することができる。処理手順については、上
記特許明細書に述べられている。全体制御部8は、ステ
ージ駆動回路9を用いてシータステージ2をΔθ回転さ
せ、同様にはんだ像を抽出して画像メモリ12fに記憶す
る。この後は、第2の実施例と同一の処理がなされ、層
判別出力が得られる。
FIG. 10 shows a third embodiment. In this embodiment, a means for extracting only a solder image from an X-ray image is added to the second embodiment. Instead of directly using the X-ray image to perform the layer discrimination process, the solder image is extracted once from the X-ray image and the same process is performed on the extracted solder image. If the target contains a material with a high X-ray absorption rate other than solder,
For example, when tungsten is used as the wiring material of the substrate, there is an advantage that the soldered portion can be effectively detected. The method used in this embodiment is to make only the solder image visible by utilizing the difference in the absorptance with respect to X-rays having different wavelengths, and is described in Japanese Patent Application No. 61-114504. A filter is provided between the X-ray source 1 and the theta stage 2.
49 is provided so that a copper plate of several kinds of heat can be inserted into the X-ray irradiation path. The X-ray spectrum can be changed by adjusting the X-ray generation voltage and the thickness of the copper plate filter. The overall control unit 8 controls the X-ray control unit 7 and the filter driving circuit 50 to change the wavelength of the irradiation X-ray, and stores the X-ray images detected at different wavelengths in the image memories 12a and 12b. Next, these X-ray images are used as the solder image extracting unit 51.
The image memory 12e stores the result of processing in step a and revealing only the solder image. The solder image extracting units 51a and 51b can be configured by a microcomputer and a memory programmed with a processing procedure. The processing procedure is described in the above patent specification. The overall control unit 8 rotates the theta stage 2 by Δθ using the stage drive circuit 9 and similarly extracts the solder image and stores it in the image memory 12f. After that, the same processing as in the second embodiment is performed, and the layer discrimination output is obtained.

〔発明の効果〕〔The invention's effect〕

以上説明した通り、本発明によれば、物体が存在する層
を複数有する多層構造からなる試料に、X線などの電磁
波や、α線,β線等の粒子線を照射し、試料の透視像を
検出することにより、各物体が存在するそれぞれの層
を、試料の大きさに制限されず、かつ高速に判別するこ
とが可能になる。
As described above, according to the present invention, a sample having a multilayer structure having a plurality of layers in which an object is present is irradiated with electromagnetic waves such as X-rays and particle beams such as α-rays and β-rays to obtain a perspective image of the sample. By detecting, the respective layers in which the respective objects are present can be discriminated at high speed without being limited by the size of the sample.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明の多層判別装置の一実施例を示す装置の
概略構成を示す図、第2図は多層構造の対象物の透視方
向を示す縦断面図、第3図は本発明の原理を説明する斜
視図、第4図は本発明の原理を説明する透視像の模式
図、第5図は本発明を適用する回路基板の例を示す縦断
面図、第6図は画像回転処理における座標系の設定を示
す斜視図、第7図は画像データを座標の関係を示す説明
図、第8図はエッジ検出回路の構成を示すブロック図、
第9図は本発明の多層判別装置の他の一実施例を示す
図、第10図は更に本発明の多層判別装置の他の実施例を
示す図、第11図は両眼視法に用いる透視像の検出法を示
す斜視図、第12図は両眼視法の原理を示す図である。 1……X線源、2……シータステージ、3……検査基
板、6……イメージインテンシファイア、7……X線制
御部、8……全体制御部、9……ステージ駆動回路、11
……A/D変換器、12a、12b、12c、12d、12e、12f、12g、
12h、12i……画像メモリ、13……画像回転処理部、14
a、14b……エッジ検出回路、15……AND回路、16……層
判別出力、17……透視画像、26……撮像面、39……層平
面、42……順次読出し回路、43a、43b……シフトレジス
タ(n段)、44a、44b、44c……シフトレジスタ(3
段)、45……積和演算LSI、46……閾値回路、47……エ
ッジ信号、48……フィルタ、49……フィルタ切換モー
タ、50……フィルタ駆動回路、51a、51b……はんだ像抽
出部。
FIG. 1 is a diagram showing a schematic configuration of an apparatus showing an embodiment of a multilayer discriminating apparatus of the present invention, FIG. 2 is a longitudinal sectional view showing a perspective direction of an object having a multilayer structure, and FIG. 3 is a principle of the present invention. 4 is a perspective view for explaining the principle of the present invention, FIG. 4 is a schematic view of a perspective image for explaining the principle of the present invention, FIG. 5 is a longitudinal sectional view showing an example of a circuit board to which the present invention is applied, and FIG. FIG. 7 is a perspective view showing the setting of the coordinate system, FIG. 7 is an explanatory view showing the relationship of the coordinates of the image data, and FIG. 8 is a block diagram showing the configuration of the edge detection circuit.
FIG. 9 is a diagram showing another embodiment of the multi-layer discrimination device of the present invention, FIG. 10 is a diagram showing another embodiment of the multi-layer discrimination device of the present invention, and FIG. 11 is used for binocular vision. FIG. 12 is a perspective view showing a method of detecting a perspective image, and FIG. 12 is a view showing the principle of binocular vision. 1 ... X-ray source, 2 ... Theta stage, 3 ... Inspection substrate, 6 ... Image intensifier, 7 ... X-ray control unit, 8 ... Overall control unit, 9 ... Stage drive circuit, 11
... A / D converter, 12a, 12b, 12c, 12d, 12e, 12f, 12g,
12h, 12i ... Image memory, 13 ... Image rotation processing unit, 14
a, 14b ... edge detection circuit, 15 ... AND circuit, 16 ... layer discrimination output, 17 ... perspective image, 26 ... imaging plane, 39 ... layer plane, 42 ... sequential readout circuit, 43a, 43b ...... Shift register (n stages), 44a, 44b, 44c ...... Shift register (3
Stage), 45 ... Sum of products calculation LSI, 46 ... Threshold circuit, 47 ... Edge signal, 48 ... Filter, 49 ... Filter switching motor, 50 ... Filter drive circuit, 51a, 51b ... Solder image extraction Department.

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】物体が存在する層を複数有する多層構造か
らなる試料の第1の透視像を前記試料に対して傾斜した
面内で検出して得た第1の画像データと、前記試料に対
して垂直な軸の周りに所定の角度回転させた前記試料の
前記面内での第2の透視像を検出して得た第2の画像デ
ータとに基づいて前記試料の所望の層上に存在する物体
を判別することを特徴とする多層判別方法。
1. A first image data obtained by detecting a first perspective image of a sample having a multilayer structure having a plurality of layers in which an object is present in a plane inclined with respect to the sample, and On the desired layer of the sample based on second image data obtained by detecting a second perspective image in the plane of the sample rotated by a predetermined angle about an axis perpendicular thereto. A multi-layer discrimination method characterized by discriminating an existing object.
【請求項2】前記物体の判別は、前記第2の画像データ
を前記回転と逆方向に前記所定の角度だけ戻した第3の
画像データを演算により求め、該第3の画像データと前
記第1の画像データとを比較することにより行うことを
特徴とする特許請求の範囲第1項記載の多層判別方法。
2. The object is discriminated by calculating third image data obtained by returning the second image data by the predetermined angle in a direction opposite to the rotation, and calculating the third image data and the third image data. The multi-layer discrimination method according to claim 1, wherein the multi-layer discrimination method is performed by comparing with one image data.
【請求項3】前記第1の画像データと前記第3の画像デ
ータとの比較は、前記第1の画像データのエッジ情報と
前記第3の画像データのエッジ情報とを比較することに
より行うことを特徴とする特許請求の範囲第1項記載の
多層判別方法。
3. The comparison between the first image data and the third image data is performed by comparing the edge information of the first image data with the edge information of the third image data. The multi-layer discrimination method according to claim 1, wherein
【請求項4】前記第1の画像データと前記第2の画像デ
ータとが、前記試料上に存在するはんだに対応する画像
データであることを特徴とする特許請求の範囲第1項記
載の多層判別方法。
4. The multi-layer according to claim 1, wherein the first image data and the second image data are image data corresponding to solder existing on the sample. How to determine.
【請求項5】物体が存在する層を複数有する多層構造か
らなる試料を載置し該試料を該試料に対して垂直な軸の
周りに所定の角度回転させる載置回転手段と、前記試料
に対して傾斜した面内で前記試料を透視して該透視した
像を検出する透視像検出手段と、前記試料を前記載置回
転手段で前記所定の角度回転させる前に前記透視像検出
手段で検出した第1の透視した像と前記所定の角度回転
させたあとに検出した第2の透視した像とに基づいて前
記試料の所望の層上に存在する物体を判別する比較判別
手段とを有することを特徴とする多層判別装置。
5. A mounting and rotating means for mounting a sample having a multilayer structure having a plurality of layers in which an object is present and rotating the sample by a predetermined angle around an axis perpendicular to the sample, A perspective image detecting means for seeing through the sample in a plane inclined with respect to it and detecting the see-through image; and a perspective image detecting means for detecting the perspective image before the sample is rotated by the predetermined rotation means by the predetermined angle. And a comparing and judging means for judging an object existing on a desired layer of the sample based on the first transparent image and the second transparent image detected after being rotated by the predetermined angle. A multi-layer discrimination device characterized by:
【請求項6】前記透視像検出手段は、前記試料にX線を
照射するX線照射部と、前記試料に対して前記X線照射
部と反対側に位置して前記試料に照射され前記試料を透
過したX線による前記試料の像を検出する像検出部とか
らなることを特徴とする特許請求の範囲第5項記載の多
層判別装置。
6. The fluoroscopic image detecting means is an X-ray irradiating section for irradiating the sample with X-rays, and the sample is irradiated with the X-ray irradiating section positioned opposite to the X-ray irradiating section. 6. The multi-layer discrimination apparatus according to claim 5, further comprising an image detection unit that detects an image of the sample by X-rays that have passed through.
【請求項7】前記比較判別手段は、前記第1の透視した
像と前記第2の透視した像とを記憶する像記憶部と、該
記憶部で記憶した前記第2の透視した像を前記回転と逆
方向に前記所定の角度回転させた第3の像を演算して求
める演算処理部と、前記第3の像と前記第1の透視した
像とを比較して前記試料の所望の層上に存在する物体を
判別する判別部とからなることを特徴とする特許請求の
範囲第5項記載の多層判別装置。
7. The comparison / determination means stores the first perspective image and the second perspective image in an image storage section, and the second perspective image stored in the storage section. A desired layer of the sample is obtained by comparing the third image and the first perspective image with an arithmetic processing unit that calculates and obtains the third image rotated by the predetermined angle in the direction opposite to the rotation. The multi-layer discrimination apparatus according to claim 5, further comprising a discrimination unit that discriminates an object existing above.
【請求項8】前記像記憶部は、前記第1の透視した像と
前記第2の透視した像とからそれぞれ前記試料の第1の
はんだの像と第2のはんだの像とを抽出するはんだ像検
出回路部と、該抽出した第1のはんだの像と第2のはん
だの像とを記憶するはんだ像記憶部とからなり、前記演
算処理部は前記第2のはんだ像のデータに基づいて第3
の像を演算して求めることを特徴とする特許請求の範囲
第7項記載の多層判別装置。
8. The solder for extracting the first solder image and the second solder image of the sample from the first see-through image and the second see-through image, respectively. An image detection circuit unit and a solder image storage unit that stores the extracted first solder image and second solder image, and the arithmetic processing unit is based on the second solder image data. Third
8. The multilayer discriminating apparatus according to claim 7, wherein the image is calculated and obtained.
【請求項9】前記判別部は、前記第3の像と前記第1の
透視した像とのそれぞれのエッジ情報を抽出するエッジ
検出回路部と、該エッジ検出回路部で検出したそれぞれ
のエッジ情報を比較することにより前記試料の所望の層
上に存在する物体を判別する判別回路部とからなること
を特徴とする特許請求の範囲第7項記載の多層判別装
置。
9. An edge detection circuit section for extracting edge information of each of the third image and the first perspective image, and each edge information detected by the edge detection circuit section. 8. The multi-layer discriminating apparatus according to claim 7, further comprising: a discriminating circuit section that discriminates an object existing on a desired layer of the sample by comparing.
JP62279240A 1987-11-06 1987-11-06 Multilayer discrimination method and apparatus Expired - Lifetime JPH0719289B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP62279240A JPH0719289B2 (en) 1987-11-06 1987-11-06 Multilayer discrimination method and apparatus
US07/266,369 US4910757A (en) 1987-11-06 1988-11-02 Method and apparatus for X-ray imaging

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62279240A JPH0719289B2 (en) 1987-11-06 1987-11-06 Multilayer discrimination method and apparatus

Publications (2)

Publication Number Publication Date
JPH01121742A JPH01121742A (en) 1989-05-15
JPH0719289B2 true JPH0719289B2 (en) 1995-03-06

Family

ID=17608393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62279240A Expired - Lifetime JPH0719289B2 (en) 1987-11-06 1987-11-06 Multilayer discrimination method and apparatus

Country Status (1)

Country Link
JP (1) JPH0719289B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5148159B2 (en) * 2007-04-20 2013-02-20 東芝Itコントロールシステム株式会社 Tomography apparatus for subject and layer structure extraction method
JP5365010B2 (en) * 2008-01-24 2013-12-11 株式会社島津製作所 X-ray fluoroscopic three-dimensional observation method and X-ray fluoroscopic apparatus
GB0817487D0 (en) * 2008-09-24 2008-10-29 Durham Scient Crystals Ltd Radiographic data interpretation

Also Published As

Publication number Publication date
JPH01121742A (en) 1989-05-15

Similar Documents

Publication Publication Date Title
US7545906B2 (en) Method and system for binocular steroscopic scanning radiographic imaging
US8194953B2 (en) Method and system of material identification using binocular steroscopic and multi-energy transmission images
AU2002307053B2 (en) X-ray inspection system
EP1562143B1 (en) Image processing apparatus and control method and program therefor
JPH07181609A (en) Region of irradiation field extracting device for radiograph
AU2002307053A1 (en) X-ray inspection system
EP1422516B1 (en) High speed x-ray inspection apparatus and method
EP0719435A1 (en) Mass detection in digital x-ray images using multiple threshold levels to discriminate spots
JP5148159B2 (en) Tomography apparatus for subject and layer structure extraction method
JP6258845B2 (en) X-ray inspection method and apparatus
US4910757A (en) Method and apparatus for X-ray imaging
JP3629397B2 (en) Joining inspection apparatus and method, and recording medium recording program for executing joining inspection method
JPH0719289B2 (en) Multilayer discrimination method and apparatus
JPH0785520B2 (en) X-ray inspection device for electronic circuits
JP4728092B2 (en) X-ray image output apparatus, X-ray image output method, and X-ray image output program
JPS6336137A (en) X-ray tomographic device
JPH04359447A (en) Soldering-junction inspecting apparatus for semiconductor device
JPH06215108A (en) Positioning method for radiation picture
JP3165538B2 (en) Radiation image alignment method and apparatus
JPH05259249A (en) Method and apparatus for inspecting flip chip
JP2006177760A (en) X-ray inspection device, x-ray inspection method, and x-ray inspection program
JPH0241789B2 (en)
JPH05251535A (en) Bump inspecting apparatus
JPH0242436A (en) Radiation exposure field recognizing method
WO2023140266A1 (en) Picking device and image generation program