JPH05334422A - Image processing method and image processor - Google Patents

Image processing method and image processor

Info

Publication number
JPH05334422A
JPH05334422A JP4163938A JP16393892A JPH05334422A JP H05334422 A JPH05334422 A JP H05334422A JP 4163938 A JP4163938 A JP 4163938A JP 16393892 A JP16393892 A JP 16393892A JP H05334422 A JPH05334422 A JP H05334422A
Authority
JP
Japan
Prior art keywords
image
memory
line
pixel
line sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4163938A
Other languages
Japanese (ja)
Inventor
Shinji Inagaki
真次 稲垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Motor Co Ltd
Original Assignee
Yamaha Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Motor Co Ltd filed Critical Yamaha Motor Co Ltd
Priority to JP4163938A priority Critical patent/JPH05334422A/en
Publication of JPH05334422A publication Critical patent/JPH05334422A/en
Priority to JP03952099A priority patent/JP3469490B2/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Input (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To adjust the resolution (degree of recognition) of an object in accordance with the size of the object and to improve image processing speed by changing the number of picture elements to be written in an image memory in accordance with the size of the object. CONSTITUTION:In the case of inputting an image by a line sensor 63, the number of picture elements to be written in the image memory 24 is changed in accordance with the size of an object. Namely a memory for storing images can be saved by roughly inputting an image in a rough resolution area and detailedly inputting an image in an area requiring high resolution. For instance, respective images are stored in the memory 24 so as to store every other picture element and every other line in a large object fetching area 101, store in each picture element and in each line only in the center part in a small object in fetching area 102 and store every other picture element and every other line in a large object fetching area 103. Consequently the memory capacity can be reduced to 1/4 as compared with a case inputting an image to the memory 24 in each picture element and in each line in all areas.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、例えばIC、抵抗
器、コンデンサー等の微小な電子部品(以下、対象物と
称す)を基板上に実装するとき等に用いられる画像処理
方法及び画像処理装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and an image processing apparatus used for mounting minute electronic parts (hereinafter referred to as objects) such as ICs, resistors and capacitors on a substrate. It is about.

【0002】[0002]

【従来の技術】従来、例えば吸着ヘッドが対象物の供給
部において、対象物を保持した後、移動手段により装着
部へ移動させる間にラインセンサにより対象物の画像を
読み取っている。このラインセンサでの読み取り結果に
基づいて対象物の吸着ヘッドに対する相対位置を検出
し、その検出結果に基づいて吸着ヘッドと対象物との相
対位置を修正して、それにより対象物は予め設定された
位置に装着される。
2. Description of the Related Art Conventionally, an image of an object is read by a line sensor while a suction head holds the object in a supply section of the object and then moves the object to a mounting section by moving means. The relative position of the target object with respect to the suction head is detected based on the reading result by the line sensor, and the relative position between the suction head and the target object is corrected based on the detection result, whereby the target object is preset. It is installed in the right position.

【0003】[0003]

【発明が解決しようとする課題】ところで、対象物は、
IC、抵抗器、コンデンサー等、その大きさが異なって
いるが、対象物の大きさによらず読み込む画素数は一定
であった。このため、対象物の大きさが充分大きく、例
えば吸着ヘッドと対象物との相対位置を修正する上で読
み込む必要のない画素数まで読み込むことがあり、この
結果メモリ領域を不必要に使用し、処理時間のムダを生
じていた。
By the way, the object is
Although the sizes of ICs, resistors, capacitors, etc. are different, the number of pixels to be read was constant regardless of the size of the object. For this reason, the size of the object may be sufficiently large, for example, it may read up to the number of pixels that need not be read to correct the relative position between the suction head and the object, and as a result, the memory area is unnecessarily used, It was a waste of processing time.

【0004】また、前記の例とは逆に、対象物の大きさ
が非常に小さいものである場合には、対象物の存在しな
い領域まで読み込み処理をするというムダを行ってい
た。この場合、前記の例と同様、メモリ領域の不適当な
使用であり、処理時間のムダになっていた。
Contrary to the above example, when the size of the object is very small, there is a waste of reading the area where the object does not exist. In this case, as in the above example, the memory area is improperly used, resulting in a waste of processing time.

【0005】この発明は、かかる点に鑑みてなされたも
ので、対象物の大きさに合わせて、対象物の解像度(認
識度)を調整し、画像処理速度を高める画像処理方法及
び画像処理装置を提供することを目的としている。
The present invention has been made in view of the above points, and an image processing method and an image processing apparatus for adjusting the resolution (recognition degree) of an object to increase the image processing speed according to the size of the object. Is intended to provide.

【0006】[0006]

【課題を解決するための手段】前記課題を解決するため
に、請求項1記載の発明は、対象物の画像をラインセン
サで読み込み、この画像を画像メモリに書込む画像処理
方法において、前記対象物の大きさに応じて、前記画像
メモリに書込む画素数を変化させることを特徴としてい
る。
In order to solve the above-mentioned problems, the invention according to claim 1 is an image processing method for reading an image of an object by a line sensor and writing the image in an image memory. The number of pixels written in the image memory is changed according to the size of an object.

【0007】請求項2記載の発明は、 対象物の画像を
読み込むラインセンサと、この読み込まれた対象物の画
像を格納する画像メモリと、前記対象物の大きさに応じ
て前記画像メモリに書込む画素数を変化させるメモリ書
込み制御部とを有することを特徴としている。
According to a second aspect of the present invention, a line sensor for reading an image of an object, an image memory for storing the read image of the object, and a writing for the image memory according to the size of the object. And a memory write control unit that changes the number of embedded pixels.

【0008】[0008]

【作用】請求項1記載及び請求項2記載の発明では、対
象物の画像をラインセンサで読み込み、この対象物の大
きさに応じて画像メモリに書込む画素数を変化させ、対
象物の読み込む画素数を対象物の大きさに応じて調整す
ることができる。
According to the first and second aspects of the invention, the image of the object is read by the line sensor, the number of pixels written in the image memory is changed according to the size of the object, and the object is read. The number of pixels can be adjusted according to the size of the object.

【0009】[0009]

【実施例】以下、この発明の実施例を図面に基づいて説
明する。図1は実装装置の概略構成図、図2は吸着ヘッ
ドとライセンサユニットの平面図、図3は図2の矢印A
方向から見た矢視図である。
Embodiments of the present invention will be described below with reference to the drawings. 1 is a schematic configuration diagram of a mounting apparatus, FIG. 2 is a plan view of a suction head and a licensor unit, and FIG. 3 is an arrow A in FIG.
It is an arrow view seen from the direction.

【0010】この実装装置の中央部には搬送ライン1が
設けられ、この搬送ライン1は基板2を装着部100に
搬送するようになっている。この搬送ライン1の両側に
は供給部3が配置され、この供給部3はフィーダー4で
対象物Pを供給するようになっている。
A transfer line 1 is provided in the center of the mounting apparatus, and the transfer line 1 transfers the substrate 2 to the mounting section 100. A supply unit 3 is arranged on both sides of the transfer line 1, and the supply unit 3 supplies an object P with a feeder 4.

【0011】供給部3の対象物Pは吸着ヘッド6で吸着
し、横方向移動手段7と縦方向移動手段8の作動で移動
し、装着部100の基板2上へ装着するようになってい
る。この横方向移動手段7と縦方向移動手段8が、供給
部3から対象物5を装着部1へ移動させる対象物移動手
段K1を構成している。
The object P of the supply unit 3 is adsorbed by the adsorption head 6, moved by the operation of the lateral movement unit 7 and the vertical movement unit 8, and mounted on the substrate 2 of the mounting unit 100. .. The horizontal direction moving means 7 and the vertical direction moving means 8 constitute an object moving means K1 for moving the object 5 from the supply section 3 to the mounting section 1.

【0012】この吸着ヘッド6はヘッド本体70と、こ
のヘッド本体70に設けられたノズルホルダ71と、こ
のノズルホルダ71に昇降可能に設けられた複数のノズ
ル部72とを有しており、このノズル部72で対象物P
を吸着する。
The suction head 6 has a head body 70, a nozzle holder 71 provided on the head body 70, and a plurality of nozzle portions 72 provided on the nozzle holder 71 so as to be movable up and down. Target P at the nozzle 72
Adsorb.

【0013】ヘッド本体70は横方向移動手段7の軸9
に取り付けられ、この軸9はモータ10によって回転
し、これにより吸着ヘッド6が軸9上を横方向に移動す
るようになっている。この横方向移動手段7のブラケッ
ト11は、縦方向移動手段8の軸12に取り付けられ、
この軸12はモータ13によって回転し、これによりブ
ラケット11が軸12上を縦方向に移動するようになっ
ている。
The head body 70 is provided with the shaft 9 of the lateral moving means 7.
The shaft 9 is rotated by a motor 10 so that the suction head 6 moves laterally on the shaft 9. The bracket 11 of the lateral moving means 7 is attached to the shaft 12 of the vertical moving means 8,
The shaft 12 is rotated by a motor 13, which causes the bracket 11 to move vertically on the shaft 12.

【0014】この吸着ヘッド6のヘッド本体70は横方
向移動手段7の軸9に取り付けられ、この軸9はモータ
10によって回転し、これにより吸着ヘッド6が軸9上
を横方向に移動するようになっている。
The head body 70 of the suction head 6 is attached to the shaft 9 of the lateral moving means 7, and the shaft 9 is rotated by the motor 10 so that the suction head 6 moves laterally on the shaft 9. It has become.

【0015】また、横方向移動手段7のブラケット11
は、縦方向移動手段8の軸12に取り付けられ、この軸
12はモータ13によって回転し、これによりブラケッ
ト11が軸12上を縦方向に移動するようになってい
る。
Further, the bracket 11 of the lateral moving means 7
Is attached to the shaft 12 of the vertical movement means 8, and the shaft 12 is rotated by a motor 13 so that the bracket 11 moves vertically on the shaft 12.

【0016】さらに、ブラケット11には軸60が設け
られ、この軸60はモータ61で回転するようなってい
る。この軸60にはラインセンサユニット62が設けら
れ、この軸60の回転でラインセンサユニット62が軸
60上を移動する。この軸60、モータ61及びライン
センサユニット62で、ラインセンサを対象物Pの移動
に連動して移動させるセンサ移動手段K2を構成してい
る。
Further, the bracket 11 is provided with a shaft 60, which is rotated by a motor 61. The shaft 60 is provided with a line sensor unit 62, and the rotation of the shaft 60 causes the line sensor unit 62 to move on the shaft 60. The shaft 60, the motor 61, and the line sensor unit 62 constitute a sensor moving unit K2 that moves the line sensor in conjunction with the movement of the object P.

【0017】ラインセンサユニット62はラインセンサ
63、ミラー64,65から構成され、ミラー65は吸
着ヘッド6のノズル部72に吸着された対象物Pの下方
位置に位置しており、対象物Pの画像はこのミラー65
からミラー64を介して反射されてラインセンサ63に
入力される。
The line sensor unit 62 is composed of a line sensor 63 and mirrors 64 and 65. The mirror 65 is located below the object P sucked by the nozzle portion 72 of the suction head 6, and The image is this mirror 65
Is reflected by the mirror 64 and input to the line sensor 63.

【0018】対象物Pを供給部3から装着部100へ移
動する過程で、対象物Pに対してラインセンサ63を移
動させ対象物Pの画像の読み取りを行い画像処理部20
へ送り、この画像処理部20ではラインセンサ63の読
み取り結果に基づいて対象物Pの吸着ヘッド6に対する
相対位置を検出し、その検出結果に基づいて吸着ヘッド
6と対象物Pとの相対位置を修正し、それにより対象物
Pは予め設定された位置に装着される。
In the process of moving the target object P from the supply unit 3 to the mounting unit 100, the line sensor 63 is moved with respect to the target object P to read the image of the target object P and the image processing unit 20.
The image processing unit 20 detects the relative position of the object P with respect to the suction head 6 based on the reading result of the line sensor 63, and determines the relative position between the suction head 6 and the object P based on the detection result. The correction is carried out, so that the object P is mounted at the preset position.

【0019】即ち、対象物Pを供給部3から装着部10
0へ移動する過程で、対象物Pに対してラインセンサ6
3を移動させ対象物Pの画像の読み取りを行うから、対
象物Pを供給部3から装着部100まで移動する間にラ
インセンサ63を用いて対象物Pを認識でき、実装時間
の短縮を図ることができる。
That is, the object P is supplied from the supply unit 3 to the mounting unit 10.
In the process of moving to 0, the line sensor 6
3 is moved to read the image of the object P, the object P can be recognized using the line sensor 63 while the object P is moved from the supply unit 3 to the mounting unit 100, and the mounting time is shortened. be able to.

【0020】例えば、対象物Pが供給部3の左側に位置
するとき、経路a1,b1,c1,d1,e1で左側か
ら装着部100の基板2上の位置まで移動し、この移動
過程でラインセンサユニット62を、対象物Pに対して
移動して画像の読み取りを行ない、所定位置で装着す
る。
For example, when the object P is located on the left side of the supply unit 3, it moves along the paths a1, b1, c1, d1, e1 from the left side to the position on the substrate 2 of the mounting unit 100, and in the course of this movement, the line is moved. The sensor unit 62 is moved with respect to the object P to read an image, and is attached at a predetermined position.

【0021】一方、 例えば、対象物Pが供給部3の右
側に位置するときは、経路a2,b2,c2,d2,e
1で右側から装着部100の基板2上の位置まで移動
し、この移動過程でラインセンサユニット62を、対象
物Pに対して移動して画像の読み取りを行ない、所定位
置で装着する。
On the other hand, for example, when the object P is located on the right side of the supply unit 3, the routes a2, b2, c2, d2, e
At 1, the line sensor unit 62 is moved from the right side to the position on the substrate 2 of the mounting portion 100, and in the course of this movement, the line sensor unit 62 is moved with respect to the object P to read an image, and is mounted at a predetermined position.

【0022】図4は画像処理部のブロック図である。ラ
インセンサ63で読み込まれた画像情報は、A−D変換
部21へ入力され、デジタル情報としてメモリ書込み制
御部22へ入力される。一方、取込みタイミング発生器
23には本体制御装置26から対象物Pの位置信号と取
込み方法指定指令が入力され、この取込みタイミング発
生器23からの指令に基づき、メモリ書込み制御部22
は対象物の大きさに応じて画像メモリ24に書込む画素
数を変化させるようになっている。この画像メモリ24
に格納された情報に基づき、認識部25で対象物Pの位
置や傾きを認識して、装着部100の所定位置に装着で
きるように補正するようになっている。
FIG. 4 is a block diagram of the image processing section. The image information read by the line sensor 63 is input to the A / D conversion unit 21, and is input to the memory writing control unit 22 as digital information. On the other hand, the position signal of the object P and the fetching method designation command are input from the main body control device 26 to the fetching timing generator 23, and the memory write control unit 22 is based on the command from the fetching timing generator 23.
The number of pixels written in the image memory 24 is changed according to the size of the object. This image memory 24
The position and the inclination of the object P are recognized by the recognition unit 25 based on the information stored in, and corrected so that the target P can be mounted at a predetermined position of the mounting unit 100.

【0023】図5にラインセンサでの画像取込み方法を
示す。ラインセンサ63で画像を取込む場合に、対象物
Pの大きさに応じて画像メモリ24に書込む画素数を変
化させるようになっている。即ち、解像度が荒くてよい
領域では荒く画像を取り込み、高い解像度を必要とする
領域では細かく画像を取込むことにより、画像を格納す
るメモリを節約できる。
FIG. 5 shows a method of capturing an image by the line sensor. When the line sensor 63 captures an image, the number of pixels written in the image memory 24 is changed according to the size of the object P. That is, a memory for storing an image can be saved by capturing a rough image in a region having a low resolution and finely capturing an image in a region requiring a high resolution.

【0024】例えば、図5の例では、対象物がP大きい
取込み領域101では1画素・1ライン置きに、対象物
Pが小さい取込み領域102では中心部のみで毎画素・
毎ラインを、対象物Pが大きい取込み領域103では1
画素・1ライン置きに画像を画像メモリ24に格納す
る。
For example, in the example of FIG. 5, in the capture area 101 in which the object is large P, every other pixel, every other line, and in the capture area 102 in which the object P is small, only every pixel in the central portion.
1 for each line in the capture area 103 where the object P is large
An image is stored in the image memory 24 every other pixel and one line.

【0025】これにより、すべての領域で、毎画素・毎
ラインにおいて画像を画像メモリ24に取込んだ場合に
比ベて、1/4のメモリですむ。
As a result, in all areas, the image memory 24 requires only 1/4 of the memory as compared with the case where the image is captured in the image memory 24.

【0026】図6は対象物が大きい取込み領域のタイム
チャートを示す。この例では、ラインセンサクロックa
によってラインセンサ出力bとメモり書込みパルスdを
間欠的に出力することにより、一画素おきに画像メモリ
24に取込むライン取込みを対象物Pの位置を示す位置
パルスcの出力によって設定される範囲D1で、上記ラ
イン取込みを1ラインおきに行うことにより、1画素・
1ライン置きの画像を画像メモリ24へ取込む。
FIG. 6 shows a time chart of the capture area where the object is large. In this example, the line sensor clock a
By intermittently outputting the line sensor output b and the memory writing pulse d by the range, the range of line capture taken into the image memory 24 every other pixel is set by the output of the position pulse c indicating the position of the object P. At D1, the above line capture is performed every other line to obtain 1 pixel
Images every other line are taken into the image memory 24.

【0027】図7は対象物が小さい取込み領域のタイム
チャートを示す。この例では、同様にラインセンサクロ
ックaによって出されるラインセンサ出力bをラインの
中心部のみメモリ書込みパルスdを連続的に出力するこ
とにより、中心部のみを画像メモリ24に取込むライン
取込みを、対象物Pの位置を示す位置パルスcの出力に
よって設定される範囲D2でのみ上記ライン取込みを行
うことにより、中心部のみ毎画素、毎ラインの画像を画
像メモリ24へ取込む。
FIG. 7 shows a time chart of a capture area where the object is small. In this example, similarly, the line sensor output b generated by the line sensor clock a is continuously output as the memory write pulse d only in the central portion of the line, and thus the central portion of the line is captured in the image memory 24. By capturing the line only in the range D2 set by the output of the position pulse c indicating the position of the object P, the image of each pixel and each line is captured in the image memory 24 only in the central portion.

【0028】図8は画像処理部のフローチャートであ
る。
FIG. 8 is a flowchart of the image processing section.

【0029】ステップaで、取込み方法指定指令が入力
され、1画素置きの取込み否かの判断を行う(ステップ
b)。1画素置きの取込みの場合には、図6の対象物が
大きい取込み領域のタイムチャートに従って、1画素・
1ライン置きに画像メモリ24へ取込む(ステップ
c)。この画像メモリ24へ取込まれた情報に基づき、
対象物Pの位置や傾きを認識し(ステップd)、対象物
Pの位置や傾きを補正し(ステップe)、所定位置へ装
着する。
In step a, a capture method designation command is input, and it is determined whether or not every other pixel is captured (step b). In the case of capturing every other pixel, one pixel
Every other line is taken into the image memory 24 (step c). Based on the information captured in this image memory 24,
The position and the inclination of the object P are recognized (step d), the position and the inclination of the object P are corrected (step e), and the object P is attached to a predetermined position.

【0030】一方、ステップbで、1画素置きの取込み
でないと判断された場合には、図7の対象物Pが小さい
取込み領域のタイムチャートに従って、毎画素・毎ライ
ンを画像メモリ24へ取込む(ステップf)。この画像
メモリ24へ取込まれた情報に基づき、対象物Pの位置
や傾きを認識し(ステップg)、対象物Pの位置や傾き
を補正し(ステップh)、所定位置へ装着する。
On the other hand, if it is determined in step b that the image is not captured every other pixel, each pixel / line is captured in the image memory 24 according to the time chart of the capture region in which the object P is small in FIG. (Step f). Based on the information taken into the image memory 24, the position and the inclination of the object P are recognized (step g), the position and the inclination of the object P are corrected (step h), and the object P is mounted at a predetermined position.

【0031】このようにして、画像メモリ24に取り込
まれた画像中から、対象物を抽出する必要がある。
In this way, it is necessary to extract the object from the image captured in the image memory 24.

【0032】ここでは、境界追跡と呼ばれる方法を使
い、対象物の境界をチェインコードに変換する場合を説
明する。画像メモリに取り込まれた画像中から、対象物
を抽出する必要がある。ここでは、境界追跡と呼ばれる
方法を使い対象物の境界をチェインコードに変換する場
合を説明する。
Here, a case where the boundary of the object is converted into a chain code by using a method called boundary tracking will be described. It is necessary to extract the object from the image captured in the image memory. Here, a case where a boundary of an object is converted into a chain code using a method called boundary tracking will be described.

【0033】ここで、チェインコードとは、図9のよう
に、3×3領域で、中央の画素*に対して、隣接する画
素がどの方向にあるかを0〜7の方向コードで表し、始
点と方向コードの列により線画像を表したものである。
Here, as shown in FIG. 9, the chain code represents a direction of 0 to 7 indicating in which direction a pixel adjacent to the central pixel * is in a 3 × 3 area. A line image is represented by a sequence of start points and direction codes.

【0034】図10の線画像の例では、In the example of the line image of FIG. 10,

【表1】に示すようにAs shown in [Table 1]

【0035】[0035]

【表1】 のように表わされる。 [境界追跡処理] 1)検出モード この検出モードでは、例えば図11で対象物Kを見つけ
るために、画像を左上から右方向にスキャンする。ここ
で、対象物Kを見つけると、見つかった画素POが既に
追跡されていない場合には、スキャンを中断して追跡モ
ードに移る。
[Table 1] It is expressed as. [Boundary Tracking Process] 1) Detection Mode In this detection mode, for example, in order to find the object K in FIG. 11, the image is scanned from the upper left to the right. Here, when the object K is found, if the found pixel PO is not already tracked, the scan is interrupted and the mode is changed to the tracking mode.

【0036】見つからなければ、左から右へのスキャン
を1画素下に移し、同様の処理を繰り返す。
If not found, the scan from left to right is moved down by one pixel and the same processing is repeated.

【0037】スキャンが画面の右下に達したら処理を終
了する。
When the scan reaches the lower right corner of the screen, the process ends.

【0038】2)追跡モード [a]検出モードで対象物Kが見つかると、見つかった
画素PОの座標(x,y)を記憶する。また、同じ点を
2度追跡しないように追跡禁止マークを画素POにつけ
ておく。
2) Tracking mode [a] When the object K is found in the detection mode, the coordinates (x, y) of the found pixel PO are stored. Further, a tracking prohibition mark is attached to the pixel PO so as not to track the same point twice.

【0039】[b]検出画素POの回りに対象物が有る
かどうかを、検出画素POの回りの画素を図12のよう
な順(1から4)で調べる。見つからなければ、これは
対象物Kが1画素のみであることを示しており、この場
合は追跡モードを終了する。
[B] Whether or not there is an object around the detection pixel PO is examined in the order around the detection pixel PO (1 to 4) as shown in FIG. If not found, this indicates that the object K has only one pixel, in which case the tracking mode is ended.

【0040】見つかった場合は、最初に見つかった画素
Pi(i=1)の座標を記憶し、画素Plに対しても追
跡禁止マークをつける。
If found, the coordinates of the first found pixel Pi (i = 1) are stored, and the tracking prohibition mark is also attached to the pixel Pl.

【0041】[c]検出画素Piを中心とする8近傍の
画素について、1つ前の検出画素Pi−1からPiへの
追跡方向をチェインコードとして記憶し、このチェイン
コードに応じて図13乃至図20のように順に対象物が
あるかどうかを調べ、最初に見つかった画素をPi+1
とする。また、この場合同じ画素を2度追跡しないよう
に追跡禁止マークをつけておく。
[C] The tracking direction from the previous detection pixel Pi-1 to Pi is stored as a chain code for the eight neighboring pixels centered on the detection pixel Pi, and FIG. 13 to FIG. As shown in FIG. 20, it is checked whether or not there are objects, and the first found pixel is Pi + 1.
And Further, in this case, a tracking prohibition mark is attached so as not to track the same pixel twice.

【0042】図13乃至図20において、○が画素P
i、△が画素Pi−1を表す。また、数字が画素Piの
回りの画素の調べる順番を表す。また、矢印が追跡方向
を示す。この追跡方向のチェインコードは、図21の通
りである。
In FIG. 13 to FIG. 20, the circle P indicates the pixel P.
i and Δ represent the pixel Pi-1. The numbers represent the order in which the pixels around the pixel Pi are checked. The arrow indicates the tracking direction. The chain code in the tracking direction is as shown in FIG.

【0043】[d]最初に見つかった画素を新たな検出
画素として、[c]の処理を繰り返す。これを検出画素
Piが追跡開始画素PОに一致し、かつ次の検出画素P
i+1も追跡開始画素の次の検出画素Plに一致するま
で行うことにより対象物Kの輪郭が検出され、チェイン
コードに変換される。
[D] The process of [c] is repeated with the first found pixel as a new detected pixel. This means that the detection pixel Pi matches the tracking start pixel PO and the next detection pixel P
The contour of the object K is detected by performing i + 1 until it matches the detection pixel Pl next to the tracking start pixel, and is converted into a chain code.

【0044】[e]追跡を終了したら、1)の検出モー
ドに戻りスキャンを再開する。この場合、図22に示す
ように、スキャンが今検出した対象物Kの内部に入るの
で、対象物Kの外にでる(あるいは、穴の中に入る)ま
で、対象物検出をスキップする。
[E] When the tracking is completed, the mode is returned to the detection mode of 1) and the scanning is restarted. In this case, as shown in FIG. 22, the scan enters the inside of the detected object K, so the object detection is skipped until it goes outside the object K (or enters the hole).

【0045】次に、この境界追跡処理により求められた
チェインコードから、各種特徴量を求める方法を以下で
説明する。ここで、特徴量とは画像処理において必要と
される基本事項であり、例えば、1次モーメントにより
対象画像の重心を求めることができ、2次モーメントに
より対象画像の傾きを求めることができる。 [1)0次/1次/2次モーメント]例えば、図23の
ような対象物を追跡した場合を考える。
Next, a method for obtaining various feature quantities from the chain code obtained by the boundary tracking processing will be described below. Here, the feature amount is a basic item required in image processing. For example, the center of gravity of the target image can be obtained by the first moment, and the inclination of the target image can be obtained by the second moment. [1) Zeroth / first / second moments For example, consider the case where an object as shown in FIG. 23 is tracked.

【0046】モーメント特徴量は、追跡した対象物の内
部のすべての点にたいして、 0次モーメント…画素数 1次モーメント…X,Yの積算値(ΣX,ΣY) 2次モーメント…X2,Y2の積算値(ΣX2,ΣY2) XYの積算値(ΣXY) を求めることで求められる。
The moment feature amount is, for all points inside the tracked object, 0th moment ... Pixel number First moment ... Accumulated value of X and Y (ΣX, ΣY) Second moment ... X 2 , Y 2 integrated value (ΣX 2, ΣY 2) obtained by calculating XY of integrated value (ΣXY).

【0047】このことから、図23のように、輪郭の右
端の点(○)と、左端の点(●)を求め、その間の点す
べてに対して前記の値を計算することで、モーメント特
徴量を計算することができる。
From this, as shown in FIG. 23, the point at the right end (◯) and the point at the left end () of the contour are obtained, and the above values are calculated for all the points between them to obtain the moment feature. The amount can be calculated.

【0048】右端と左端の点が一致する点(△)も同様
の処理で計算できる。
A point (Δ) at which the right end and the left end coincide can be calculated by the same process.

【0049】図23のように、左端の点P1(x1
1)と、右端の点P2(x2,y2)の例では、
As shown in FIG. 23, the leftmost point P 1 (x 1 ,
y 1 ) and the rightmost point P 2 (x 2 , y 2 ),

【式1】に示すように、As shown in [Equation 1],

【0050】[0050]

【式1】 (2次モーメントの場合は、座標x,yは対象物の重心
からの相対座標で表したもので計算する。)の計算をす
ることで、P1とP2の間の点に対する値を求めることが
できる。従って、チェインコードをたどりながら、注目
点が左端点/右端点かどうかをチェックし、対応する計
算をすることで対象物のモーメント特徴量を求めること
ができる。
[Formula 1] (In the case of the second moment, the coordinates x and y are calculated by the relative coordinates from the center of gravity of the object.) To obtain the value for the point between P 1 and P 2. be able to. Therefore, while tracing the chain code, it is possible to determine the moment feature amount of the object by checking whether the target point is the left end point / right end point and performing the corresponding calculation.

【0051】左端点と右端点の一致する点(△)では、
以下の計算を行う。 0次モーメント M00: +1 1次モーメント M10: +x1 M01: +y1 2次モーメント M20: +x 2 1 M02: +y 2 1 M11: +x1・y1 [2)面積 AREA]面積は、面積=M00で表わす
ことができる。 [3)重心 XG,YG]重心XG,YG は、 XG=M10/M00 YG=M01/M00 で表すことができる。 [4)主軸の傾きθ]主軸の傾きθは下記の
At the point where the left end point and the right end point coincide (Δ),
Perform the following calculations. 0th moment M00: +1 1st moment M10: + x 1 M01: + y 1 2nd moment M20: + x 2 1 M02: + y 2 1 M11: + x 1 · y 1 [2) Area AREA The area is M00. Can be represented. [3) Center of Gravity XG, YG] The center of gravity XG, YG can be expressed as XG = M10 / M00 YG = M01 / M00. [4) Main axis inclination θ] The main axis inclination θ is

【式2】で表わすことができる。It can be represented by [Formula 2].

【0052】[0052]

【式2】 [Formula 2]

【0053】[0053]

【発明の効果】前記したように、請求項1記載及び請求
項2記載の発明は、対象物の画像をラインセンサで読み
込み、この対象物の大きさに応じて画像メモリに書込む
画素数を変化させ、対象物の読み込む画素数を対象物の
大きさに応じて調整するから、対象物の大きさに合わせ
て、対象物の解像度(認識度)を調整し、画像処理速度
を高めることができる。
As described above, according to the first and second aspects of the invention, the image of the object is read by the line sensor, and the number of pixels to be written in the image memory is determined according to the size of the object. Since the number of pixels read by the target is changed according to the size of the target, the resolution (recognition level) of the target can be adjusted according to the size of the target to increase the image processing speed. it can.

【図面の簡単な説明】[Brief description of drawings]

【図1】実装装置の概略構成図である。FIG. 1 is a schematic configuration diagram of a mounting apparatus.

【図2】吸着ヘッドとライセンサユニットの平面図であ
る。
FIG. 2 is a plan view of a suction head and a licensor unit.

【図3】図2の矢印A方向から見た矢視図である。3 is a view seen from the direction of arrow A in FIG.

【図4】画像処理部のブロック図である。FIG. 4 is a block diagram of an image processing unit.

【図5】ラインセンサでの画像取込み方法を示す図であ
る。
FIG. 5 is a diagram showing an image capturing method with a line sensor.

【図6】対象物が大きい取込み領域のタイムチャートを
示す図である。
FIG. 6 is a diagram showing a time chart of a capture area in which an object is large.

【図7】対象物が小さい取込み領域のタイムチャートを
示す図である。
FIG. 7 is a diagram showing a time chart of a capture region in which an object is small.

【図8】画像処理部のフローチャートである。FIG. 8 is a flowchart of an image processing unit.

【図9】中央の画素*に対する方向コードを示す図であ
る。
FIG. 9 is a diagram showing direction codes for a central pixel *.

【図10】始点と方向コードの列により線画像を表した
図である。
FIG. 10 is a diagram showing a line image by a sequence of start points and direction codes.

【図11】検出モードで対象物を見つけるために画像を
左上から右方向にスキャンする図である。
FIG. 11 is a diagram of scanning an image from the upper left to the right in order to find an object in the detection mode.

【図12】検出画素POの回りの画素を順(1から4)
に調べる図である。
FIG. 12: Pixels around the detection pixel PO in order (1 to 4)
FIG.

【図13】チェインコードに応じて順に対象物があるか
どうかを調べる図である。
FIG. 13 is a diagram for sequentially checking whether or not there is an object according to a chain code.

【図14】チェインコードに応じて順に対象物があるか
どうかを調べる図である。
FIG. 14 is a diagram for checking whether there is an object in order according to the chain code.

【図15】チェインコードに応じて順に対象物があるか
どうかを調べる図である。
FIG. 15 is a diagram for sequentially checking whether or not there is an object according to a chain code.

【図16】チェインコードに応じて順に対象物があるか
どうかを調べる図である。
FIG. 16 is a diagram for checking whether or not there is an object in order according to the chain code.

【図17】チェインコードに応じて順に対象物があるか
どうかを調べる図である。
FIG. 17 is a diagram for checking whether or not there is an object in order according to the chain code.

【図18】チェインコードに応じて順に対象物があるか
どうかを調べる図である。
FIG. 18 is a diagram for sequentially checking whether or not there is an object according to a chain code.

【図19】チェインコードに応じて順に対象物があるか
どうかを調べる図である。
FIG. 19 is a diagram for checking whether or not there is an object in order according to the chain code.

【図20】チェインコードに応じて順に対象物があるか
どうかを調べる図である。
FIG. 20 is a diagram for sequentially checking whether or not there is an object according to a chain code.

【図21】追跡方向を示す図である。FIG. 21 is a diagram showing a tracking direction.

【図22】対象物検出をスキップする場合を示す図であ
る。
FIG. 22 is a diagram showing a case where object detection is skipped.

【図23】特徴量を求める方法を説明する図である。FIG. 23 is a diagram illustrating a method of obtaining a feature amount.

【符号の説明】[Explanation of symbols]

63 ラインセンサ 20 画像処理部 22 メモリ書込み制御部 24 画像メモリ P 対象物 63 line sensor 20 image processing unit 22 memory writing control unit 24 image memory P object

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 対象物の画像をラインセンサで読み込
み、この画像を画像メモリに書込む画像処理方法におい
て、前記対象物の大きさに応じて、前記画像メモリに書
込む画素数を変化させることを特徴とする画像処理方
法。
1. An image processing method of reading an image of an object with a line sensor and writing the image into an image memory, wherein the number of pixels to be written into the image memory is changed according to the size of the object. An image processing method characterized by:
【請求項2】 対象物の画像を読み込むラインセンサ
と、この読み込まれた対象物の画像を格納する画像メモ
リと、前記対象物の大きさに応じて前記画像メモリに書
込む画素数を変化させるメモリ書込み制御部とを有する
ことを特徴とする画像処理装置。
2. A line sensor for reading an image of a target object, an image memory for storing the read image of the target object, and the number of pixels to be written in the image memory according to the size of the target object. An image processing apparatus comprising: a memory write control unit.
JP4163938A 1992-05-29 1992-05-29 Image processing method and image processor Pending JPH05334422A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP4163938A JPH05334422A (en) 1992-05-29 1992-05-29 Image processing method and image processor
JP03952099A JP3469490B2 (en) 1992-05-29 1999-02-18 Component mounting equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4163938A JPH05334422A (en) 1992-05-29 1992-05-29 Image processing method and image processor

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP03952099A Division JP3469490B2 (en) 1992-05-29 1999-02-18 Component mounting equipment

Publications (1)

Publication Number Publication Date
JPH05334422A true JPH05334422A (en) 1993-12-17

Family

ID=15783679

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4163938A Pending JPH05334422A (en) 1992-05-29 1992-05-29 Image processing method and image processor

Country Status (1)

Country Link
JP (1) JPH05334422A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003519783A (en) * 2000-01-07 2003-06-24 サイバーオプティクス コーポレーション Solder paste inspection device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003519783A (en) * 2000-01-07 2003-06-24 サイバーオプティクス コーポレーション Solder paste inspection device

Similar Documents

Publication Publication Date Title
CN109213090B (en) Position control system, position detection device, and recording medium
KR960007265B1 (en) Electronic image control apparatus and method
JP5457665B2 (en) Electronic component mounting device
JP3266429B2 (en) Pattern detection method
JPH05334422A (en) Image processing method and image processor
JP3469490B2 (en) Component mounting equipment
JPH0518372B2 (en)
JP2006260315A (en) Method and device for detecting component position
JPH0680954B2 (en) Device for mounting IC on printed circuit board
JP3039704B2 (en) Printing evaluation method and printing evaluation device
JPH05198999A (en) Board inspection apparatus
JPH11241916A (en) Height measuring method, height data processing method, and height measuring device
JP2523420B2 (en) Image processing method in optical measuring device
JP3762519B2 (en) Component recognition method, component recognition device, and component mounting device
JPH1063842A (en) Template matching method
JPH0674714A (en) Substrate position detecting method
JPH11248423A (en) Method and apparatus for measuring height
JP3072787B2 (en) Printing evaluation method and printing evaluation device
JP2008004843A (en) Component positioning method and device
JP2520804B2 (en) Image processing method in optical measuring device
JP3119375B2 (en) Printing evaluation method and printing evaluation device
JP2001174221A (en) Method and device for detecting position of component
JP2694819B2 (en) Lead position detector
JP3029142B2 (en) Printing evaluation method and printing evaluation device
JPH07286819A (en) Method and device for recognizing position of parts