WO2017159938A1 - 촬영 방법 및 촬영 방법을 이용한 대상물 정렬 방법 - Google Patents

촬영 방법 및 촬영 방법을 이용한 대상물 정렬 방법 Download PDF

Info

Publication number
WO2017159938A1
WO2017159938A1 PCT/KR2016/010141 KR2016010141W WO2017159938A1 WO 2017159938 A1 WO2017159938 A1 WO 2017159938A1 KR 2016010141 W KR2016010141 W KR 2016010141W WO 2017159938 A1 WO2017159938 A1 WO 2017159938A1
Authority
WO
WIPO (PCT)
Prior art keywords
photographing
chuck
image
module
distance
Prior art date
Application number
PCT/KR2016/010141
Other languages
English (en)
French (fr)
Inventor
강찬희
허진
신동수
김성호
권용락
Original Assignee
(주)이오테크닉스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)이오테크닉스 filed Critical (주)이오테크닉스
Publication of WO2017159938A1 publication Critical patent/WO2017159938A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N3/00Investigating strength properties of solid materials by application of mechanical stress
    • G01N3/02Details
    • G01N3/04Chucks
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/10Bifocal lenses; Multifocal lenses
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/02Focusing arrangements of general interest for cameras, projectors or printers moving lens along baseboard

Definitions

  • a photographing apparatus and a photographing method and an object alignment method using the photographing apparatus and the photographing method.
  • a laser processing process refers to a process of processing a shape of a surface of an object or processing physical properties by scanning a laser beam on the surface of the object.
  • the object may include various kinds of objects, and the shape to be processed may be a 2D planar shape.
  • An example of a laser processing process may be a process of forming a polysilicone film.
  • the polycrystalline silicon film forming process may be formed by scanning a laser beam on a silicon wafer to crystallize an amorphous silicon film.
  • a process scheduled line is formed by using a laser beam. Cut along.
  • Semiconductor devices manufactured according to this process are packaged according to a plastic seal.
  • BACKGROUND Semiconductor devices are widely used in various electronic equipment such as portable telephones and personal computers (PCs).
  • a clear image may be obtained by automatically adjusting the focusing distance of the photographing apparatus as the photographing apparatus changes the photographing position. It is also possible to align the object from the image obtained by the imaging device.
  • the acquiring of the image of the object may include a photographing method of changing a distance between the photographing module and the chuck using the reference table as the photographing position of the photographing module changes.
  • the sharpness of the captured image of the object may be increased by using a reference table in which the thicknesses of the object measured at the plurality of sampling points are stored. And the direction of arrangement of the object can be precisely adjusted from the captured image with high definition.
  • FIG. 1 is a diagram illustrating a photographing apparatus according to an exemplary embodiment.
  • FIG. 2 is a flowchart illustrating a photographing method of a photographing apparatus according to an exemplary embodiment.
  • 3 exemplarily shows sampling points.
  • FIG. 4 is a diagram illustrating that the processor calculates a thickness of an object at a photographing position of the photographing module.
  • FIG. 5 is a diagram illustrating a surface of an object by way of example.
  • FIG. 6 is a diagram schematically illustrating an object arranging apparatus according to an exemplary embodiment.
  • FIG. 7 is a perspective view illustrating the object arranging apparatus illustrated in FIG. 6.
  • FIG. 8 is a diagram illustrating a distance controller shown in FIG. 7 and first and second photographing modules.
  • FIG 10 illustrates an image obtained by the second imaging module when the distance between the second imaging module and the object is not corrected.
  • FIG. 11 illustrates an image obtained by the second imaging module when the processor corrects the distance between the second imaging module and the object by controlling the distance adjusting unit using the reference table.
  • FIG. 12 is a flowchart illustrating an object arranging method of an object arranging apparatus according to another exemplary embodiment.
  • FIG. 13 is a diagram illustrating an example in which an image of an object is binarized by a processor.
  • 14 is a diagram illustrating that the processor determines three points located at an edge of an object.
  • 15 is a diagram illustrating a process of a processor calculating a center position of an object.
  • 16 and 17 are views exemplarily illustrating that an arrangement angle of an object is adjusted.
  • 18 is a diagram illustrating that an angle of arrangement of an object is adjusted based on the second image.
  • the acquiring of the image of the object may include a photographing method of changing a distance between the photographing module and the chuck using the reference table as the photographing position of the photographing module changes.
  • the depth of field of the imaging module may be smaller than the thickness deviation of the chuck.
  • the acquiring of the image of the object may change a distance between the photographing module and the chuck based on thickness values of the chuck measured at four sampling points adjacent to the photographing position of the object.
  • a photographing position changing unit which changes a position at which the photographing module photographs an object
  • a distance adjuster for changing a distance between the photographing module and the chuck as a photographing position of the photographing module changes
  • a processor configured to control movement of the photographing position changing unit and the distance adjusting unit.
  • the processor is provided with a photographing apparatus for controlling the distance adjusting unit by using a reference table in which the thickness of the chuck measured at a plurality of sampling points is stored.
  • the depth size of the imaging module may be smaller than the thickness deviation of the chuck.
  • the processor may calculate a change value of the distance between the imaging module and the chuck from thickness values of the chuck measured at four sampling points adjacent to the imaging position of the imaging module.
  • the obtaining of the second image may include providing an object arrangement method of changing a distance between the second photographing module and the chuck using the reference table as the photographing position of the second photographing module changes.
  • the acquiring of the second image may change the distance between the second imaging module and the chuck based on thickness values of the chuck measured at four sampling points adjacent to the imaging positions of the second imaging module. .
  • the method of arranging an object includes: identifying an edge of the object; And determining a center of the object from an edge of the object.
  • the first and second reference marks may be arranged at positions symmetrical with respect to the center of the object.
  • the edge of the object may be identified by binarizing the photographed image of the object.
  • the second tolerance may be smaller than the first tolerance.
  • the depth of field of the first imaging module is greater than the thickness deviation of the chuck
  • the depth of field of the second imaging module may be smaller than the thickness deviation of the chuck.
  • a first imaging module acquiring a first image of an object seated on the chuck with a first resolution
  • a second imaging module for acquiring a second image of the object at a second resolution
  • a photographing position changing unit which changes photographing positions of the first and second photographing modules
  • An angle adjusting unit for adjusting an arrangement angle of the object from the first and second images
  • a processor for controlling the photographing position changing unit, the distance adjusting unit, and the angle adjusting unit.
  • the processor is provided with an object arrangement apparatus for controlling the distance adjusting unit by using a reference table in which the thickness of the chuck measured at a plurality of sampling points is stored.
  • the depth size of the first imaging module may be greater than the thickness deviation of the chuck, and the depth size of the second imaging module may be smaller than the thickness deviation of the chuck.
  • the processor may identify the positions of the first and second reference marks displayed on the surface of the object in the first and second images and control the angle adjuster based on the positions of the first and second reference marks. have.
  • the processor identifies the edge of the object by binarizing the entire image of the object photographed previously, and determines the center of the object from the edge of the object,
  • Position coordinates of the first and second reference marks may be determined based on the center of the object.
  • the processor may calculate a distance between the second imaging module and the chuck from thickness values of the chuck measured at four sampling points adjacent to the imaging positions of the second imaging module.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are only used to distinguish one component from another.
  • unit and “module” described in the specification mean a unit that processes at least one function or operation.
  • FIG. 1 is a diagram illustrating a photographing apparatus 100 according to an exemplary embodiment.
  • the photographing apparatus 100 includes a photographing module 110 for photographing an image of an object 10 and a location at which the photographing module 110 photographs an object 10.
  • the photographing position changing unit 130 may include a distance adjusting unit 120 for changing a distance h between the photographing module 110 and the chuck 20 as the photographing position of the photographing module 110 changes. have.
  • the distance h between the imaging module 110 and the chuck 20 may be defined as the z-axis distance between the imaging module 110 and the surface on which the chuck 20 is placed.
  • the photographing module 110 may photograph an image of the object 10.
  • the imaging module 110 may capture an image of the object 10 by collecting light reflected from the surface of the object 10 using a predetermined focusing optical system (not shown). Since the focusing optical system of the photographing module 110 has a predetermined focusing distance, when the distance h between the photographing module 110 and the chuck 20 is in a predetermined range, the photographing module 110 causes the object 10 to be focused. ) Can obtain a clear image.
  • the object 10 may be seated on the chuck 20.
  • the chuck 20 may be a structure for supporting the object 10.
  • the position of the chuck 20 may be changed by the photographing position changing unit 130.
  • the surface of the chuck 20 may differ from the ideal plane.
  • the chuck 20 may have a predetermined thickness deviation d depending on flatness.
  • the distance between the surface of the object 10 and the photographing module 110 may be changed as the photographing position is changed.
  • the focus of the photographing module 110 may be blurred, thereby reducing the sharpness of the photographed image.
  • the distance controller 120 may change the distance h between the photographing module 110 and the chuck 20 as the photographing position is changed.
  • the above-described process of adjusting the distance h between the photographing module 110 and the chuck 20 is called an auto focusing process.
  • the blurring of the image due to the flatness of the chuck may be corrected by the auto focusing.
  • the distance adjuster 120 may change the distance h between the chuck 20 and the imaging module 110.
  • the distance adjuster 120 may change the distance h between the chuck 20 and the photographing module 110 by moving the photographing module 110 in the z-axis direction.
  • the distance adjuster 120 may change the distance h between the chuck 20 and the imaging module 110 by moving the chuck 20 on which the object 10 is mounted in the z-axis direction.
  • the distance adjuster 120 may change the distance h between the chuck 20 and the imaging module 110 by moving both the chuck 20 and the imaging module 110.
  • the distance adjusting unit 120 changes the distance h between the chuck 20 and the photographing module 110 so that the distance h between the surface of the object 10 and the photographing module 110 is changed by the photographing module 110. It can be included in the depth range.
  • the photographing position changing unit 130 may change the position at which the photographing module 110 photographs the object 10.
  • the photographing position changing unit 130 may change the position at which the photographing module 110 photographs the object 10 by moving the object 10 in the horizontal direction (x-axis direction, y-axis direction).
  • the photographing position changing unit 130 may move the photographing module 110 in a horizontal direction (x-axis direction, y-axis direction).
  • the processor 140 may control operations of the photographing position changing unit 130 and the distance adjusting unit 120. As the photographing position is changed by the photographing position changing unit 130, the processor 140 causes the photographing module 110 to change the distance between the chuck 20 and the photographing module 110 by the distance adjusting unit 120.
  • the focusing state may be maintained.
  • maintaining the focusing state of the photographing module 110 means that the distance between the photographing module 110 and the chuck 20 is adjusted so that the focus of the image acquired by the photographing module 110 is not blurred.
  • the thickness of the chuck 20 may vary.
  • the resolution of the imaging module 110 is increased, the size of the depth of field of the imaging module 110 may be smaller than the thickness deviation d of the chuck 20.
  • the depth means a region in which the sharpness of the photographed image of the photographing module 110 is maintained even when the distance between the photographing module 110 and the surface of the object 10 deviates from the ideal focusing distance.
  • the sharpness of the photographed image of the photographing module 110 may be maximized.
  • the distance change section that does not significantly affect the sharpness of the image is referred to as the depth of the photographing module 110.
  • the depth of the imaging module 110 may be smaller than the thickness deviation d of the chuck 20. Instead of reducing the depth of the imaging module 110, a more accurate image may be obtained by increasing the resolution of the imaging module 110. However, when the depth of the imaging module 110 becomes smaller than the thickness deviation of the chuck 20, the distance h between the imaging module 110 and the chuck 20 should be changed whenever the photographing position is changed.
  • the auto focusing process may be performed in a state in which the change of the shooting position is stopped whenever the shooting position of the imaging module 110 is changed.
  • the vibration due to the inertial force may occur while the photographing position changing unit 130 accelerates and decelerates the moving object.
  • vibration due to inertia may occur while the distance adjuster 120 changes the distance between the photographing module 110 and the chuck 20 in the auto focusing process.
  • vibration due to inertia may occur.
  • Such vibration may reduce the quality of the image acquired by the imaging module 110. Therefore, it may be necessary to wait for the vibration due to the inertial force to disappear in the auto focusing process.
  • the delay time described above may increase the time required for the auto focusing process.
  • FIG. 2 is a flowchart illustrating a photographing method of the photographing apparatus 100 according to an exemplary embodiment.
  • an autofocusing operation is performed on each of a plurality of sampling points by using the photographing module 110. 20, measuring the thickness of 1110, generating a reference table storing the thickness of the chuck 20 measured at each of the plurality of sampling points, and changing the photographing position of the photographing module 110.
  • the method may include a step 1130 of acquiring an image of the object 10 by photographing the object 10.
  • the sampling point may mean a coordinate point at which the photographing module 110 photographs the object 10 or the chuck 20.
  • the photographing position changing unit 130 may change the position of the photographing module 110 such that the photographing module 110 photographs the object 10 at the sampling point.
  • the distance adjusting unit 120 may determine the distance h between the photographing module 110 and the chuck 20.
  • the auto focusing process can be performed by changing.
  • the processor 140 may determine the distance h to maximize the sharpness of the image by receiving the image of the object 10 photographed by the photographing module 110 and comparing the sharpness.
  • the processor 140 may calculate the thickness of the chuck 20 from the distance between the imaging module 110 and the chuck 20 to maximize the sharpness of the image.
  • the auto focusing process may be performed whenever the photographing position changing unit 130 changes the photographing position of the photographing module 110 to each of the plurality of sampling points.
  • the processor 140 may calculate the thickness of the chuck 20 by comparing the sharpness of the images measured at each of the plurality of sampling points.
  • 3 exemplarily shows sampling points.
  • the plurality of sampling points may be arranged in a grid shape.
  • a sampling point may include 110 points, including 11 points that are periodically spaced horizontally and 10 points that are periodically spaced vertically, each sampling point being numbered from 1 to 111 times. Can be.
  • the arrangement interval and the arrangement shape of the sampling points may be modified differently according to the embodiment.
  • the processor 140 may assign an identification number to each of the sampling points.
  • the processor 140 may store position coordinates of each of the sampling points.
  • the photographing position changing unit 130 may change the photographing position of the photographing module 110 to where the sampling point is located.
  • the processor 140 may calculate the thickness of the chuck 20 at each of the sampling points from the auto focusing result performed at each of the plurality of sampling points.
  • the processor 140 may generate a reference table.
  • the processor 140 may form the reference table by storing the thickness information of the chuck 20 measured at each of the sampling points by matching the identification numbers of the sampling points.
  • position coordinates of each sampling point may be stored together.
  • the photographing position changing unit 130 may change a position at which the photographing module 110 photographs the object 10. While the photographing position changing unit 130 changes the photographing position of the photographing module 110, the distance adjusting unit 120 may change the distance between the photographing module 110 and the chuck 20 in real time.
  • the processor 140 may control the distance adjuster 120 using the above-described reference table.
  • the processor 140 may control the operation of the distance controller 120 using the thickness information of the chuck 20 measured at the sampling point.
  • the processor 140 may call thickness values of the chuck 20 measured at sampling points adjacent to the photographing position.
  • the processor 140 may calculate a distance h between the imaging module 110 and the chuck 20 by using the thickness values of the called chuck 20.
  • the processor 140 adjusts the distance controller 120 such that the distance h between the chuck 20 and the imaging module 110 is changed as the calculated distance h between the imaging module 110 and the chuck 20 is calculated. ) Can be controlled.
  • the processor 140 may determine the distance between the photographing module 110 and the chuck 20 without using an auto focusing process even if the photographing position of the photographing module 110 is changed using the reference table. Therefore, the photographing time of the object 10 of the photographing module 110 may be reduced.
  • FIG 4 is a diagram illustrating that the processor 140 calculates the thickness z c of the chuck 20 at the photographing position of the photographing module 110.
  • the processor 140 may measure thickness values z 1 of the chuck 20 measured at four sampling points SP1, SP2, SP3, and SP4 adjacent to the photographing position P0 of the object 10. , z 2, z 3, and z 4 may calculate the distance between the imaging module 110 and the chuck 20.
  • the processor 140 may have a thickness z 21 of the chuck 20 at the first projection point P1 at which the photographing position P0 is projected by the connection line between the first and second sampling points SP1 and SP2. ) Can be calculated according to Equation 1.
  • x 21 represents the x-axis coordinate of the first projection point P1 and z 21 represents the thickness of the chuck 20 at the first projection point P1.
  • x 1 refers to the x-axis coordinate of the first sampling point SP1
  • x 2 refers to the x-axis coordinate of the second sampling point SP2.
  • the processor 140 may measure the thickness z1 of the chuck 20 measured at the first sampling point SP1 and the thickness z of the chuck 20 measured at the second sampling point SP2, as shown in Equation 1.
  • the thickness z 21 of the chuck 20 at the first projection point P1 can be calculated as a linear function of 2 ).
  • the linear function means a function consisting of a combination of first-order terms of a variable.
  • the processor 140 may measure the thickness z 43 of the chuck 20 at the second projection point P2 where the photographing position P0 is projected by the connection line between the third and fourth sampling points SP3 and SP4. It can be calculated according to Equation 2.
  • x 21 refers to the x-axis coordinate of the second projection point P2
  • z 43 refers to the thickness of the chuck 20 at the second projection point P2.
  • x 3 refers to the x-axis coordinates of the third sampling point SP3
  • x 4 refers to the x-axis coordinates of the fourth sampling point SP4.
  • the processor 140 may measure the thickness z3 of the chuck 20 measured at the third sampling point SP3 and the thickness z of the chuck 20 measured at the fourth sampling point SP4, as shown in Equation 2.
  • the thickness z43 of the chuck 20 at the second projection point P2 can be calculated as a linear function of 4 ).
  • the processor 140 uses the equation 3 from the thickness values z 21 and z 34 of the chuck 20 calculated at the first and second projection points P1 and P2 to calculate the chuck at the photographing position P0. 20, the thickness zc can be calculated.
  • Equation 3 y 21 refers to the y coordinate of the third projection point P3 in which the photographing position P0 is projected by the connection line between the first and third sampling points SP1 and SP3.
  • z 43 refers to the thickness of the chuck 20 at the second projection point P2
  • z 21 refers to the thickness of the chuck 20 at the first projection point P1.
  • y 1 represents the y coordinate of the first projection point P1
  • y 2 represents the y coordinate of the second projection point P2.
  • the processor 140 may have a thickness z 21 of the chuck 20 at the first projection point P1 and a thickness Z of the chuck 20 at the second projection point P2 calculated by Equations 1 and 2 below. 43 ), the thickness z c of the chuck 20 at the imaging position P0 can be calculated. As a result, the processor 140 is a linear function of the thickness values z 1 , z 2, z 3, z 4 of the chuck 20 measured at the first to fourth sampling points SP1, SP2, SP3, SP4. The thickness z C of the chuck 20 at the shooting position P0 can be calculated.
  • the photographing apparatus 100 and the photographing method using the photographing apparatus 100 according to the exemplary embodiments have been described.
  • the sharpness of the image photographed by the photographing module 110 by automatically changing the distance h between the photographing module 110 and the chuck 20 as the photographing position of the photographing module 110 changes. Can increase.
  • the photographing method described above may be used to align the object 10 in a laser processing process or the like.
  • FIG. 5 is a diagram illustrating the surface of the object 10 by way of example.
  • the object 10 may include a plurality of semiconductor chips 11 arranged in a lattice shape.
  • the semiconductor chip 11 arranged on the object 10 can be separated by irradiating a laser beam along the object L to the object line 10.
  • the separated semiconductor chip 11 may be packaged by resin packaging.
  • the processing direction (y-axis direction) of the laser beam and the processing schedule line L of the object 10 should be parallel. Therefore, the process of making the processing plan line L of the object 10 parallel to the processing direction (y-axis direction) of the laser beam by adjusting the arrangement angle of the object 10 is needed.
  • FIG. 6 is a diagram schematically illustrating an object arranging apparatus 200 according to an exemplary embodiment.
  • the object arranging apparatus 200 may include a first photographing module 212 that acquires a first image of an object 10 at a first resolution, and an object 10 at a second resolution.
  • the photographing position changing unit 240 and the second photographing module 214 which change photographing positions of the first and second photographing modules 212 and 214.
  • the processor 230 may include a processor 250, a photographing position changing unit 240, a distance adjusting unit 220, and an angle adjusting unit 230.
  • the first imaging module 212 may have a first resolution.
  • the second imaging module 214 may have a second resolution.
  • the second resolution may be higher than the first resolution. Accordingly, the first photographing module 212 may photograph the object 10 with a lower resolution than the second photographing module 214.
  • the depth of the first imaging module 212 may be greater than that of the second imaging module 214.
  • the depth size of the first imaging module 212 is greater than the thickness deviation d of the chuck 20, while the depth size of the second imaging module 214 is the thickness deviation d of the chuck 20.
  • the first photographing module 212 does not need distance correction between the first photographing module 212 and the chuck 20 as the photographing position changes, while the second photographing module 214 changes the photographing position. Accordingly, correction of the distance h between the second imaging module 214 and the chuck 20 may be necessary.
  • the distance adjuster 220 may change the distance h between the second imaging module 214 and the chuck 20.
  • the distance controller 220 may change the distance h between the second imaging module 214 and the chuck 20 by moving the second imaging module 214 in the z-axis direction.
  • the distance adjusting unit 220 may change the distance h between the second imaging module 214 and the chuck 20 by changing the height of the support surface on which the object 10 is mounted.
  • the distance adjuster 220 may change the distance h between the second imaging module 214 and the chuck 20 by moving both the object 10 and the second imaging module 214 in the z-axis direction. Can be.
  • the distance adjusting unit 220 changes the distance h between the second imaging module 214 and the chuck 20 so that the distance between the surface of the object 10 and the second imaging module 110 is changed to the imaging module 214. It can be in the depth range of.
  • the photographing position changing unit 240 may change a position at which the first and second photographing modules 212 and 214 photograph the object 10. For example, the photographing position changing unit 240 moves the object 10 in the horizontal direction (x-axis direction and y-axis direction) so that the first and second photographing modules 212 and 214 photograph the object 10. You can change the location. As another example, the photographing position changing unit 240 may move the first and second photographing modules 212 and 214 in a horizontal direction (x-axis direction and y-axis direction).
  • the angle adjuster 230 may change the arrangement angle of the object 10. For example, the angle adjuster 230 may adjust the arrangement angle of the object 10 by rotating the chuck 232 on which the object 10 is mounted.
  • the processor 250 may control the distance adjuster 220, the photographing position changer 240, and the angle adjuster 230. Based on the first image photographed by the first photographing module 212, the processor 250 determines that an angle between the machining line L of the object 10 and the laser machining direction (y-axis) is greater than the first tolerance. The angle adjusting unit 230 may be controlled to be smaller. In addition, the processor 250 may allow the angle between the processing line L of the object 10 and the laser processing direction (y-axis) to be second based on the second image photographed by the second imaging module 214. The angle adjusting unit 230 may be controlled to be smaller than the error. When the resolution of the second imaging module 214 is higher than that of the first imaging module 212, the second tolerance may be smaller than the first tolerance.
  • FIG. 7 is a perspective view illustrating the object arranging apparatus 200 illustrated in FIG. 6.
  • the object 10 may be seated on the chuck 232.
  • the angle adjusting unit 230 may adjust the arrangement angle of the object 10 by rotating the chuck 232.
  • the photographing position changing unit 240 may include a moving stage.
  • the chuck 232 may move along the moving stage of the photographing position changing unit 240.
  • the photographing position changing unit 240 may move the chuck in one direction (y-axis direction).
  • FIG. 8 is a diagram illustrating the distance controller 220 and the first and second photographing modules 212 and 214 shown in FIG. 7.
  • the distance adjuster 220 may move the second imaging module 214 in the z-axis direction of FIG. 7.
  • the distance adjuster 220 may change the distance between the second photographing module 214 and the chuck 232 by moving the second photographing module 214 along the z axis.
  • the embodiment is not limited thereto.
  • the distance adjuster 220 may change the distance between the second imaging module 214 and the chuck 232 by moving the chuck 232 in the z-axis direction.
  • the photographing position changing unit 240 may cause the second photographing module 214 to photograph the object 10 at the sampling point.
  • the object 10 used in operation 1210 may be a sample other than the object to be processed.
  • the distance adjusting unit 220 may be disposed between the second photographing module 214 and the chuck 232.
  • the auto focusing process may be performed while changing the distance h.
  • the processor 250 may determine the distance h that maximizes the sharpness of the image by receiving the image captured by the second imaging module 214 and comparing the sharpness.
  • the processor 250 may calculate the thickness of the chuck 232 from the distance between the second imaging module 214 and the chuck 20 to maximize the sharpness of the image.
  • the auto focusing process may be performed whenever the photographing position changing unit 240 changes the photographing position of the second photographing module 214 to each of the plurality of sampling points.
  • the processor 250 may calculate the thickness of the chuck 232 by comparing the sharpness of the images measured at each of the plurality of sampling points.
  • the processor 250 may generate a reference table in which the calculated thickness values of the chuck 232 are stored.
  • the processor 250 may form a reference table by storing the thickness information of the chuck 232 measured at each of the sampling points by matching the identification numbers of the sampling points. In the reference table, position coordinates of each sampling point may be stored together.
  • the object 10 may be photographed using the first photographing module 212 while the photographing position changing unit 240 changes the photographing position.
  • the object 10 used in operation 1220 may be an object 10 to be processed.
  • the first photographing module 212 may capture the first image by photographing the object 10 with the first resolution.
  • the depth size of the first imaging module 212 may be greater than the thickness deviation d of the chuck 232. Therefore, in operation 1210, the subject 10 may be photographed without correcting the distance between the first photographing module 212 and the chuck 232 while the photographing position of the first photographing module 212 is changed.
  • the processor 250 may receive a first image from the first photographing module 212.
  • the first image may be somewhat lower in resolution than the second image described later.
  • the processor 250 may calculate an angle difference between the processing line L of the object 10 and the laser beam processing direction from the first image.
  • the calculation accuracy of the processor 250 may vary depending on the resolution of the first image.
  • the processor 250 may control the angle adjuster 230 such that an angle between the machining plan line L of the object 10 and the machining direction of the laser beam is smaller than the first tolerance.
  • the size of the first tolerance may vary depending on the resolution of the first image.
  • the subject 10 may be photographed using the second photographing module 214 while the photographing position changing unit 240 changes the photographing position.
  • the second photographing module 214 captures the second image by photographing the object 10 with the second resolution.
  • the depth size of the second imaging module 214 may be smaller than the thickness deviation d of the chuck 232. Therefore, in operation 1250, the distance h between the first photographing module 212 and the chuck 232 may be corrected while the photographing position of the second photographing module 214 is changed.
  • the processor 250 may control the distance controller 220 using the above-described reference table.
  • the processor 250 may control the operation of the distance controller 220 using the thickness information of the chuck 232 measured at the sampling point. have.
  • the processor 250 may call thickness values of the chuck 232 measured at the sampling points adjacent to the photographing position.
  • the processor 250 may calculate the distance h between the second imaging module 214 and the chuck 232 using the thickness values of the called chuck 232.
  • the processor 250 adjusts the distance so that the distance h between the chuck 232 and the imaging module 110 is changed according to the calculated distance h between the second imaging module 214 and the chuck 232. 220 may be controlled.
  • the processor 250 may calculate the thickness of the chuck 232 using the above Equations 1 to 3 at any photographing position.
  • the processor 250 may determine the distance between the second photographing module 214 and the chuck 232 using a reference table without performing an auto focusing process even when the photographing position of the second photographing module 214 is changed. . Thus, the time required for the second imaging module 214 to acquire the second image can be reduced. In addition, the second imaging module 214 may increase the image clarity.
  • the processor 250 may receive a second image from the second photographing module 214.
  • the second image may have a higher resolution than the first image.
  • the processor 250 may calculate an angle difference between the processing line L of the object 10 and the laser beam processing direction from the second image.
  • the calculation accuracy of the processor 250 may vary depending on the resolution of the second image.
  • the processor 250 may control the angle adjuster 230 such that an angle between the machining plan line L of the object 10 and the machining direction of the laser beam is smaller than the second tolerance.
  • the size of the second tolerance may vary depending on the resolution of the second image. Also, the second tolerance may be smaller than the first tolerance.
  • FIG. 10 shows an image obtained by the second imaging module 214 when the distance h between the second imaging module 214 and the chuck 232 is not corrected.
  • FIG. 11 shows a second photographing when the processor 250 corrects the distance h between the second photographing module 214 and the chuck 232 by controlling the distance adjusting unit 220 using the reference table. Represents an image obtained by module 214.
  • the second imaging module 214 may not be in focus as the imaging position is changed. .
  • the sharpness of the image may be lowered and the second image may be blurred.
  • the reference mark M may be used as a reference point for aligning the object 10, which will be described later.
  • the distance h between the second photographing module 214 and the chuck 232 Since is automatically changed, the sharpness of the image photographed by the second photographing module 214 may be high. As the sharpness of the image is increased, it is possible to identify the reference mark M displayed on the surface of the object 10. In addition, since the surface of the object 10 can be accurately observed, the arrangement angle of the object 10 can be easily adjusted.
  • the object arranging apparatus 200 may adjust the arrangement angle of the object 10 by photographing the surface of the object 10. For example, the object arranging apparatus 200 may adjust the arrangement angle of the object 10 by identifying the position of the reference mark marked on the surface of the object 10.
  • FIG. 12 is a flowchart illustrating an object arranging method of the object arranging apparatus 200 according to another exemplary embodiment.
  • FIG. 12 portions overlapping with the description with reference to FIG. 9 will be omitted.
  • the method for arranging an object 10 by the object arranging apparatus 200 may include identifying an edge of the object 10 from an edge 1310 and an edge of the object 10. The method may further include determining 1320 of the center of the object 10.
  • the processor 250 may identify an edge of the object 10 from the image of the previously photographed object 10.
  • the previously photographed object 10 may be photographed by any one of the first and second photographing modules 212 and 214, but may also be an image photographed by another photographing apparatus. Since only the edge of the object 10 needs to be identified in operation 1310, the image of the object 10 previously photographed may not require high resolution. Therefore, in order to increase the process speed, the processor 250 may identify the edge of the object 10 by using the image photographed by the photographing apparatus capable of capturing the entire image of the object 10 at once.
  • the processor 250 may identify an edge of the object 10 by binarizing the image of the previously photographed object 10.
  • the processor 250 may binarize an image to a portion where the contrast is higher than the predetermined reference value and the contrast is lower than the predetermined reference value in the image.
  • FIG. 13 is a diagram illustrating an example in which an image of an object 10 is binarized by a processor 250.
  • the processor 250 may convert an image of the object 10 into a black and white image by binarizing the image.
  • the processor 250 may process a portion where the contrast is higher than the reference value in white and a portion where the contrast is lower than the reference value in the image of the object 10 as black.
  • the edge 15 of the object 10 is displayed in black because the contrast is dark, and the inner part of the object 10 and the outer region 12 of the object 10 are displayed in white. Can be.
  • the processor 250 may identify the black portion of the binarized image as the edge 15 of the object 10.
  • the processor 250 may determine the center of the object 10 from the edge 15 of the object 10 illustrated in FIG. 13. For example, the processor 250 may determine three points located at the edge 15, and determine the position of the center of the object 10 from the positions of the three points.
  • the processor 250 may determine three points 13a, 13b, and 13c located at the edge 15 of the object 10.
  • the processor 250 may determine the center of the object 10 by calculating the center positions of the triangles formed by the first to third points 13a, 13b, and 13c.
  • FIG. 15 is a diagram illustrating a process in which the processor 250 calculates a position of the center C of the object 10.
  • the processor 250 may determine a vector from the second point 13b toward the first point 13a.
  • the distance s between the center C of the object 10 and a straight line connecting the first and second points 13a and 13b, and the center C of the object 10 and the second and second points The coordinates of the center C can be calculated by calculating the distance t between the straight lines connecting 13b and 13c.
  • the processor 250 may calculate the center of the object 10 according to Equation 4.
  • Equation 4 x c means the x coordinate of the center (C) of the object 10, and y c means the y coordinate of the center of the object (10).
  • a x indicates the x coordinate of the first point (13a), and a y denotes the y coordinate of the first point (13a).
  • b x means the x coordinate of the second point 13b, and b y means the y coordinate of the second point 13b.
  • C x means the x coordinate of the third point 13c, and C y means the y coordinate of the third point 13c.
  • the processor 250 may assign a position coordinate to a reference mark marked on the surface of the object 10 based on the center C of the object 10 as a reference point. For example, the processor 250 may calculate position coordinates of the first and second reference marks displayed on the surface of the object 10 in the first image in operation 1340. The position coordinates of the first and second reference marks may be set based on the center C of the object 10. In addition, the processor 250 may control the angle adjuster 230 based on the position coordinates of the first and second reference marks. The accuracy of the position coordinates of the first and second reference marks determined in the first image may be determined according to the resolution of the first image.
  • the first imaging module 212 may have a lower resolution than the second imaging module 214. However, the first imaging module 212 may have a wider viewing range than the second imaging module 214. Therefore, when the arrangement angle of the object 10 is roughly arranged using the first image obtained by the first imaging module 212, the time taken to adjust the arrangement angle of the object 10 may be shortened.
  • 16 and 17 exemplarily show that the arrangement angle of the object 10 is adjusted in step 1350.
  • the machining plan line L of the object 10 and the laser beam machining direction may be shifted by ⁇ 1 .
  • the processor 250 may calculate position coordinates of the first and second reference marks A and B in the first image photographed by the first photographing module 212.
  • the first and second reference marks A and B may be marked at positions symmetrical with respect to the center C of the object 10.
  • the processor 250 determines the angle between the arrangement direction of the first and second reference marks A and B and the laser processing direction (y-axis direction) based on the position coordinates of the first and second reference marks A and B.
  • the movement of the angle adjuster 220 may be controlled to be smaller than the first tolerance.
  • the angle adjusting unit 220 may change the arrangement angle of the object 10 by a control command of the processor 250. As the arrangement angle of the object 10 is changed, the angle between the arrangement direction of the first and second reference marks A and B and the laser processing direction (y-axis direction) may be reduced to ⁇ 2 .
  • the angle ⁇ 2 may be a value smaller than the first tolerance.
  • the second image of the object 10 may be captured by using the second imaging module 214. While the second imaging module 214 captures the second image, the processor 250 may cause the distance h between the second imaging module 214 and the chuck 232 to change using the reference table. In addition, the processor 250 captures the second image by limiting the range in which the second imaging module 214 photographs the object 10 to an area deviated by the first tolerance from the laser processing direction (y-axis direction). The time taken can be shortened. The processor 250 may calculate the position coordinates of the first and second reference marks A and B identified in the second image having a higher resolution than the first image.
  • FIG. 18 illustrates that the arrangement angle of the object 10 is adjusted based on the second image in step 1370.
  • the processor 250 may control the angle adjuster 230 using the position coordinates of the first and second reference marks A and B identified in the second image.
  • the angle between the arrangement direction of the first and second reference marks A and B and the laser beam processing direction (y-axis direction) is the second. May be less than tolerance.
  • the second tolerance may be smaller than the first tolerance.
  • the direction may be substantially parallel to the laser beam processing direction (y-axis direction).
  • the processing schedule line of the object 10 may also be substantially parallel to the laser beam processing direction.
  • the photographing apparatus 100 and the photographing method according to the exemplary embodiments, and the object arranging apparatus 200 and the arranging method of the object 10 have been described.
  • the photographed image of the object 10 may be clearly obtained regardless of the flatness of the chuck using the reference table in which the thickness of the chuck 232 measured at the plurality of sampling points is stored.
  • the arrangement direction of the object 10 may be accurately adjusted from the captured image having high sharpness.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Laser Beam Processing (AREA)

Abstract

본 발명은 촬영 장치 및 촬영 방법을 이용한 대상물 정렬 방법에 관한 것이다. 촬영 방법에 의하면 복수의 샘플링 포인트에서 측정된 척의 두께 값들이 저장된 참조 테이블을 이용하여 촬영 과정에서 오토 포커싱이 이루어짐으로써 선명한 이미지를 얻을 수 있다. 또한, 촬영 장치에서 얻은 이미지로부터 대상물을 정렬할 수 있다.

Description

촬영 방법 및 촬영 방법을 이용한 대상물 정렬 방법
촬영 장치 및 촬영 방법과 상기 촬영 장치 및 촬영 방법을 이용한 대상물 정렬 방법에 관한 것이다.
일반적으로 레이저 가공 공정은 대상물의 표면에 레이저 빔을 주사하여 대상물 표면의 형상을 가공하거나 물리적 성질 등을 가공하는 공정을 말한다. 대상물은 여러 가지 종류의 대상체를 포함할 수 있으며, 가공되는 형상은 2 D 평면 형상일 수 있다.
레이저 가공 공정의 일 예로는, 다결정 실리콘(polysilicone) 막으로 형성하는 공정이 있을 수 있다. 다결정 실리콘막 형성 공정은 실리콘 웨이퍼 상에 레이저 빔을 주사하여 비정질 실리콘(amorphous silicon)막을 결정화시킴으로써 형성될 수 있다.
또한, 일 예에 따른 반도체 디바이스 제조공정은, 반도체 웨이퍼 표면에 IC(integrated circuit)나 LSI(large scale integrated circuit) 등의 전자 회로(electronic circuit)를 형성 후, 레이저 빔을 이용하여 가공 예정 라인을 따라 절단한다. 이러한 공정에 따라 제조된 반도체 디바이스는 수지 포장(plastic seal)에 따라 패키징(packaging) 된다. 반도체 디바이스는 휴대 전화(portable telephone)나 PC(퍼스널 컴퓨터) 등의 각종 전기-전자기기(electronic equipment)에 넓게 이용되고 있다.
반도체 디바이스의 정밀한 가공을 위해서는 레이저 가공 방향에 따라 가공 물을 정확히 정렬(align)하는 것이 중요하다. 대상물의 정렬을 위해서는 높은 분해능을 가지는 촬영 장치로 대상물의 정확한 이미지를 얻는 것이 필요하다. 그런데, 일반적으로 반도체 웨이퍼를 비롯한 대상물은 두께가 일정하지 않고 소정의 편차를 가진다. 그리고, 일반적으로 촬영 장치는 분해능이 높아질수록 심도(Depth of field) 크기가 작아진다. 촬영 장치의 심도 크기가 작아지면 척의 두께 편차에 의해 포커싱 거리가 맞지 않아 촬영 이미지의 선명도가 떨어지는 문제점이 있다.
예시적인 실시예에 따르면, 촬영 장치의 촬영 위치가 변함에 따라 촬영 장치의 포커싱 거리를 자동으로 조절함으로써 선명한 이미지를 얻을 수 있다. 또한, 촬영 장치에서 얻은 이미지로부터 대상물을 정렬할 수 있다.
일 측면에 있어서,
촬영 모듈을 이용하여, 복수의 샘플링 포인트 각각에 대해 오토 포커싱 작업을 수행함으로써 상기 복수의 샘플링 포인트에서 대상물이 안착되는 척의 두께를 측정하는 단계;
상기 복수의 샘플링 포인트 각각에서 측정된 상기 척의 두께가 저장된 참조 테이블을 생성하는 단계;
상기 촬영 모듈의 촬영 위치를 변화시키면서 상기 대상물을 촬영함으로써 상기 대상물의 이미지를 획득하는 단계;를 포함하며,
상기 대상물의 이미지를 획득하는 단계는, 상기 촬영 모듈의 촬영위치가 변함에 따라 상기 참조 테이블을 이용하여 상기 촬영 모듈과 상기 척 사이의 거리를 변경하는 촬영방법이 제공된다.
실시예들에 따르면, 복수의 샘플링 포인트에서 측정된 대상물의 두께가 저장된 참조 테이블을 이용하여 대상물의 촬영 이미지의 선명도를 높일 수 있다. 그리고, 선명도가 높은 촬영 이미지로부터 대상물의 배열 방향을 정확하게 조절할 수 있다.
도 1은 예시적인 실시예에 따른 촬영 장치를 나타낸 도면이다.
도 2는 예시적인 실시예에 따른 촬영 장치의 촬영 방법을 나타낸 흐름도이다.
도 3은 샘플링 포인트들을 예시적으로 나타낸 도면이다.
도 4는 프로세서가 촬영 모듈의 촬영 위치에서 대상물의 두께를 계산하는 것을 나타낸 도면이다.
도 5는 대상물의 표면을 예시적으로 나타낸 도면이다.
도 6은 예시적인 실시예에 따른 대상물 배열 장치를 대략적으로 나타낸 도면이다.
도 7은 도 6에서 나타낸 대상물 배열 장치를 예시적으로 나타낸 사시도 이다.
도 8은 도 7에서 나타낸 거리 조절부와, 제1 및 제2 촬영 모듈을 나타낸 도면이다.
도 9는 도 6 내지 도 8에서 나타낸 대상물 배열 장치를 이용한 대상물의 배열 방법을 나타낸 흐름도이다.
도 10은 제2 촬영 모듈과 대상물 사이의 거리를 보정하지 않는 경우, 제2 촬영 모듈에 의해 얻어진 이미지를 나타낸다.
도 11은 프로세서가 참조 테이블을 이용하여 거리 조절부를 제어함으로써 제2 촬영 모듈과 대상물 사이의 거리를 보정한 경우, 제2 촬영 모듈에 의해 얻어진 이미지를 나타낸다.
도 12는 다른 예시적인 실시예에 따른 대상물 배열 장치의 대상물 배열 방법을 나타낸 흐름도이다.
도 13은 프로세서에 의해 대상물의 이미지가 이진화 된 예를 나타낸 도면이다.
도 14는 프로세서가 대상물의 가장자리에 위치한 3개의 점을 결정하는 것을 예시적으로 나타낸 도면이다.
도 15는 프로세서가 대상물의 중심 위치를 계산하는 과정을 나타낸 도면이다.
도 16 및 도 17은 대상물의 배열 각도가 조절되는 것을 예시적으로 나타낸 도면이다.
도 18은 제2 이미지에 기초하여 대상물의 배열 각도가 조절된 것을 나타낸 도면이다.
일 측면에 있어서,
촬영 모듈을 이용하여, 복수의 샘플링 포인트 각각에 대해 오토 포커싱 작업을 수행함으로써 상기 복수의 샘플링 포인트에서 대상물이 안착되는 척의 두께를 측정하는 단계;
상기 복수의 샘플링 포인트 각각에서 측정된 상기 척의 두께가 저장된 참조 테이블을 생성하는 단계;
상기 촬영 모듈의 촬영 위치를 변화시키면서 상기 대상물을 촬영함으로써 상기 대상물의 이미지를 획득하는 단계;를 포함하며,
상기 대상물의 이미지를 획득하는 단계는, 상기 촬영 모듈의 촬영위치가 변함에 따라 상기 참조 테이블을 이용하여 상기 촬영 모듈과 상기 척 사이의 거리를 변경하는 촬영방법이 제공된다.
상기 촬영 모듈의 심도(Depth of field) 크기는 상기 척의 두께 편차보다 작을 수 있다.
상기 대상물의 이미지를 획득하는 단계는, 상기 대상물의 촬영 위치에 인접한 4개의 상기 샘플링 포인트에서 측정된 상기 척의 두께 값들에 기초하여, 상기 촬영 모듈과 상기 척 사이의 거리를 변경할 수 있다.
다른 측면에 있어서,
척 위에 안착된 대상물의 이미지를 촬영하는 촬영 모듈;
상기 촬영 모듈이 대상물을 촬영하는 위치를 변경하는 촬영 위치 변경부;
상기 촬영 모듈의 촬영 위치가 변함에 따라 상기 촬영 모듈과 상기 척 사이의 거리를 변경하는 거리 조절부; 및
상기 촬영 위치 변경부와 및 상기 거리 조절부의 움직임을 제어하는 프로세서;를 포함하며,
상기 프로세서는 복수의 샘플링 포인트에서 측정된 상기 척의 두께가 저장된 참조 테이블을 이용하여, 상기 거리 조절부를 제어하는 촬영 장치가 제공된다.
상기 촬영 모듈의 심도 크기는 상기 척의 두께 편차보다 작을 수 있다.
상기 프로세서는 상기 촬영 모듈의 촬영 위치에 인접한 4개의 상기 샘플링 포인트에서 측정된 상기 척의 두께 값들로부터 상기 촬영 모듈과 상기 척 사이의 거리의 변경 값을 계산할 수 있다.
다른 측면에 있어서,
복수의 샘플링 포인트에서 오토 포커싱 작업을 수행함으로써, 상기 복수의 샘플링 포인트 각각에서 측정된 척의 두께가 저장된 참조 테이블을 생성하는 단계;
제1 촬영 모듈의 촬영위치를 변화시키면서 상기 척에 안착된 대상물을 촬영함으로써, 상기 대상물의 제1 이미지를 획득하는 단계;
상기 제1 이미지에 기초하여 상기 대상물의 배열 각도를 조절하는 단계;
제2 촬영 모듈의 촬영위치를 변화시키면서 상기 대상물을 촬영함으로써, 상기 대상물의 제2 이미지를 획득하는 단계; 및
상기 제2 이미지에 기초하여 상기 대상물의 배열 각도를 조절하는 단계;를 포함하며,
상기 제2 이미지를 획득하는 단계는, 상기 제2 촬영 모듈의 촬영 위치가 변함에 따라 상기 참조 테이블을 이용하여 상기 제2 촬영 모듈과 상기 척 사이의 거리를 변경하는 대상물 배열 방법이 제공된다.
상기 제2 이미지를 획득하는 단계는, 상기 제2 촬영 모듈의 촬영위치에 인접한 4개의 상기 샘플링 포인트에서 측정된 상기 척의 두께 값들에 기초하여 상기 제2 촬영 모듈과 상기 척 사이의 거리를 변경할 수 있다.
상기 대상물 배열 방법은, 상기 대상물의 가장자리를 식별하는 단계; 및 상기 대상물의 가장자리로부터 상기 대상물의 중심을 결정하는 단계;를 더 포함할 수 있다.
상기 제1 이미지에 기초하여 상기 대상물의 배열 각도를 조절하는 단계는,
상기 제1 이미지에서 상기 대상물의 표면에 표시된 제1 및 제2 참조 마크의 상기 대상물의 중심에 대한 위치 좌표를 계산하는 단계 및 상기 제1 및 제2 참조 마크의 위치 좌표로부터 상기 대상물의 배열 각도를 조절하는 단계를 포함할 수 있다.
상기 제2 이미지에 기초하여 상기 대상물의 배열 각도를 조절하는 단계는,
상기 제1 이미지에서 상기 대상물의 표면에 표시된 제1 및 제2 참조 마크의 상기 대상물의 중심에 대한 위치 좌표를 계산하는 단계 및 상기 제1 및 제2 참조 마크의 위치 좌표로부터 상기 대상물의 배열 각도를 조절하는 단계를 포함할 수 있다.
상기 제1 및 제2 참조 마크는 상기 대상물의 중심에 대해 서로 대칭적인 위치에 배열될 수 있다.
상기 대상물의 가장자리를 식별하는 단계는, 상기 대상물의 촬영 이미지를 이진화 함으로써 상기 대상물의 가장자리를 식별할 수 있다.
상기 제1 이미지에 기초하여 상기 대상물의 배열 각도를 조절하는 단계는, 상기 대상물의 가공 예정 라인과 레이저 빔의 가공 방향 사이의 각도가 제1 허용 오차보다 작아지도록 하며,
상기 제2 이미지에 기초하여 상기 대상물의 배열 각도를 조절하는 단계는, 상기 대상물의 가공 예정 라인과 레이저 빔의 가공 방향 사이의 각도가 제2 허용 오차보다 작아지도록 하되,
상기 제2 허용 오차는 상기 제1 허용 오차 보다 작을 수 있다.
상기 제1 촬영 모듈의 심도(Depth of field)의 크기는 상기 척의 두께 편차보다 크며,
상기 제2 촬영 모듈의 심도(Depth of field)의 크기는 상기 척의 두께 편차보다 작을 수 있다.
다른 측면에 있어서,
제1 분해능으로 척 위에 안착된 대상물의 제1 이미지를 획득하는 제1 촬영 모듈;
제2 분해능으로 상기 대상물의 제2 이미지를 획득하는 제2 촬영 모듈;
상기 제1 및 제2 촬영 모듈의 촬영 위치를 변경하는 촬영 위치 변경부;
상기 제2 촬영 모듈의 촬영 위치가 변함에 따라 상기 제2 촬영 모듈과 상기 대상물 사이의 거리를 변경하는 거리 조절부;
상기 제1 및 제2 이미지로부터 상기 대상물의 배열 각도를 조절하는 각도 조절부; 및
상기 촬영 위치 변경부와 상기 거리 조절부 및 상기 각도 조절부를 제어하는 프로세서;를 포함하며,
상기 프로세서는 복수의 샘플링 포인트에서 측정된 상기 척의 두께가 저장된 참조 테이블을 이용하여, 상기 거리 조절부를 제어하는 대상물 배열 장치가 제공된다.
상기 제1 촬영 모듈의 심도 크기는 상기 척의 두께 편차보다 크며, 상기 제2 촬영 모듈의 심도 크기는 상기 척의 두께 편차보다 작을 수 있다.
상기 프로세서는, 상기 제1 및 제2 이미지에서 상기 대상물의 표면에 표시된 제1 및 제2 참조 마크의 위치를 식별하고 상기 제1 및 제2 참조 마크의 위치에 기초하여 상기 각도 조절부를 제어할 수 있다.
상기 프로세서는 기 촬영된 상기 대상물의 전체 이미지를 이진화 함으로써 상기 대상물의 가장자리를 식별하고, 상기 대상물의 가장자리로부터 상기 대상물의 중심을 결정하며,
상기 대상물의 중심을 기준으로 제1 및 제2 참조 마크의 위치 좌표를 결정할 수 있다.
상기 프로세서는 상기 제2 촬영 모듈의 촬영위치에 인접한 4개의 상기 샘플링 포인트에서 측정된 상기 척의 두께 값들로부터 상기 제2 촬영 모듈과 상기 척 사이의 거리를 계산할 수 있다.
이하의 도면들에서 동일한 참조부호는 동일한 구성요소를 지칭하며, 도면상에서 각 구성요소의 크기는 설명의 명료성과 편의상 과장되어 있을 수 있다. 한편, 이하에 설명되는 실시예는 단지 예시적인 것에 불과하며, 이러한 실시예들로부터 다양한 변형이 가능하다.
제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
또한, 명세서에 기재된 “...부”, “모듈” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미한다.
도 1은 예시적인 실시예에 따른 촬영 장치(100)를 나타낸 도면이다.
도 1을 참조하면, 예시적인 실시예에 따른 촬영 장치(100)는 대상물(10)의 이미지를 촬영하는 촬영 모듈(110)과, 촬영 모듈(110)이 대상물(10)을 촬영하는 위치를 변경하는 촬영 위치 변경부(130), 촬영 모듈(110)의 촬영 위치가 변함에 따라 촬영 모듈(110)과 척(20) 사이의 거리(h)를 변경하는 거리 조절부(120)를 포함할 수 있다. 촬영 모듈(110)과 척(20) 사이의 거리(h)는 촬영 모듈(110)과 척(20)이 놓여진 면 사이의 z축 방향 거리로 정의될 수 있다.
촬영 모듈(110)은 대상물(10)의 이미지를 촬영할 수 있다. 촬영 모듈(110)은 소정의 포커싱 광학계(미도시) 이용해 대상물(10)의 표면에서 반사된 광을 집광 함으로써 대상물(10)의 이미지를 촬영할 수 있다. 촬영 모듈(110)의 포커싱 광학계가 소정의 포커싱 거리를 가지기 때문에, 촬영 모듈(110)과 척(20) 사이의 거리(h)가 소정의 범위에 있을 때, 촬영 모듈(110)이 대상물(10)의 선명한 이미지를 획득할 수 있다.
대상물(10)은 척(20)에 안착될 수 있다. 척(20)은 대상물(10)을 지지하는 구조체일 수 있다. 척(20)은 촬영 위치 변경부(130)에 의해 위치가 변경될 수 있다. 척(20)의 표면은 이상적인 평면과 다를 수 있다. 예를 들어, 척(20)은 평탄도에 따라 소정의 두께 편차(d)를 가질 수 있다. 척(20)의 두께가 일정하지 않게 되면, 촬영 위치가 변경됨에 따라 대상물(10)의 표면과 촬영 모듈(110) 사이의 거리가 바뀔 수 있다. 촬영 모듈(110)과 대상물(10)의 표면 사이의 거리가 변경되게 되면, 촬영 모듈(110)의 초점이 흐려지게 되어 촬영 이미지의 선명도가 낮아질 수 있다.
촬영 이미지의 선명도가 낮아지는 것을 방지하기 위해, 거리 조절부(120)는 촬영 위치가 변경됨에 따라 촬영 모듈(110)과 척(20) 사이의 거리(h)를 변경할 수 있다. 전술한 촬영 모듈(110)과 척(20) 사이 거리(h)를 조절하는 과정을 오토 포커싱(Auto focusing) 과정이라고 한다. 상기 오토 포커싱에 의해 척의 평탄도에 의한 이미지의 흐려짐이 보정될 수 있다.
거리 조절부(120)는 척(20)과 촬영 모듈(110) 사이의 거리(h)를 변화시킬 수 있다. 예시적으로 거리 조절부(120)는 촬영 모듈(110)을 z 축 방향으로 움직임으로써, 척(20)과 촬영 모듈(110) 사이의 거리(h)를 변화시킬 수 있다. 다른 예로, 거리 조절부(120)는 대상물(10)이 안착된 척(20)을 z축 방향으로 움직임으로써 척(20)과 촬영 모듈(110) 사이의 거리(h)를 변화시킬 수 있다. 또한, 거리 조절부(120)는 척(20)과 촬영 모듈(110) 모두를 움직임으로써 척(20)과 촬영 모듈(110) 사이의 거리(h)를 변화시킬 수도 있다. 거리 조절부(120)는 척(20)과 촬영 모듈(110) 사이의 거리(h)를 변화시킴으로써 대상물(10) 표면과 촬영 모듈(110) 사이의 거리(h)가 촬영 모듈(110)의 심도 범위에 포함되도록 할 수 있다.
촬영 위치 변경부(130)는 촬영 모듈(110)이 대상물(10)을 촬영하는 위치를 변경할 수 있다. 예를 들어, 촬영 위치 변경부(130)는 대상물(10)을 수평방향(x축 방향, y축 방향)으로 움직임으로써 촬영 모듈(110)이 대상물(10)을 촬영하는 위치를 변경할 수 있다. 다른 예로, 촬영 위치 변경부(130)는 촬영 모듈(110)을 수평방향(x축 방향, y축 방향)으로 움직일 수도 있다.
프로세서(140)는 촬영 위치 변경부(130) 및 거리 조절부(120)의 동작을 제어할 수 있다. 프로세서(140)는 촬영 위치 변경부(130)에 의해 촬영 위치가 변경 됨에 따라 거리 조절부(120)가 척(20)과 촬영 모듈(110) 사이의 거리를 변경하도록 함으로써 촬영 모듈(110)이 포커싱 상태를 유지하도록 할 수 있다. 여기서, 촬영 모듈(110)이 포커싱 상태를 유지한다는 것은 촬영 모듈(110)과 척(20) 사이의 거리가 조절되어 촬영 모듈(110)이 획득한 이미지의 초점이 흐려지지 않는다는 것을 의미한다.
촬영 위치 변경부(130)에 의해 촬영 모듈(110)이 대상물(10)을 촬영하는 위치가 변경되면, 척(20)의 두께가 달라질 수 있다. 촬영 모듈(110)의 분해능을 높이게 되면 촬영 모듈(110)의 심도(Depth of field)의 크기가 척(20)의 두께 편차(d)보다 작을 수 있다.
여기서, 심도란 촬영 모듈(110)과 대상물(10)의 표면 사이의 거리가 이상적인 포커싱 거리로부터 벗어나더라도 촬영 모듈(110)의 촬영 이미지의 선명도가 유지되는 영역을 의미한다. 예를 들어, 촬영 모듈(110)과 대상물(10) 사이의 거리가 촬영 모듈(110)의 초점 거리와 일치하면 촬영 모듈(110)의 촬영 이미지의 선명도가 최대가 될 수 있다. 하지만, 촬영 모듈(110)과 대상물(10) 사이의 거리가 상기 포커싱 거리와 완전히 일치하지 않더라도 이미지의 선명도가 크게 변하지 않는 구간이 있을 수 있다. 그리고, 이미지의 선명도에 큰 영향을 주지 않는 거리 변화 구간을 촬영 모듈(110)의 심도라고 한다.
예시적인 실시예에 따르면, 촬영 모듈(110)의 심도는 척(20)의 두께 편차(d)보다 작을 수 있다. 촬영 모듈(110)의 심도를 작게 하는 대신 촬영 모듈(110)의 분해능을 높임으로써 보다 정밀한 이미지를 얻을 수 있다. 하지만, 촬영 모듈(110)의 심도가 척(20)의 두께 편차보다 작아지게 되면 촬영 위치가 변경될 때 마다 촬영 모듈(110)과 척(20) 사이의 거리(h)를 변경해주어야 한다.
비교예에 따르면, 촬영 모듈(110)의 촬영 위치가 바뀔 때 마다 촬영 위치의 변경을 중단한 상태에서 오토 포커싱 과정을 수행할 수 있다. 하지만, 이 경우 촬영 위치 변경부(130)가 이동체를 가감속 하는 동안에는 관성력에 의한 진동이 발생할 수 있다. 또한, 거리 조절부(120)가 오토 포커싱 과정에서 촬영 모듈(110)과 척(20) 사이의 거리를 변화 시키는 동안에도 관성력에 의한 진동이 발생할 수 있다. 이러한 진동은 촬영 모듈(110)이 획득하는 이미지의 품질을 저하시킬 수 있다. 따라서, 오토 포커싱 과정에서 상기 관성력에 의한 진동이 사라지기 까지 기다리는 시간이 필요할 수 있다. 전술한 지연 시간으로 인해 오토 포커싱 과정에 소요되는 시간이 길어질 수 있다.
도 2는 예시적인 실시예에 따른 촬영 장치(100)의 촬영 방법을 나타낸 흐름도이다.
도 2를 참조하면, 예시적인 실시예에 따른 촬영 장치(100)의 촬영 방법은 촬영 모듈(110)을 이용하여, 복수의 샘플링 포인트 각각에 대해 오토 포커싱 작업을 수행함으로써 복수의 샘플링 포인트에서 척(20)의 두께를 측정하는 단계(1110)와, 복수의 샘플링 포인트 각각에서 측정된 척(20)의 두께가 저장된 참조 테이블을 생성하는 단계(1120) 및 촬영 모듈(110)의 촬영 위치를 변화시키면서 대상물(10)을 촬영함으로써 대상물(10)의 이미지를 획득하는 단계(1130)를 포함할 수 있다.
샘플링 포인트는 촬영 모듈(110)이 대상물(10) 또는 척(20)을 촬영하는 좌표지점을 의미할 수 있다.
1110 단계에서, 촬영 위치 변경부(130)는 촬영 모듈(110)이 샘플링 포인트에서 대상물(10)을 촬영하도록 촬영 모듈(110)의 위치를 변경 할 수 있다. 촬영 위치 변경부(130)에 의해 촬영 모듈(110)이 샘플링 포인트에서 대상물(10)을 촬영하게 되면, 거리 조절부(120)는 촬영 모듈(110)과 척(20) 사이의 거리(h)를 변화시키면서 오토 포커싱 과정을 수행할 수 있다. 프로세서(140)는 촬영 모듈(110)에서 촬영된 대상물(10)의 이미지를 수신하여 선명도를 비교함으로써 이미지의 선명도가 최대가 되도록 하는 거리(h)를 결정할 수 있다. 프로세서(140)는 이미지의 선명도가 최대가 되도록 하는 촬영 모듈(110)과 척(20) 사이의 거리로부터 척(20)의 두께를 계산할 수 있다.
촬영 위치 변경부(130)가 촬영 모듈(110)의 촬영 위치를 복수의 샘플링 포인트 각각으로 변경할 때 마다 상기 오토 포커싱 과정이 수행될 수 있다. 프로세서(140)는 복수의 샘플링 포인트 각각에서 측정된 이미지들의 선명도를 비교함으로써 척(20)의 두께를 계산할 수 있다.
도 3은 샘플링 포인트들을 예시적으로 나타낸 도면이다.
도 3을 참조하면, 복수의 샘플링 포인트는 격자 모양으로 배열될 수 있다. 예를 들어, 샘플링 포인트는 수평으로 주기적으로 이격되는 11개의 지점과 수직으로 주기적으로 이격되는 10개의 지점을 비롯한 110개의 지점을 포함할 수 있고, 각각의 샘플링 포인트는 1번부터 111번까지 넘버링 될 수 있다. 샘플링 포인트들의 배열 간격 및 배열 모양은 실시예에 따라 다르게 변형될 수 있다. 프로세서(140)는 샘플링 포인트들 각각에 대해 식별 번호를 부여할 수 있다. 그리고, 프로세서(140)는 샘플링 포인트들 각각의 위치 좌표를 저장할 수 있다. 촬영 위치 변경부(130)는 촬영 모듈(110)의 촬영 위치를 샘플링 포인트가 있는 곳으로 변경할 수 있다. 프로세서(140)는 복수의 샘플링 포인트들 각각에서 수행된 오토 포커싱 결과로부터 샘플링 포인트들 각각에서의 척(20) 두께를 계산할 수 있다.
1120 단계에서, 프로세서(140)는 참조 테이블을 생성할 수 있다. 프로세서(140)는 샘플링 포인트들 각각에서 측정된 척(20)의 두께 정보를 샘플링 포인트들의 식별번호에 매칭하여 저장함으로써 참조 테이블을 형성할 수 있다. 참조 테이블에는 샘플링 포인트들 각각의 위치 좌표가 함께 저장될 수 있다.
1130 단계에서, 촬영 위치 변경부(130)는 촬영 모듈(110)이 대상물(10)을 촬영하는 위치를 변경할 수 있다. 촬영 위치 변경부(130)가 촬영 모듈(110)의 촬영 위치를 변경하는 동안 거리 조절부(120)는 실시간으로 촬영 모듈(110)과 척(20) 사이의 거리를 변경할 수 있다.
프로세서(140)는 전술한 참조 테이블을 이용하여 거리 조절부(120)를 제어할 수 있다. 촬영 모듈(110)의 촬영 위치가 샘플링 포인트와 일치하는 경우, 프로세서(140)는 샘플링 포인트에서 측정된 척(20)의 두께 정보를 이용하여 거리 조절부(120)의 동작을 제어할 수 있다. 또한, 촬영 모듈(110)의 촬영 위치가 샘플링 포인트와 일치하지 않을 경우, 프로세서(140)는 촬영 위치에 인접한 샘플링 포인트들에서 측정된 척(20)의 두께 값들을 호출할 수 있다. 그리고, 프로세서(140)는 호출한 척(20)의 두께 값들을 이용하여 촬영 모듈(110)과 척(20) 사이의 거리(h)를 계산할 수 있다. 또한, 프로세서(140)는 계산한 촬영 모듈(110)과 척(20) 사이의 거리(h)대로 척(20)과 촬영 모듈(110) 사이의 거리(h)가 변경 되도록 거리 조절부(120)를 제어할 수 있다.
프로세서(140)는 참조 테이블을 이용하여, 촬영 모듈(110)의 촬영 위치가 변경되더라도 별도의 오토 포커싱 과정을 거치지 않고 촬영 모듈(110)과 척(20) 사이의 거리를 결정할 수 있다. 따라서, 촬영 모듈(110)의 대상물(10) 촬영 시간이 줄어들 수 있다.
도 4는 프로세서(140)가 촬영 모듈(110)의 촬영 위치에서 척(20)의 두께(zc)를 계산하는 것을 나타낸 도면이다.
도 4를 참조하면, 프로세서(140)는 대상물(10)의 촬영 위치(P0)에 인접한 4개의 샘플링 포인트(SP1, SP2, SP3, SP4)에서 측정된 상기 척(20)의 두께 값들(z1, z2, z3, z4)로부터 촬영 모듈(110)과 척(20) 사이의 거리를 계산할 수 있다.
예를 들어, 프로세서(140)는 촬영 위치(P0)가 제1 및 제2 샘플링 포인트(SP1, SP2)의 연결 선으로 투사된 제1 투사 지점(P1)에서의 척(20) 두께(z21)를 수학식 1에 따라 계산할 수 있다.
Figure PCTKR2016010141-appb-M000001
수학식 1에서 x21은 제1 투사 지점(P1)의 x축 좌표를 나타내며 z21은 제1 투사 지점(P1)에서 척(20)의 두께를 의미한다. 또한, x1은 제1 샘플링 포인트(SP1)의 x축 좌표를 의미하며, x2는 제2 샘플링 포인트(SP2)의 x축 좌표를 의미한다. 프로세서(140)는 수학식 1에서 나타낸 것과 같이 제1 샘플링 포인트(SP1)에서 측정된 척(20)의 두께(z1)와 제2 샘플링 포인트(SP2)에서 측정된 척(20)의 두께(z2)의 선형 함수로 제1 투사 지점(P1)에서의 척(20) 두께(z21)를 계산할 수 있다. 여기서, 선형 함수란 변수의 1차 항들의 조합으로 이루어진 함수를 의미한다.
또한, 프로세서(140)는 촬영 위치(P0)가 제3 및 제4 샘플링 포인트(SP3, SP4)의 연결 선으로 투사된 제2 투사 지점(P2)에서의 척(20) 두께(z43)를 수학식 2에 따라 계산할 수 있다.
Figure PCTKR2016010141-appb-M000002
수학식 2에서 x21은 제2 투사 지점(P2)의 x축 좌표를 의미하며, z43은 제2 투사 지점(P2)에서 척(20)의 두께를 의미한다. 또한, x3은 제3 샘플링 포인트(SP3)의 x축 좌표를 의미하며, x4는 제4 샘플링 포인트(SP4)의 x축 좌표를 의미한다. 프로세서(140)는 수학식 2에서 나타낸 것과 같이 제3 샘플링 포인트(SP3)에서 측정된 척(20)의 두께(z3)와 제4 샘플링 포인트(SP4)에서 측정된 척(20)의 두께(z4)의 선형 함수로 제2 투사 지점(P2)에서의 척(20) 두께(z43)를 계산할 수 있다.
프로세서(140)는 제1 및 제2 투사 지점(P1, P2)에서 계산된 척(20)의 두께 값들(z21, z34)로부터 수학식 3을 이용하여 촬영 위치(P0)에서의 척(20)의 두께(zc)를 계산할 수 있다.
Figure PCTKR2016010141-appb-M000003
수학식 3에서 y21은 촬영 위치(P0)가 제1 및 제3 샘플링 포인트(SP1, SP3)의 연결 선으로 투사된 제3 투사 지점(P3)의 y 좌표를 의미한다. 또한, z43은 제2 투사 지점(P2)에서 척(20)의 두께를 의미하며, z21은 제1 투사 지점(P1)에서 척(20)의 두께를 의미한다. 또한, y1은 제1 투사 지점(P1)의 y좌표를 나타내고 y2는 제2 투사 지점(P2)의 y 좌표를 의미한다.
프로세서(140)는 수학식 1 및 수학식 2에서 계산한 제1 투사 지점(P1)에서의 척(20) 두께(z21)와 제2 투사 지점(P2)에서의 척(20) 두께(Z43)의 선형 함수로 촬영 위치(P0)에서의 척(20) 두께(zc)를 계산할 수 있다. 결과적으로, 프로세서(140)는 제1 내지 제4 샘플링 포인트(SP1, SP2, SP3, SP4)에서 측정된 척(20)의 두께 값들(z1, z2, z3, z4)의 선형 함수로 촬영 위치(P0)에서의 척(20) 두께(zC)를 계산할 수 있다.
이상에서 예시적인 실시예들에 따른 촬영 장치(100) 및 촬영 장치(100)를 이용한 촬영 방법에 관하여 설명하였다. 실시예들에 따르면, 촬영 모듈(110)의 촬영 위치가 변함에 따라 촬영 모듈(110)과 척(20) 사이의 거리(h)를 자동으로 변경함으로써 촬영 모듈(110)에서 촬영 되는 이미지의 선명도를 높일 수 있다.
이상에서 설명한 촬영 방법은 레이저 가공 공정 등에서 대상물(10)의 정렬에 이용될 수 있다.
도 5는 대상물(10)의 표면을 예시적으로 나타낸 도면이다.
도 5를 참조하면, 대상물(10)은 격자 모양으로 배열된 복수의 반도체 칩(11)을 포함할 수 있다. 레이저 가공 공정에서는 대상물(10)을 가공 예정 라인(L)을 따라 레이저 빔을 조사함으로써 대상물(10)에 배열된 반도체 칩(11)을 분리할 수 있다. 분리된 반도체 칩(11)은 수지 포장에 의해 패키징 될 수 있다.
레이저 가공 공정에서 반도체 칩(11)이 손상되지 않기 위해서는 레이저 빔의 가공 방향(y축 방향)과 대상물(10)의 가공 예정 라인(L)이 평행해야 한다. 따라서, 대상물(10)의 배열 각도를 조절함으로써 대상물(10)의 가공 예정 라인(L)과 레이저 빔의 가공 방향(y축 방향)을 평행하게 만들어 주는 과정이 필요하다.
대상물(10)의 배열 각도를 조절하기 위해서는 대상물(10)의 표면을 정확하게 촬영하는 것이 중요하다. 그런데, 대상물(10)의 표면에는 매우 작은 크기의 반도체 칩(11)들이 배열되며 또한, 매우 작은 크기의 마킹(미도시)이 표시되어 있을 수 있다. 따라서, 정확하게 대상물(10)의 배열 각도를 조절하기 위해서는 대상물(10)의 표면을 높은 분해능을 가진 촬영 모듈로 촬영해야 한다.
도 6은 예시적인 실시예에 따른 대상물 배열 장치(200)를 대략적으로 나타낸 도면이다.
도 6을 참조하면, 예시적인 실시예에 따른 대상물 배열 장치(200)는 제1 분해능으로 대상물(10)의 제1 이미지를 획득하는 제1 촬영 모듈(212)과, 제2 분해능으로 대상물(10)의 제2 이미지를 획득하는 제2 촬영 모듈(214), 제1 및 제2 촬영 모듈(212, 214)의 촬영 위치를 변경하는 촬영 위치 변경부(240), 제2 촬영 모듈(214)의 촬영 위치가 변함에 따라 제2 촬영 모듈(214)과 척(20) 사이의 거리를 변경하는 거리 조절부(220)와, 상기 제1 및 제2 이미지로부터 상기 대상물의 배열 각도를 조절하는 각도 조절부(230) 및 촬영 위치 변경부(240)와 거리 조절부(220) 및 각도 조절부(230)를 제어하는 프로세서(250)를 포함할 수 있다.
제1 촬영 모듈(212)은 제1 분해능을 가질 수 있다. 또한, 제2 촬영 모듈(214)은 제2 분해능을 가질 수 있다. 제2 분해능은 제1 분해능 보다 높을 수 있다. 따라서, 제1 촬영 모듈(212)은 제2 촬영 모듈(214)보다 낮은 분해능으로 대상물(10)을 촬영할 수 있다.
제1 촬영 모듈(212)의 분해능이 제2 촬영 모듈(214)의 분해능 보다 낮기 때문에 제1 촬영 모듈(212)의 심도 크기는 제2 촬영 모듈(214)의 심도 크기 보다 클 수 있다. 예시적으로, 제1 촬영 모듈(212)의 심도 크기는 척(20)의 두께 편차(d)보다 큰 반면, 제2 촬영 모듈(214)의 심도 크기는 척(20)의 두께 편차(d)보다 작을 수 있다. 따라서, 제1 촬영 모듈(212)은 촬영 위치가 변함에 따라 제1 촬영 모듈(212)과 척(20) 사이의 거리 보정이 필요하지 않은 반면, 제2 촬영 모듈(214)은 촬영 위치가 변함에 따라 제2 촬영 모듈(214)과 척(20) 사이의 거리(h) 보정이 필요할 수 있다.
거리 조절부(220)는 제2 촬영 모듈(214)과 척(20) 사이의 거리(h)를 변화시킬 수 있다. 예시적으로 거리 조절부(220)는 제2 촬영 모듈(214)을 z 축 방향으로 움직임으로써, 제2 촬영 모듈(214)과 척(20) 사이의 거리(h)를 변화시킬 수 있다. 다른 예로, 거리 조절부(220)는 대상물(10)이 안착된 지지면의 높이를 변화시킴으로써 제2 촬영 모듈(214)과 척(20) 사이의 거리(h)를 변화시킬 수 있다. 또한, 거리 조절부(220)는 대상물(10)과 제2 촬영 모듈(214) 모두를 z축 방향으로 움직임으로써 제2 촬영 모듈(214)과 척(20) 사이의 거리(h)를 변화시킬 수 있다. 거리 조절부(220)는 제2 촬영 모듈(214)과 척(20) 사이의 거리(h)를 변화시킴으로써 대상물(10) 표면과 제2 촬영 모듈(110) 사이의 거리가 촬영 모듈(214)의 심도 범위에 들도록 할 수 있다.
촬영 위치 변경부(240)는 제1 및 제2 촬영 모듈(212, 214)이 대상물(10)을 촬영하는 위치를 변경할 수 있다. 예를 들어, 촬영 위치 변경부(240)는 대상물(10)을 수평방향(x축 방향, y축 방향)으로 움직임으로써 제1 및 제2 촬영 모듈(212, 214)이 대상물(10)을 촬영하는 위치를 변경할 수 있다. 다른 예로, 촬영 위치 변경부(240)는 제1 및 제2 촬영 모듈(212, 214)을 수평방향(x축 방향, y축 방향)으로 움직일 수도 있다.
각도 조절부(230)는 대상물(10)의 배열 각도를 변경할 수 있다. 예를 들어, 각도 조절부(230)는 대상물(10)이 안착된 척(chuck; 232)을 회전시킴으로써 대상물(10)의 배열 각도를 조절할 수 있다.
프로세서(250)는 거리 조절부(220), 촬영 위치 변경부(240) 및 각도 조절부(230)를 제어할 수 있다. 프로세서(250)는 제1 촬영 모듈(212)에서 촬영된 제1 이미지에 기초하여, 대상물(10)의 가공 예정 라인(L)과 레이저 가공 방향(y축) 사이의 각도가 제1 허용 오차 보다 작아지도록 각도 조절부(230)를 제어할 수 있다. 또한, 프로세서(250)는 제2 촬영 모듈(214)에서 촬영된 제2 이미지에 기초하여, 대상물(10)의 가공 예정 라인(L)과 레이저 가공 방향(y축) 사이의 각도가 제2 허용 오차 보다 작아지도록 각도 조절부(230)를 제어할 수 있다. 제2 촬영 모듈(214)의 분해능이 제1 촬영 모듈(212)의 분해능 보다 높은 경우, 제2 허용 오차는 제1 허용 오차 보다 작을 수 있다.
도 7은 도 6에서 나타낸 대상물 배열 장치(200)를 예시적으로 나타낸 사시도 이다.
도 7을 참조하면, 대상물(10)은 척(232)에 안착될 수 있다. 그리고, 각도 조절부(230)는 척(232)을 회전시킴으로써, 대상물(10)의 배열각도를 조절할 수 있다. 촬영 위치 변경부(240)는 이동 스테이지를 포함할 수 있다. 촬영 위치 변경부(240)의 이동 스테이지를 따라 척(232)이 움직일 수 있다. 촬영 위치 변경부(240)는 일 방향(y축 방향)으로 척을 이동 시킬 수 있다. 촬영 위치 변경부(240)에 의한 척(232)의 직선운동과 각도 조절부(230)에 의한 척(232)의 회전 운동에 의해 제2 촬영 모듈(214)의 촬영 위치 및 대상물(10)에 레이저 빔이 조사되는 위치가 변경될 수 있다.
도 8은 도 7에서 나타낸 거리 조절부(220)와, 제1 및 제2 촬영 모듈(212, 214)을 나타낸 도면이다.
도 8을 참조하면, 거리 조절부(220)는 도 7의 z축 방향으로 제2 촬영 모듈(214)을 움직일 수 있다. 거리 조절부(220)는 제2 촬영 모듈(214)을 z축을 따라 움직임으로써 제2 촬영 모듈(214)과 척(232) 사이의 거리를 변경할 수 있다. 하지만, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 거리 조절부(220)는 척(232)을 z축 방향으로 움직임으로써, 제2 촬영 모듈(214)과 척(232) 사이의 거리를 변경할 수도 있다.
도 9는 도 6 내지 도 8에서 나타낸 대상물 배열 장치(200)를 이용한 대상물(10)의 배열 방법을 나타낸 흐름도이다.
복수의 샘플링 포인트에서 오토 포커싱 작업을 수행함으로써, 복수의 샘플링 포인트 각각에서 측정된 척(232)의 두께가 저장된 참조 테이블을 생성하는 단계(1210)와, 제1 촬영 모듈(212)의 촬영위치를 변화시키면서 상기 척에 안착된 대상물을 촬영함으로써, 대상물(10)의 제1 이미지를 획득하는 단계(1220), 제1 이미지에 기초하여 상기 대상물(10)의 배열 각도를 조절하는 단계(1230), 제2 촬영 모듈(214)의 촬영위치를 변화시키면서 대상물(10)을 촬영함으로써, 대상물(10)의 제2 이미지를 획득하는 단계(1240) 및 제2 이미지에 기초하여 상기 대상물의 배열 각도를 조절하는 단계(1250)를 포함할 수 있다. 또한, 제2 이미지를 획득하는 단계(1240)는, 제2 촬영 모듈(214)의 촬영 위치가 변함에 따라 상기 참조 테이블을 이용하여 제2 촬영 모듈(214)과 척(232) 사이의 거리(h)를 변경할 수 있다.
1210 단계에서, 촬영 위치 변경부(240)는 제2 촬영 모듈(214)이 샘플링 포인트에서 대상물(10)을 촬영하도록 할 수 있다. 1210 단계에서 사용되는 대상물(10)은 실제 가공 공정이 이루어질 가공 대상물이 아닌 다른 샘플일 수도 있다. 촬영 위치 변경부(240)에 의해 제2 촬영 모듈(214)이 샘플링 포인트에서 대상물(10)을 촬영하게 되면, 거리 조절부(220)는 제2 촬영 모듈(214)과 척(232) 사이의 거리(h)를 변화시키면서 오토 포커싱 과정을 수행할 수 있다. 프로세서(250)는 제2 촬영 모듈(214)에서 촬영된 이미지를 수신하여 선명도를 비교함으로써 이미지의 선명도가 최대가 되도록 하는 거리(h)를 결정할 수 있다. 프로세서(250)는 이미지의 선명도가 최대가 되도록 하는 제2 촬영 모듈(214)과 척(20) 사이의 거리로부터 척(232)의 두께를 계산할 수 있다.
촬영 위치 변경부(240)가 제2 촬영 모듈(214)의 촬영 위치를 복수의 샘플링 포인트 각각으로 변경할 때 마다 상기 오토 포커싱 과정이 수행될 수 있다. 프로세서(250)는 복수의 샘플링 포인트 각각에서 측정된 이미지들의 선명도를 비교함으로써 척(232)의 두께를 계산할 수 있다. 프로세서(250)는 계산된 척(232)의 두께 값들이 저장된 참조 테이블을 생성할 수 있다. 프로세서(250)는 샘플링 포인트들 각각에서 측정된 척(232)의 두께 정보를 샘플링 포인트들의 식별번호에 매칭하여 저장함으로써 참조 테이블을 형성할 수 있다. 참조 테이블에는 샘플링 포인트들 각각의 위치 좌표가 함께 저장될 수 있다.
1220 단계에서, 촬영 위치 변경부(240)에 의해 촬영 위치를 변경해 가면서 제1 촬영 모듈(212)을 이용하여 대상물(10)을 촬영할 수 있다. 1220 단계에서 사용되는 대상물(10)은 가공 공정이 이루어질 대상물(10)일 수 있다. 제1 촬영 모듈(212)은 대상물(10)을 제1 분해능으로 촬영하여 제1 이미지를 획들할 수 있다. 제1 촬영 모듈(212)의 심도 크기는 척(232)의 두께 편차(d)보다 클 수 있다. 따라서, 1210 단계에서는 제1 촬영 모듈(212)의 촬영 위치를 변경하는 동안 제1 촬영 모듈(212)과 척(232) 사이의 거리 보정 없이 대상물(10)의 촬영이 이루어질 수 있다.
1230 단계에서, 프로세서(250)는 제1 촬영 모듈(212)로부터 제1 이미지를 수신할 수 있다. 제1 이미지는 후술하는 제2 이미지에 비해서 해상도가 다소 떨어질 수 있다. 프로세서(250)는 제1 이미지로부터 대상물(10)의 가공 예정 라인(L)과 레이저 빔 가공 방향 사이의 각도 차이를 계산할 수 있다. 프로세서(250)의 계산 정확도는 제1 이미지의 해상도에 따라 달라질 수 있다. 프로세서(250)는 대상물(10)의 가공 예정 라인(L)과 레이저 빔의 가공 방향 사이의 각도가 제1 허용 오차보다 작아지도록 각도 조절부(230)를 제어할 수 있다. 상기 제1 허용 오차의 크기는 제1 이미지의 해상도에 따라 달라질 수 있다.
1240 단계에서, 촬영 위치 변경부(240)에 의해 촬영 위치를 변경해 가면서 제2 촬영 모듈(214)을 이용하여 대상물(10)을 촬영할 수 있다. 제2 촬영 모듈(214)은 대상물(10)을 제2 분해능으로 촬영하여 제2 이미지를 획들할 수 있다. 제2 촬영 모듈(214)의 심도 크기는 척(232)의 두께 편차(d)보다 작을 수 있다. 따라서, 1250 단계에서는, 제2 촬영 모듈(214)의 촬영 위치를 변경하는 동안 제1 촬영 모듈(212)과 척(232) 사이의 거리(h)를 보정해 줄 수 있다.
1240 단계에서, 프로세서(250)는 전술한 참조 테이블을 이용하여 거리 조절부(220)를 제어할 수 있다. 제2 촬영 모듈(214)의 촬영 위치가 샘플링 포인트와 일치하는 경우, 프로세서(250)는 샘플링 포인트에서 측정된 척(232)의 두께 정보를 이용하여 거리 조절부(220)의 동작을 제어할 수 있다. 또한, 촬영 모듈(214)의 촬영 위치가 샘플링 포인트와 일치하지 않을 경우, 프로세서(250)는 촬영 위치에 인접한 샘플링 포인트들에서 측정된 척(232)의 두께 값들을 호출할 수 있다. 그리고, 프로세서(250)는 호출한 척(232)의 두께 값들을 이용하여 제2 촬영 모듈(214)과 척(232) 사이의 거리(h)를 계산할 수 있다. 또한, 프로세서(250)는 계산한 제2 촬영 모듈(214)과 척(232) 사이의 거리(h)대로 척(232)과 촬영 모듈(110) 사이의 거리(h)가 변경 되도록 거리 조절부(220)를 제어할 수 있다. 예시적으로, 프로세서(250)는 임의의 촬영 위치에서 전술한 수학식 1 내지 수학식 3을 이용하여 척(232)의 두께를 계산할 수 있다.
프로세서(250)는 제2 촬영 모듈(214)의 촬영 위치가 변경되더라도 별도의 오토 포커싱 과정을 거치지 않고, 참조 테이블을 이용해 제2 촬영 모듈(214)과 척(232) 사이의 거리를 결정할 수 있다. 따라서, 제2 촬영 모듈(214)이 제2 이미지를 획득하는데 필요한 시간이 줄어들 수 있다. 또한, 제2 촬영 모듈(214)이 이미지 선명도가 높아질 수 있다.
1250 단계에서, 프로세서(250)는 제2 촬영 모듈(214)로부터 제2 이미지를 수신할 수 있다. 제2 이미지는 제1 이미지에 비해서 해상도가 상대적으로 높을 수 있다. 프로세서(250)는 제2 이미지로부터 대상물(10)의 가공 예정 라인(L)과 레이저 빔 가공 방향 사이의 각도 차이를 계산할 수 있다. 프로세서(250)의 계산 정확도는 제2 이미지의 해상도에 따라 달라질 수 있다. 프로세서(250)는 대상물(10)의 가공 예정 라인(L)과 레이저 빔의 가공 방향 사이의 각도가 제2 허용 오차보다 작아지도록 각도 조절부(230)를 제어할 수 있다. 상기 제2 허용 오차의 크기는 제2 이미지의 해상도에 따라 달라질 수 있다. 또한, 제2 허용 오차는 제1 허용 오차보다 작을 수 있다.
도 10은 제2 촬영 모듈(214)과 척(232) 사이의 거리(h)를 보정하지 않는 경우, 제2 촬영 모듈(214)에 의해 얻어진 이미지를 나타낸다. 또한, 도 11은 프로세서(250)가 참조 테이블을 이용하여 거리 조절부(220)를 제어함으로써 제2 촬영 모듈(214)과 척(232) 사이의 거리(h)를 보정한 경우, 제2 촬영 모듈(214)에 의해 얻어진 이미지를 나타낸다.
도 10을 참조하면, 척(232)의 두께 편차(d)가 제2 촬영 모듈(214)의 심도 크기보다 크기 때문에 제2 촬영 모듈(214)이 촬영 위치를 변경함에 따라 초점이 맞지 않을 수 있다. 그리고, 초점이 않게 되면 이미지의 선명도가 낮아져 제2 이미지가 흐려질 수(blur) 있다. 이미지가 흐려짐에 따라 대상물(10) 표면에 표시된 마킹된 참조 마크(M)의 모양 식별이 어려울 수 있다. 참조 마크(M)는 대상물(10)을 정렬하는데 기준 점으로 사용될 수 있으며 이에 대해서는 뒤 부분에 설명한다.
반면, 도 11을 참조하면, 프로세서(250)가 참조 테이블을 이용하여 제2 촬영 모듈(214)의 촬영 위치가 변함에 따라 제2 촬영 모듈(214)과 척(232) 사이의 거리(h)가 자동으로 변경되기 때문에 제2 촬영 모듈(214)이 촬영한 이미지의 선명도가 높을 수 있다. 이미지의 선명도가 높아짐에 따라 대상물(10) 표면에 표시된 참조 마크(M) 식별이 가능해질 수 있다. 또한, 대상물(10) 표면을 정확하게 관찰할 수 있기 때문에 대상물(10)의 배열 각도 조절이 용이해질 수 있다.
대상물 배열 장치(200)는 대상물(10)의 표면을 촬영함으로써 대상물(10)의 배열 각도를 조절할 수 있다. 예를 들어, 대상물 배열 장치(200)는 대상물(10)의 표면에 마킹된 참조 마크의 위치를 식별함으로써 대상물(10)의 배열 각도를 조절할 수도 있다.
도 12는 다른 예시적인 실시예에 따른 대상물 배열 장치(200)의 대상물 배열 방법을 나타낸 흐름도이다. 도 12의 실시예를 설명함에 있어서, 도 9를 참조한 설명과 중복되는 부분은 생략하기로 한다.
도 12를 참조하면, 실시예에 따른 대상물 배열 장치(200)가 대상물(10)을 배열하는 방법은 대상물(10)의 가장자리(edge)를 식별하는 단계(1310) 및 대상물(10)의 가장자리로부터 대상물(10)의 중심을 결정하는 단계(1320)를 더 포함할 수 있다.
1320 단계에서, 프로세서(250)는 기 촬영된 대상물(10)의 이미지로부터 대상물(10)의 가장자리를 식별할 수 있다. 상기 기 촬영된 대상물(10)의 이미지는 제1 및 제2 촬영 모듈(212, 214) 중 어느 하나에 의해 촬영된 것일 수도 있지만, 다른 촬영 장치에 의해 촬영된 이미지일 수도 있다. 1310 단계에서는 대상물(10)의 가장자리만 식별하면 되기 때문에 기 촬영된 대상물(10)의 이미지는 높은 해상도를 필요로 하지 않을 수 있다. 따라서, 공정 속도를 높이기 위해 프로세서(250)는 대상물(10)의 전체 이미지를 한꺼번에 촬영할 수 있는 촬영 장치에 의해 촬영된 이미지를 이용하여 대상물(10)의 가장자리를 식별할 수 있다.
1320 단계에서, 프로세서(250)는 상기 기 촬영된 대상물(10)의 이미지를 이진화 함으로써 대상물(10)의 가장자리를 식별할 수 있다. 프로세서(250)는 이미지를 이진화 한다는 것은 이미지에서 명암이 소정의 기준치 보다 높은 부분과 명암이 소정의 기준치 보다 낮은 부분으로 이진화 할 수 있다.
도 13은 프로세서(250)에 의해 대상물(10)의 이미지가 이진화 된 예를 나타낸 도면이다.
도 13을 참조하면, 프로세서(250)는 대상물(10)의 이미지를 이진화 하여 흑백 이미지로 변경할 수 있다. 프로세서(250)는 대상물(10)의 이미지에서 명암이 기준치 보다 높은 부분은 백색으로 처리하고 명암이 기준치 보다 낮은 부분은 흑색으로 처리할 수 있다. 명암을 기준으로 이미지를 이진화 하면 대상물(10)의 가장자리(15) 부분은 명암이 어둡기 때문에 흑색으로 표시되고, 대상물(10)의 안쪽 부분 및 대상물(10)의 바깥 영역(12)은 백색으로 표시될 수 있다. 프로세서(250)는 이진화 이미지에서 흑색 부분을 대상물(10)의 가장자리(15)로 식별할 수 있다.
1330 단계에서, 프로세서(250)는 도 13에서 나타낸 대상물(10)의 가장자리(15)로부터 대상물(10)의 중심을 결정할 수 있다. 예를 들어, 프로세서(250)는 가장자리(15)에 위치하는 3개의 점을 결정하고, 상기 3개의 점의 위치 들로부터 대상물(10) 중심의 위치를 결정할 수 있다.
도 14는 프로세서(250)가 대상물(10)의 가장자리(15)에 위치한 3개의 점을 결정하는 것을 예시적으로 나타낸 도면이다.
도 14를 참조하면, 프로세서(250)는 대상물(10)의 가장자리(15)에 위치한 3개의 점(13a, 13b, 13c)을 결정할 수 있다. 프로세서(250)는 제1 내지 제3 점(13a, 13b, 13c)이 이루는 삼각형의 중심 위치를 계산함으로써 대상물(10)의 중심을 결정할 수 있다.
도 15는 프로세서(250)가 대상물(10)의 중심(C) 위치를 계산하는 과정을 나타낸 도면이다.
도 15를 참조하면, 프로세서(250)는 제2 점(13b)으로부터 제1 점(13a)을 향하는 벡터(
Figure PCTKR2016010141-appb-I000001
)에 수직한 벡터(
Figure PCTKR2016010141-appb-I000002
)와, 제2 점(13b)으로부터 제3 점(13c)을 향하는 벡터(
Figure PCTKR2016010141-appb-I000003
)에 수직한 벡터(
Figure PCTKR2016010141-appb-I000004
)가 만나는 지점을 대상물(10)의 중심(C)으로 결정할 수 있다. 그리고, 대상물(10)의 중심(C)과 제1 및 제2 점(13a, 13b)을 잇는 직선 사이의 거리(s)와 대상물(10)의 중심(C)과 제2 및 제2 점(13b, 13c)을 잇는 직선 사이의 거리(t)를 계산함으로써 중심(C)의 좌표를 계산할 수 있다.
프로세서(250)는 예시적으로 수학식 4에 따라 대상물(10)의 중심을 계산할 수 있다.
Figure PCTKR2016010141-appb-M000004
수학식 4에서 xc는 대상물(10) 중심(C)의 x 좌표를 의미하고, yc는 대상물(10) 중심의 y 좌표를 의미한다. 또한, ax는 제1 점(13a)의 x 좌표를 의미하고, ay는 제1 점(13a)의 y 좌표를 의미한다. 또한, bx는 제2 점(13b)의 x 좌표를 의미하고, by는 제2 점(13b)의 y 좌표를 의미한다. 또한, Cx는 제3 점(13c)의 x 좌표를 의미하고, Cy는 제3 점(13c)의 y 좌표를 의미한다.
프로세서(250)는 대상물(10)의 중심(C)을 기준 점으로 하여 대상물(10) 표면에 마킹된 참조 마크에 위치 좌표를 부여할 수 있다. 예를 들어, 프로세서(250)는 1340 단계에서 제1 이미지에서 대상물(10) 표면에 표시된 제1 및 제2 참조 마크의 위치 좌표를 계산할 수 있다. 제1 및 제2 참조 마크의 위치 좌표는 대상물(10) 중심(C)을 기준으로 설정될 수 있다. 그리고, 프로세서(250)는 제1 및 제2 참조 마크의 위치 좌표에 기초하여 각도 조절부(230)를 제어할 수 있다. 제1 이미지에서 결정된 제1 및 제2 참조 마크의 위치 좌표의 정확도는 제1 이미지의 해상도에 따라 결정될 수 있다.
제1 촬영 모듈(212)은 제2 촬영 모듈(214)보다 분해능이 떨어질 수 있다. 하지만, 제1 촬영 모듈(212)은 제2 촬영 모듈(214)보다 시야 범위가 넓을 수 있다. 따라서, 제1 촬영 모듈(212)에서 얻어진 제1 이미지를 이용하여 대상물(10)의 배열 각도를 대략적으로 배열하면, 대상물(10)의 배열 각도를 조절하는데 걸리는 시간을 단축할 수 있다.
도 16 및 도 17은 1350 단계에서, 대상물(10)의 배열 각도가 조절되는 것을 예시적으로 나타낸 도면이다.
도 16을 참조하면, 대상물(10)의 가공 예정 라인(L)과 레이저 빔 가공 방향(y축 방향)이 θ1 만큼 어긋나 있을 수 있다. 프로세서(250)는 제1 촬영 모듈(212)에서 촬영된 제1 이미지에서 제1 및 제2 참조 마크(A, B)의 위치 좌표를 계산할 수 있다. 제1 및 제2 참조 마크(A, B)는 대상물(10) 중심(C)에 대해 서로 대칭적인 위치에 마킹 되어 있을 수 있다.
프로세서(250)는 제1 및 제2 참조 마크(A, B)의 위치 좌표에 기초하여 제1 및 제2 참조 마크(A, B)의 배열 방향과 레이저 가공 방향(y축 방향) 사이의 각도가 제1 허용 오차보다 작아지도록 각도 조절부(220)의 움직임을 제어할 수 있다.
도 17을 참조하면, 프로세서(250)의 제어 명령에 의해 각도 조절부(220)가 대상물(10)의 배열 각도를 변경할 수 있다. 대상물(10)의 배열 각도가 변경 됨에 따라 제1 및 제2 참조 마크(A, B)의 배열 방향과 레이저 가공 방향(y축 방향) 사이의 각도가 θ2 로 줄어들 수 있다. 각도 θ2 는 제1 허용 오차보다 작은 값일 수 있다.
도 17에서 나타낸 바와 같이 대상물(10)의 배열 각도가 변경되면, 1370 단계에서, 제2 촬영 모듈(214)을 이용하여 대상물(10)의 제2 이미지를 촬영할 수 있다. 제2 촬영 모듈(214)이 제2 이미지를 촬영하는 동안 프로세서(250)는 참조 테이블을 이용하여 제2 촬영 모듈(214)과 척(232) 사이의 거리(h)가 변하도록 할 수 있다. 또한, 프로세서(250)는 제2 촬영 모듈(214)이 대상물(10)을 촬영 하는 범위를 레이저 가공 방향(y축 방향)에서 제1 허용 오차만큼 벗어난 영역 안으로 한정함으로써, 제2 이미지를 촬영하는데 걸리는 시간을 단축할 수 있다. 프로세서(250)는 제1 이미지보다 해상도가 높은 제2 이미지에서 확인된 제1 및 제2 참조 마크(A, B)의 위치 좌표를 계산할 수 있다.
도 18은 1370 단계에서, 제2 이미지에 기초하여 대상물(10)의 배열 각도가 조절된 것을 나타낸 도면이다.
도 18을 참조하면, 프로세서(250)는 제2 이미지에서 확인된 제1 및 제2 참조 마크(A, B)의 위치 좌표를 이용하여 각도 조절부(230)를 제어할 수 있다. 각도 조절부(230)에 의해 대상물(10)의 배열 각도가 조절되면, 제1 및 제2 참조 마크(A, B)의 배열 방향과 레이저 빔 가공 방향(y축 방향) 사이의 각도가 제2 허용 오차 보다 줄어들 수 있다. 제2 허용 오차는 상기 제1 허용 오차보다 작을 수 있다. 제1 및 제2 참조 마크(A, B)의 배열 방향과 레이저 빔 가공 방향(y축 방향) 사이의 각도가 제2 허용 오차 보다 줄어들게 되면 제1 및 제2 참조 마크(A, B)의 배열 방향이 레이저 빔 가공 방향(y축 방향)과 실질적으로 평행할 수 있다. 그리고, 대상물(10)의 가공 예정 라인 또한 레이저 빔 가공 방향과 실질적으로 평행할 수 있다.
이상에서 도 1 내지 도 18을 참조하여, 예시적인 실시예들에 따른 촬영 장치(100) 및 촬영 방법과, 대상물 배열 장치(200) 및 대상물(10)의 배열 방법에 관하여 설명하였다. 실시예들에 따르면, 복수의 샘플링 포인트에서 측정된 척(232)의 두께가 저장된 참조 테이블을 이용하여 척의 평탄도에 관계없이 대상물(10)의 촬영 이미지를 선명하게 얻을 수 있다. 그리고, 선명도가 높은 촬영 이미지로부터 대상물(10)의 배열 방향을 정확하게 조절할 수 있다.
이상의 설명에서 많은 사항들이 구체적으로 기재되어 있으나, 그들은 발명의 범위를 한정하는 것이라기보다 바람직한 실시예의 예시로서 해석되어야 한다. 때문에 본 발명의 범위는 설명된 실시예에 의하여 정하여 질 것이 아니고 특허 청구범위에 기재된 기술적 사상에 의해 정하여져야 한다.

Claims (20)

  1. 촬영 모듈을 이용하여, 복수의 샘플링 포인트 각각에 대해 오토 포커싱 작업을 수행함으로써 상기 복수의 샘플링 포인트에서 대상물이 안착되는 척의 두께를 측정하는 단계;
    상기 복수의 샘플링 포인트 각각에서 측정된 상기 척의 두께가 저장된 참조 테이블을 생성하는 단계;
    상기 촬영 모듈의 촬영 위치를 변화시키면서 상기 대상물을 촬영함으로써 상기 대상물의 이미지를 획득하는 단계;를 포함하며,
    상기 대상물의 이미지를 획득하는 단계는, 상기 촬영 모듈의 촬영위치가 변함에 따라 상기 참조 테이블을 이용하여 상기 촬영 모듈과 상기 척 사이의 거리를 변경하는 촬영방법.
  2. 제 1 항에 있어서,
    상기 촬영 모듈의 심도(Depth of field) 크기는 상기 척의 두께 편차보다 작은 촬영방법.
  3. 제 1 항에 있어서,
    상기 대상물의 이미지를 획득하는 단계는, 상기 대상물의 촬영 위치에 인접한 4개의 상기 샘플링 포인트에서 측정된 상기 척의 두께 값들에 기초하여, 상기 촬영 모듈과 상기 척 사이의 거리를 변경하는 촬영방법.
  4. 척 위에 안착된 대상물의 이미지를 촬영하는 촬영 모듈;
    상기 촬영 모듈이 대상물을 촬영하는 위치를 변경하는 촬영 위치 변경부;
    상기 촬영 모듈의 촬영 위치가 변함에 따라 상기 촬영 모듈과 상기 척 사이의 거리를 변경하는 거리 조절부; 및
    상기 촬영 위치 변경부와 및 상기 거리 조절부의 움직임을 제어하는 프로세서;를 포함하며,
    상기 프로세서는 복수의 샘플링 포인트에서 측정된 상기 척의 두께가 저장된 참조 테이블을 이용하여, 상기 거리 조절부를 제어하는 촬영 장치.
  5. 제 4 항에 있어서,
    상기 촬영 모듈의 심도 크기는 상기 척의 두께 편차보다 작은 촬영 장치.
  6. 제 4 항에 있어서,
    상기 프로세서는 상기 촬영 모듈의 촬영 위치에 인접한 4개의 상기 샘플링 포인트에서 측정된 상기 척의 두께 값들로부터 상기 촬영 모듈과 상기 척 사이의 거리의 변경 값을 계산하는 촬영방법.
  7. 복수의 샘플링 포인트에서 오토 포커싱 작업을 수행함으로써, 상기 복수의 샘플링 포인트 각각에서 측정된 척의 두께가 저장된 참조 테이블을 생성하는 단계;
    제1 촬영 모듈의 촬영위치를 변화시키면서 상기 척에 안착된 대상물을 촬영함으로써, 상기 대상물의 제1 이미지를 획득하는 단계;
    상기 제1 이미지에 기초하여 상기 대상물의 배열 각도를 조절하는 단계;
    제2 촬영 모듈의 촬영위치를 변화시키면서 상기 대상물을 촬영함으로써, 상기 대상물의 제2 이미지를 획득하는 단계; 및
    상기 제2 이미지에 기초하여 상기 대상물의 배열 각도를 조절하는 단계;를 포함하며,
    상기 제2 이미지를 획득하는 단계는, 상기 제2 촬영 모듈의 촬영 위치가 변함에 따라 상기 참조 테이블을 이용하여 상기 제2 촬영 모듈과 상기 척 사이의 거리를 변경하는 대상물 배열 방법.
  8. 제 7 항에 있어서,
    상기 제2 이미지를 획득하는 단계는, 상기 제2 촬영 모듈의 촬영위치에 인접한 4개의 상기 샘플링 포인트에서 측정된 상기 척의 두께 값들에 기초하여 상기 제2 촬영 모듈과 상기 척 사이의 거리를 변경하는 촬영방법.
  9. 제 7 항에 있어서,
    상기 대상물의 가장자리를 식별하는 단계; 및 상기 대상물의 가장자리로부터 상기 대상물의 중심을 결정하는 단계;를 더 포함하는 대상물 배열 방법.
  10. 제 9 항에 있어서,
    상기 제1 이미지에 기초하여 상기 대상물의 배열 각도를 조절하는 단계는,
    상기 제1 이미지에서 상기 대상물의 표면에 표시된 제1 및 제2 참조 마크의 상기 대상물의 중심에 대한 위치 좌표를 계산하는 단계 및 상기 제1 및 제2 참조 마크의 위치 좌표로부터 상기 대상물의 배열 각도를 조절하는 단계를 포함하는 대상물 배열 방법.
  11. 제 10 항에 있어서,
    상기 제2 이미지에 기초하여 상기 대상물의 배열 각도를 조절하는 단계는,
    상기 제1 이미지에서 상기 대상물의 표면에 표시된 제1 및 제2 참조 마크의 상기 대상물의 중심에 대한 위치 좌표를 계산하는 단계 및 상기 제1 및 제2 참조 마크의 위치 좌표로부터 상기 대상물의 배열 각도를 조절하는 단계를 포함하는 대상물 배열 방법.
  12. 제 9 항에 있어서,
    상기 제1 및 제2 참조 마크는 상기 대상물의 중심에 대해 서로 대칭적인 위치에 배열되는 대상물 배열 방법.
  13. 제 9 항에 있어서,
    상기 대상물의 가장자리를 식별하는 단계는, 상기 대상물의 촬영 이미지를 이진화 함으로써 상기 대상물의 가장자리를 식별하는 대상물 배열 방법.
  14. 제 7 항에 있어서,
    상기 제1 이미지에 기초하여 상기 대상물의 배열 각도를 조절하는 단계는, 상기 대상물의 가공 예정 라인과 레이저 빔의 가공 방향 사이의 각도가 제1 허용 오차보다 작아지도록 하며,
    상기 제2 이미지에 기초하여 상기 대상물의 배열 각도를 조절하는 단계는, 상기 대상물의 가공 예정 라인과 레이저 빔의 가공 방향 사이의 각도가 제2 허용 오차보다 작아지도록 하되,
    상기 제2 허용 오차는 상기 제1 허용 오차 보다 작은 대상물 배열 방법.
  15. 제 7 항에 있어서,
    상기 제1 촬영 모듈의 심도(Depth of field)의 크기는 상기 척의 두께 편차보다 크며,
    상기 제2 촬영 모듈의 심도(Depth of field)의 크기는 상기 척의 두께 편차보다 작은 대상물 배열 방법.
  16. 제1 분해능으로 척 위에 안착된 대상물의 제1 이미지를 획득하는 제1 촬영 모듈;
    제2 분해능으로 상기 대상물의 제2 이미지를 획득하는 제2 촬영 모듈;
    상기 제1 및 제2 촬영 모듈의 촬영 위치를 변경하는 촬영 위치 변경부;
    상기 제2 촬영 모듈의 촬영 위치가 변함에 따라 상기 제2 촬영 모듈과 상기 대상물 사이의 거리를 변경하는 거리 조절부;
    상기 제1 및 제2 이미지로부터 상기 대상물의 배열 각도를 조절하는 각도 조절부; 및
    상기 촬영 위치 변경부와 상기 거리 조절부 및 상기 각도 조절부를 제어하는 프로세서;를 포함하며,
    상기 프로세서는 복수의 샘플링 포인트에서 측정된 상기 척의 두께가 저장된 참조 테이블을 이용하여, 상기 거리 조절부를 제어하는 대상물 배열 장치.
  17. 제 16 항에 있어서,
    상기 제1 촬영 모듈의 심도 크기는 상기 척의 두께 편차보다 크며, 상기 제2 촬영 모듈의 심도 크기는 상기 척의 두께 편차보다 작은 대상물 배열 장치.
  18. 제 16 항에 있어서,
    상기 프로세서는, 상기 제1 및 제2 이미지에서 상기 대상물의 표면에 표시된 제1 및 제2 참조 마크의 위치를 식별하고 상기 제1 및 제2 참조 마크의 위치에 기초하여 상기 각도 조절부를 제어하는 대상물 배열 장치.
  19. 제 16 항에 있어서,
    상기 프로세서는 기 촬영된 상기 대상물의 전체 이미지를 이진화 함으로써 상기 대상물의 가장자리를 식별하고, 상기 대상물의 가장자리로부터 상기 대상물의 중심을 결정하며,
    상기 대상물의 중심을 기준으로 제1 및 제2 참조 마크의 위치 좌표를 결정하는 대상물 배열 장치.
  20. 제 16 항에 있어서,
    상기 프로세서는 상기 제2 촬영 모듈의 촬영위치에 인접한 4개의 상기 샘플링 포인트에서 측정된 상기 척의 두께 값들로부터 상기 제2 촬영 모듈과 상기 척 사이의 거리를 계산하는 대상물 배열 장치.
PCT/KR2016/010141 2016-03-17 2016-09-09 촬영 방법 및 촬영 방법을 이용한 대상물 정렬 방법 WO2017159938A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160032078A KR101993670B1 (ko) 2016-03-17 2016-03-17 촬영 방법 및 촬영 방법을 이용한 대상물 정렬 방법
KR10-2016-0032078 2016-03-17

Publications (1)

Publication Number Publication Date
WO2017159938A1 true WO2017159938A1 (ko) 2017-09-21

Family

ID=59851595

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/010141 WO2017159938A1 (ko) 2016-03-17 2016-09-09 촬영 방법 및 촬영 방법을 이용한 대상물 정렬 방법

Country Status (3)

Country Link
KR (1) KR101993670B1 (ko)
TW (1) TWI641872B (ko)
WO (1) WO2017159938A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111091494A (zh) * 2018-10-24 2020-05-01 纬创资通股份有限公司 影像拼接处理方法以及其***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010077238A (ko) * 2000-02-01 2001-08-17 서정길 웨이퍼 정렬 장치 및 이에 적합한 정렬 방법
JP2002009120A (ja) * 2000-06-22 2002-01-11 Rohm Co Ltd ウェハの測定方法
KR20090051929A (ko) * 2007-11-20 2009-05-25 세크론 주식회사 웨이퍼 정렬 방법 및 플립칩 제조 방법
KR20110129229A (ko) * 2010-05-25 2011-12-01 한미반도체 주식회사 반도체 자재 정렬방법
KR20130020404A (ko) * 2011-08-19 2013-02-27 삼성전자주식회사 정렬계를 이용한 계측 시스템 및 위치 계측 방법

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03102847A (ja) * 1989-09-16 1991-04-30 Hitachi Ltd オリエンテーシヨンフラツトの検出方法及び検出装置並びに縮小投影露光装置
JPH05190639A (ja) * 1991-11-14 1993-07-30 Hitachi Ltd 焦点合わせ方法および装置
KR100244918B1 (ko) * 1997-01-16 2000-02-15 윤종용 반도체 패턴 검사장치 및 그 검사방법
JP3203364B2 (ja) * 1997-12-01 2001-08-27 株式会社東京精密 アライメント方法及びその装置
CN1137409C (zh) * 1998-03-25 2004-02-04 全友电脑股份有限公司 自动对焦方法
WO2006040687A2 (en) * 2004-07-19 2006-04-20 Grandeye, Ltd. Automatically expanding the zoom capability of a wide-angle video camera
JP2007025381A (ja) * 2005-07-19 2007-02-01 Alps Electric Co Ltd 光学装置
JP4656440B2 (ja) * 2007-02-13 2011-03-23 東京エレクトロン株式会社 基板位置検出装置及びその撮像手段位置調整方法
JP5172204B2 (ja) * 2007-05-16 2013-03-27 大塚電子株式会社 光学特性測定装置およびフォーカス調整方法
JP4931250B2 (ja) * 2008-03-31 2012-05-16 キヤノン株式会社 撮像装置及び制御方法
KR101137615B1 (ko) * 2010-01-12 2012-04-19 삼성전자주식회사 디지털 카메라의 자동 초점 조정 방법 및 장치
TWI403819B (zh) * 2010-03-11 2013-08-01 Chroma Ate Inc High speed autofocus method
JP5110332B2 (ja) * 2010-05-24 2012-12-26 コニカミノルタアドバンストレイヤー株式会社 自動焦点調節装置
JP5669529B2 (ja) * 2010-11-17 2015-02-12 オリンパス株式会社 撮像装置、プログラム及びフォーカス制御方法
JP5293782B2 (ja) * 2011-07-27 2013-09-18 三星ダイヤモンド工業株式会社 合焦位置調整方法、合焦位置調整装置、およびレーザー加工装置
EP2823361B1 (en) * 2012-03-08 2022-03-02 ASML Netherlands B.V. Lithography system and method for processing a target, such as a wafer
CN105191283B (zh) * 2013-03-29 2019-10-22 索尼公司 摄像装置、固体摄像元件、相机模块、电子设备及摄像方法
TWI471677B (zh) * 2013-04-11 2015-02-01 Altek Semiconductor Corp 自動對焦方法及自動對焦裝置
TWI498526B (zh) * 2013-06-05 2015-09-01 Nat Univ Chung Cheng Environment depth measurement method and its image acquisition device
TWM489372U (en) * 2014-06-25 2014-11-01 Yayatech Co Ltd Automatic focusing inspection system for scribing lines of wafer

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010077238A (ko) * 2000-02-01 2001-08-17 서정길 웨이퍼 정렬 장치 및 이에 적합한 정렬 방법
JP2002009120A (ja) * 2000-06-22 2002-01-11 Rohm Co Ltd ウェハの測定方法
KR20090051929A (ko) * 2007-11-20 2009-05-25 세크론 주식회사 웨이퍼 정렬 방법 및 플립칩 제조 방법
KR20110129229A (ko) * 2010-05-25 2011-12-01 한미반도체 주식회사 반도체 자재 정렬방법
KR20130020404A (ko) * 2011-08-19 2013-02-27 삼성전자주식회사 정렬계를 이용한 계측 시스템 및 위치 계측 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111091494A (zh) * 2018-10-24 2020-05-01 纬创资通股份有限公司 影像拼接处理方法以及其***

Also Published As

Publication number Publication date
KR20170108345A (ko) 2017-09-27
KR101993670B1 (ko) 2019-06-27
TW201734575A (zh) 2017-10-01
TWI641872B (zh) 2018-11-21

Similar Documents

Publication Publication Date Title
WO2012050378A2 (ko) 기판 검사방법
WO2010134709A2 (ko) 평판 스캔 모듈, 평판 스캔 시스템, 평판 스캔 모듈의 정렬 오차 측정용 지그 및 이를 이용한 평판 스캔 모듈의 정렬 오차 측정 방법
JP2018190958A (ja) 部品を基板上に搭載する装置及び方法
KR20160065128A (ko) 얼라인먼트 방법 및 얼라인먼트 장치
US9001202B2 (en) Component mounting apparatus and component detection method
JP2000346618A (ja) 矩形ビーム用精密アライメント装置と方法
WO2017039418A1 (ko) 멀티 구 교정장치를 이용한 멀티 카메라 시스템의 이미지 보정 방법
WO2018016889A1 (ko) 비전검사모듈 및 그를 가지는 소자핸들러
KR20170038648A (ko) 노광 장치, 노광 장치의 얼라인먼트 방법, 및 프로그램
TWM526177U (zh) 視覺化系統及具有其之製程腔室
JP6787612B2 (ja) 第1物体を第2物体に対して位置決めする装置及び方法
CN115219426A (zh) 一种半导体检测光路相对晶圆表面垂直的调节方法
WO2017159938A1 (ko) 촬영 방법 및 촬영 방법을 이용한 대상물 정렬 방법
WO2019172689A1 (ko) 비전검사모듈, 그를 가지는 소자검사시스템 및 그를 이용한 소자검사방법
WO2012033301A4 (ko) 웨이퍼 검사장치 및 이를 구비한 웨이퍼 검사 시스템
WO2021137488A1 (ko) 레이저 가공 시스템 및 레이저 가공 방법
WO2012057435A1 (en) Camera module and estimation method of auto focus search range thereof
KR100532672B1 (ko) 본딩 장치에서의 옵셋 측정기구 및 본딩 장치에서의 옵셋측정방법
WO2011149300A2 (en) Mems actuator mounted camera module having sag compensation and sag compensation method using the same
WO2017034321A1 (ko) 카메라를 구비하는 장치에서 사진 촬영 지원 기법 및 그 장치
WO2017146330A1 (ko) 진직도 측정 장치 및 방법
WO2022245195A1 (ko) 두께 측정 장치
WO2012108577A1 (ko) 감시 장치 및 방법
WO2017142154A1 (ko) 촬영장치 및 촬영방법
WO2023121121A1 (ko) 구강 스캐너 캘리브레이션 장치 및 이를 포함하는 구강 스캐너 시스템

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16894668

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16894668

Country of ref document: EP

Kind code of ref document: A1