WO2020263056A1 - 대상체의 3차원 형상을 결정하기 위한 장치 및 방법 - Google Patents

대상체의 3차원 형상을 결정하기 위한 장치 및 방법 Download PDF

Info

Publication number
WO2020263056A1
WO2020263056A1 PCT/KR2020/008463 KR2020008463W WO2020263056A1 WO 2020263056 A1 WO2020263056 A1 WO 2020263056A1 KR 2020008463 W KR2020008463 W KR 2020008463W WO 2020263056 A1 WO2020263056 A1 WO 2020263056A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
pattern
reflected
phase
reflected light
Prior art date
Application number
PCT/KR2020/008463
Other languages
English (en)
French (fr)
Inventor
이찬권
전문영
홍덕화
정중기
Original Assignee
주식회사 고영테크놀러지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 고영테크놀러지 filed Critical 주식회사 고영테크놀러지
Priority to EP20832482.2A priority Critical patent/EP3992574A4/en
Priority to CN202080047588.XA priority patent/CN114041039A/zh
Priority to US17/623,497 priority patent/US20220357149A1/en
Priority to KR1020217042655A priority patent/KR20220017428A/ko
Publication of WO2020263056A1 publication Critical patent/WO2020263056A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/254Projection of a pattern, viewing through a pattern, e.g. moiré
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/2433Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures for measuring outlines by shadow casting
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2509Color coding
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2527Projection by scanning of the object with phase change by in-plane movement of the patern
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • G01B11/27Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes for testing the alignment of axes
    • G01B11/272Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes for testing the alignment of axes using photoelectric detection means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • H01L22/30Structural arrangements specially adapted for testing or measuring during manufacture or treatment, or specially adapted for reliability measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/56Measuring geometric parameters of semiconductor structures, e.g. profile, critical dimensions or trench depth
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • H01L22/10Measuring as part of the manufacturing process
    • H01L22/12Measuring as part of the manufacturing process for structural parameters, e.g. thickness, line width, refractive index, temperature, warp, bond strength, defects, optical inspection, electrical measurement of structural dimensions, metallurgic measurement of diffusions

Definitions

  • the present disclosure relates to a technique for determining a three-dimensional shape of an object.
  • an element may mean a component or a chipset used as a component in the overall electronic device such as an electric circuit and a semiconductor device.
  • an element may mean a coil, a capacitor, a resistor, a transistor, a diode, or an LED.
  • the device is not limited to the above-described example.
  • an angle of an upper surface of the device with respect to a substrate may be inspected. This angle can be used to check whether there is no tilt between the device and the substrate. This is because if the device is disposed or mounted so that the lower surface of the device is in close contact with the substrate, or the device is disposed or mounted in an inclined state with respect to the substrate according to the coating state of the solder or solder ball applied to the substrate, it may cause a defect in the substrate .
  • a method of irradiating the device with illumination and checking the inclination by using the position where the reflected light is formed may be used.
  • this method requires a lot of space to measure the imaging position of the reflected light because the reflection angle changes significantly even if the device is inclined only at a small angle when the device is a mirror surface, and there may be a disadvantage that miniaturization of the inspection equipment becomes difficult. .
  • structured light is irradiated on the device, and a diffraction pattern is formed by structured light in the air above the device, and the inclination is inspected through the phase change of the diffraction pattern.
  • this method may have a disadvantage of generating a lot of noise because the diffraction pattern is formed in the air.
  • the present disclosure provides a technique for determining a three-dimensional shape of an object.
  • An apparatus for determining a three-dimensional shape of an object includes: a first light source for sequentially irradiating at least one first pattern light onto the object; At least one first image sensor for capturing at least one first reflected light generated by reflecting the at least one first pattern light from the object; A second light source sequentially irradiating at least one second pattern light having a phase range; A beam splitter and at least one lens for changing an optical path of the at least one second pattern light so that light corresponding to each phase of the phase range is distributed to a partial area of the upper surface of the object; A second image sensor configured to capture at least one second reflected light generated by reflecting the at least one second pattern light from the partial area; And a processor electrically connected to the first light source, the at least one first image sensor, the second light source, and the second image sensor, wherein the processor comprises: the at least one first reflected light and the at least one second reflected light Based on, the first 3D shape
  • the processor determines a second 3D shape of the object based on each of the phase changes of the one or more first reflected lights from the one or more first pattern lights, and the one or more second reflected lights Derive a phase value of each of the at least one second reflected light from each light amount value, determine an angle of the image plane with respect to the reference plane, based on the phase value, and determine the second three-dimensional image based on the angle of the image plane
  • the first 3D shape of the object may be determined by correcting the upper surface of the object represented by the shape.
  • the apparatus further comprises a memory for storing association information indicating a relationship between an angle of the image plane with respect to the reference plane and a phase value of each of the at least one second reflected light, and the processor May determine an angle of the image plane with respect to the reference plane based on the phase value and the related information.
  • each of the one or more first image sensors may be disposed above the reference plane to capture the one or more first reflected lights traveling along different optical axes from the object.
  • the second image sensor may be disposed to face the object vertically above an area on the reference plane in which the object is located.
  • the at least one first image sensor further captures the at least one second reflected light
  • the processor includes the at least one second reflected light captured by the at least one first image sensor and the second image sensor. Based on, the phase value of each of the one or more second reflected lights may be derived.
  • an apparatus includes: at least one third light source for each irradiating at least one monochromatic light at one or more angles with respect to the reference plane toward the object from above the reference plane; And a third image sensor for capturing at least one third reflected light generated by reflecting the at least one monochromatic light from the object, wherein the beam splitter includes the at least one third reflected light traveling from the object.
  • the processor is configured to: change the amount of light of the at least one third reflected light from the at least one monochromatic light and the at least one first reflected light
  • the second 3D shape of the object may be determined based on each of the phase changes from the pattern light.
  • the second light source further irradiates monochromatic light
  • the beam splitter and the at least one lens change the optical path of the monochromatic light so that the monochromatic light reaches the upper surface
  • the second image sensor Capturing the fourth reflected light generated by being reflected from the upper surface
  • the processor each of the phase change of the one or more first reflected light from the one or more first pattern light and the light amount change of the fourth reflected light from the monochromatic light Based on this, the second 3D shape of the object may be determined.
  • the processor based on a change in the amount of light from the monochromatic light of the fourth reflected light, derives a reflectance of the upper surface, and when the reflectance of the upper surface is greater than or equal to a preset reference reflectance, the at least one second pattern
  • the second light source may be controlled to sequentially irradiate light.
  • each of the at least one first pattern light is a pattern generated by phase shifting a pattern light having a pattern in a first direction or a second direction perpendicular to the first direction by an integer multiple of a preset phase interval
  • each of the at least one second pattern light may be a pattern light generated by phase shifting a pattern light having a pattern in the first direction or the second direction by an integer multiple of a preset phase interval.
  • a method for determining a three-dimensional shape of an object includes, by a first light source, sequentially irradiating one or more first pattern lights onto the object; At least one first image sensor capturing at least one first reflected light generated by reflecting the at least one first pattern light from the object; Sequentially irradiating at least one second pattern light having a phase range by a second light source; Changing, by a beam splitter and at least one lens, an optical path of the at least one second pattern light so that light corresponding to each phase of the phase range reaches a partial area of the upper surface of the object; Capturing, by a second image sensor, at least one second reflected light generated by reflecting the at least one second pattern light from the partial area; And determining, by the processor, the first 3D shape of the object based on the at least one first reflected light and the at least one second reflected light.
  • the determining of the first three-dimensional shape comprises: the processor, based on each of a phase change of the one or more first reflected light from the one or more first pattern lights, a second third of the object Determining a dimensional shape; Deriving, by the processor, a phase value of each of the at least one second reflected light from an intensity value of each of the at least one second reflected light; Determining, by the processor, an angle of the image plane with respect to the reference plane based on the phase value; And determining, by the processor, the first 3D shape of the object by correcting the top surface of the object indicated by the second 3D shape based on the angle of the top surface.
  • the second light source irradiating the monochromatic light; Changing an optical path of the monochromatic light so that the monochromatic light reaches the upper surface by the beam splitter and the at least one lens; And capturing, by the second image sensor, fourth reflected light generated by reflecting the monochromatic light from the top surface, and determining the second three-dimensional shape, wherein the processor comprises: A step of determining the second 3D shape of the object based on each of the phase changes of the 1 reflected light from the one or more first pattern lights and the change in the amount of light of the fourth reflected light from the monochromatic light.
  • determination of a three-dimensional shape of the object may be improved by efficiently measuring the inclination of the upper surface of the object using the amount of light reflected from the object (eg, a device). It can be checked whether the entire substrate mounting process is properly performed through the three-dimensional shape of the object.
  • the inspection apparatus since the inclination of the object is not inspected based on the imaged position of the reflected light from the object, miniaturization of the inspection apparatus may be facilitated.
  • a noise-resistant inspection may be performed.
  • FIG. 1 is a diagram illustrating an apparatus 100 according to an embodiment of the present disclosure.
  • FIG 2 is a diagram illustrating an operation process of the device 100 according to an embodiment of the present disclosure.
  • FIG. 3 is a block diagram of an apparatus 100 according to an embodiment of the present disclosure.
  • FIG. 4 is a diagram illustrating a process in which patterned light is irradiated onto an object according to an embodiment of the present disclosure.
  • FIG 5 is a diagram illustrating a process in which reflected light passes through an aperture according to an embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating a process in which reflected light passes through an aperture according to an embodiment of the present disclosure.
  • FIG. 7 is a diagram illustrating a state of a pattern light irradiated from a pattern light source at an aperture according to an embodiment of the present disclosure.
  • FIG. 8 is a diagram illustrating related information according to an embodiment of the present disclosure.
  • FIG. 9 is a diagram illustrating a direction of a pattern of patterned light according to an embodiment of the present disclosure.
  • FIG 10 is a diagram illustrating an inspection process using illumination light of the device 100 according to an embodiment of the present disclosure.
  • FIG. 11 is a diagram illustrating a process of additionally irradiating white light by a pattern light source according to an embodiment of the present disclosure.
  • FIG. 12 is a diagram illustrating an apparatus 1210 according to an embodiment of the present disclosure.
  • FIG. 13 is a block diagram of an apparatus 1210 according to an embodiment of the present disclosure.
  • FIG. 14 is a diagram illustrating an apparatus 1400 according to an embodiment of the present disclosure.
  • 15 is a block diagram of an apparatus 1400 according to an embodiment of the present disclosure.
  • 16 is a diagram illustrating an inspection process using illumination light of the device 1400 according to an embodiment of the present disclosure.
  • FIG. 17 is a diagram showing an embodiment of a method 1700 of determining a three-dimensional shape of an object, which can be performed by the apparatus 100 according to the present disclosure.
  • FIG. 18 is a diagram illustrating an embodiment of a method 1800 of determining an angle of an object top surface, which may be performed by the apparatus 1210 according to the present disclosure.
  • FIG. 19 is a diagram showing an embodiment of a method 1900 of determining a three-dimensional shape of an object, which may be performed by the apparatus 1400 according to the present disclosure.
  • A, B, and C As used herein, "A, B, and C,” “A, B, or C,” “A, B, and/or C” or “at least one of A, B, and C,” “A, B , Or at least one of C,” “at least one of A, B, and/or C,” “at least one selected from A, B, and C,” “at least one selected from A, B, or C,” “A An expression such as “at least one selected from B, and/or C” may mean each listed item or all possible combinations of the listed items.
  • At least one selected from A and B is (1) at least one of A, (2) A, (3) B, (4) at least one of B, (5) at least one of A and B At least one of, (6) at least one of A and B, at least one of (7) B, and A, and (8) A and B may all be referred to.
  • unit used in this document is a concept collectively referring to hardware components such as software or hardware components such as field-programmable gate arrays (FPGAs) and application specific integrated circuits (ASICs), and optical elements. Can be However, “unit” is not limited to hardware and software. The “unit” may be configured to be stored in an addressable storage medium, or may be configured to execute one or more processors. In one embodiment, “unit” refers to components such as software components, object-oriented software components, class components, and task components, and processors, functions, properties, procedures, subroutines, and programs. It can include segments of code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables.
  • a certain component eg, a first component
  • another component eg, a second component
  • the expression that the certain component is “connected” or “connected” to another component means that the certain component is In addition to being directly connected or connected to another component, it may mean that the device is connected or connected via a new other component (eg, a third component).
  • a Cartesian coordinate system having an X axis, a Y axis, and a Z axis that are orthogonal to each other may be defined.
  • expressions such as "X-axis direction”, “Y-axis direction”, and “Z-axis direction” of a Cartesian coordinate system are both sides of the Cartesian coordinate system where each axis extends unless specifically defined otherwise in the description. It can mean direction.
  • the + sign in front of each axis direction may mean a positive direction, which is either direction of both directions extending in the corresponding axis direction
  • the-sign in front of each axis direction is a sign that extends in the corresponding axis direction. It may mean a negative direction, which is the other of both directions.
  • Direction indicators such as “upward” and “upward” used in this document are based on the positive Z-axis direction in the accompanying drawings, unless otherwise defined in the corresponding description, and “downward”, “lower”, etc.
  • the direction indicator of means the opposite direction.
  • a substrate is a plate or a container for mounting devices such as semiconductor chips and dies, and may serve as a connection path for electrical signals between devices and devices.
  • the substrate may be used for fabricating an integrated circuit or the like, and may be made of a material such as silicon.
  • the substrate may be a printed circuit board (PCB), and may be referred to as a wafer or the like according to embodiments.
  • PCB printed circuit board
  • FIG. 1 is a diagram illustrating an apparatus 100 according to an embodiment of the present disclosure.
  • a technique for determining a three-dimensional shape of an object according to the present disclosure may be implemented with a device according to various embodiments.
  • the apparatus 100 of the present disclosure may determine a three-dimensional shape of an object (eg, a device) using various inspection methods.
  • the shape of an object may be a concept including both a shape in a three-dimensional space of an object and a color and texture of an object surface.
  • the apparatus 100 may perform an inspection using patterned light and/or an inspection using coaxial deflectometry.
  • the device 100 may further perform inspection using illumination light.
  • the device 100 may include a pattern light irradiation unit 110, a deflectometry (DFM) unit 120, a measurement unit 130 and/or an illumination light irradiation unit 140.
  • the illumination light irradiation unit 140 may be omitted.
  • the pattern light irradiation unit 110 may irradiate pattern light toward an object in order to perform an inspection using pattern light.
  • the DFM unit 120 may irradiate patterned light toward an object in order to perform an examination using a coaxial deflection measurement method.
  • the measurement unit 130 may capture reflected light that is irradiated by the pattern light irradiation unit 110 and the DFM unit 120 and reflected from the object, and may determine a 3D shape of the object.
  • the illumination light irradiation unit 140 may irradiate illumination light toward an object in order to perform an inspection using illumination light.
  • the illumination light is reflected from the object and captured by the measurement unit 130, and may be used to determine a three-dimensional shape of the object. The specific operation and inspection method of each unit will be described later.
  • the apparatus 100 may perform an inspection method using patterned light and/or an inspection method using a coaxial deflection measurement method.
  • the device 100 may determine a 3D shape of the object based on the test result. The determined three-dimensional shape can be used to judge the suitability of the performed process. A process in which the device 100 performs an inspection using illumination light will be described later as an additional embodiment.
  • one or more pattern light sources 210 may irradiate one or more pattern lights 212 toward an object located on the reference surface R.
  • One or more pattern light sources 210 may belong to the pattern light irradiation unit 110.
  • the one or more pattern light sources 210 may be disposed above the reference surface R to irradiate one or more pattern lights 212 toward the object along different optical axes.
  • each of the one or more patterned light sources 210 may be disposed on a virtual circumference positioned above the reference surface R at intervals from each other.
  • Each of the one or more patterned lights 212 may be reflected from the object.
  • the phase of the patterned light 212 before and after reflection may be changed. That is, the reflected light 214 generated by reflecting the pattern light 212 onto the object may have a phase different from that of the corresponding pattern light 212.
  • the image sensor 220 may capture each of the one or more reflected lights 214 generated by reflecting each of the one or more pattern lights 212.
  • the image sensor 220 may belong to the measurement unit 130.
  • the image sensor 220 may be disposed vertically above the area on the reference plane R in which the object is located, facing the object.
  • the device 100 may obtain information about a phase of each of the one or more reflected lights 214 and a phase of each of the one or more patterned lights 212.
  • the device 100 may determine a first 3D shape of the object based on a phase change from each of the one or more patterned lights 212 of each of the one or more reflected lights 214.
  • the pattern light source 230 installed separately from the one or more pattern light sources 210 may sequentially irradiate the one or more pattern lights 232.
  • the pattern light source 230 may belong to the DFM unit 120.
  • Each of the one or more pattern lights 232 may have the same phase range (eg, 0 to 7 ⁇ /4).
  • each of the one or more pattern lights 232 may be generated by phase shifting one pattern light within the above-described phase range by an integer multiple of a preset phase interval (eg, ⁇ /2). have.
  • the one or more patterned light 232 may proceed to the beam splitter 240 through the lens 250 and/or other optical elements (eg, mirrors). In an embodiment, the patterned light 232 may proceed to the beam splitter 240 via the stop 252.
  • the beam splitter 240 may reflect one or more patterned lights 232 to face the object.
  • the beam splitter 240 and the one or more lenses 250 may include one or more pattern lights 232 so that light corresponding to each phase of the above-described phase range is distributed to and reaches a partial area A of the upper surface of the object. You can change the light path.
  • light corresponding to one of the phase ranges (eg, 0 to 7 ⁇ /4) of the pattern light 232 corresponds to the above-described partial area (A).
  • the optical path of light corresponding to each phase of the patterned light 232 may be changed (adjusted) so as to reach each point on the surface.
  • the beam splitter 240 and one or more lenses 250 may be disposed on the optical path of the patterned light 232 so that the optical path can be changed.
  • the beam splitter 240 and one or more lenses 250 may belong to the DFM unit 120.
  • Each of the one or more patterned lights 232 whose optical path is changed (adjusted) may reach the object. Since light according to each phase is scattered and irradiated over the entire area A of the object, light corresponding to the average amount of light of the patterned light 232 may reach each point of the area A. Each of the one or more patterned light 232 reaching the partial region A may be reflected from the partial region A. Light from which the pattern light 232 is reflected (hereinafter, reflected light 234) may sequentially pass through the lens 250 and the beam splitter 240. In one embodiment, the reflected light 234 may pass through the aperture 262 and, if necessary, may pass through an additionally disposed lens 260 to reach the image sensor 220. The image sensor 220 may capture each of the at least one reflected light 234 that has arrived.
  • the aperture stop 252 passes the pattern light 232 through the beam splitter 240, and the aperture stop 262 passes the reflected light 234 proceeding from the partial area A to the image sensor. Therefore, the light amount value of the reflected light 234 captured by the image sensor 220 may be determined according to the amount of light that passes through the aperture 252 and is reflected by a partial area A and passes through the aperture 262 again. .
  • the light captured by the image sensor 220 is part of the phase range (eg, 3 ⁇ /4) of the above-described phase range (eg, 0 to 7 ⁇ /4) of the pattern light 232 initially irradiated. It may be light corresponding to /4 ⁇ 5 ⁇ /4). That is, the amount of light that is captured by the image sensor 220 passing through the aperture 262 may be changed according to the degree of inclination of the object upper surface to the partial area A with respect to the reference surface R. Using this principle, the degree of inclination of the reflective surface can be derived based on the amount of captured reflected light, which may be referred to as deflectometry in the present disclosure.
  • the deflection measurement method is coaxial deflectometry. ) Can be called. The specific principle of the deflection measurement method will be described later.
  • the apparatus 100 may determine an angle of an upper surface of the object with respect to the reference plane R based on the light amount value of each of the one or more reflected lights 234.
  • the apparatus 100 may determine the second 3D shape by correcting the previously determined primary 3D shape using the determined angle of the upper surface. That is, the device 100 corrects the upper surface represented by the first three-dimensional shape using the information on the angle of the upper surface measured according to the deflection measurement method, and derives a new three-dimensional shape that is supplemented, that is, a second three-dimensional shape. I can.
  • the correction may be performed by a method of overriding the angle of the upper surface represented by the first three-dimensional shape with the angle of the upper surface derived according to the deflection measurement method. In one embodiment, the correction may be performed by determining the average value of the angle of the top surface represented by the first 3D shape and the angle of the top surface derived according to the deflection measurement method as the angle of the top surface represented by the second 3D shape. have.
  • the second three-dimensional shape is the final three-dimensional shape for an object and can be used to determine the suitability for a process such as mounting.
  • the device 100 includes one or more pattern light sources 210, image sensors 220, pattern light sources 230, beam splitter 240, one or more lenses 250, one or more processors 310, and / Or may include one or more memories 320. In one embodiment, at least one of these components of the device 100 may be omitted, or another component may be added to the device 100. In one embodiment, additionally or alternatively, some components may be integrated and implemented, or may be implemented as a singular or plural entity. In the present disclosure, one or more processors may be referred to as a processor. The expression “processor” may mean a set of one or more processors, unless clearly expressed otherwise in context.
  • one or more memories may be referred to as memories.
  • the expression “memory” may mean a set of one or more memories, unless explicitly expressed differently in context.
  • at least some of the components inside and outside the device 100 are bus, general purpose input/output (GPIO), serial peripheral interface (SPI), mobile industry processor interface (MIPI), and the like. It is connected to each other through the data and/or signals can be exchanged.
  • GPIO general purpose input/output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • Each of the at least one pattern light source 210 may irradiate at least one pattern light 212 as described above.
  • the pattern light source 210 may generate the pattern light 212 in various ways.
  • the pattern of the patterned light 212 may be formed by a digital method or an analog method.
  • liquid crystal transmission method using LCD Liquid Crystal Display
  • liquid crystal reflection method using LCoS (Liquid Crystal on Silicon)
  • mirror reflection using Digital Micromirror Device (DMD) or Digital Light Processing (DLP) There could be a way.
  • DMD Digital Micromirror Device
  • DLP Digital Light Processing
  • there there may be a method of forming a pattern using a pattern such as a periodic pattern, a gradient pattern, and a grid pattern.
  • each of the one or more pattern light sources 210 may be disposed above the reference surface R to irradiate the pattern light 212 along different optical axes.
  • the four pattern light sources 210 may be disposed apart at intervals of about 90 degrees on the virtual circumference (4-way).
  • the eight pattern light sources 210 may be disposed apart at an interval of about 45 degrees on the virtual circumference (8-way).
  • each of the pattern light sources 210 may sequentially irradiate one or more pattern lights 212 phase-shifted to four buckets.
  • each of the one or more pattern lights 212 may be generated by phase shifting one pattern light by an integer multiple of a preset phase interval (eg, ⁇ /2).
  • a total of 32 (8 ⁇ 4) pattern lights 212 may be irradiated to the object. Accordingly, a total of 32 images are captured, and information on 32 phase changes may be used to determine the first 3D shape of the object.
  • the image sensor 220 may capture one or more reflected light 214 and reflected light 234, respectively.
  • the image sensor 220 may be implemented as a Charge Coupled Device (CCD) or Complimentary Metal Oxide Semiconductor (CMOS) sensor.
  • CCD Charge Coupled Device
  • CMOS Complimentary Metal Oxide Semiconductor
  • the pattern light source 230 may generate and irradiate the pattern light 232 in various ways.
  • each of the pattern light sources 230 may sequentially irradiate one or more pattern lights 232 phase-shifted to four buckets.
  • pattern light 232 obtained by phase-shifting pattern light formed in one direction (hereinafter, referred to as w-axis direction) to four buckets, and pattern light formed in a direction perpendicular to the w-axis direction (hereinafter, referred to as v-axis direction) If the phase shifted pattern light 232 is used with 4 buckets, a total of 8 (4+4) pattern lights 232 may be sequentially irradiated. Accordingly, a total of eight images are captured and can be used to determine the angle of the top surface of the object.
  • the beam splitter 240, one or more lenses 250, and/or other optical elements described above may be variously implemented by optical elements according to a method known in the art.
  • the beam splitter 240 and/or one or more lenses 250 may be arranged to perform the optical path change of the patterned light 232 described above for a deflection measurement method.
  • the processor 310 may adjust its position, arrangement, and related parameters so that the beam splitter 240 and/or one or more lenses 250 may change the corresponding optical path.
  • the device 100 may also include the aperture 252 and the aperture 262 described above.
  • the processor 310 may control at least one component of the device 100 connected to the processor 310 by driving software (eg, instructions, programs, etc.). In addition, the processor 310 may perform various operations related to the present disclosure, processing, data generation, and processing. Also, the processor 310 may load data or the like from the memory 320 or may store the data in the memory 320. In an embodiment, the processor 310 may determine the first 3D shape of the object based on a phase change from each of the one or more pattern lights 212 of each of the one or more reflected lights 214. In addition, the processor 310 may determine an angle of an upper surface of the object with respect to the reference plane R based on a light amount value of each of the one or more reflected light 234 according to a deflection measurement method. The processor 310 may determine the second (final) 3D shape by correcting the first 3D shape using the determined angle of the upper surface.
  • driving software eg, instructions, programs, etc.
  • the processor 310 may perform various operations related to the present disclosure, processing,
  • the memory 320 may store various types of data. Data stored in the memory 320 is data acquired, processed, or used by at least one component of the device 100, and may include software (eg, instructions, programs, etc.). The memory 320 may include volatile and/or nonvolatile memory. In the present disclosure, commands or programs are software stored in the memory 320, and various functions are applied so that an operating system, an application, and/or an application for controlling the resources of the device 100 can utilize the resources of the device 100. It may include middleware and the like provided to. In one embodiment, the memory 320 may store instructions that cause the processor 310 to perform an operation when executed by the processor 310.
  • the device 100 may further include a communication interface (not shown).
  • the communication interface may perform wireless or wired communication between the device 100 and a server, or between the device 100 and another device.
  • the communication interface is eMBB (enhanced mobile broadband), URLLC (Ultra Reliable Low-Latency Communications), MMTC (Massive Machine Type Communications), LTE (Long-Term Evolution), LTE-A (LTE Advance), NR ( New Radio), UMTS (Universal Mobile Telecommunications System), GSM (Global System for Mobile communications), CDMA (Code Division Multiple Access), WCDMA (Wideband CDMA), WiBro (Wireless Broadband), WiFi (Wireless Fidelity), Bluetooth (Bluetooth ), Near Field Communication (NFC), Global Positioning System (GPS), or Global Navigation Satellite System (GNSS) can perform wireless communication.
  • eMBB enhanced mobile broadband
  • URLLC Ultra Reliable Low-Latency Communications
  • MMTC Massive Machine Type Communications
  • LTE Long-Term Evolution
  • LTE-A LTE Advance
  • the communication interface can perform wired communication according to methods such as USB (Universal Serial Bus), HDMI (High Definition Multimedia Interface), RS-232 (Recommended Standard-232), or POTS (Plain Old Telephone Service).
  • the processor 310 may obtain information necessary to implement the technology according to the present disclosure from the server by controlling the communication interface.
  • Information obtained from the server may be stored in the memory 320.
  • the information obtained from the server may include information on a substrate or an object, information on a reference surface R, related information to be described later, and the like.
  • 4 to 8 are diagrams for explaining the principle of the coaxial deflection measurement method described above.
  • 4 is a diagram illustrating a process in which the patterned light 232 is irradiated onto an object according to an embodiment of the present disclosure.
  • light corresponding to each phase in the corresponding phase range eg, 0 to 7 ⁇ ⁇ /4
  • the optical path of each of the one or more pattern lights 232 may be changed.
  • a description will be made based on one patterned light 232.
  • the pattern light source 230 may irradiate the pattern light 232 corresponding to one phase range.
  • Optical paths 410, 420, and 430 of light corresponding to any three phases within the above-described phase range are illustrated.
  • Each light may be irradiated to a partial area A of an upper surface of the object through one or more lenses 250, apertures 252 and/or beam splitters 240.
  • light corresponding to one phase may be scattered and irradiated over the entire area A. That is, the light 410 corresponding to one phase may be irradiated to reach each point on the surface corresponding to the partial area A.
  • Light (420, 430, etc.) corresponding to different phases of the pattern light 232 may be irradiated to the object in the same manner. Accordingly, all light corresponding to each of the phases of the above-described phase range may be irradiated to one point of the partial area A on the object. For example, in the illustrated embodiment, the lights 410, 420, and 430 all reach each point of a partial area A on the object. Accordingly, light having an average amount of light of the patterned light 232 corresponding to the above-described phase range may be irradiated to the entire area A of the object.
  • the reflected light 234 generated by reflecting the pattern light 232 from the partial area A may pass through the aperture 262 and be input to the image sensor 220.
  • the object upper surface is inclined with respect to the reference surface R, only a part of the reflected light 234 may pass through the aperture 262.
  • Some of the reflected light passing through the aperture 262 may correspond to a part of the phase range of the pattern light 232 irradiated from the pattern light source 230. As a result, an average amount of light of lights corresponding to this partial phase range may be captured by the image sensor 220.
  • the angle of the top surface of the object with respect to the reference plane R may be 0 degrees. In this case, most of the light reflected from one point of the partial area A passes through the stop 262 and may be captured by the image sensor 220. That is, in the embodiment 440, light corresponding to the phase section indicated by A and A′ may be reflected from the partial region A, passed through the aperture 262, and input to the image sensor 220.
  • the object may be inclined at an angle of 3 degrees with respect to the reference plane R.
  • the object may be inclined at an angle of 3 degrees with respect to the reference plane R.
  • only some of the light reflected from one point in the partial area A passes through the aperture 262 and may be captured by the image sensor 220.
  • the phase range of the pattern light 232 passed by the aperture 252 is a section indicated by the straight line 451
  • the phase range of the reflected light 234 passed by the aperture 262 is the section indicated by the line 452 May correspond to.
  • light having an optical path passing through both the stop 252 and the stop 262 may be light corresponding to the phase section indicated by A and A′.
  • the amount of reflected light 234 acquired by the image sensor 220 may be an average amount of light corresponding to the phase section indicated by A and A′.
  • the object may be inclined at an angle of 5 degrees with respect to the reference plane R.
  • most of the light reflected from one point of the partial area A may not pass through the stop 262. Accordingly, the image sensor 220 may not be able to capture the reflected light 234.
  • the angle of the top surface of the object in the above-described embodiments 440, 450, and 460 may be an exemplary value selected for explanation.
  • the amount of light input to the image sensor 220 may change according to the angle of the top surface of the object, passing through both the aperture 252 and the aperture 262.
  • the device 100 may determine (derive) the angle of the top surface of the object.
  • FIG 5 is a diagram illustrating a process in which the reflected light 234 passes through the stop 262 according to an embodiment of the present disclosure.
  • the upper surface of the object may be inclined at a predetermined angle with respect to the reference surface R.
  • the pattern light 232 having one phase range may be irradiated from the pattern light source 230 and distributed over a partial area A of the upper surface of the object to be irradiated. Since the top surface of the object is inclined, only a part of the reflected light 234 may pass through the aperture 262 and be input to the image sensor 220. Of the reflected light of the light (410, 420, 430, etc.) incident on the partial area (A), only the reflected light whose optical path proceeds within the range indicated by the thick solid line passes through the aperture 262 and is input to the image sensor 220. I can.
  • Some of the reflected light input to the image sensor 220 may be that light corresponding to a partial range of the above-described phase range of the pattern light 232 is reflected from a partial area A on the object.
  • the amount of reflected light 234 acquired by the image sensor 220 may be an average amount of light corresponding to the aforementioned partial range of the patterned light 232.
  • FIG. 6 is a diagram illustrating a process in which the reflected light 234 passes through the diaphragm 262 according to an embodiment of the present disclosure.
  • a portion A1 of the partial area A of the object upper surface may not be inclined with respect to the reference surface R, and the other portion A2 may be in an inclined state.
  • Light reflected from the non-tilted point A1 may pass through the aperture 262 and be input to a corresponding point of the image sensor 220, as in the above-described embodiment 440 (thick solid line).
  • the corresponding point of the image sensor 220 may receive an average amount of light irradiated from the pattern light source 230 corresponding to the above-described phase range.
  • Light reflected from the inclined point A2 may be input to the image sensor 220 by passing only a part of the light reflected from the inclined point A2 through the aperture 262 (thick dotted line).
  • the corresponding point of the image sensor 220 may receive an average amount of light of only light corresponding to a partial range of the above-described phase range irradiated by the pattern light source 230.
  • the pattern of one pattern light 232 may have a period.
  • the phase corresponding to one period is 2 ⁇
  • the pattern of the pattern light may become brighter during the period from 0 to ⁇ /2, and the pattern of the pattern light becomes darker during the period from ⁇ /2 to 3 ⁇ /2.
  • the pattern of the pattern light may become brighter again during the period of 3 ⁇ /2 to 2 ⁇ .
  • the pattern light source 230 may irradiate the pattern light 232 having a phase range. This phase range can be appropriately set as needed.
  • the phase range may be set so as not to be one period or a multiple of one period of the pattern. That is, the phase range may be set to a range other than the phase range corresponding to 0, 2 ⁇ , 4 ⁇ , ..., 2n ⁇ . This is because the light corresponding to the average amount of light of the pattern light 232 is irradiated to the partial area (A), so when a pattern light of a phase range that is a period or a multiple of a period is used, light corresponding to each phase of the pattern light Because these can all cancel each other out.
  • the phase range may be set to be larger than a phase range corresponding to a half period of the pattern light and smaller than a phase range corresponding to one period of the pattern light.
  • the phase range is set to be larger than the phase range corresponding to the (N+1/2) period of the pattern light (N is a natural number), and smaller than the phase range corresponding to the (N+1) period of the pattern light. I can.
  • This phase range can be set when it is necessary to increase the total amount of light of the patterned light itself in order to facilitate measurement of the reflected light.
  • Each of the one or more pattern lights 232 may be generated by phase shifting one pattern light corresponding to the above-described phase range by an integer multiple of a preset phase interval (eg, ⁇ /2). In an embodiment, the above-described phase interval may be set to a value greater than 0 and less than ⁇ .
  • Each of the one or more pattern lights 232 may be referred to as a 0th bucket, a first bucket, a second bucket, and a third bucket, that is, four buckets.
  • Each of the patterned light 232 generated by phase shifting may also have the above-described phase range ⁇ .
  • each of the patterned light 232 has a phase range of 0 to ⁇ , a phase range of ⁇ /2 to ⁇ /2+ ⁇ , a phase range of ⁇ to ⁇ + ⁇ , and 3 ⁇ /2 to 3 ⁇ It may have a phase range of ⁇ /2+ ⁇ .
  • the pattern light 232 for each bucket may appear like the illustrated pattern 710 at the stop 252.
  • the area of the pattern light passing through the aperture 252 may be a circular shape 720, and accordingly, among the rectangular pattern light from the pattern light source 230, light corresponding to the corresponding circular area is Can be investigated.
  • the device 100 may determine the angle of the top surface of the object using only the patterned light 232. However, by measuring the angle of the upper surface of the object using a plurality of patterned lights, various measurement errors such as errors according to the material of the upper surface of the object can be reduced.
  • the total amount of light that the pattern light 232 has in the pattern light source 230 may be calculated as shown in the following equation.
  • I o is a constant that determines the amplitude of the sine wave graph of the pattern of the pattern light 232, and I o may be a constant that determines the offset of the sine wave graph of the pattern.
  • the apparatus 100 may determine an angle of the top surface of the object with respect to the reference plane R, based on the light amount value of each of the one or more reflected lights 234.
  • the apparatus 100 may derive a phase value of the reflected light 234 from the light amount value of the reflected light 234 and determine an angle of an upper surface of the object by comparing the derived phase value with related information.
  • the processor 310 may derive a phase value of each of the one or more reflected lights 234 from the light amount values of each of the one or more reflected lights 234.
  • the light quantity value I n of the reflected light may be expressed as follows.
  • Equation 3 may be summarized by substituting each phase shift amount ⁇ (t) into Equation 2.
  • the image sensor 220 may capture light having an average amount of light corresponding to a partial range of the phase range of the pattern light 232.
  • the light corresponding to a partial range may vary depending on the angle of the object upper surface and/or the pattern light 232 according to which bucket is irradiated. That is, even if the object is inclined at the same angle, the configuration of the light corresponding to the above-described partial range may vary depending on how much the irradiated pattern light 232 is phase-shifted.
  • the amount of reflected light for each bucket may be I 1 , I 2 , I 3 , and I 4 described above.
  • the light intensity values (I 1 , I 2 , I 3 , I 4 ) of each reflected light are values that can be measured by the image sensor 220.
  • A, B and ⁇ can be derived using four equations for I 1 , I 2 , I 3 , and I 4 described above. Since there are three unknowns, at least three or more equations are required, and thus, measurement through three or more different pattern lights 232 may have to be performed at least three times. Accordingly, if Equation 3 is summarized, the following Equation 4 can be derived for the phase value ⁇ of the reflected light.
  • phase values of the one or more reflected lights 234 may be derived from the light quantity values of the one or more reflected lights 234, respectively. This derivation process may be performed by the processor 310.
  • the memory 320 of the device 100 may further store related information.
  • the association information may indicate a relationship between an angle of an upper surface of the object with respect to the reference plane R and a phase value of the reflected light 234.
  • the numerical value indicated by the illustrated related information is an exemplary value, and the value of the related information may be changed according to embodiments.
  • the relationship between the phase value indicated by the related information and the inclined angle of the object may be databaseized through measurement and calculation and stored in the memory 220.
  • the related information is the inclined angle of the object, the amount of reflected light of each bucket measured for each corresponding angle (I 1 , I 2 , I 3 , I 4 ), and the reflected light derived through the measured light amount value. It may include information on the phase value. For example, when the inclined angle of the object is 1 degree, the measured light intensity values (I 1 , I 2 , I 3 , I 4 ) of each bucket may be 239.50, 145.67, 132.41, and 226.34, respectively. The phase value derived through this light intensity value may be 37.02 degrees.
  • the association information may also include values of A and B in Equation 3 above.
  • the processor 310 may determine an angle of an upper surface of the object with respect to the reference plane R based on the phase value and related information of the reflected light 234.
  • the processor 310 may determine the supplemented secondary (final) 3D shape by modifying the top surface represented by the primary 3D shape using the determined angle of the top surface.
  • the pattern light sources 210 and 230 may generate pattern lights 212 and 232 having a pattern on a square surface.
  • the pattern of the pattern lights 212 and 232 may be formed in the w axis direction or the v axis direction. have.
  • each of the one or more pattern lights 212 and 232 may have a pattern in a w-axis direction or a v-axis direction perpendicular to the w-axis.
  • the pattern direction of the pattern lights 212 and 232 may be set differently for each bucket.
  • an error in determining a three-dimensional shape of an object may be reduced.
  • FIG. 10 is a diagram illustrating an inspection process using illumination light of the device 100 according to an embodiment of the present disclosure. Some of the components of the above-described device 100 have been arbitrarily omitted.
  • the device 100 may further perform an inspection using illumination light.
  • the apparatus 100 may determine the first 3D shape of the object by additionally reflecting the test result using illumination light in addition to the test result using the pattern light described above.
  • the device 100 may further include one or more illumination light sources 1010.
  • the illumination light source 1010 may belong to the illumination light irradiation unit 140. Each of the illumination light sources 1010 may irradiate the illumination light 1020 toward an object located on the reference surface R.
  • one illumination light source 1010 may be implemented in a form including a plurality of illumination light sources (eg, LED lights) arranged to be spaced apart from each other at a predetermined distance on the circumference. The circumference may be disposed parallel to the reference plane R.
  • one illumination light source 1010 may be implemented as a single illumination light source having a cylindrical shape. Each of the illumination light sources 1010 may be disposed above the reference surface R to the object.
  • Each of the illumination light sources 1010 may be arranged to irradiate illumination light to the object along an optical axis inclined at one or more angles (eg, 17 degrees, 40 degrees, 58 degrees, 70 degrees, etc.) with respect to the reference plane R. In one embodiment, a total of four illumination light sources 1010 may be used as shown.
  • the illumination light may be light according to one or more wavelengths. In one embodiment, the illumination light may be red light, green light, or blue light.
  • Each of the illumination light sources 1010 may be implemented as an RGB light source, and may include a red light source, a green light source, and/or a blue light source. In an embodiment, the illumination light source 1010 may simultaneously irradiate at least two light sources, and may irradiate white light by irradiating red, green, and blue light at the same time.
  • the illumination light 1020 may be reflected from the object.
  • the image sensor 220 may capture light from which the illumination light 1020 is reflected (hereinafter, reflected light 1030 ).
  • the amount of light captured by the image sensor 220 may vary according to the angle at which the illumination light 1020 is irradiated to the object and the angle at which the reflected light 1030 is reflected from the object.
  • the shape of the object may be determined based on the amount of light changed before and after reflection.
  • the processor 310 may obtain a change in the amount of light from each of the at least one reflected light 1030 and each of the illumination light 1020 according to at least one wavelength.
  • the processor 310 may determine the aforementioned primary 3D shape of the object based on the change in the amount of light.
  • the processor 310 may determine the first 3D shape of the object using both the test result using pattern light and the test result using illumination light.
  • the processor 310 is a phase change from each of the at least one pattern light 212 of each of the at least one reflected light 214 and each of the at least one reflected light 1030 from each of the illumination light 1020 according to at least one wavelength. Based on the change in the amount of light, the first 3D shape of the object may be determined.
  • the processor 310 may determine the second (final) 3D shape of the object by modifying the corresponding primary 3D shape using the determined angle of the upper surface.
  • the processor 310 may determine the second (final) 3D shape of the object by modifying the corresponding primary 3D shape using the determined angle of the upper surface.
  • a total of 12 (4 ⁇ 3) illumination lights may be irradiated to the object.
  • a total of 12 reflected lights may be captured by the image sensor 220 and may be used to determine the first 3D shape of the object.
  • FIG. 11 is a diagram illustrating a process of additionally irradiating white light 1110 by the pattern light source 230 according to an embodiment of the present disclosure. Some of the components of the above-described device 100 have been arbitrarily omitted. In one embodiment, the pattern light source 230 of the device 100 may further irradiate the white light 1110, and determine a more accurate primary 3D shape of the object using information on the reflected light 1120. have.
  • the pattern light source 230 may irradiate at least one monochromatic light of red light, green light, blue light, and white light, for example, white light 1120 ) Can be investigated.
  • white illumination light without a pattern can be irradiated from the pattern light source 230.
  • the white light 1120 may travel along an optical path similar to the pattern light 232 described above.
  • the beam splitter 240 and one or more lenses 250 may change the optical path of the white light 1110 so that the white light 1110 reaches the upper surface of the object.
  • the white light 1110 may travel to the beam splitter 240 through the lens 250, the stop 252, and other optical elements.
  • the beam splitter 240 may change the optical path of the white light 1110 so that the white light 1110 faces the upper surface of the object.
  • the white light 1110 may be reflected from the upper surface of the object. Depending on the shape of the object, the amount of white light 1110 may change before and after reflection. That is, the amount of white light 1110 and the amount of reflected light 1120 may be different.
  • the reflected light 1120 may travel toward the beam splitter 240, and the beam splitter 240 may pass the reflected light 1120 through the image sensor 220.
  • the image sensor 220 may capture the reflected light 1120.
  • the processor 310 may determine the shape of the object based on the value of the amount of light changed before and after reflection. That is, the processor 310 may obtain a change in the amount of light from the white light 1110 of the reflected light 1120 and determine the first 3D shape of the object based on the change in the amount of light. In an embodiment, the processor 310 may determine the first 3D shape of the object using both the test result using pattern light and the test result using white light. In this case, the processor 310 is based on a phase change from each of the one or more pattern lights 212 of each of the one or more reflected lights 214 and a change in the amount of light from the white light 1110 of the reflected light 1120, The three-dimensional shape can be determined. Thereafter, as described above, the processor 310 may determine the second (final) 3D shape of the object by modifying the corresponding primary 3D shape using the determined angle of the upper surface.
  • the apparatus 100 may determine a second 3D shape by performing an inspection using a coaxial deflection measurement method only when a preset criterion is satisfied, and otherwise, determine only the first 3D shape. This is to shorten the time required for the examination process by performing an additional examination on the upper surface of the object only when it is determined that it is necessary.
  • the apparatus 100 may additionally perform an examination using a coaxial deflection measurement method on the object.
  • the apparatus 100 may additionally perform an examination using the coaxial deflection measurement method.
  • the apparatus 100 may additionally perform an examination using the coaxial deflection measurement method.
  • the processor 310 may obtain light amount information of the white light 1110 from the pattern light source 230 and may obtain light amount information of the reflected light 1120 from the image sensor 220.
  • the processor 310 may derive a reflectance of an upper surface of the object based on a change in the amount of light from the white light 1110 of the reflected light 1120.
  • the processor 310 may control the pattern light source 230 to sequentially irradiate the above-described one or more pattern lights 232.
  • information on a preset reference reflectance may be stored in the memory 320.
  • the apparatus 100 may first perform an inspection using patterned light and then perform an inspection using a deflection measurement method. That is, the pattern light 212 may be irradiated first to capture the reflected light 214, and then the patterned light 232 may be irradiated to capture the reflected light 234. In one embodiment, inspection using illumination light may be performed prior to inspection using a deflection measurement method.
  • the apparatus 100 determines a three-dimensional shape by imaging a reference plane R, an object, or a reference plane R and the object using patterned light, and then, using a deflection measurement method, the angle of the top surface of the object is determined. Can be derived.
  • the upper surface of the object is a mirror surface, it is possible to check the reference surface R using patterned light, but it may be difficult to accurately restore the three-dimensional shape of the object, so based on the angle information of the object upper surface derived using the deflection measurement method. It is possible to accurately derive information on the top surface of the object and information on the 3D shape of the object compared to the reference plane R.
  • the device 1210 is a device corresponding to the above-described DFM unit 120 and may determine an angle of an upper surface of an object located on the reference surface R. At least one component in the device 1210 can be implemented as a removable device and coupled to the device 1220. If the device 1210 is not coupled, a coaxial 2D light source may be attached to the location where it was coupled. The coaxial 2D light source may irradiate at least one monochromatic light selected from red light, green light, blue light, and white light. The coaxial 2D light source can be implemented through optical elements such as LEDs. By irradiating 2D monochromatic illumination through such a detachable device 1210 or a coaxial 2D light source, a more accurate 3D shape restoration may be performed depending on the object.
  • the device 1220 may be a device including the pattern light irradiation unit 110, the measurement unit 130 and/or the illumination light irradiation unit 140 described above.
  • the device 1220 may determine the aforementioned primary 3D shape of the object on the reference plane R.
  • the device 1210 When the device 1210 is coupled to the device 1220, it may have a configuration similar to that of the device 100 described above.
  • the combined device 1210 and the device 1220 may determine the aforementioned secondary (final) 3D shape of the object in the same manner as the device 100. That is, the device 1220 may determine the first 3D shape of the object by performing an examination using pattern light and/or an examination using illumination light, and the device 1210 may determine an angle of an upper surface of the object.
  • the second 3D shape may be determined by modifying the first 3D shape of the object using the angle of the upper surface.
  • the process of modifying and determining the second 3D shape may be performed by the device 1210 or the device 1220.
  • the pattern light source 1230 of the device 1210 may sequentially irradiate one or more pattern lights 1232.
  • the pattern light source 1230 and the pattern light 1232 may correspond to the pattern light source 230 and the pattern light 232 described above, respectively.
  • each of the patterned light 1232 may have the same phase range.
  • each of the pattern lights 1232 may be generated by phase shifting a pattern light having a pattern in a w-axis direction or a v-axis direction by an integer multiple of a preset phase interval.
  • the beam splitter 1240 and one or more lenses 1250 may change an optical path of one or more pattern lights 1232.
  • the beam splitter 1240 and one or more lenses 1250 may correspond to the aforementioned beam splitter 240 and one or more lenses 250, respectively.
  • the beam splitter 1240 and the one or more lenses 1250 include light corresponding to each phase in the above-described phase range. ), it is possible to change the optical path of the one or more pattern lights 1232 to reach them.
  • other necessary optical elements eg mirrors
  • the patterned light 1232 may pass through the aperture 1252 before being input to the beam splitter 1240.
  • One or more patterned lights 1232 may be reflected from a partial area A of the object.
  • the light from which the pattern light 1232 is reflected (hereinafter, reflected light 1234) may be input to an image sensor of the device 1220 through a beam splitter 1240, an aperture 1262, other lenses 1260, and the like.
  • This image sensor may correspond to the image sensor 220 described above.
  • the device 1210 may obtain information 1270 on one or more reflected lights 1234 from the device 1220.
  • the device 1210 may determine an angle of an upper surface of the object with respect to the reference plane R based on the information 1270.
  • the process of determining the angle of the top surface may be the same as the process described in the apparatus 100 described above.
  • the information 1270 may include information indicating a light amount value of each of the one or more reflected lights 1234.
  • the device 1220 is a device including the pattern light irradiation unit 110, the measurement unit 130 and/or the illumination light irradiation unit 140 described above, and to perform an inspection using pattern light and/or illumination light.
  • the device 1220 may include one or more pattern light sources (corresponding to the pattern light source 210), an image sensor (corresponding to the image sensor 220), and/or a processor (corresponding to the processor 310).
  • the pattern light source may irradiate one or more pattern lights (corresponding to the pattern light 212) to the object.
  • the image sensor may capture reflected light (corresponding to the reflected light 214) of the patterned light (corresponding to the patterned light 212 ).
  • the image sensor may capture reflected light (corresponding to the reflected light 234) of the patterned light 1232.
  • the processor may determine a primary 3D shape of the object based on the captured reflected light and transmit information indicating the determined primary 3D shape to the device 1210.
  • the device 1210 includes a patterned light source 1230, a beam splitter 1240, one or more lenses 1250, a communication interface 1330, one or more processors 1310, and/or one or more memories 1320. It may include. In one embodiment, at least one of these components of the device 1210 may be omitted, or another component may be added to the device 1210. In one embodiment, additionally or alternatively, some components may be integrated and implemented, or may be implemented as a singular or plural entity.
  • At least some of the components inside and outside the device 1210 are a bus, general purpose input/output (GPIO), serial peripheral interface (SPI), mobile industry processor interface (MIPI), and the like. They are connected to each other, and data and/or signals can be exchanged.
  • GPIO general purpose input/output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the pattern light source 1230, the beam splitter 1240, and one or more lenses 1250 may correspond to the above-described pattern light source 230, the beam splitter 240, and the one or more lenses 250, according to a deflection measurement method. The same or similar actions can be performed to perform the test.
  • the communication interface 1330 may be implemented in a manner similar to the communication interface of the device 100 described above.
  • the communication interface 1330 may be controlled by the processor 1310 to communicate with the device 1220.
  • the communication interface 1330 may obtain information 1270 about one or more reflected lights 1234 from the device 1220.
  • the processor 1310 may be implemented in a manner similar to the processor 310 of the apparatus 100 described above.
  • the processor 1310 may control the communication interface 1330 to obtain information 1270 on one or more reflected lights 1234, and determine an angle of an upper surface of the object with respect to the reference plane R based on the information 1270. have.
  • the processor 1310 of the device 1210 may derive a phase value of each of the one or more reflected lights 1234 from the light quantity values of each of the one or more reflected lights 1234.
  • the processor 1310 may determine an angle of an upper surface of the object with respect to the reference plane R based on the derived phase value. This process may correspond to a process in which the processor 310 derives a phase value from the light quantity value of the reflected light 234 and determines the angle of the image surface from the phase value.
  • the memory 1320 may store related information, similar to the memory 320, and the processor 1310 may determine an angle of the image surface based on the phase value and related information of each of the reflected light 1234. .
  • the device 1210 may transmit information indicating the derived angle of the top surface to the device 1220 to allow the device 1220 to determine a second 3D shape.
  • the processor 1310 may control the communication interface 1330 to transmit information indicating the derived angle of the top surface to the device 1220.
  • the device 1220 may determine the first three-dimensional shape of the object through inspection using patterned light and/or illumination light.
  • Corresponding information indicating the angle of the image surface may be used by the device 1220 to determine the second 3D shape by correcting (correcting) the upper surface of the object represented by the first 3D shape.
  • the device 1210 may obtain information indicating the primary 3D shape of the object from the device 1220 and directly determine the 2nd 3D shape using this.
  • the processor 1310 may control the communication interface 1330 to obtain information on the primary 3D shape of the object determined by the device 1220.
  • the processor 1310 may determine the second 3D shape by correcting (correcting) the upper surface of the object represented by the first 3D shape based on the determined angle of the upper surface.
  • the pattern light source 1230 may further irradiate white light, and the beam splitter 1240 and one or more lenses 1250 may change the optical path of the white light so that the white light reaches an upper surface of the object. This may correspond to irradiation of white light 1110 by the pattern light source 230 of the apparatus 100 described above. As described above, white light may be reflected from the top surface of the object. The device 1220 may capture the reflected light and determine a first 3D shape of the object based on a change in the amount of light of the reflected light from white light.
  • the processor 1310 may control the communication interface 1330 to obtain information indicating a reflectance of an upper surface of the object from the device 1220.
  • the processor 1310 may control the pattern light source 1230 to sequentially irradiate one or more pattern lights 1232. This may correspond to the control of the pattern light source 230 by the processor 310 of the above-described device 100 based on the reference reflectance.
  • the device 1400 may determine a three-dimensional shape of an object.
  • a pattern light source and an image sensor used for inspection using pattern light may be disposed opposite to that of the device 100. That is, in the case of the device 1400, one or more image sensors 1420 may be disposed at a position where one or more pattern light sources 210 of the device 100 are to be disposed.
  • one pattern light source 1410 may be disposed at a position where the image sensor 220 of the device 100 is to be disposed.
  • the device 1400 may further include a separate image sensor 1460 for capturing the reflected light 1434 of the pattern light 1432 irradiated by the pattern light source 1430 in order to perform an inspection according to the deflection measurement method. I can.
  • the pattern light source 1410 of the device 1400 may sequentially irradiate one or more pattern lights 1412 to an object located on the reference surface R.
  • the pattern light source 1410 and the pattern light 1412 may correspond to the aforementioned pattern light source 210 and pattern light 212, respectively.
  • the pattern light source 1410 may sequentially irradiate one or more pattern lights 1412.
  • each of the pattern lights 1412 may be generated by phase shifting a pattern light having a pattern in a w-axis direction or a v-axis direction by an integer multiple of a preset phase interval.
  • Each of the patterned light 1412 may be reflected from the object.
  • Light from which the pattern light 1412 is reflected (hereinafter, reflected light 1414) may have a phase change compared to the pattern light 1412.
  • One or more image sensors 1420 may capture one or more reflected light 1414.
  • Each of the one or more image sensors 1420 may be disposed above the reference plane R to capture each of the reflected light 1414 traveling along different optical axes from the object. That is, each of the one or more image sensors 1420 may be arranged similar to the arrangement of the patterned light source 210 of the device 100.
  • components for performing an inspection according to the deflection measurement method of the device 1400 may operate in the same manner as those of the device 100. That is, the pattern light source 1430, the pattern light 1432, the one or more lenses 1450, the aperture 1452, the beam splitter 1440, and the reflected light 1434 from the object of the pattern light 1432 of the device 1400
  • Other optical elements, such as the aperture 1472 and the lens 1470, are the pattern light source 230, the pattern light 232, one or more lenses 250, the aperture 252, the beam splitter of the apparatus 100 described above.
  • the pattern light 232 may correspond to the reflected light 234 from the object, the aperture 262, the lens 260, and other optical elements, respectively.
  • the pattern light source 1430 may sequentially irradiate one or more pattern lights 1432 having the same phase range, and the beam splitter 1440 and one or more lenses 1450 correspond to each phase of the above-described phase range.
  • the optical path of the patterned light 1432 may be changed so that the light is distributed to and reaches the partial area A of the upper surface of the object.
  • the reflected light 1434 generated by the pattern light 1432 being reflected from the partial area A of the object may be captured by the image sensor 1460.
  • the image sensor 1460 may be disposed vertically above an area in which the object is located on the reference plane R to face the object. That is, the image sensor 1460 may be arranged similar to the arrangement of the image sensor 220 of the device 100.
  • the device 1400 may determine a second (final) 3D shape of the object based on the one or more reflected lights 1414 and/or the one or more reflected lights 1434.
  • the number of pieces of information used may be different than the process in which the device 100 determines the second 3D shape, but the process may be the same.
  • the device 1400 includes a pattern light source 1410, one or more image sensors 1420, a pattern light source 1430, a beam splitter 1440, one or more lenses 1450, an image sensor 1460, and one It may include more than one processor 1510 and/or more than one memory 1520. In one embodiment, at least one of these components of the device 1400 may be omitted, or another component may be added to the device 1400. In one embodiment, additionally or alternatively, some components may be integrated and implemented, or may be implemented as a singular or plural entity.
  • At least some of the components inside and outside the device 1400 include a bus, general purpose input/output (GPIO), serial peripheral interface (SPI), mobile industry processor interface (MIPI), and the like. It is connected to each other through the data and/or signals can be exchanged.
  • GPIO general purpose input/output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the pattern light source 1430, the beam splitter 1440, and the one or more lenses 1450 may correspond to the above-described pattern light source 230, the beam splitter 240, and the one or more lenses 250, according to a deflection measurement method. The same or similar actions can be performed to perform the test.
  • the processor 1510 may be implemented in a similar manner to the processor 310 of the apparatus 100 described above.
  • the processor 1510 may determine the second (final) 3D shape of the object based on the one or more reflected lights 1414 and/or the one or more reflected lights 1434.
  • the processor 1510 may determine the first 3D shape of the object based on each of the phase changes of the one or more reflected lights 1414 from the one or more pattern lights 1412. In addition, the processor 1510 may derive a phase value of each of the at least one reflected light 1434 from the light amount value of each of the at least one reflected light 1434, and determine the angle of the image plane with respect to the reference plane R based on the derived phase value. have. This process may correspond to a process in which the processor 310 derives a phase value from the light quantity value of the reflected light 234 and determines the angle of the image surface from the phase value.
  • the processor 1510 may determine the second (final) 3D shape of the object by modifying (correcting) the upper surface of the object indicated by the determined primary 3D shape based on the derived angle of the upper surface.
  • the memory 1520 may store association information, similar to the memory 320, and the processor 1510 may determine an angle of the image surface based on the phase value and the association information of each of the reflected light 1434. .
  • the pattern light source 1420 In addition to capturing the reflected light 1414 reflected by the pattern light 1412 from the pattern light source 1410 as described above, the pattern light source 1420 One or more reflected lights 1434 from which the light 1432 is reflected may be further captured.
  • the reflected light 1434 reflected from the partial area A may travel vertically upward toward the image sensor 1460, but according to the embodiment, a part of the reflected light 1434 may travel in an optical axis inclined with respect to the reference plane R. have.
  • one or more image sensors 1420 may capture a part of the reflected light 1434 traveling along the inclined optical axis.
  • the processor 1510 may derive the above-described phase value of the reflected light 1434 based on information on the one or more image sensors 1420 and the one or more reflected light 1434 captured by the image sensor 1460.
  • the pattern light 1412 and the pattern light 1432 may correspond to the pattern light 212 and the pattern light 232 described above, respectively. That is, each of the pattern light 1412 and the pattern light 1432 may be pattern lights generated by phase shifting a pattern light having a pattern in a w-axis direction or a v-axis direction by an integer multiple of a preset phase interval.
  • 16 is a diagram illustrating an inspection process using illumination light of the device 1400 according to an embodiment of the present disclosure. Some of the components of the above-described device 1400 have been arbitrarily omitted.
  • the device 1400 may further perform an inspection using illumination light.
  • the apparatus 1400 may determine the first 3D shape of the object by additionally reflecting the test result using illumination light in addition to the test result using the pattern light described above.
  • the device 1400 may further include one or more illumination light sources 1610.
  • the illumination light source 1610 is disposed in the same manner as the illumination light source 1010 of the apparatus 100 described above, and may irradiate at least one illumination light at one or more angles with respect to the reference plane R.
  • each of the one or more illumination light sources 1610 may irradiate the white light 1612 to the object among the illumination light.
  • the irradiated one or more white light 1612 may be reflected from the object. As described above, the amount of white light 1612 before and after reflection may change according to the shape of the object.
  • the light from which the white light 1612 is reflected (hereinafter, the reflected light 1614) proceeds vertically upward and may be input to the beam splitter 1440.
  • the beam splitter 1440 may change the optical path of the reflected light 1614 so that the reflected light 1614 reaches the image sensor 1620.
  • the image sensor 1620 may capture each of the one or more reflected lights 1614.
  • the processor 1510 is based on each change in the amount of light from the one or more white lights 1612 of the one or more reflected lights 1614 and/or each of the phase changes from the one or more pattern lights 1412 of the one or more reflected lights 1414
  • the first three-dimensional shape of can be determined.
  • the pattern light source 1430 may further irradiate white light 1632, similar to the pattern light source 230 described above.
  • the beam splitter 1440 and one or more lenses 1450 change the optical path of the white light 1632 so that the white light 1632 reaches the upper surface of the object, and the image sensor 1460 reflects the white light 1632 from the upper surface of the object.
  • the generated reflected light 1634 may be captured.
  • Processor 1510 based on each of the phase change from the one or more pattern light 1412 of the one or more reflected light 1414 and/or the light amount change from the white light 1632 of the reflected light 1634, the first order 3 of the object. You can determine the dimensional shape.
  • This embodiment may correspond to that the pattern light source 230 of the apparatus 100 described above further irradiates white light, and the reflected light is used to determine the primary 3D shape of the object.
  • the processor 1510 may derive a reflectance of an upper surface of the object based on a change in the amount of light from the white light 1632 of the reflected light 1634.
  • the processor 1510 may control the pattern light source 1430 to sequentially irradiate one or more pattern lights 1432. This embodiment may correspond to an embodiment of determining whether to additionally perform an inspection using a coaxial deflection measurement method according to a reference reflectance in the apparatus 100 described above.
  • Various embodiments of the devices 100, 1210, and 1400 according to the present disclosure may be combined with each other. Each of the embodiments may be combined according to the number of cases, and embodiments of the devices 100, 1210, and 1400 made by combining are also within the scope of the present disclosure.
  • At least one image sensor 1420 may capture the reflected light 1030 that is reflected by being irradiated from the illumination light 1020.
  • the reflected light 1634 generated by reflecting the white light 1632 or the coaxial 2D illumination light from the top surface of the object may be captured.
  • the processor 1510 outputs information on the one or more reflected lights 1030 and 1634 captured by the one or more image sensors 1420 as an image, so that the user can control the object in each direction in which each image sensor 1420 is disposed. It is possible to check the inclination or the shape attached to the reference surface R.
  • internal/external components of the devices 100, 1210, and 1400 according to the present disclosure described above may be added, changed, replaced, or deleted according to embodiments.
  • internal/external components of the above-described devices 100, 1210, and 1400 may be implemented as hardware components.
  • FIG. 17 to 19 are diagrams showing an embodiment of methods that may be performed by the devices 100, 1210, and 1400, respectively, according to the present disclosure.
  • the methods according to the present disclosure may be computer-implemented methods.
  • each step of the method or algorithm according to the present disclosure is described in a sequential order in the illustrated flowchart, each step may be performed in an order that may be arbitrarily combined by the present disclosure in addition to being performed sequentially.
  • the description in accordance with this flowchart does not exclude making changes or modifications to the method or algorithm, and does not imply that any step is essential or desirable.
  • at least some of the steps may be performed in parallel, repetitively or heuristically.
  • at least some of the steps may be omitted or other steps may be added.
  • FIG. 17 is a diagram showing an embodiment of a method 1700 of determining a three-dimensional shape of an object, which can be performed by the apparatus 100 according to the present disclosure.
  • the apparatus 100 according to the present disclosure may perform the method 1700 in determining a first three-dimensional shape (eg, a second three-dimensional shape) of an object positioned on a reference plane.
  • a first three-dimensional shape eg, a second three-dimensional shape
  • Step of sequentially irradiating the second pattern light (S1730), changing the optical path of the second pattern light so that light corresponding to each phase of the phase range is distributed to a partial area (S1740), and at least one second reflected light is Capturing (S1750) and/or determining a first 3D shape of the object based on at least one first reflected light and at least one second reflected light (S1760 ).
  • one or more first light sources (eg, pattern light source 210) of the device 100 may irradiate one or more first pattern lights (eg, pattern light 212) onto an object.
  • the image sensor 220 may capture one or more first reflected light (eg, reflected light 214) generated by reflecting one or more first pattern lights (eg, pattern light 212) from an object. .
  • the second light source (eg, pattern light source 230) may sequentially irradiate one or more second pattern lights (eg, pattern light 232) having one phase range.
  • the beam splitter 240 and the one or more lenses 250 distribute the light corresponding to each phase of the corresponding phase range to a partial area A of the object.
  • the optical path of the pattern light 232 can be changed.
  • the image sensor 220 receives at least one second reflected light (eg, reflected light 234) generated by reflecting at least one second pattern light (eg, pattern light 232) from a partial area A. You can capture it.
  • step S1760 the processor 310 is based on one or more first reflected light (for example, reflected light 214) and one or more second reflected light (for example, reflected light 234), the first 3D shape of the object (for example, 2nd 3D shape) can be determined.
  • the step of determining a first three-dimensional shape is performed by the processor 310 at least one first reflected light (eg, reflected light 214).
  • a step of determining a second 3D shape (eg, a first 3D shape) of the object based on each of the phase changes from the pattern light (eg, the pattern light 212).
  • the processor 310 derives a phase value of each of one or more second reflected lights (eg, reflected light 234) from the light quantity value of each of the one or more second reflected lights (eg, reflected light 234). It may include steps.
  • the step S1760 may include determining, by the processor 310, an angle of the image plane with respect to the reference plane R based on the phase value.
  • the processor 310 corrects the upper surface of the object represented by the second three-dimensional shape (for example, the first three-dimensional shape) based on the angle of the upper surface, so that the first three-dimensional shape (for example, : A second 3D shape) may be included.
  • determining the angle of the image surface may include determining, by the processor 310, an angle of the image surface with respect to the reference plane R based on the corresponding phase value and related information.
  • the device 100 may further include one or more third light sources (eg, illumination light source 1010).
  • the processor 310 may include at least one first pattern light (eg, one or more first reflected lights (for example, reflected light 214)).
  • the second It may include the step of determining a three-dimensional shape (eg, a first three-dimensional shape).
  • the method 1700 includes: irradiating white light 1110 by a second light source (eg, patterned light source 230); Changing the optical path of the white light 1110 so that the white light 1110 reaches the upper surface of the beam splitter 240 and one or more lenses 250; And/or the image sensor 220 may further include capturing the fourth reflected light (eg, reflected light 1120) generated by reflecting the white light 1110 from the top surface.
  • a second light source eg, patterned light source 230
  • the image sensor 220 may further include capturing the fourth reflected light (eg, reflected light 1120) generated by reflecting the white light 1110 from the top surface.
  • the step of determining the second three-dimensional shape comprises at least one first pattern of one or more first reflected lights (for example, reflected light 214). Based on the phase change from light (for example, pattern light 212) and the change in the amount of light from white light 1110 of fourth reflected light (for example, reflected light 1120), the second three-dimensional shape of the object (for example, It may include the step of determining the first three-dimensional shape).
  • the method 1700 includes, by the processor 310, deriving a reflectance of the upper surface based on a change in the amount of light from the white light 1110 of the fourth reflected light (eg, reflected light 1120); And/or controlling a second light source (eg, pattern light source 230) to sequentially irradiate at least one second pattern light (eg, pattern light 232) when the reflectance of the upper surface is greater than or equal to a preset reference reflectance. It may further include.
  • a second light source eg, pattern light source 230
  • FIG. 18 is a diagram illustrating an embodiment of a method 1800 of determining an angle of an object top surface, which may be performed by the apparatus 1210 according to the present disclosure.
  • a first light source (eg, pattern light source 1230) may sequentially irradiate one or more first pattern lights (eg, pattern light 1232) having a phase range.
  • the beam splitter for example, the beam splitter 1240
  • one or more lenses for example, the lens 1250
  • light corresponding to each phase of the corresponding phase range is transferred to a partial area A of the image surface.
  • the optical path of one or more first pattern lights may be changed to reach the dispersion.
  • the first processor (eg, the processor 1310) from the first device (eg, the device 1220), at least one first pattern light (eg, the pattern light 1232) is a partial area ( First information (eg, information 1270) about at least one first reflected light (eg, reflected light 1234) generated by being reflected from A) may be obtained.
  • the first processor may determine an angle of the upper surface with respect to the reference plane R based on the first information (eg, the information 1270).
  • the step of determining the angle of the top surface may be performed by the first processor (eg, the processor 1310), at least one first reflected light from the light intensity value of each of the one or more first reflected lights (eg, reflected light 1234). (Eg, reflected light 1234) deriving a phase value of each; And/or determining an angle of the image plane with respect to the reference plane R based on the derived phase value.
  • the first processor eg, the processor 1310
  • at least one first reflected light from the light intensity value of each of the one or more first reflected lights eg, reflected light 1234.
  • the method 1800 includes the step of transmitting, by a first processor (eg, processor 1310), second information indicating an angle of the top surface to a first device (eg, device 1220). It may contain more.
  • the second information is that the first device (eg, the device 1220) corrects the upper surface of the object represented by the first 3D shape (eg, the first 3D shape), Can be used to determine the second three-dimensional shape).
  • a first processor e.g., processor 1310
  • a first device e.g., device 1220
  • the method 1800 includes the steps of further irradiating white light by a first light source (eg, pattern light source 1230); And/or the beam splitter (eg, the beam splitter 1240) and one or more lenses (eg, the lens 1250) may further include changing the optical path of the white light so that the white light reaches the upper surface.
  • a first light source eg, pattern light source 1230
  • the beam splitter eg, the beam splitter 1240
  • one or more lenses eg, the lens 1250
  • the method 1800 is that a first processor (e.g., processor 1310) controls the communication interface 1330 to indicate the reflectance of the top surface from the first device (e.g., device 1220). Obtaining fourth information; And/or controlling a first light source (eg, pattern light source 1230) to sequentially irradiate at least one first pattern light (eg, pattern light 1232) when the reflectance of the upper surface is greater than or equal to a preset reference reflectance. It may further include.
  • a first processor e.g., processor 1310 controls the communication interface 1330 to indicate the reflectance of the top surface from the first device (e.g., device 1220).
  • FIG. 19 is a diagram showing an embodiment of a method 1900 of determining a three-dimensional shape of an object, which may be performed by the apparatus 1400 according to the present disclosure.
  • the method 1900 according to an embodiment of the present disclosure includes sequentially irradiating one or more first patterned lights (S1910), capturing one or more first reflected lights (S1920), and at least one phase range.
  • Step of sequentially irradiating the second pattern light (S1930), changing the optical path of the second pattern light so that light corresponding to each phase of the phase range is distributed to a partial area (S1940), at least one second reflected light Capturing (S1950) and/or determining a 3D shape of the object based on one or more first reflected light and one or more second reflected light (S1960).
  • a first light source (eg, pattern light source 1410) may sequentially irradiate one or more first pattern lights (eg, pattern light 1412) to an object.
  • the at least one first image sensor (eg, the image sensor 1420) includes at least one first reflected light generated by reflecting at least one first pattern light (eg, pattern light 1412) from the object. (Example: reflected light (1414)) can be captured.
  • the second light source may sequentially irradiate one or more second pattern lights (eg, pattern light 1432) having one phase range.
  • the beam splitter 1440 and the one or more lenses 1450 are configured such that light corresponding to each phase of the above-described phase range is distributed to and reaches a partial area A of the object upper surface.
  • the optical path of the pattern light (for example, the pattern light 1432) can be changed.
  • the second image sensor eg, the image sensor 1460
  • the second image sensor includes at least one second pattern light generated by reflecting one or more second pattern lights (eg, pattern light 1432) from a partial area A. Reflected light (eg, reflected light 1434) can be captured.
  • step S1960 the processor 1510, based on one or more first reflected light (eg, reflected light 1414) and one or more second reflected light (eg, reflected light 1434), the first three-dimensional shape of the object (Example: 2nd 3D shape) can be determined.
  • the processor 1510 performs a phase change of one or more first reflected lights (eg, reflected light 1414) from one or more first pattern lights (eg, patterned light 1412). Based on, it may include determining a second three-dimensional shape (eg, a first three-dimensional shape) of the object.
  • the step (S1960) may further include deriving a phase value of each of the one or more second reflected lights (eg, reflected light 1434) from the light quantity value of each of the one or more second reflected lights (eg, reflected light 1434). I can.
  • step S1960 may further include determining an angle of the image plane with respect to the reference plane R based on the derived phase value.
  • the upper surface of the object represented by the second three-dimensional shape (eg, a primary three-dimensional shape) is corrected based on the angle of the upper surface, The shape) may further include determining.
  • method 1900 includes: capturing one or more second reflected light (eg, reflected light 1434) by one or more first image sensors (eg, image sensor 1420); And/or at least one second reflected light (eg, reflected light (eg, reflected light) captured by one or more first image sensors (eg, image sensor 1420) and a second image sensor (eg, image sensor 1460) by the processor 1510 1434)), the step of deriving a phase value of each of the at least one second reflected light (eg, the reflected light 1434) may be further included.
  • first image sensors eg, image sensor 1420
  • second image sensor eg, image sensor 1460
  • the method 1900 may include the step of irradiating each of one or more white lights 1612 by one or more third light sources (eg, illumination light source 1610 ).
  • the method 1900 is in which a third image sensor (e.g., image sensor 1620) captures one or more third reflected light (e.g., reflected light 1614) generated by reflecting one or more white light 1612 from an object. It may further include a step.
  • the method 1900 also allows the beam splitter 1440 to cause one or more third reflected lights (e.g., reflected light 1614) to reach a third image sensor (e.g., image sensor 1620).
  • It may further include the step of changing the optical path of the reflected light (1614).
  • the method 1900 allows the processor 1510 to change the amount of light from one or more white lights 1612 of one or more third reflected lights (eg, reflected light 1614) and one or more first reflected lights (eg : Based on each of the phase changes from one or more first pattern lights (eg, pattern light 1412) of the reflected light 1414), determining a second 3D shape (eg, a first 3D shape) of the object It may further include a step.
  • the method 1900 includes: irradiating white light 1632 by a second light source (eg, patterned light source 1430); The beam splitter 1440 and one or more lenses 1450 changing an optical path of the white light 1632 so that the white light 1632 reaches the upper surface; And/or the second image sensor (eg, the image sensor 1460) may further include capturing the fourth reflected light (eg, reflected light 1634) generated by reflecting the white light 1632 from the top surface. .
  • a second light source eg, patterned light source 1430
  • the beam splitter 1440 and one or more lenses 1450 changing an optical path of the white light 1632 so that the white light 1632 reaches the upper surface
  • the second image sensor eg, the image sensor 1460
  • the fourth reflected light eg, reflected light 1634
  • the step of determining the second three-dimensional shape comprises at least one first pattern of one or more first reflected lights (eg, reflected light 1414). Based on the phase change from light (for example, pattern light 1412) and the change in the amount of light from white light 1632 of fourth reflected light (for example, reflected light 1634), the second three-dimensional shape of the object (for example, It may further include determining a first three-dimensional shape).
  • the method 1900 includes, by the processor 1510, deriving a reflectance of the top surface based on a change in the amount of light from the white light 1632 of the fourth reflected light (eg, reflected light 1634); And/or controlling a second light source (eg, pattern light source 1430) to sequentially irradiate at least one second pattern light (eg, pattern light 1432) when the reflectance of the upper surface is greater than or equal to a preset reference reflectance. It may further include.
  • a second light source eg, pattern light source 1430
  • the software may be software for implementing the various embodiments of the present disclosure described above.
  • the software may be inferred from various embodiments of the present disclosure by programmers in the art to which this disclosure belongs.
  • software may be an instruction (eg, code or code segment) or a program that the device can read.
  • the device is a device capable of operating according to a command called from a recording medium, and may be, for example, a computer.
  • the device may be the devices 100, 1210, and 1400 according to embodiments of the present disclosure.
  • the processor of the device may execute a called command, so that components of the device perform a function corresponding to the command.
  • the processor may be one or more processors according to embodiments of the present disclosure.
  • the recording medium may refer to any type of recording medium in which data is stored that can be read by a device.
  • the recording medium may include, for example, ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, or the like.
  • the recording medium may be one or more memories.
  • the recording medium may be implemented in a distributed form such as a computer system connected by a network.
  • the software can be distributed, stored, and executed in a computer system or the like.
  • the recording medium may be a non-transitory recording medium.
  • the non-transitory recording medium refers to a tangible medium irrespective of whether data is semi-permanently or temporarily stored, and does not include a signal propagating in a transient manner.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Power Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Theoretical Computer Science (AREA)
  • Analytical Chemistry (AREA)
  • Mathematical Optimization (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Chemical & Material Sciences (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)

Abstract

본 개시는 대상체의 3차원 형상을 결정하기 위한 장치를 제안한다. 본 개시에 따른 장치는, 상기 대상체로 하나 이상의 제1 패턴광을 순차적으로 조사하는 제1 광원; 상기 하나 이상의 제1 패턴광이 상기 대상체로부터 반사되어 생성된 하나 이상의 제1 반사광을 캡쳐하는 하나 이상의 제1 이미지 센서; 한 위상 범위를 가지는 하나 이상의 제2 패턴광을 순차적으로 조사하는 제2 광원; 상기 위상 범위의 각 위상에 대응하는 광이 상기 대상체의 상면의 일부 영역에 분산하여 도달하도록, 상기 하나 이상의 제2 패턴광의 광로를 변경하는 빔 스플리터 및 하나 이상의 렌즈; 상기 하나 이상의 제2 패턴광이 상기 일부 영역으로부터 반사되어 생성된 하나 이상의 제2 반사광을 캡쳐하는 제2 이미지 센서; 및 상기 제1 광원, 상기 하나 이상의 제1 이미지 센서, 상기 제2 광원 및 상기 제2 이미지 센서와 전기적으로 연결된 프로세서를 포함하고, 상기 프로세서는, 상기 하나 이상의 제1 반사광 및 상기 하나 이상의 제2 반사광에 기초하여, 상기 대상체의 상기 제1 3차원 형상을 결정할 수 있다.

Description

대상체의 3차원 형상을 결정하기 위한 장치 및 방법
본 개시는 대상체의 3차원 형상을 결정하기 위한 기술에 관한 것이다.
기판에 소자(예: 다이(die))를 실장하는 공정에 있어서, 공정이 적절히 수행되었는지에 관한 다양한 검사가 수행될 수 있다. 예를 들어, 소자가 기판 상 적절한 위치에 배치되지 않은 경우 공정 후 기판에 불량을 야기할 수 있기 때문에, 기판 상 소자의 3차원 형상을 파악하는 것이 필요할 수 있다. 본 개시에서, 소자는 전기 회로, 반도체 장치 등 전자적 장치 전반에서 그 구성요소로서 사용되는 부품 내지 칩셋을 의미할 수 있다. 예를 들어, 소자는 코일, 콘덴서, 저항체, 트랜지스터, 다이오드, LED 등을 의미할 수 있다. 본 개시에서 소자는 상술한 예시로 한정되지 아니한다.
소자(즉, 대상체)의 3차원 형상을 결정함에 있어, 특히 소자의 상면이 기판(즉, 기준면)에 대하여 가지는 각도가 검사될 수 있다. 해당 각도는, 소자와 기판 사이의 기울어짐(tilt)이 없는지 여부를 검사하는 데에 활용될 수 있다. 소자의 하면이 기판에 밀착되도록 배치 또는 실장되거나, 기판에 도포된 솔더 또는 솔더볼의 도포 상태에 따라 소자가 기판에 대해 기울어진 상태로 배치 또는 실장된 경우, 기판의 불량을 야기할 수 있기 때문이다.
소자의 3차원 형상 결정에 있어 소자 상면의 기울어짐을 검사하기 위하여, 소자에 조명을 조사하고 그 반사광이 결상되는 위치를 활용해 기울어짐을 검사하는 방법이 활용될 수 있다. 그러나 이 방법은 소자가 경면인 경우, 소자가 작은 각도로만 기울어져도 반사각이 크게 변하므로, 반사광의 결상 위치를 측정하기 위해 많은 공간이 필요하게 되고, 검사 장비의 소형화가 어려워지는 단점이 있을 수 있다. 또한, 소자 상면의 기울어짐을 검사하기 위하여, 소자에 구조광(Structured Light)을 조사하고, 소자 위쪽 공중에 구조광에 의한 회절 무늬를 형성하여, 그 회절 무늬의 위상 변화를 통해 기울어짐을 검사하는 방법이 활용될 수 있다. 그러나 이 방법은 회절 무늬가 공중에 결상되므로 많은 노이즈가 발생하는 단점이 있을 수 있다.
본 개시는 대상체의 3차원 형상을 결정하기 위한 기술을 제공한다.
본 개시의 한 측면으로서, 대상체의 3차원 형상을 결정하기 위한 장치가 제안될 수 있다. 본 개시의 한 측면에 따른 장치는, 상기 대상체로 하나 이상의 제1 패턴광을 순차적으로 조사하는 제1 광원; 상기 하나 이상의 제1 패턴광이 상기 대상체로부터 반사되어 생성된 하나 이상의 제1 반사광을 캡쳐하는 하나 이상의 제1 이미지 센서; 한 위상 범위를 가지는 하나 이상의 제2 패턴광을 순차적으로 조사하는 제2 광원; 상기 위상 범위의 각 위상에 대응하는 광이 상기 대상체의 상면의 일부 영역에 분산하여 도달하도록, 상기 하나 이상의 제2 패턴광의 광로를 변경하는 빔 스플리터 및 하나 이상의 렌즈; 상기 하나 이상의 제2 패턴광이 상기 일부 영역으로부터 반사되어 생성된 하나 이상의 제2 반사광을 캡쳐하는 제2 이미지 센서; 및 상기 제1 광원, 상기 하나 이상의 제1 이미지 센서, 상기 제2 광원 및 상기 제2 이미지 센서와 전기적으로 연결된 프로세서를 포함하고, 상기 프로세서는, 상기 하나 이상의 제1 반사광 및 상기 하나 이상의 제2 반사광에 기초하여, 상기 대상체의 상기 제1 3차원 형상을 결정할 수 있다.
일 실시예에서, 상기 프로세서는, 상기 하나 이상의 제1 반사광의 상기 하나 이상의 제1 패턴광으로부터의 위상 변화 각각에 기초하여, 상기 대상체의 제2 3차원 형상을 결정하고, 상기 하나 이상의 제2 반사광 각각의 광량 값으로부터 상기 하나 이상의 제2 반사광 각각의 위상 값을 도출하고, 상기 위상 값에 기초하여, 상기 기준면에 대한 상기 상면의 각도를 결정하고, 상기 상면의 각도에 기초하여 상기 제2 3차원 형상이 나타내는 상기 대상체의 상면을 보정하여, 상기 대상체의 상기 제1 3차원 형상을 결정할 수 있다.
일 실시예에서, 본 개시에 따른 장치는, 상기 기준면에 대한 상기 상면의 각도 및 상기 하나 이상의 제2 반사광 각각의 위상 값 사이의 관계를 지시하는 연관 정보를 저장하는 메모리를 더 포함하고, 상기 프로세서는, 상기 위상 값 및 상기 연관 정보에 기초하여, 상기 기준면에 대한 상기 상면의 각도를 결정할 수 있다.
일 실시예에서, 상기 하나 이상의 제1 이미지 센서 각각은, 상기 기준면의 상방에서, 상기 대상체로부터 서로 다른 광축을 따라 진행하는 상기 하나 이상의 제1 반사광을 각각 캡쳐하도록 배치될 수 있다.
일 실시예에서, 상기 제2 이미지 센서는, 상기 대상체가 위치한 상기 기준면 상 영역의 수직 상방에서 상기 대상체에 대향하여 배치될 수 있다.
일 실시예에서, 상기 하나 이상의 제1 이미지 센서는 상기 하나 이상의 제2 반사광을 더 캡쳐하고, 상기 프로세서는, 상기 하나 이상의 제1 이미지 센서 및 상기 제2 이미지 센서가 캡쳐한 상기 하나 이상의 제2 반사광에 기초하여, 상기 하나 이상의 제2 반사광 각각의 상기 위상 값을 도출할 수 있다.
일 실시예에서, 본 개시에 따른 장치는, 상기 기준면의 상방에서 상기 대상체를 향하여, 상기 기준면에 대해 하나 이상의 각도로 하나 이상의 단색광을 각각 조사하는 하나 이상의 제3 광원; 및 상기 하나 이상의 단색광이 상기 대상체로부터 반사되어 생성된 하나 이상의 제3 반사광을 캡쳐하는 제3 이미지 센서를 더 포함하고, 상기 빔 스플리터는, 상기 대상체로부터 진행하는 상기 하나 이상의 제3 반사광이 상기 제3 이미지 센서에 도달하도록 상기 하나 이상의 제3 반사광의 광로를 변경하고, 상기 프로세서는, 상기 하나 이상의 제3 반사광의 상기 하나 이상의 단색광으로부터의 광량 변화 각각 및 상기 하나 이상의 제1 반사광의 상기 하나 이상의 제1 패턴광으로부터의 위상 변화 각각에 기초하여, 상기 대상체의 상기 제2 3차원 형상을 결정할 수 있다.
일 실시예에서, 상기 제2 광원은 단색광을 더 조사하고, 상기 빔 스플리터 및 상기 하나 이상의 렌즈는 상기 단색광이 상기 상면에 도달하도록 상기 단색광의 광로를 변경하고, 상기 제2 이미지 센서는 상기 단색광이 상기 상면으로부터 반사되어 생성된 제4 반사광을 캡쳐하고, 상기 프로세서는, 상기 하나 이상의 제1 반사광의 상기 하나 이상의 제1 패턴광으로부터의 위상 변화 각각 및 상기 제4 반사광의 상기 단색광으로부터의 광량 변화에 기초하여, 상기 대상체의 상기 제2 3차원 형상을 결정할 수 있다.
일 실시예에서, 상기 프로세서는, 상기 제4 반사광의 상기 단색광으로부터의 광량 변화에 기초하여, 상기 상면의 반사율을 도출하고, 상기 상면의 반사율이 미리 설정된 기준 반사율 이상인 경우, 상기 하나 이상의 제2 패턴광을 순차적으로 조사하도록 상기 제2 광원을 제어할 수 있다.
일 실시예에서, 상기 하나 이상의 제1 패턴광 각각은, 제1 방향 또는 상기 제1 방향에 수직인 제2 방향으로의 패턴을 가지는 패턴광이 미리 설정된 위상 간격의 정수배로 위상 천이되어 생성된 패턴광이고, 상기 하나 이상의 제2 패턴광 각각은, 상기 제1 방향 또는 상기 제2 방향으로의 패턴을 가지는 패턴광이 미리 설정된 위상 간격의 정수배로 위상 천이되어 생성된 패턴광일 수 있다.
본 개시의 한 측면으로서, 대상체의 3차원 형상을 결정하기 위한 방법이 제안될 수 있다. 본 개시의 한 측면에 따른 방법은, 제1 광원이, 상기 대상체로 하나 이상의 제1 패턴광을 순차적으로 조사하는 단계; 하나 이상의 제1 이미지 센서가, 상기 하나 이상의 제1 패턴광이 상기 대상체로부터 반사되어 생성된 하나 이상의 제1 반사광을 캡쳐하는 단계; 제2 광원이, 한 위상 범위를 가지는 하나 이상의 제2 패턴광을 순차적으로 조사하는 단계; 빔 스플리터 및 하나 이상의 렌즈가, 상기 위상 범위의 각 위상에 대응하는 광이 상기 대상체의 상면의 일부 영역에 분산하여 도달하도록, 상기 하나 이상의 제2 패턴광의 광로를 변경하는 단계; 제2 이미지 센서가, 상기 하나 이상의 제2 패턴광이 상기 일부 영역으로부터 반사되어 생성된 하나 이상의 제2 반사광을 캡쳐하는 단계; 및 프로세서가, 상기 하나 이상의 제1 반사광 및 상기 하나 이상의 제2 반사광에 기초하여, 상기 대상체의 상기 제1 3차원 형상을 결정하는 단계를 포함할 수 있다.
일 실시예에서, 상기 제1 3차원 형상을 결정하는 단계는: 상기 프로세서가, 상기 하나 이상의 제1 반사광의 상기 하나 이상의 제1 패턴광으로부터의 위상 변화 각각에 기초하여, 상기 대상체의 제2 3차원 형상을 결정하는 단계; 상기 프로세서가, 상기 하나 이상의 제2 반사광 각각의 광량 값으로부터 상기 하나 이상의 제2 반사광 각각의 위상 값을 도출하는 단계; 상기 프로세서가, 상기 위상 값에 기초하여, 상기 기준면에 대한 상기 상면의 각도를 결정하는 단계; 및 상기 프로세서가, 상기 상면의 각도에 기초하여 상기 제2 3차원 형상이 나타내는 상기 대상체의 상면을 보정하여, 상기 대상체의 상기 제1 3차원 형상을 결정하는 단계를 포함할 수 있다.
일 실시예에서, 본 개시에 따른 방법은, 상기 제2 광원이 단색광을 조사하는 단계; 상기 빔 스플리터 및 상기 하나 이상의 렌즈가, 상기 단색광이 상기 상면에 도달하도록 상기 단색광의 광로를 변경하는 단계; 및 상기 제2 이미지 센서가, 상기 단색광이 상기 상면으로부터 반사되어 생성된 제4 반사광을 캡쳐하는 단계를 더 포함하고, 상기 제2 3차원 형상을 결정하는 단계는, 상기 프로세서가, 상기 하나 이상의 제1 반사광의 상기 하나 이상의 제1 패턴광으로부터의 위상 변화 각각 및 상기 제4 반사광의 상기 단색광으로부터의 광량 변화에 기초하여, 상기 대상체의 상기 제2 3차원 형상을 결정하는 단계를 포함할 수 있다.
본 개시의 다양한 실시예들에 의하면, 대상체(예: 소자)로부터의 반사광이 가지는 광량을 이용해 대상체 상면의 기울어짐을 효율적으로 측정함으로써, 대상체의 3차원 형상의 결정을 개선할 수 있다. 대상체의 3차원 형상을 통해 전체 기판 실장 공정이 적절히 수행되고 있는지를 검사할 수 있다.
본 개시의 다양한 실시예들에 의하면, 대상체로부터의 반사광의 결상 위치에 기초하여 대상체의 기울어짐을 검사하지 않으므로, 검사 장치의 소형화가 용이해 질 수 있다.
본 개시의 다양한 실시예들에 의하면, 대상체 위쪽 공중에 형성되는 회절 무늬에 기초하여 대상체의 기울어짐을 검사하지 않으므로, 노이즈에 강건한 검사가 수행될 수 있다.
도 1은 본 개시의 일 실시예에 따른 장치(100)를 나타낸 도면이다.
도 2는 본 개시의 일 실시예에 따른, 장치(100)의 동작 과정을 나타낸 도면이다.
도 3은 본 개시의 일 실시예에 따른 장치(100)의 블록도를 나타낸 도면이다.
도 4는 본 개시의 일 실시예에 따른, 패턴광이 대상체에 조사되는 과정을 나타낸 도면이다.
도 5는 본 개시의 일 실시예에 따른, 반사광이 조리개를 통과하는 과정을 나타낸 도면이다.
도 6은 본 개시의 일 실시예에 따른, 반사광이 조리개를 통과하는 과정을 나타낸 도면이다.
도 7은 본 개시의 일 실시예에 따른, 패턴광원에서 조사되는 패턴광의 조리개에서의 모습을 나타낸 도면이다.
도 8은 본 개시의 일 실시예에 따른 연관 정보를 나타낸 도면이다.
도 9는 본 개시의 일 실시예에 따른, 패턴광이 가지는 패턴의 방향을 나타낸 도면이다.
도 10은 본 개시의 일 실시예에 따른, 장치(100)의 조명광을 이용한 검사 과정을 나타낸 도면이다.
도 11은 본 개시의 일 실시예에 따른, 패턴광원이 백색광을 추가적으로 조사하는 과정을 나타낸 도면이다.
도 12는 본 개시의 일 실시예에 따른 장치(1210)를 나타낸 도면이다.
도 13은 본 개시의 일 실시예에 따른 장치(1210)의 블록도를 나타낸 도면이다.
도 14는 본 개시의 일 실시예에 따른 장치(1400)를 나타낸 도면이다.
도 15는 본 개시의 일 실시예에 따른 장치(1400)의 블록도를 나타낸 도면이다.
도 16은 본 개시의 일 실시예에 따른, 장치(1400)의 조명광을 이용한 검사 과정을 나타낸 도면이다.
도 17은 본 개시에 따른 장치(100)에 의해 수행될 수 있는, 대상체의 3차원 형상을 결정하는 방법(1700)의 일 실시예를 나타낸 도면이다.
도 18는 본 개시에 따른 장치(1210)에 의해 수행될 수 있는, 대상체 상면의 각도를 결정하는 방법(1800)의 일 실시예를 나타낸 도면이다.
도 19는 본 개시에 따른 장치(1400)에 의해 수행될 수 있는, 대상체의 3차원 형상을 결정하는 방법(1900)의 일 실시예를 나타낸 도면이다.
본 문서에 기재된 다양한 실시예들은, 본 개시의 기술적 사상을 명확히 설명하기 위한 목적으로 예시된 것이며, 이를 특정한 실시 형태로 한정하려는 것이 아니다. 본 개시의 기술적 사상은, 본 문서에 기재된 각 실시예의 다양한 변경(modifications), 균등물(equivalents), 대체물(alternatives) 및 각 실시예의 전부 또는 일부로부터 선택적으로 조합된 실시예를 포함한다. 또한 본 개시의 기술적 사상의 권리 범위는 이하에 제시되는 다양한 실시예들이나 이에 대한 구체적 설명으로 한정되지 않는다.
기술적이거나 과학적인 용어를 포함해서, 본 문서에서 사용되는 용어들은, 달리 정의되지 않는 한, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 일반적으로 이해되는 의미를 가질 수 있다.
본 문서에서 사용되는 "포함한다", "포함할 수 있다", "구비한다", "구비할 수 있다", "가진다", "가질 수 있다" 등과 같은 표현들은, 대상이 되는 특징(예: 기능, 동작 또는 구성요소 등)이 존재함을 의미하며, 다른 추가적인 특징의 존재를 배제하지 않는다. 즉, 이와 같은 표현들은 다른 실시예를 포함할 가능성을 내포하는 개방형 용어(open-ended terms)로 이해되어야 한다.
본 문서에서 사용되는 단수형의 표현은, 문맥상 다르게 뜻하지 않는 한 복수형의 의미를 포함할 수 있으며, 이는 청구항에 기재된 단수형의 표현에도 마찬가지로 적용된다.
본 문서에서 사용되는 "제1", "제2", 또는 "첫째", "둘째" 등의 표현은, 문맥상 다르게 뜻하지 않는 한, 복수의 동종 대상들을 지칭함에 있어 한 대상을 다른 대상과 구분하기 위해 사용되며, 해당 대상들간의 순서 또는 중요도를 한정하는 것은 아니다.
본 문서에서 사용되는 "A, B, 및 C," "A, B, 또는 C," "A, B, 및/또는 C" 또는 "A, B, 및 C 중 적어도 하나," "A, B, 또는 C 중 적어도 하나," "A, B, 및/또는 C 중 적어도 하나," "A, B, 및 C 중에서 선택된 적어도 하나," "A, B, 또는 C 중에서 선택된 적어도 하나," "A, B, 및/또는 C 중에서 선택된 적어도 하나" 등의 표현은, 각각의 나열된 항목 또는 나열된 항목들의 가능한 모든 조합들을 의미할 수 있다. 예를 들어, "A 및 B 중에서 선택된 적어도 하나"는, (1) A, (2) A 중 적어도 하나, (3) B, (4) B 중 적어도 하나, (5) A 중 적어도 하나 및 B 중 적어도 하나, (6) A 중 적어도 하나 및 B, (7) B 중 적어도 하나 및 A, (8) A 및 B를 모두 지칭할 수 있다.
본 문서에서 사용되는 "부"라는 표현은, 소프트웨어, 또는 FPGA(field-programmable gate array), ASIC(application specific integrated circuit)과 같은 하드웨어 구성요소 및 광학요소 등의 하드웨어 구성요소를 포괄하여 통칭하는 개념일 수 있다. 그러나, "부"는 하드웨어 및 소프트웨어에 한정되는 것은 아니다. "부"는 어드레싱할 수 있는 저장 매체에 저장되어 있도록 구성될 수도 있고, 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 일 실시예에서, "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세서, 함수, 속성, 프로시저, 서브루틴, 프로그램 코드의 세그먼트, 드라이버, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조, 테이블, 어레이 및 변수를 포함할 수 있다.
본 문서에서 사용되는 "~에 기초하여"라는 표현은, 해당 표현이 포함되는 어구 또는 문장에서 기술되는, 결정, 판단의 행위 또는 동작에 영향을 주는 하나 이상의 인자를 기술하는데 사용되고, 이 표현은 해당 결정, 판단의 행위 또는 동작에 영향을 주는 추가적인 인자를 배제하지 않는다.
본 문서에서 사용되는, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "연결되어" 있다거나 "접속되어" 있다는 표현은, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결 또는 접속되는 것뿐 아니라, 새로운 다른 구성요소(예: 제3 구성요소)를 매개로 하여 연결 또는 접속되는 것을 의미할 수 있다.
본 문서에서 사용된 표현 "~하도록 구성된(configured to)"은 문맥에 따라, "~하도록 설정된", "~하는 능력을 가지는", "~하도록 변경된", "~하도록 만들어진", "~를 할 수 있는" 등의 의미를 가질 수 있다. 해당 표현은, "하드웨어적으로 특별히 설계된"의 의미로 제한되지 않으며, 예를 들어 특정 동작을 수행하도록 구성된 프로세서란, 소프트웨어를 실행함으로써 그 특정 동작을 수행할 수 있는 범용 프로세서(generic-purpose processor)를 의미할 수 있다.
본 개시의 다양한 실시예를 설명하기 위하여, 서로 직교하는 X축, Y축 및 Z축을 가지는 직교 좌표계가 정의될 수 있다. 본 문서에서 사용되는, 직교 좌표계의 "X축 방향", "Y축 방향", "Z축 방향" 등의 표현은, 해당 설명에서 특별히 다르게 정의되지 않는 한, 직교 좌표계의 각 축이 뻗어나가는 양쪽 방향을 의미할 수 있다. 또한, 각 축 방향의 앞에 붙는 +부호는, 해당 축 방향으로 뻗어나가는 양쪽 방향 중 어느 한 방향인 양의 방향을 의미할 수 있고, 각 축 방향의 앞에 붙는 -부호는, 해당 축 방향으로 뻗어나가는 양쪽 방향 중 나머지 한 방향인 음의 방향을 의미할 수 있다.
본 문서에서 사용되는 "상방", "상" 등의 방향지시어는, 해당 설명에서 특별히 다르게 정의되지 않는 한, 첨부된 도면에서 양의 Z축 방향을 기준으로 하고, "하방", "하" 등의 방향지시어는 그 반대 방향을 의미한다.
본 개시에서, 기판(substrate)은 반도체 칩, 다이 등의 소자를 실장하는 판 내지 용기로서, 소자와 소자 간의 전기적 신호의 연결 통로의 역할 수행할 수 있다. 기판은 집적 회로 제작 등을 위하여 사용될 수 있고, 실리콘 등의 소재로 생성될 수 있다. 예를 들어 기판은 인쇄 회로 기판(PCB, Printed Circuit Board)일 수 있으며, 실시예에 따라 웨이퍼(wafer) 등으로 불릴 수 있다.
이하, 첨부된 도면들을 참조하여, 본 개시의 다양한 실시예들을 설명한다. 첨부된 도면 및 도면에 대한 설명에서, 동일하거나 실질적으로 동등한(substantially equivalent) 구성요소에는 동일한 참조부호가 부여될 수 있다. 또한, 이하 다양한 실시예들의 설명에 있어서, 동일하거나 대응하는 구성요소를 중복하여 기술하는 것이 생략될 수 있으나, 이는 해당 구성요소가 그 실시예에 포함되지 않는 것을 의미하지는 않는다.
도 1은 본 개시의 일 실시예에 따른 장치(100)를 나타낸 도면이다. 본 개시에 따른 대상체의 3차원 형상을 결정하기 위한 기술은 다양한 실시예에 따른 장치로 구현될 수 있다. 본 개시의 장치(100)는 다양한 검사 방법을 이용해 대상체(예: 소자)의 3차원 형상을 결정할 수 있다. 본 개시에서, 대상체의 형상이란 대상체가 가지는 3차원 공간 상의 형태 및 대상체 표면이 가지는 색상, 질감 등을 모두 포함하는 개념일 수 있다. 일 실시예에서, 장치(100)는 패턴광을 이용한 검사 및/또는 동축 편향측정법(Coaxial deflectometry)을 이용한 검사를 수행할 수 있다. 일 실시예에서, 장치(100)는 조명광을 이용한 검사를 더 수행할 수도 있다.
본 실시예에 있어서, 장치(100)는 패턴광 조사부(110), DFM(Deflectometry) 부(120), 측정부(130) 및/또는 조명광 조사부(140)를 포함할 수 있다. 일 실시예에서, 조명광 조사부(140)는 생략될 수도 있다. 패턴광 조사부(110)는, 패턴광을 이용한 검사를 수행하기 위하여 대상체를 향하여 패턴광을 조사할 수 있다. DFM 부(120)는, 동축 편향측정법을 이용한 검사를 수행하기 위하여 대상체를 향하여 패턴광을 조사할 수 있다. 측정부(130)는, 패턴광 조사부(110) 및 DFM 부(120)에 의해 조사되어 대상체로부터 반사된 반사광을 캡쳐하고, 대상체의 3차원 형상을 결정할 수 있다. 조명광 조사부(140)는, 조명광을 이용한 검사를 수행하기 위하여 대상체를 향하여 조명광을 조사할 수 있다. 조명광은 대상체로부터 반사되어 측정부(130)에 의해 캡쳐되고, 대상체의 3차원 형상을 결정하는 데에 이용될 수 있다. 각 부의 구체적인 동작 및 검사 방법에 대해서는 후술한다.
도 2는 본 개시의 일 실시예에 따른, 장치(100)의 동작 과정을 나타낸 도면이다. 도시된 실시예에 따른 장치(100)는 패턴광을 이용한 검사 방법 및/또는 동축 편향측정법을 이용한 검사 방법을 수행할 수 있다. 장치(100)는 검사 결과에 기초하여 대상체의 3차원 형상을 결정할 수 있다. 결정된 3차원 형상은 수행된 공정의 적절성을 판단하는 데에 사용될 수 있다. 장치(100)가 조명광을 이용해 검사를 수행하는 과정은 추가 실시예로서 후술한다.
본 실시예에서, 하나 이상의 패턴광원(210)이 기준면(R) 상에 위치한 대상체를 향하여 하나 이상의 패턴광(212)을 조사할 수 있다. 하나 이상의 패턴광원(210)은 패턴광 조사부(110)에 속할 수 있다. 하나 이상의 패턴광원(210)은 기준면(R)의 상방에서, 각기 서로 다른 광축을 따라 대상체를 향해 하나 이상의 패턴광(212)을 조사하도록 배치될 수 있다. 일 실시예에서, 하나 이상의 패턴광원(210) 각각은 기준면(R)의 상방에 위치한 가상의 원주 상에 서로 간격을 두고 배치될 수 있다. 하나 이상의 패턴광(212) 각각은 대상체로부터 반사될 수 있다. 대상체가 가지는 형상에 따라, 반사 전후의 패턴광(212)의 위상은 변화될 수 있다. 즉, 패턴광(212)이 대상체에 반사되어 생성된 반사광(214)은, 대응되는 패턴광(212)의 위상과는 다른 위상을 가질 수 있다.
이미지 센서(220)는, 하나 이상의 패턴광(212) 각각이 반사되어 생성된 하나 이상의 반사광(214) 각각을 캡쳐할 수 있다. 이미지 센서(220)는 측정부(130)에 속할 수 있다. 일 실시예에서, 이미지 센서(220)는 대상체가 위치한 기준면(R) 상 영역의 수직 상방에서, 대상체에 대향하여 배치될 수 있다.
장치(100)는 하나 이상의 반사광(214) 각각의 위상 및 하나 이상의 패턴광(212) 각각의 위상에 대한 정보를 획득할 수 있다. 장치(100)는 하나 이상의 반사광(214) 각각의 하나 이상의 패턴광(212) 각각으로부터의 위상 변화에 기초하여, 대상체의 1차 3차원 형상을 결정할 수 있다.
한편, 하나 이상의 패턴광원(210)과 별도로 설치된 패턴광원(230)은 하나 이상의 패턴광(232)을 순차적으로 조사할 수 있다. 패턴광원(230)은 DFM 부(120)에 속할 수 있다. 하나 이상의 패턴광(232) 각각은 동일한 하나의 위상 범위(예: 0 ~ 7×π/4)를 가질 수 있다. 일 실시예에서, 하나 이상의 패턴광(232) 각각은, 전술한 위상 범위 내의 한 패턴광이 미리 설정된 위상 간격(예: π/2)의 정수배로 각각 위상 천이(phase shift)되어 생성된 것일 수 있다.
하나 이상의 패턴광(232)은 렌즈(250) 및/또는 기타 광학요소(예: 거울)들을 거쳐 빔 스플리터(240)로 진행할 수 있다. 일 실시예에서, 패턴광(232)은 조리개(252)를 거쳐 빔 스플리터(240)로 진행할 수 있다. 빔 스플리터(240)는 하나 이상의 패턴광(232)을 반사하여, 대상체를 향하도록 할 수 있다. 이 때, 빔 스플리터(240) 및 하나 이상의 렌즈(250)는, 전술한 위상 범위의 각 위상에 대응하는 광이 대상체 상면의 일부 영역(A)에 분산하여 도달하도록, 하나 이상의 패턴광(232)의 광로를 변경할 수 있다. 즉, 패턴광(232)의 전술한 위상 범위(예: 0 ~ 7×π/4) 중 한 위상(예: 3×π/4)에 해당하는 광이, 전술한 일부 영역(A)에 해당하는 면의 각 점에 각각 도달하도록, 패턴광(232)의 각 위상에 해당하는 광의 광로가 변경(조정)될 수 있다. 빔 스플리터(240) 및 하나 이상의 렌즈(250)는 이러한 광로 변경이 가능할 수 있도록 패턴광(232)의 광 경로 상에 배치될 수 있다. 빔 스플리터(240) 및 하나 이상의 렌즈(250)는 DFM 부(120)에 속할 수 있다.
광 경로가 변경(조정)된 하나 이상의 패턴광(232) 각각은 대상체에 도달할 수 있다. 각 위상에 따른 광이 대상체 상면의 일부 영역(A) 전체에 분산되어 조사되기 때문에, 일부 영역(A)의 각 점에는 패턴광(232)의 평균 광량에 해당하는 광이 도달할 수 있다. 일부 영역(A)에 도달한 하나 이상의 패턴광(232) 각각은 일부 영역(A)으로부터 반사될 수 있다. 패턴광(232)이 반사된 광(이하, 반사광(234))은 렌즈(250) 및 빔 스플리터(240)를 차례로 투과할 수 있다. 일 실시예에서, 반사광(234)은 조리개(262)를 통과하고, 필요에 따라 추가적으로 배치된 렌즈(260)를 통과하여 이미지 센서(220)에 도달할 수 있다. 이미지 센서(220)는 도달한 하나 이상의 반사광(234) 각각을 캡쳐할 수 있다.
대상체 상면의 일부 영역(A)이 기준면(R)에 대하여 기울어지면, 일부 영역(A)으로부터 반사된 광 중 일부만이 조리개(262)를 통과하여 이미지 센서(220)로 입력될 수 있다. 즉, 조리개(252)는 패턴광(232)을 빔 스플리터(240)로 통과시키고, 조리개(262)는 일부 영역(A)으로부터 진행되는 반사광(234)을 이미지 센서로 통과시킨다. 따라서, 이미지 센서(220)가 캡쳐하는 반사광(234)의 광량 값은, 조리개(252)를 통과하고 일부 영역(A)에 의해 반사되어 다시 조리개(262)를 통과하는 광의 광량에 따라 결정될 수 있다. 이 때, 이미지 센서(220)에 의해 캡쳐된 광은, 처음에 조사된 패턴광(232)의 전술한 위상 범위(예: 0 ~ 7×π/4) 중 일부 위상 범위(예: 3×π/4 ~ 5×π/4)에 해당하는 광일 수 있다. 즉, 대상체 상면 내지 일부 영역(A)이 기준면(R)에 대해 기울어진 정도에 따라, 조리개(262)를 통과하여 이미지 센서(220)에 의해 캡쳐되는 광량이 변화할 수 있다. 이러한 원리를 이용하면, 캡쳐되는 반사광의 광량에 기초해 반사면의 기울어진 정도를 도출해 낼 수 있는데, 본 개시에서는 이를 편향측정법(Deflectometry)이라 할 수 있다. 특히 도시된 실시예와 같이, 대상체로 입사되는 패턴광(232)과 대상체로부터 반사되는 반사광(234)이 대략(substantially) 같은 광축을 따라 진행하는 경우에 있어, 편향측정법은 동축 편향측정법(Coaxial deflectometry)이라 불릴 수 있다. 편향측정법의 구체적인 원리에 대해서는 후술한다.
편향측정법에 따라, 장치(100)는 하나 이상의 반사광(234) 각각의 광량 값에 기초하여, 기준면(R)에 대한 대상체의 상면의 각도를 결정할 수 있다. 장치(100)는 결정한 상면의 각도를 이용해 앞서 결정한 1차 3차원 형상을 보정하여, 2차 3차원 형상을 결정할 수 있다. 즉, 장치(100)는 1차 3차원 형상이 나타내는 상면을, 편향측정법에 따라 측정한 상면의 각도에 대한 정보를 이용해 수정하여, 보완된 새 3차원 형상, 즉 2차 3차원 형상을 도출할 수 있다. 일 실시예에서, 해당 수정은, 1차 3차원 형상이 나타내는 상면이 가지는 각도를 편향측정법에 따라 도출된 상면의 각도로 대체(override)하는 방법으로 수행될 수 있다. 일 실시예에서, 해당 수정은 1차 3차원 형상이 나타내는 상면의 각도와 편향측정법에 따라 도출된 상면의 각도의 평균값을, 2차 3차원 형상이 나타내는 상면의 각도로 결정하는 방법으로 수행될 수도 있다. 2차 3차원 형상은 대상체에 대한 최종적 3차원 형상으로서, 실장 등의 공정에 대한 적절성을 판단하는데 사용될 수 있다
도 3은 본 개시의 일 실시예에 따른 장치(100)의 블록도를 나타낸 도면이다. 본 실시예에서, 장치(100)는 하나 이상의 패턴광원(210), 이미지 센서(220), 패턴광원(230), 빔 스플리터(240), 하나 이상의 렌즈(250), 하나 이상의 프로세서(310) 및/또는 하나 이상의 메모리(320)를 포함할 수 있다. 일 실시예에서, 장치(100)의 이러한 구성요소들 중 적어도 하나가 생략되거나, 다른 구성요소가 장치(100)에 추가될 수 있다. 일 실시예에서, 추가적으로(additionally) 또는 대체적으로(alternatively), 일부의 구성요소들이 통합되어 구현되거나, 단수 또는 복수의 개체로 구현될 수 있다. 본 개시에서, 하나 이상의 프로세서는 프로세서라고 표현될 수 있다. 프로세서라는 표현은, 문맥상 명백히 다르게 표현하지 않는 이상, 하나 또는 그 이상의 프로세서의 집합을 의미할 수 있다. 본 개시에서, 하나 이상의 메모리는 메모리라고 표현될 수 있다. 메모리라는 표현은, 문맥상 명백히 다르게 표현하지 않는 이상, 하나 또는 그 이상의 메모리의 집합을 의미할 수 있다. 일 실시예에서, 장치(100) 내, 외부의 구성요소들 중 적어도 일부의 구성요소들은 버스, GPIO(general purpose input/output), SPI(serial peripheral interface) 또는 MIPI(mobile industry processor interface) 등을 통해 서로 연결되어, 데이터 및/또는 시그널을 주고 받을 수 있다.
하나 이상의 패턴광원(210)의 각각은, 전술한 바와 같이 하나 이상의 패턴광(212)을 조사할 수 있다. 패턴광원(210)은 다양한 방식으로 패턴광(212)을 생성할 수 있다. 예를 들어, 패턴광(212)의 패턴은 디지털 방식에 의해 형성되거나, 아날로그 방식에 의해 형성될 수 있다. 디지털 방식에는 LCD(Liquid Crystal Display)를 이용한 액정 투과 방식, LCoS((Liquid Crystal on Silicon))를 이용한 액정 반사 방식, DMD(Digital Micromirror Device) 또는 DLP(Digital Light Processing)를 이용한 미러(mirror) 반사 방식이 있을 수 있다. 아날로그 방식에는 주기 패턴, 그래디언트(gradient) 패턴, 격자 패턴 등의 패턴을 이용하여 패턴을 형성하는 방식이 있을 수 있다. 전술한 바와 같이, 하나 이상의 패턴광원(210) 각각은 기준면(R)의 상방에서 서로 다른 광축을 따라 패턴광(212)을 조사하도록 배치될 수 있다. 일 실시예에서, 4개의 패턴광원(210)이 가상의 원주 상에서 약 90도의 간격으로 떨어져 배치될 수 있다(4-way). 일 실시예에서, 8개의 패턴광원(210)이 가상의 원주 상에서 약 45도의 간격으로 떨어져 배치될 수도 있다(8-way). 일 실시예에서, 패턴광원(210) 각각은 4개의 버킷(bucket)으로 위상 천이된 하나 이상의 패턴광(212)을 순차적으로 조사할 수 있다. 일 실시예에서, 하나 이상의 패턴광(212) 각각은, 한 패턴광이 미리 설정된 위상 간격(예: π/2)의 정수배로 각각 위상 천이되어 생성된 것일 수 있다. 예를 들어 8개의 패턴광원(210)이 사용되고 4개의 버킷으로 위상 천이된 패턴광(212)이 순차적으로 조사된다면, 총 32(8Х4)개의 패턴광(212)이 대상체로 조사될 수 있다. 이에 따라 총 32개의 이미지가 캡쳐되고, 32개의 위상 변화에 대한 정보가 대상체의 1차 3차원 형상을 결정하는 데에 사용될 수 있다.
이미지 센서(220)는 전술한 바와 같이 하나 이상의 반사광(214) 및 반사광(234)을 각각 캡쳐할 수 있다. 예를 들어, 이미지 센서(220)는 CCD(Charge Coupled Device) 또는 CMOS(Complimentary Metal Oxide Semiconductor) 센서 등으로 구현될 수 있다.
패턴광원(230)은, 패턴광원(210)과 마찬가지로, 다양한 방식으로 패턴광(232)을 생성해 조사할 수 있다. 일 실시예에서, 패턴광원(230) 각각은 4개의 버킷으로 위상 천이된 하나 이상의 패턴광(232)을 순차적으로 조사할 수 있다. 일 실시예에서, 한 방향(이하, w축 방향)으로 형성된 패턴광을 4개의 버킷으로 위상 천이한 패턴광(232) 및 w축 방향에 수직인 방향(이하, v축 방향)으로 형성된 패턴광을 4개의 버킷으로 위상 천이한 패턴광(232)을 사용한다면, 총 8(4+4)개의 패턴광(232)이 순차적으로 조사될 수 있다. 이에 따라 총 8개의 이미지가 캡쳐되어, 대상체 상면의 각도를 결정하는 데에 사용될 수 있다.
빔 스플리터(240), 하나 이상의 렌즈(250) 및/또는 기타 전술한 광학요소는 본 개시의 기술분야에서 알려진 방식에 따른 광학소자들에 의해 다양하게 구현될 수 있다. 일 실시예에서, 빔 스플리터(240) 및/또는 하나 이상의 렌즈(250)는 편향측정법을 위해 전술한 패턴광(232)의 광로 변경을 수행할 수 있도록 배치될 수 있다. 또는 일 실시예에서, 빔 스플리터(240) 및/또는 하나 이상의 렌즈(250)가 해당 광로 변경을 수행할 수 있도록, 프로세서(310)가 그 위치, 배치 및 관련 파라미터를 조정할 수도 있다. 일 실시예에서, 장치(100)는 전술한 조리개(252) 및 조리개(262) 역시 포함할 수 있다.
프로세서(310)는 소프트웨어(예: 명령, 프로그램 등)를 구동하여 프로세서(310)에 연결된 장치(100)의 적어도 하나의 구성요소를 제어할 수 있다. 또한 프로세서(310)는 본 개시와 관련된 다양한 연산, 처리, 데이터 생성, 가공 등의 동작을 수행할 수 있다. 또한 프로세서(310)는 데이터 등을 메모리(320)로부터 로드하거나, 메모리(320)에 저장할 수 있다. 일 실시예에서, 프로세서(310)는 하나 이상의 반사광(214) 각각의 하나 이상의 패턴광(212) 각각으로부터의 위상 변화에 기초하여, 대상체의 1차 3차원 형상을 결정할 수 있다. 또한 프로세서(310)는 편향측정법에 따라, 하나 이상의 반사광(234) 각각의 광량 값에 기초하여, 기준면(R)에 대한 대상체의 상면의 각도를 결정할 수 있다. 프로세서(310)는 결정한 상면의 각도를 이용해 1차 3차원 형상을 보정하여 2차(최종) 3차원 형상을 결정할 수 있다.
메모리(320)는 다양한 데이터를 저장할 수 있다. 메모리(320)에 저장되는 데이터는, 장치(100)의 적어도 하나의 구성요소에 의해 획득되거나, 처리되거나, 사용되는 데이터로서, 소프트웨어(예: 명령, 프로그램 등)를 포함할 수 있다. 메모리(320)는 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 본 개시에서, 명령 내지 프로그램은 메모리(320)에 저장되는 소프트웨어로서, 장치(100)의 리소스를 제어하기 위한 운영체제, 어플리케이션 및/또는 어플리케이션이 장치(100)의 리소스들을 활용할 수 있도록 다양한 기능을 어플리케이션에 제공하는 미들 웨어 등을 포함할 수 있다. 일 실시예에서, 메모리(320)는 프로세서(310)에 의한 실행 시 프로세서(310)가 연산을 수행하도록 하는 명령들을 저장할 수 있다.
일 실시예에서, 장치(100)는 통신 인터페이스(도시되지 않음)를 더 포함할 수 있다. 통신 인터페이스는, 장치(100)와 서버 또는 장치(100)와 다른 장치 간의 무선 또는 유선 통신을 수행할 수 있다. 예를 들어, 통신 인터페이스는 eMBB(enhanced Mobile Broadband), URLLC(Ultra Reliable Low-Latency Communications), MMTC(Massive Machine Type Communications), LTE(Long-Term Evolution), LTE-A(LTE Advance), NR(New Radio), UMTS(Universal Mobile Telecommunications System), GSM(Global System for Mobile communications), CDMA(Code Division Multiple Access), WCDMA(Wideband CDMA), WiBro(Wireless Broadband), WiFi(Wireless Fidelity), 블루투스(Bluetooth), NFC(Near Field Communication), GPS(Global Positioning System) 또는 GNSS(Global Navigation Satellite System) 등의 방식에 따른 무선 통신을 수행할 수 있다. 예를 들어, 통신 인터페이스는 USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), RS-232(Recommended Standard-232) 또는 POTS(Plain Old Telephone Service) 등의 방식에 따른 유선 통신을 수행할 수 있다. 일 실시예에서, 프로세서(310)는 통신 인터페이스를 제어하여 서버로부터 본 개시에 따른 기술을 구현하는데 필요한 정보를 획득할 수 있다. 서버로부터 획득된 정보는 메모리(320)에 저장될 수 있다. 일 실시예에서, 서버로부터 획득되는 정보는 기판 내지 대상체에 대한 정보, 기준면(R)에 대한 정보, 후술할 연관 정보 등을 포함할 수 있다.
도 4 내지 도 8은 전술한 동축 편향측정법의 원리를 설명하기 위한 도면이다. 도 4는 본 개시의 일 실시예에 따른, 패턴광(232)이 대상체에 조사되는 과정을 나타낸 도면이다. 전술한 바와 같이, 하나 이상의 패턴광(232) 각각에 있어서, 해당 위상 범위(예: 0 ~ 7×π/4)의 각 위상에 대응하는 광이 대상체 상면의 일부 영역(A)에 분산하여 도달하도록, 하나 이상의 패턴광(232) 각각의 광로를 변경될 수 있다. 이하, 하나의 패턴광(232)을 기준으로 설명한다.
전술한 바와 같이, 패턴광원(230)은 한 위상 범위에 해당하는 패턴광(232)을 조사할 수 있다. 전술한 위상 범위 내의 임의의 세 위상에 해당하는 광의 광로(410, 420, 430)가 도시되었다. 각 광은 하나 이상의 렌즈(250), 조리개(252) 및/또는 빔 스플리터(240)를 거쳐 대상체 상면의 일부 영역(A)에 조사될 수 있다. 전술한 바와 같이, 한 위상에 해당하는 광은 일부 영역(A)의 전체에 분산되어 조사될 수 있다. 즉, 한 위상에 해당하는 광(410)은 일부 영역(A)에 해당하는 면의 각 점에 도달하도록 조사될 수 있다. 패턴광(232)의 다른 위상에 해당하는 광(420, 430 등)도 같은 방식으로 대상체에 조사될 수 있다. 이에 따라 대상체 상 일부 영역(A)의 한 점에는, 전술한 위상 범위의 위상 각각에 해당하는 광이 모두 조사될 수 있다. 예를 들어, 도시된 실시예에서 광(410, 420, 430)은 대상체 상 일부 영역(A)의 각 점에 모두 도달한다. 따라서, 대상체의 일부 영역(A) 전체에는, 전술한 위상 범위에 해당하는 패턴광(232)의 평균 광량을 광량으로 가지는 광이 조사될 수 있다.
패턴광(232)이 일부 영역(A)으로부터 반사되어 생성된 반사광(234)은 조리개(262)를 통과하여 이미지 센서(220)에 입력될 수 있다. 전술한 바와 같이, 대상체 상면이 기준면(R)에 대하여 기울어진 경우, 반사광(234)의 일부만 조리개(262)를 통과할 수 있다. 조리개(262)를 통과하는 반사광의 일부는, 패턴광원(230)으로부터 조사된 패턴광(232)의 위상 범위 중 일부 위상 범위에 해당할 수 있다. 이 일부 위상 범위에 해당하는 광들의 평균 광량이 결과적으로 이미지 센서(220)에 의해 캡쳐될 수 있다.
도시된 실시예(440)에서, 기준면(R)에 대한 대상체 상면의 각도는 0도일 수 있다. 이 경우, 일부 영역(A)의 한 점에서 반사된 광 대부분은 조리개(262)를 통과하고, 이미지 센서(220)에 의해 캡쳐될 수 있다. 즉, 실시예(440)에서 A, A`로 표시된 위상 구간에 해당하는 광이 일부 영역(A)으로부터 반사되고, 조리개(262)를 통과하여 이미지 센서(220)로 입력될 수 있다.
도시된 실시예(450)에서, 대상체는 기준면(R)에 대하여 3도의 각도로 기울어져 있을 수 있다. 이 경우, 일부 영역(A)의 한 점에서 반사된 광 중 일부만이 조리개(262)를 통과하고, 이미지 센서(220)에 의해 캡쳐될 수 있다. 구체적으로, 조리개(252)가 통과시키는 패턴광(232)의 위상 범위가 직선(451)이 나타내는 구간이라면, 조리개(262)가 통과시키는 반사광(234)의 위상 범위는 직선(452)이 나타내는 구간에 해당할 수 있다. 따라서, 조리개(252) 및 조리개(262)를 모두 통과하는 광로를 가지는 광은, 도시된 A, A`로 표시된 위상 구간에 해당하는 광일 수 있다. 이 경우 이미지 센서(220)가 획득하는 반사광(234)의 광량은 A, A`로 표시된 위상 구간에 해당하는 광들의 평균 광량일 수 있다.
도시된 실시예(460)에서, 대상체는 기준면(R)에 대하여 5도의 각도로 기울어져 있을 수 있다. 이 경우, 일부 영역(A)의 한 점에서 반사된 광 대부분은 조리개(262)를 통과하지 못할 수 있다. 이에 따라 이미지 센서(220)는 반사광(234)을 캡쳐하지 못할 수 있다. 전술한 실시예(440, 450, 460)에서의 대상체 상면의 각도는 설명을 위해 선택한 예시적인 값일 수 있다.
즉, 대상체 상면의 각도에 따라 조리개(252) 및 조리개(262)를 모두 통과하여 이미지 센서(220)로 입력되는 광량이 변화할 수 있다. 변화하는 반사광(234)의 광량을 이용하여, 장치(100)는 대상체 상면의 각도를 결정(도출)할 수 있다.
도 5는 본 개시의 일 실시예에 따른, 반사광(234)이 조리개(262)를 통과하는 과정을 나타낸 도면이다. 도시된 실시예는 전술한 실시예(450)와 같이, 대상체 상면이 기준면(R)에 대하여 소정의 각도로 기울어진 경우를 나타낼 수 있다.
마찬가지로, 한 위상 범위를 가지는 패턴광(232)이 패턴광원(230)으로부터 조사되고, 대상체 상면의 일부 영역(A)에 분산되어 조사될 수 있다. 대상체 상면이 기울어져 있는 바, 반사광(234)의 일부만이 조리개(262)을 통과하여 이미지 센서(220)로 입력될 수 있다. 일부 영역(A)으로 입사된 광(410, 420, 430 등)의 반사광 중, 굵은 실선으로 나타나는 범위 내에서 광로가 진행되는 반사광들만이 조리개(262)을 통과하여 이미지 센서(220)로 입력될 수 있다.
이미지 센서(220)로 입력되는 반사광의 일부는, 패턴광(232)의 전술한 위상 범위 중 일부 범위에 해당하는 광이 대상체 상 일부 영역(A)으로부터 반사된 것일 수 있다. 결국 이미지 센서(220)가 획득하는 반사광(234)의 광량은, 패턴광(232)의 전술한 일부 범위에 해당하는 광들의 평균 광량일 수 있다.
도 6은 본 개시의 일 실시예에 따른, 반사광(234)이 조리개(262)를 통과하는 과정을 나타낸 도면이다. 도시된 실시예에 있어서, 대상체 상면의 일부 영역(A) 중 일부(A1)는 기준면(R)에 대하여 기울어지지 않았고, 다른 일부(A2)는 기울어진 상태일 수 있다.
기울어지지 않은 지점(A1)으로부터 반사된 광은, 전술한 실시예(440)과 같이, 조리개(262)를 통과하여 이미지 센서(220)의 대응되는 지점으로 입력될 수 있다(굵은 실선). 이미지 센서(220)의 해당 지점은 패턴광원(230)에서 조사된 전술한 위상 범위에 해당하는 광들의 평균 광량을 입력받을 수 있다. 기울어진 지점(A2)으로부터 반사된 광은, 전술한 실시예(450)과 같이, 그 일부만이 조리개(262)를 통과하여 이미지 센서(220)로 입력될 수 있다(굵은 점선). 이미지 센서(220)의 해당 지점은 패턴광원(230)에서 조사된 전술한 위상 범위 중 일부의 범위에 해당하는 광들만의 평균 광량을 입력받을 수 있다. 이미지 센서(220)의 각 지점(픽셀) 별로 입력된 평균 광량 값들을 각각 이용하여, 대상체 상 일부 영역(A)의 각 지점에서의 기울기 값이 획득될 수 있다.
도 7은 본 개시의 일 실시예에 따른, 패턴광원(230)에서 조사되는 패턴광(232)의 조리개(252)에서의 모습을 나타낸 도면이다. 한 패턴광(232)의 패턴은 주기를 가질 수 있다. 한 주기에 해당하는 위상을 2π라고할 때, 0에서 π/2까지의 구간 동안 패턴광의 패턴은 점점 밝아질 수 있고, π/2에서 3×π/2의 구간 동안 패턴광의 패턴은 점점 어두워질 수 있고, 3×π/2에서 2π의 구간 동안 패턴광의 패턴은 다시 점점 밝아질 수 있다. 전술한 바와 같이, 패턴광원(230)은 한 위상 범위를 가지는 패턴광(232)을 조사할 수 있다. 이 위상 범위는 필요에 따라 적절히 설정될 수 있다. 일 실시예에서, 위상 범위는 패턴의 한 주기 또는 한 주기의 배수가 되지 않도록 설정될 수 있다. 즉, 위상 범위는 0, 2π, 4π, ..., 2nπ에 해당하는 위상 범위가 아닌 범위로 설정될 수 있다. 이는 일부 영역(A)에는 패턴광(232)의 평균 광량에 해당하는 광이 조사되므로, 한 주기 또는 한 주기의 배수가 되는 위상 범위의 패턴광이 사용되는 경우, 패턴광의 각 위상에 해당하는 광이 서로 모두 상쇄될 수 있기 때문이다. 또한, 일 실시예에서, 위상 범위는 패턴광의 반 주기에 해당하는 위상 범위보다 크고, 패턴광의 한 주기에 해당하는 위상 범위보다 작게 설정될 수 있다. 또한, 일 실시예에서, 위상 범위는 패턴광의 (N+1/2) 주기에 해당하는 위상 범위보다 크고(N은 자연수), 패턴광의 (N+1) 주기에 해당하는 위상 범위 보다 작게 설정될 수 있다. 이러한 위상 범위는 반사광의 측정을 용이하게 하기 위하여, 패턴광의 전체 광량 자체를 늘려야 필요가 있을 때 설정될 수 있다.
하나 이상의 패턴광(232)의 각각은, 전술한 위상 범위에 해당하는 한 패턴광이 미리 설정된 위상 간격(예: π/2)의 정수배로 각각 위상 천이되어 생성된 것일 수 있다. 일 실시예에서, 전술한 위상 간격은 0보다 크고 π보다 작은 값으로 설정될 수 있다. 하나 이상의 패턴광(232) 각각은 0번째 버킷, 첫 번째 버킷, 두 번째 버킷 및 세 번째 버킷, 즉 4개의 버킷으로 불릴 수 있다. 위상 천이되어 생성되는 패턴광(232) 각각 역시 전술한 위상 범위(α)를 가질 수 있다. 즉, 예를 들어, 패턴광(232) 각각은 0부터 α의 위상 범위, π/2로부터 π/2+α의 위상 범위, π로부터 π+α의 위상 범위, 3×π/2로부터 3×π/2+α의 위상 범위를 가질 수 있다. 각 버킷 별 패턴광(232)은, 조리개(252)에서는 도시된 패턴(710)과 같이 나타날 수 있다. 일 실시예에서, 조리개(252)를 통과하게 되는 패턴광의 영역은 원형(720)일 수 있고, 이에 따라 패턴광원(230)에서의 사각형 형태의 패턴광 중, 해당 원형 영역에 해당하는 광이 대상체로 조사될 수 있다. 일 실시예에서, 장치(100)는 패턴광(232) 하나만을 이용해 대상체 상면의 각도를 결정할 수도 있다. 그러나, 복수의 패턴광을 사용하여 대상체 상면의 각도를 측정함으로써, 대상체 상면의 재질에 따른 오차 등 각종 측정 오차를 줄일 수 있다.
패턴광(232)이 패턴광원(230)에서 가지는 전체 광량 값은 아래의 수식과 같이 계산될 수 있다.
Figure PCTKR2020008463-appb-img-000001
I o는 패턴광(232)의 패턴이 가지는 정현파 그래프의 진폭을 결정하는 상수이고, I o는 패턴이 가지는 정현파 그래프의 오프셋을 결정하는 상수일 수 있다. 패턴광원(230)에서의 패턴광(232)을 위상 범위에서(α에서 β) 적분하여, 전체 광량 값(I LCoS)가 도출될 수 있다.
도 8은 본 개시의 일 실시예에 따른 연관 정보를 나타낸 도면이다. 전술한 바와 같이, 장치(100)는 하나 이상의 반사광(234) 각각의 광량 값에 기초하여, 기준면(R)에 대한 대상체 상면의 각도를 결정할 수 있다. 장치(100)는 반사광(234)의 광량 값으로부터 반사광(234)의 위상 값을 도출하고, 도출된 위상 값을 연관 정보와 대비하여 대상체 상면의 각도를 결정할 수 있다.
본 실시예에서, 프로세서(310)는 하나 이상의 반사광(234) 각각의 광량 값으로부터, 하나 이상의 반사광(234) 각각의 위상 값을 도출할 수 있다. 한 패턴광(232)이 대상체의 일부 영역(A)으로부터 반사되어 이미지 센서(220)에 의해 캡쳐될 때, 그 반사광의 광량 값(I n)은 다음 수식과 같이 나타날 수 있다.
Figure PCTKR2020008463-appb-img-000002
A와 B는 각각 전술한 I o와 I o에 대응될 수 있다. φ(x, y)는 일부 영역(A)의 한 점(x, y)으로부터 반사된 반사광이 가지는 위상 값일 수 있다. α(t)는 패턴광(232)이 가지는, 전술한 위상 천이량을 나타낼 수 있다. 예를 들어, π/2의 위상 간격으로 위상 천이되어 생성된 복수의 패턴광(232) 각각(즉 4개의 버킷)이, 일부 영역(A)으로부터 반사되어 생성된 반사광의 광량 값(I 1, I 2, I 3, I 4)은 다음 수학식 3과 같이 나타날 수 있다. 수학식 3은 수학식 2에 각각의 위상 천이량 α(t)을 대입하여 정리한 것일 수 있다.
Figure PCTKR2020008463-appb-img-000003
전술한 바와 같이, 이미지 센서(220)는 패턴광(232)의 위상 범위 중 일부 범위에 해당하는 광의 평균 광량을 가진 광을 캡쳐할 수 있다. 여기서 일부 범위에 해당하는 광은, 대상체 상면이 가지는 각도 및/또는 어느 버킷에 따른 패턴광(232)이 조사되었는지에 따라 달라질 수 있다. 즉, 같은 각도로 기울어진 대상체라고 해도, 조사된 패턴광(232)이 얼마만큼 위상 천이되어 있는지에 따라, 전술한 일부 범위에 해당하는 광의 구성이 달라질 수 있다. 그 각각의 버킷에 대한 반사광의 광량이 전술한 I 1, I 2, I 3, I 4일 수 있다.
각 반사광의 광량 값(I 1, I 2, I 3, I 4)은 이미지 센서(220)에 의해서 측정될 수 있는 값이다. A, B 및 φ는 전술한 I 1, I 2, I 3, I 4에 대한 4개의 등식을 이용하여 도출될 수 있다. 미지수가 3개이므로, 적어도 3개 이상의 등식이 필요하며, 따라서 서로 다른 3개 이상의 패턴광(232)을 통한 측정이 적어도 3번 수행되어야 할 수 있다. 이에 따라 전술한 수학식 3을 정리하면 반사광의 위상 값 φ를 다음 수학식 4를 도출해 낼 수 있다.
Figure PCTKR2020008463-appb-img-000004
이와 같은 과정을 통해 하나 이상의 반사광(234)의 광량 값으로부터 하나 이상의 반사광(234)의 위상 값이 각각 도출될 수 있다. 이 도출 과정은 프로세서(310)에 의해 수행될 수 있다.
일 실시예에서, 장치(100)의 메모리(320)는 연관 정보를 더 저장할 수 있다. 연관 정보는, 기준면(R)에 대한 대상체 상면의 각도 및 반사광(234)의 위상 값 사이의 관계를 지시할 수 있다. 도시된 연관 정보가 나타내는 수치 값은 예시적인 값이며, 실시예에 따라 연관 정보의 값은 변경될 수 있다. 연관 정보가 나타내는 위상 값과 대상체의 기울어진 각도 사이의 관계는, 측정 및 계산을 통해 데이터 베이스화되어 메모리(220)에 저장된 것일 수 있다.
도시된 바와 같이, 연관 정보는 대상체의 기울어진 각도, 해당 각도 별로 측정된 각 버킷 별 반사광의 광량 값(I 1, I 2, I 3, I 4) 및 측정된 광량 값을 통해 도출된 반사광의 위상 값에 대한 정보를 포함할 수 있다. 예를 들어 대상체의 기울어진 각도가 1도인 경우, 측정된 각 버킷 별 반사광의 광량 값(I 1, I 2, I 3, I 4)은 각각 239.50, 145.67, 132.41, 226.34일 수 있다. 이 광량 값을 통해 도출한 위상 값은 37.02도 일 수 있다. 일 실시예에서, 연관 정보는 전술한 수학식 3의 A, B의 값 역시 포함할 수 있다.
프로세서(310)는 반사광(234)의 위상 값 및 연관 정보에 기초하여, 기준면(R)에 대한 대상체 상면의 각도를 결정할 수 있다. 프로세서(310)는 결정된 상면의 각도를 이용해 1차 3차원 형상이 나타내는 상면을 수정하여, 보완된 2차(최종) 3차원 형상을 결정할 수 있다.
도 9는 본 개시의 일 실시예에 따른, 패턴광(212, 232)이 가지는 패턴의 방향을 나타낸 도면이다. 일 실시예에서, 패턴광원(210, 230)은 사각 면 상에 패턴을 가지는 패턴광(212, 232)을 생성할 수 있다. 사각형의 한 변에 해당하는 축을 w축, 다른 한 변에 해당하고 w축에 수직인 축을 v축이라고 할 때, 패턴광(212, 232)의 패턴은 w축 방향 또는 v축 방향으로 형성될 수 있다. 일 실시예에서, 하나 이상의 패턴광(212, 232) 각각은 w축 방향 또는 w축에 수직인 v축 방향으로의 패턴을 가질 수 있다. 일 실시예에서, 버킷 별로 패턴광(212, 232)의 패턴 방향이 다르게 설정될 수 있다. 일 실시예에서, 각 축 방향으로 형성된 복수의 패턴을 사용함으로써, 대상체의 3차원 형상을 결정하는 데에 오차를 줄일 수 있다.
도 10은 본 개시의 일 실시예에 따른, 장치(100)의 조명광을 이용한 검사 과정을 나타낸 도면이다. 전술한 장치(100)의 구성요소 중 일부는 임의로 생략되었다. 일 실시예에서, 장치(100)는 조명광을 이용한 검사를 더 수행할 수 있다. 장치(100)는 전술한 패턴광을 이용한 검사 결과 외에도 조명광을 이용한 검사 결과를 추가로 반영하여, 대상체의 1차 3차원 형상을 결정할 수 있다.
본 실시예에서, 장치(100)는 하나 이상의 조명광원(1010)을 더 포함할 수 있다. 조명광원(1010)은 조명광 조사부(140)에 속할 수 있다. 조명광원(1010) 각각은 기준면(R)에 위치한 대상체를 향하여 조명광(1020)을 조사할 수 있다. 일 실시예에서, 하나의 조명광원(1010)은 원주 상에 소정 간격을 두고 서로 이격되어 배치된 복수의 조명광원(예: LED 조명)을 포함하는 형태로 구현될 수 있다. 해당 원주는 기준면(R)에 평행하게 배치될 수 있다. 일 실시예에서, 하나의 조명광원(1010)은 원주 형태를 가지는 하나의 조명광원으로 구현될 수도 있다. 조명광원(1010) 각각은 기준면(R) 내지 대상체의 상방에 배치될 수 있다. 조명광원(1010) 각각은 기준면(R)에 대하여 하나 이상의 각도(예: 17도, 40도, 58도, 70도 등)로 기울어진 광축을 따라 조명광을 대상체로 조사하도록 배치될 수 있다. 일 실시예에서, 조명광원(1010)은 도시된 바와 같이 총 4개 사용될 수 있다. 본 개시에서, 조명광은 하나 이상의 파장에 따른 광일 수 있다. 일 실시예에서, 조명광은 적색(Red)광, 녹색(Green)광 또는 청색(Blue)광일 수 있다. 조명광원(1010) 각각은 RGB 광원으로 구현될 수 있으며, 적색광원, 녹색광원 및/또는 청색광원을 포함할 수 있다. 일 실시예에서, 조명광원(1010)은 적어도 두 개의 광원을 동시에 조사할 수 있으며, 적색, 녹색 및 청색광을 동시에 조사하여, 백색광이 조사되도록 할 수도 있다.
조명광(1020)은 대상체로부터 반사될 수 있다. 이미지 센서(220)는 조명광(1020)이 반사된 광(이하, 반사광(1030))을 캡쳐할 수 있다. 이 때, 조명광(1020)이 대상체로 조사되는 각도 및 반사광(1030)이 대상체에서 반사되는 각도에 따라, 이미지 센서(220)가 캡쳐하는 광의 광량이 달라질 수 있다. 반사 전후로 변화한 광량 값에 기초하여, 대상체의 형상이 결정될 수 있다.
즉, 프로세서(310)는 하나 이상의 반사광(1030)의 각각의, 하나 이상의 파장에 따른 조명광(1020) 각각으로부터의 광량 변화를 획득할 수 있다. 프로세서(310)는 해당 광량 변화에 기초하여 대상체의 전술한 1차 3차원 형상을 결정할 수 있다. 일 실시예에서, 프로세서(310)는 패턴광을 이용한 검사 결과 및 조명광을 이용한 검사 결과 모두를 이용하여 대상체의 1차 3차원 형상을 결정할 수도 있다. 이 경우, 프로세서(310)는 하나 이상의 반사광(214) 각각의 하나 이상의 패턴광(212) 각각으로부터의 위상 변화 및 하나 이상의 반사광(1030) 각각의, 하나 이상의 파장에 따른 조명광(1020) 각각으로부터의 광량 변화에 기초하여, 대상체의 1차 3차원 형상을 결정할 수 있다. 이후, 전술한 바와 같이, 프로세서(310)는 결정된 상면의 각도를 이용하여 해당 1차 3차원 형상을 수정함으로써, 대상체의 2차(최종) 3차원 형상을 결정할 수 있다. 일 실시예에서, 4개의 조명광원(1010)이 사용되고 각 조명광원(1010)이 적색광, 녹색광 및 청색광을 순차적으로 조사한다면, 총 12(4Х3)개의 조명광이 대상체로 조사될 수 있다. 이에 따라 총 12개의 반사광이 이미지 센서(220)에 의해 캡쳐될 수 있고, 대상체의 1차 3차원 형상을 결정하는 데에 이용될 수 있다.
도 11은 본 개시의 일 실시예에 따른, 패턴광원(230)이 백색광(1110)을 추가적으로 조사하는 과정을 나타낸 도면이다. 전술한 장치(100)의 구성요소 중 일부는 임의로 생략되었다. 일 실시예에서, 장치(100)의 패턴광원(230)은 백색광(1110)을 더 조사할 수 있고, 그 반사광(1120)에 대한 정보를 이용하여 보다 정확한 대상체의 1차 3차원 형상을 결정할 수 있다.
본 실시예에서, 패턴광원(230)은 적색(Red)광, 녹색(Green)광 또는 청색(Blue)광, 백색광(white) 중 적어도 하나의 단색광을 조사할 수 있으며, 예를 들어 백색광(1120)을 조사할 수 있다. 패턴광원(230)에서 패턴을 생성해 내는 소자를 제어함으로써, 패턴이 없는 백색의 조명광이 패턴광원(230)으로부터 조사되도록 할 수 있다. 백색광(1120)은 전술한 패턴광(232)와 유사한 광로를 따라 진행할 수 있다. 빔 스플리터(240) 및 하나 이상의 렌즈(250)는 백색광(1110)이 대상체의 상면에 도달하도록 백색광(1110)의 광로를 변경할 수 있다. 예를 들어, 백색광(1110)은 렌즈(250), 조리개(252) 및 기타 광학요소를 거쳐 빔 스플리터(240)로 진행할 수 있다. 빔 스플리터(240)는 백색광(1110)가 대상체의 상면을 향하도록 백색광(1110)의 광로를 변경할 수 있다.
백색광(1110)은 대상체의 상면으로부터 반사될 수 있다. 대상체의 형상에 따라, 반사 전후로 백색광(1110)의 광량이 변화할 수 있다. 즉, 백색광(1110)의 광량과 반사광(1120)의 광량은 다를 수 있다. 반사광(1120)은 빔 스플리터(240)를 향해 진행하고, 빔 스플리터(240)는 반사광(1120)을 이미지 센서(220)로 통과시킬 수 있다. 이미지 센서(220)는 반사광(1120)을 캡쳐할 수 있다.
프로세서(310)는 반사 전후로 변화한 광량 값에 기초하여, 대상체의 형상을 결정할 수 있다. 즉, 프로세서(310)는 반사광(1120)의 백색광(1110)으로부터의 광량 변화를 획득하고, 해당 광량 변화에 기초하여 대상체의 1차 3차원 형상을 결정할 수 있다. 일 실시예에서, 프로세서(310)는 패턴광을 이용한 검사 결과 및 백색광을 이용한 검사 결과 모두를 이용하여 대상체의 1차 3차원 형상을 결정할 수도 있다. 이 경우, 프로세서(310)는 하나 이상의 반사광(214) 각각의 하나 이상의 패턴광(212) 각각으로부터의 위상 변화 및 반사광(1120)의 백색광(1110)으로부터의 광량 변화에 기초하여, 대상체의 1차 3차원 형상을 결정할 수 있다. 이후, 전술한 바와 같이, 프로세서(310)는 결정된 상면의 각도를 이용하여 해당 1차 3차원 형상을 수정함으로써, 대상체의 2차(최종) 3차원 형상을 결정할 수 있다.
일 실시예에서, 장치(100)는 미리 설정된 기준을 만족하는 경우에만 동축 편향측정법을 이용한 검사를 수행해 2차 3차원 형상을 결정하고, 그렇지 않은 경우 1차 3차원 형상만을 결정할 수 있다. 이는 필요하다고 판단되는 경우에만 대상체 상면에 대한 추가 검사를 수행해, 검사 과정에 소요되는 시간을 단축시키기 위함이다. 일 실시예에서, 장치(100)는 대상체 상면의 반사율이 미리 설정된 기준 반사율 이상인 경우, 해당 대상체에 대하여 동축 편향측정법을 이용한 검사를 추가로 수행할 수 있다. 대상체 상면이 경면이거나, 리플로우 공정 후에 경면화된 경우, 조명광 내지 패턴광을 이용한 검사만으로는 대상체 상면에 대한 형상을 정확히 측정하기 어려울 수 있다. 따라서 대상체 상면이 경면이라고 판단되는 경우(즉, 반사율이 미리 설정된 기준 반사율 이상인 경우), 장치(100)는 동축 편향측정법을 이용한 검사를 추가로 수행할 수 있다.
구체적으로, 프로세서(310)는 패턴광원(230)으로부터 백색광(1110)의 광량 정보를 획득하고, 이미지 센서(220)로부터 반사광(1120)의 광량 정보를 획득할 수 있다. 프로세서(310)는 반사광(1120)의 백색광(1110)으로부터의 광량 변화에 기초하여, 대상체 상면의 반사율을 도출할 수 있다. 프로세서(310)는 도출된 상면의 반사율이 미리 설정된 기준 반사율 이상인 경우, 패턴광원(230)을 제어하여, 전술한 하나 이상의 패턴광(232)을 순차적으로 조사하도록 할 수 있다. 일 실시예에서, 미리 설정된 기준 반사율에 대한 정보는 메모리(320)에 저장되어 있을 수 있다.
일 실시예에서, 장치(100)는 패턴광을 이용한 검사를 먼저 수행하고, 편향측정법을 이용한 검사를 수행할 수 있다. 즉, 패턴광(212)을 먼저 조사하여 그 반사광(214)을 캡쳐하고, 이후 패턴광(232)를 조사하여 그 반사광(234)을 캡쳐할 수 있다. 일 실시예에서, 조명광을 이용한 검사는 편향측정법을 이용한 검사 이전에 수행될 수 있다.
일 실시예로서, 장치(100)는 패턴광을 이용하여 기준면(R), 대상체, 또는 기준면(R) 및 대상체를 촬상하여 3차원 형상을 결정하고, 이후 편향측정법을 이용하여 대상체 상면의 각도를 도출할 수 있다.
즉, 대상체 상면이 경면인 경우에는 패턴광을 이용하여 기준면(R)을 확인 가능하나, 대상체에 대한 정확한 3차원 형상 복원은 어려울 수 있으므로, 편향측정법을 이용하여 도출된 대상체 상면의 각도 정보를 토대로 기준면(R) 대비 대상체의 상면 정보 및 대상체의 3차원 형상 정보를 정확히 도출할 수 있다.
도 12는 본 개시의 일 실시예에 따른 장치(1210)를 나타낸 도면이다. 장치(1210)는 전술한 DFM 부(120)에 대응하는 장치로서, 기준면(R) 상에 위치한 대상체의 상면의 각도를 결정할 수 있다. 장치(1210) 내 적어도 하나의 구소요소는 탈착식 장치로서 구현되어, 장치(1220)에 결합될 수 있다. 장치(1210)가 결합되지 않는 경우, 그 결합되었던 해당 위치에 동축 2D 광원이 부착될 수 있다. 동축 2D 광원은 적색(Red)광, 녹색(Green)광, 청색(Blue)광 및 백색광(white) 중에서 선택된 적어도 하나의 단색광을 조사할 수 있다. 동축 2D 광원은 LED 등의 광학 요소를 통해 구현될 수 있다. 이러한 탈착식 장치(1210) 또는 동축 2D 광원을 통해 2D 단색 조명을 조사함으로써, 대상체에 따라 좀 더 정확한 3차원 형상 복원을 수행할 수 있다.
장치(1220)는 전술한 패턴광 조사부(110), 측정부(130) 및/또는 조명광 조사부(140)를 포함하는 장치일 수 있다. 장치(1220)는 기준면(R) 상 대상체의 전술한 1차 3차원 형상을 결정할 수 있다. 장치(1210)가 장치(1220)에 결합하면 전술한 장치(100)의 구성과 유사한 구성을 가질 수 있다. 결합된 장치(1210) 및 장치(1220)는, 장치(100)과 같은 방식으로, 대상체의 전술한 2차(최종) 3차원 형상을 결정할 수 있다. 즉, 장치(1220)는 패턴광을 이용한 검사 및/또는 조명광을 이용한 검사를 수행하여 대상체의 1차 3차원 형상을 결정하고, 장치(1210)는 대상체 상면의 각도를 결정할 수 있다. 상면의 각도를 이용해 대상체의 1차 3차원 형상을 수정하여 2차 3차원 형상이 결정될 수 있다. 실시예에 따라, 수정 및 2차 3차원 형상의 결정 과정은 장치(1210) 또는 장치(1220)가 수행할 수 있다.
구체적으로, 장치(1210)의 패턴광원(1230)은 하나 이상의 패턴광(1232)을 순차적으로 조사할 수 있다. 패턴광원(1230) 및 패턴광(1232)은, 전술한 패턴광원(230) 및 패턴광(232)에 각각 대응될 수 있다. 패턴광(232)과 마찬가지로, 패턴광(1232) 각각은 동일한 한 위상 범위를 가질 수 있다. 또한 패턴광(1232) 각각은 w축 방향 또는 v축 방향으로의 패턴을 가지는 패턴광이 미리 설정된 위상 간격의 정수배로 위상 천이되어 생성된 것일 수 있다.
빔 스플리터(1240) 및 하나 이상의 렌즈(1250)는, 하나 이상의 패턴광(1232)의 광로를 변경할 수 있다. 빔 스플리터(1240) 및 하나 이상의 렌즈(1250)는, 전술한 빔 스플리터(240) 및 하나 이상의 렌즈(250)에 각각 대응될 수 있다. 전술한 빔 스플리터(240) 및 하나 이상의 렌즈(250)와 마찬가지로, 빔 스플리터(1240) 및 하나 이상의 렌즈(1250)는, 전술한 위상 범위의 각 위상에 대응하는 광이 대상체 상면의 일부 영역(A)에 분산하여 도달하도록, 하나 이상의 패턴광(1232)의 광로를 변경할 수 있다. 일 실시예에서, 필요한 기타 광학요소(예: 거울)가 해당 광로 변경에 더 사용될 수도 있다. 일 실시예에서, 패턴광(1232)은 빔 스플리터(1240)로 입력되기 전 조리개(1252)를 통과할 수 있다.
하나 이상의 패턴광(1232)은 대상체의 일부 영역(A)으로부터 반사될 수 있다. 패턴광(1232)이 반사된 광(이하, 반사광(1234))은 빔 스플리터(1240), 조리개(1262), 기타 렌즈(1260) 등을 거쳐, 장치(1220)의 이미지 센서로 입력될 수 있다. 이 이미지 센서는 전술한 이미지 센서(220)에 대응될 수 있다.
장치(1210)는, 장치(1220)로부터, 하나 이상의 반사광(1234)에 대한 정보(1270)를 획득할 수 있다. 장치(1210)는 정보(1270)에 기초하여, 기준면(R)에 대한 대상체 상면의 각도를 결정할 수 있다. 상면의 각도를 결정하는 과정은, 전술한 장치(100)에서 설명한 과정과 동일할 수 있다. 일 실시예에서, 정보(1270)는 하나 이상의 반사광(1234) 각각의 광량 값을 지시하는 정보를 포함할 수 있다.
전술한 바와 같이, 장치(1220)는 전술한 패턴광 조사부(110), 측정부(130) 및/또는 조명광 조사부(140)를 포함하는 장치로서, 패턴광 및/또는 조명광을 이용한 검사를 수행할 수 있다. 구체적으로, 장치(1220)는 하나 이상의 패턴광원(패턴광원(210)에 대응), 이미지 센서(이미지 센서(220)에 대응) 및/또는 프로세서(프로세서(310)에 대응)를 포함할 수 있다. 패턴광원은, 대상체로 하나 이상의 패턴광(패턴광(212)에 대응)을 조사할 수 있다. 이미지 센서는 패턴광(패턴광(212)에 대응)의 반사광(반사광(214)에 대응)을 캡쳐할 수 있다. 또한 이미지 센서는 패턴광(1232)의 반사광(반사광(234)에 대응)도 캡쳐할 수 있다. 프로세서는 캡쳐한 반사광들에 기초하여, 대상체의 1차 3차원 형상을 결정하고, 결정된 1차 3차원 형상을 지시하는 정보를 장치(1210)로 전달할 수 있다.
도 13은 본 개시의 일 실시예에 따른 장치(1210)의 블록도를 나타낸 도면이다. 일 실시예에서, 장치(1210)는 패턴광원(1230), 빔 스플리터(1240), 하나 이상의 렌즈(1250), 통신 인터페이스(1330), 하나 이상의 프로세서(1310) 및/또는 하나 이상의 메모리(1320)를 포함할 수 있다. 일 실시예에서, 장치(1210)의 이러한 구성요소들 중 적어도 하나가 생략되거나, 다른 구성요소가 장치(1210)에 추가될 수 있다. 일 실시예에서, 추가적으로(additionally) 또는 대체적으로(alternatively), 일부의 구성요소들이 통합되어 구현되거나, 단수 또는 복수의 개체로 구현될 수 있다. 일 실시예에서, 장치(1210) 내, 외부의 구성요소들 중 적어도 일부의 구성요소들은 버스, GPIO(general purpose input/output), SPI(serial peripheral interface) 또는 MIPI(mobile industry processor interface) 등을 통해 서로 연결되어, 데이터 및/또는 시그널을 주고 받을 수 있다.
패턴광원(1230), 빔 스플리터(1240) 및 하나 이상의 렌즈(1250)는, 전술한 패턴광원(230), 빔 스플리터(240) 및 하나 이상의 렌즈(250)에 대응될 수 있고, 편향측정법에 따른 검사를 수행하기 위해 동일, 유사한 동작을 수행할 수 있다.
통신 인터페이스(1330)는 전술한 장치(100)의 통신 인터페이스와 유사한 방식으로 구현될 수 있다. 통신 인터페이스(1330)는, 프로세서(1310)에 의해 제어되어, 장치(1220)과 통신할 수 있다. 예를 들어, 통신 인터페이스(1330)는 하나 이상의 반사광(1234)에 대한 정보(1270)를 장치(1220)로부터 획득해 올 수 있다.
프로세서(1310)는 전술한 장치(100)의 프로세서(310)와 유사한 방식으로 구현될 수 있다. 프로세서(1310)는 통신 인터페이스(1330)를 제어하여 하나 이상의 반사광(1234)에 대한 정보(1270)를 획득하고, 해당 정보(1270)에 기초하여 기준면(R)에 대한 대상체 상면의 각도를 결정할 수 있다.
일 실시예에서, 장치(1210)의 프로세서(1310)는 하나 이상의 반사광(1234) 각각의 광량 값으로부터, 하나 이상의 반사광(1234) 각각의 위상 값을 도출할 수 있다. 프로세서(1310)는 도출한 위상 값에 기초하여, 기준면(R)에 대한 대상체 상면의 각도를 결정할 수 있다. 이 과정은, 전술한 프로세서(310)가 반사광(234)의 광량 값으로부터 위상 값을 도출해 내고, 위상 값으로부터 상면의 각도를 결정하는 과정에 대응될 수 있다. 일 실시예에서, 메모리(1320)는 메모리(320)와 마찬가지로 연관 정보를 저장할 수 있고, 프로세서(1310)는 반사광(1234) 각각의 위상 값 및 연관 정보에 기초하여, 상면의 각도를 결정할 수 있다.
일 실시예에서, 장치(1210)는 도출된 상면의 각도를 지시하는 정보를 장치(1220)로 전달해, 장치(1220)가 2차 3차원 형상을 결정하도록 할 수 있다. 구체적으로, 프로세서(1310)는 통신 인터페이스(1330)를 제어하여, 도출된 상면의 각도를 지시하는 정보를 장치(1220)로 전달할 수 있다. 전술한 바와 같이, 장치(1220)는 패턴광 및/또는 조명광을 이용한 검사를 통해 대상체의 1차 3차원 형상을 결정할 수 있다. 상면의 각도를 지시하는 해당 정보는, 장치(1220)가 1차 3차원 형상이 나타내는 대상체의 상면을 보정(수정)하여 2차 3차원 형상을 결정하는데 사용될 수 있다.
일 실시예에서, 장치(1210)는 장치(1220)로부터 대상체의 1차 3차원 형상을 지시하는 정보를 획득하고, 이를 이용해 직접 2차 3차원 형상을 결정할 수도 있다. 구체적으로, 프로세서(1310)는 통신 인터페이스(1330)를 제어하여, 장치(1220)가 결정한 대상체의 1차 3차원 형상에 대한 정보를 획득할 수 있다. 프로세서(1310)는 결정된 상면의 각도에 기초하여, 1차 3차원 형상이 나타내는 대상체의 상면을 보정(수정)하여 2차 3차원 형상을 결정할 수 있다.
일 실시예에서, 패턴광원(1230)은 백색광을 더 조사하고, 빔 스플리터(1240) 및 하나 이상의 렌즈(1250)는 백색광이 대상체 상면에 도달하도록 백색광의 광로를 변경할 수 있다. 이는 전술한 장치(100)의 패턴광원(230)이 백색광(1110)을 조사하는 것에 대응될 수 있다. 전술한 바와 같이, 백색광은 대상체 상면으로부터 반사될 수 있다. 장치(1220)는 반사광을 캡쳐하고, 반사광의 백색광으로부터의 광량 변화에 기초하여 대상체의 1차 3차원 형상을 결정할 수 있다.
일 실시예에서, 프로세서(1310)는 통신 인터페이스(1330)를 제어하여, 장치(1220)로부터 대상체 상면의 반사율을 지시하는 정보를 획득할 수 있다. 프로세서(1310)는 상면의 반사율이 미리 설정된 기준 반사율 이상인 경우, 패턴광원(1230)을 제어하여, 하나 이상의 패턴광(1232)을 순차적으로 조사하도록 할 수 있다. 이는 전술한 장치(100)의 프로세서(310)가 기준 반사율에 기초하여 패턴광원(230)을 제어한 것에 대응될 수 있다.
도 14는 본 개시의 일 실시예에 따른 장치(1400)를 나타낸 도면이다. 장치(1400)는 장치(100)와 유사하게 대상체의 3차원 형상을 결정할 수 있다. 다만 장치(1400)는 패턴광을 이용한 검사에 사용되는 패턴광원과 이미지 센서가 장치(100)의 그것과 반대로 배치될 수 있다. 즉, 장치(100)의 하나 이상의 패턴광원(210)이 배치될 자리에, 장치(1400)의 경우, 하나 이상의 이미지 센서(1420)가 배치될 수 있다. 또한 장치(100)의 이미지 센서(220)가 배치될 자리에, 장치(1400)의 경우, 하나의 패턴광원(1410)이 배치될 수 있다. 또한 장치(1400)는, 편향측정법에 따른 검사를 수행하기 위하여, 패턴광원(1430)이 조사하는 패턴광(1432)의 반사광(1434)을 캡쳐하는 별도의 이미지 센서(1460)를 추가로 포함할 수 있다.
본 실시예에서, 장치(1400)의 패턴광원(1410)은 기준면(R) 상에 위치한 대상체로 하나 이상의 패턴광(1412)을 순차적으로 조사할 수 있다. 패턴광원(1410) 및 패턴광(1412)은, 전술한 패턴광원(210) 및 패턴광(212)에 각각 대응될 수 있다. 장치(100)와 달리 패턴광원(1410)이 하나이므로, 패턴광원(1410)은 하나 이상의 패턴광(1412)을 순차적으로 조사할 수 있다. 또한 일 실시예에서, 패턴광(1412) 각각은 w축 방향 또는 v축 방향으로의 패턴을 가지는 패턴광이 미리 설정된 위상 간격의 정수배로 위상 천이되어 생성된 것일 수 있다.
패턴광(1412) 각각은 대상체로부터 반사될 수 있다. 패턴광(1412)이 반사된 광(이하, 반사광(1414))은 패턴광(1412)에 비해 위상이 변화될 수 있다. 하나 이상의 이미지 센서(1420)는 하나 이상의 반사광(1414)을 캡쳐할 수 있다. 하나 이상의 이미지 센서(1420) 각각은, 기준면(R)의 상방에서, 대상체로부터 서로 다른 광축을 따라 진행하는 반사광(1414) 각각을 캡쳐하도록 배치될 수 있다. 즉, 하나 이상의 이미지 센서(1420) 각각은 장치(100)의 패턴광원(210)의 배치와 유사하게 배치될 수 있다.
한편, 장치(1400)가 가지는 편향측정법에 따른 검사를 수행하기 위한 구성요소들은, 장치(100)의 그것들과 동일하게 동작할 수 있다. 즉, 장치(1400)의 패턴광원(1430), 패턴광(1432), 하나 이상의 렌즈(1450), 조리개(1452), 빔 스플리터(1440), 패턴광(1432)의 대상체로부터의 반사광(1434), 조리개(1472), 렌즈(1470) 등 기타 광학요소는, 전술한 장치(100)의 패턴광원(230), 패턴광(232), 하나 이상의 렌즈(250), 조리개(252), 빔 스플리터(240), 패턴광(232)의 대상체로부터의 반사광(234), 조리개(262), 렌즈(260) 등 기타 광학요소에 각각 대응될 수 있다. 패턴광원(1430)은 동일한 한 위상 범위를 가지는 하나 이상의 패턴광(1432)을 순차적으로 조사할 수 있으며, 빔 스플리터(1440) 및 하나 이상의 렌즈(1450)는, 상술한 위상 범위의 각 위상에 대응하는 광이 대상체 상면의 일부 영역(A)에 분산하여 도달하도록, 패턴광(1432)의 광로를 변경할 수 있다.
패턴광(1432)이 대상체의 일부 영역(A)으로부터 반사되어 생성된 반사광(1434)은, 이미지 센서(1460)에 의해 캡쳐될 수 있다. 이미지 센서(1460)는, 기준면(R) 상에서 대상체가 위치한 영역의 수직 상방에, 대상체에 대향하여 배치될 수 있다. 즉, 이미지 센서(1460)는 장치(100)의 이미지 센서(220)의 배치와 유사하게 배치될 수 있다.
장치(1400)는 하나 이상의 반사광(1414) 및/또는 하나 이상의 반사광(1434)에 기초하여, 대상체의 2차(최종) 3차원 형상을 결정할 수 있다. 이 결정 과정은, 장치(100)가 2차 3차원 형상을 결정하는 과정에 비하여 사용되는 정보의 수는 상이할 수 있으나, 그 과정은 동일할 수 있다.
도 15는 본 개시의 일 실시예에 따른 장치(1400)의 블록도를 나타낸 도면이다. 일 실시예에서, 장치(1400)는 패턴광원(1410), 하나 이상의 이미지 센서(1420), 패턴광원(1430), 빔 스플리터(1440), 하나 이상의 렌즈(1450), 이미지 센서(1460), 하나 이상의 프로세서(1510) 및/또는 하나 이상의 메모리(1520)를 포함할 수 있다. 일 실시예에서, 장치(1400)의 이러한 구성요소들 중 적어도 하나가 생략되거나, 다른 구성요소가 장치(1400)에 추가될 수 있다. 일 실시예에서, 추가적으로(additionally) 또는 대체적으로(alternatively), 일부의 구성요소들이 통합되어 구현되거나, 단수 또는 복수의 개체로 구현될 수 있다. 일 실시예에서, 장치(1400) 내, 외부의 구성요소들 중 적어도 일부의 구성요소들은 버스, GPIO(general purpose input/output), SPI(serial peripheral interface) 또는 MIPI(mobile industry processor interface) 등을 통해 서로 연결되어, 데이터 및/또는 시그널을 주고 받을 수 있다.
패턴광원(1430), 빔 스플리터(1440) 및 하나 이상의 렌즈(1450)는, 전술한 패턴광원(230), 빔 스플리터(240) 및 하나 이상의 렌즈(250)에 대응될 수 있고, 편향측정법에 따른 검사를 수행하기 위해 동일, 유사한 동작을 수행할 수 있다.
프로세서(1510)는 전술한 장치(100)의 프로세서(310)와 유사한 방식으로 구현될 수 있다. 프로세서(1510)는 하나 이상의 반사광(1414) 및/또는 하나 이상의 반사광(1434)에 기초하여, 대상체의 2차(최종) 3차원 형상을 결정할 수 있다.
일 실시예에서, 프로세서(1510)는 하나 이상의 반사광(1414)의 하나 이상의 패턴광(1412)으로부터의 위상 변화 각각에 기초하여 대상체의 1차 3차원 형상을 결정할 수 있다. 또한 프로세서(1510)는 하나 이상의 반사광(1434) 각각의 광량 값으로부터 하나 이상의 반사광(1434) 각각의 위상 값을 도출하고, 도출된 위상 값에 기초하여 기준면(R)에 대한 상면의 각도를 결정할 수 있다. 이 과정은, 전술한 프로세서(310)가 반사광(234)의 광량 값으로부터 위상 값을 도출해 내고, 위상 값으로부터 상면의 각도를 결정하는 과정에 대응될 수 있다. 프로세서(1510)는 도출된 상면의 각도에 기초하여, 결정된 1차 3차원 형상이 나타내는 대상체의 상면을 수정(보정)하여, 대상체의 2차(최종) 3차원 형상을 결정할 수 있다. 일 실시예에서, 메모리(1520)는 메모리(320)와 마찬가지로 연관 정보를 저장할 수 있고, 프로세서(1510)는 반사광(1434) 각각의 위상 값 및 연관 정보에 기초하여, 상면의 각도를 결정할 수 있다.
일 실시예에서, 하나 이상의 이미지 센서(1420)는 상술한 바와 같이 패턴광원(1410)으로부터의 패턴광(1412)이 반사된 반사광(1414)을 캡쳐하는 것 외에, 패턴광원(1430)으로부터의 패턴광(1432)이 반사된 하나 이상의 반사광(1434)을 더 캡쳐할 수도 있다. 일부 영역(A)으로부터 반사된 반사광(1434)이 수직 상방으로 이미지 센서(1460)를 향해 진행할 수도 있지만, 실시예에 따라 반사광(1434)의 일부가 기준면(R)에 대해 경사진 광축으로 진행할 수도 있다. 이 경우 하나 이상의 이미지 센서(1420)는 경사진 광축으로 진행하는 반사광(1434)의 일부를 캡쳐할 수도 있다. 프로세서(1510)는 하나 이상의 이미지 센서(1420) 및 이미지 센서(1460)이 캡쳐한, 하나 이상의 반사광(1434)에 대한 정보에 기초하여, 반사광(1434)의 상술한 위상 값을 도출할 수도 있다.
일 실시예에서, 패턴광(1412) 및 패턴광(1432)는 각각 전술한 패턴광(212) 및 패턴광(232)에 대응될 수 있다. 즉, 패턴광(1412) 및 패턴광(1432) 각각은, w축 방향 또는 v축 방향으로의 패턴을 가지는 패턴광이 미리 설정된 위상 간격의 정수배로 위상 천이되어 생성된 패턴광들일 수 있다.
도 16은 본 개시의 일 실시예에 따른, 장치(1400)의 조명광을 이용한 검사 과정을 나타낸 도면이다. 전술한 장치(1400)의 구성요소 중 일부는 임의로 생략되었다. 일 실시예에서, 장치(1400)는 조명광을 이용한 검사를 더 수행할 수 있다. 장치(1400)는 전술한 패턴광을 이용한 검사 결과 외에도 조명광을 이용한 검사 결과를 추가로 반영하여, 대상체의 1차 3차원 형상을 결정할 수 있다.
본 실시예에서, 장치(1400)는 하나 이상의 조명광원(1610)을 더 포함할 수 있다. 조명광원(1610)은 전술한 장치(100)의 조명광원(1010)과 동일하게 배치되고, 기준면(R)에 대해 하나 이상의 각도로 하나 이상의 조명광을 조사할 수 있다. 일 실시예에서, 하나 이상의 조명광원(1610) 각각은 조명광 중에서도 백색광(1612)을 대상체로 조사할 수 있다.
조사된 하나 이상의 백색광(1612)은 대상체로부터 반사될 수 있다. 전술한 바와 같이, 반사 전후로 백색광(1612)의 광량은 대상체의 형상에 따라 변화할 수 있다. 백색광(1612)이 반사된 광(이하, 반사광(1614))은 수직 상방으로 진행하여, 빔 스플리터(1440)에 입력될 수 있다. 빔 스플리터(1440)는 반사광(1614)의 광로를 변경하여, 반사광(1614)이 이미지 센서(1620)에 도달하게 할 수 있다. 이미지 센서(1620)는 하나 이상의 반사광(1614) 각각을 캡쳐할 수 있다.
프로세서(1510)는 하나 이상의 반사광(1614)의 하나 이상의 백색광(1612)으로부터의 광량 변화 각각 및/또는 하나 이상의 반사광(1414)의 하나 이상의 패턴광(1412)으로부터의 위상 변화 각각에 기초하여, 대상체의 1차 3차원 형상을 결정할 수 있다.
일 실시예에서, 패턴광원(1430)은, 전술한 패턴광원(230)과 마찬가지로, 백색광(1632)을 더 조사할 수 있다. 빔 스플리터(1440) 및 하나 이상의 렌즈(1450)는 백색광(1632)이 대상체 상면에 도달하도록 백색광(1632)의 광로를 변경하고, 이미지 센서(1460)는 해당 백색광(1632)이 대상체 상면으로부터 반사되어 생성된 반사광(1634)을 캡쳐할 수 있다. 프로세서(1510)는, 하나 이상의 반사광(1414)의 하나 이상의 패턴광(1412)으로부터의 위상 변화 각각 및/또는 반사광(1634)의 백색광(1632)으로부터의 광량 변화에 기초하여, 대상체의 1차 3차원 형상을 결정할 수 있다. 본 실시예는, 전술한 장치(100)의 패턴광원(230)이 백색광을 더 조사하고, 그 반사광이 대상체의 1차 3차원 형상을 결정하는데 이용되는 것에 대응될 수 있다.
일 실시예에서, 프로세서(1510)는 반사광(1634)의 백색광(1632)으로부터의 광량 변화에 기초하여, 대상체 상면의 반사율을 도출할 수 있다. 도출된 반사율이 미리 설정된 기준 반사율 이상인 경우, 프로세서(1510)는 패턴광원(1430)을 제어하여, 하나 이상의 패턴광(1432)을 순차적으로 조사하게 할 수 있다. 본 실시예는, 전술한 장치(100)에 있어서, 기준 반사율에 따라 동축 편향측정법을 이용한 검사를 추가로 수행할 지 여부를 결정하는 실시예에 대응될 수 있다.
본 개시에 따른 장치(100, 1210, 1400)의 다양한 실시예들은 서로 조합될 수 있다. 각 실시예들은 경우의 수에 따라 조합될 수 있으며, 조합되어 만들어진 장치(100, 1210, 1400)의 실시예 역시 본 개시의 범위에 속한다.
예를 들어, 하나 이상의 이미지 센서(1420)는 조명광(1020)으로부터 조사되어 반사된 반사광(1030)을 캡쳐할 수 있다. 그리고 백색광(1632) 또는 동축 2D 조명광이 대상체 상면으로부터 반사되어 생성된 반사광(1634)을 캡쳐할 수 있다.
이에 프로세서(1510)는 하나 이상의 이미지 센서(1420)가 캡쳐한 하나 이상의 반사광(1030, 1634)에 대한 정보를 이미지로 출력함으로써, 사용자는 각 이미지 센서(1420)가 배치된 각 방향에서 대상체에 대해 기울어짐 또는 기준면(R)에 부착된 형상을 확인할 수 있다.
또한 전술한 본 개시에 따른 장치(100, 1210, 1400)의 내/외부 구성 요소들은 실시예에 따라 추가, 변경, 대체 또는 삭제될 수 있다. 또한 전술한 장치(100, 1210, 1400)의 내/외부 구성 요소들은 하드웨어 컴포넌트로 구현될 수 있다.
도 17 내지 19는 본 개시에 따른 장치(100, 1210, 1400)들에 의해 각각 수행될 수 있는 방법들의 일 실시예를 나타낸 도면이다. 본 개시에 따른 방법들은 컴퓨터로 구현된 방법일 수 있다. 도시된 흐름도에서 본 개시에 따른 방법 또는 알고리즘의 각 단계들이 순차적인 순서로 설명되었지만, 각 단계들은 순차적으로 수행되는 것 외에, 본 개시에 의해 임의로 조합될 수 있는 순서에 따라 수행될 수도 있다. 본 흐름도에 따른 설명은, 방법 또는 알고리즘에 변화 또는 수정을 가하는 것을 제외하지 않으며, 임의의 단계가 필수적이거나 바람직하다는 것을 의미하지 않는다. 일 실시예에서, 적어도 일부의 단계가 병렬적, 반복적 또는 휴리스틱하게 수행될 수 있다. 일 실시예에서, 적어도 일부의 단계가 생략되거나, 다른 단계가 추가될 수 있다.
도 17은 본 개시에 따른 장치(100)에 의해 수행될 수 있는, 대상체의 3차원 형상을 결정하는 방법(1700)의 일 실시예를 나타낸 도면이다. 본 개시에 따른 장치(100)는, 기준면 상에 위치한 대상체의 제1 3차원 형상(예: 2차 3차원 형상)을 결정함에 있어서 방법(1700)을 수행할 수 있다. 본 개시의 일 실시예에 따른 방법(1700)은, 대상체로 하나 이상의 제1 패턴광을 조사하는 단계(S1710), 하나 이상의 제1 반사광을 캡쳐하는 단계(S1720), 한 위상 범위를 가지는 하나 이상의 제2 패턴광을 순차적으로 조사하는 단계(S1730), 위상 범위의 각 위상에 대응하는 광이 일부 영역에 분산하여 도달하도록 제2 패턴광의 광로를 변경하는 단계(S1740), 하나 이상의 제2 반사광을 캡쳐하는 단계(S1750), 및/또는 하나 이상의 제1 반사광 및 하나 이상의 제2 반사광에 기초하여 대상체의 제1 3차원 형상을 결정하는 단계(S1760)를 포함할 수 있다.
단계 S1710에서, 장치(100)의 하나 이상의 제1 광원(예: 패턴광원(210))은 대상체로 하나 이상의 제1 패턴광(예: 패턴광(212))을 조사할 수 있다. 단계 S1720에서, 이미지 센서(220)는 하나 이상의 제1 패턴광(예: 패턴광(212))이 대상체로부터 반사되어 생성된 하나 이상의 제1 반사광(예: 반사광(214))을 캡쳐할 수 있다.
단계 S1730에서, 제2 광원(예: 패턴광원(230))은 한 위상 범위를 가지는 하나 이상의 제2 패턴광(예: 패턴광(232))을 순차적으로 조사할 수 있다. 단계 S1740에서, 빔 스플리터(240) 및 하나 이상의 렌즈(250)는 해당 위상 범위의 각 위상에 대응하는 광이 대상체의 상면의 일부 영역(A)에 분산하여 도달하도록, 하나 이상의 제2 패턴광(예: 패턴광(232))의 광로를 변경할 수 있다. 단계 S1750에서, 이미지 센서(220)는 하나 이상의 제2 패턴광(예: 패턴광(232))이 일부 영역(A)으로부터 반사되어 생성된 하나 이상의 제2 반사광(예: 반사광(234))을 캡쳐할 수 있다.
단계 S1760에서, 프로세서(310)는 하나 이상의 제1 반사광(예: 반사광(214)) 및 하나 이상의 제2 반사광(예: 반사광(234))에 기초하여, 대상체의 제1 3차원 형상(예: 2차 3차원 형상)을 결정할 수 있다.
일 실시예에서, 제1 3차원 형상(예: 2차 3차원 형상)을 결정하는 단계(S1760)는, 프로세서(310)가 하나 이상의 제1 반사광(예: 반사광(214))의 하나 이상의 제1 패턴광(예: 패턴광(212))으로부터의 위상 변화 각각에 기초하여, 대상체의 제2 3차원 형상(예: 1차 3차원 형상)을 결정하는 단계를 포함할 수 있다. 또한 단계(S1760)는, 프로세서(310)가 하나 이상의 제2 반사광(예: 반사광(234)) 각각의 광량 값으로부터 하나 이상의 제2 반사광(예: 반사광(234)) 각각의 위상 값을 도출하는 단계를 포함할 수 있다. 또한 단계(S1760)는, 프로세서(310)가 위상 값에 기초하여, 기준면(R)에 대한 상면의 각도를 결정하는 단계를 포함할 수 있다. 또한 단계(S1760)는, 프로세서(310)가 상면의 각도에 기초하여 제2 3차원 형상(예: 1차 3차원 형상)이 나타내는 대상체의 상면을 보정하여, 대상체의 제1 3차원 형상(예: 2차 3차원 형상)을 결정하는 단계를 포함할 수 있다.
일 실시예에서, 상면의 각도를 결정하는 단계는, 프로세서(310)가 해당 위상 값 및 연관 정보에 기초하여 기준면(R)에 대한 상면의 각도를 결정하는 단계를 포함할 수 있다.
일 실시예에서, 장치(100)는 하나 이상의 제3 광원(예: 조명광원(1010))을 더 포함할 수 있다. 또한 대상체의 제2 3차원 형상(예: 1차 3차원 형상)을 결정하는 단계는, 프로세서(310)가, 하나 이상의 제1 반사광(예: 반사광(214))의 하나 이상의 제1 패턴광(예: 패턴광(212))으로부터의 위상 변화 각각 및 하나 이상의 제3 반사광(예: 반사광(1030))의 하나 이상의 파장에 따른 조명광(1020)으로부터의 광량 변화 각각에 기초하여, 대상체의 제2 3차원 형상(예: 1차 3차원 형상)을 결정하는 단계를 포함할 수 있다.
일 실시예에서, 방법(1700)은 제2 광원(예: 패턴광원(230))이 백색광(1110)을 조사하는 단계; 빔 스플리터(240) 및 하나 이상의 렌즈(250)가 백색광(1110)이 상면에 도달하도록 백색광(1110)의 광로를 변경하는 단계; 및/또는 이미지 센서(220)가 백색광(1110)이 상면으로부터 반사되어 생성된 제4 반사광(예: 반사광(1120))을 캡쳐하는 단계를 더 포함할 수 있다.
일 실시예에서, 제2 3차원 형상(예: 1차 3차원 형상)을 결정하는 단계는, 프로세서(310)가, 하나 이상의 제1 반사광(예: 반사광(214))의 하나 이상의 제1 패턴광(예: 패턴광(212))으로부터의 위상 변화 각각 및 제4 반사광(예: 반사광(1120))의 백색광(1110)으로부터의 광량 변화에 기초하여, 대상체의 제2 3차원 형상(예: 1차 3차원 형상)을 결정하는 단계를 포함할 수 있다.
일 실시예에서, 방법(1700)은, 프로세서(310)가, 제4 반사광(예: 반사광(1120))의 백색광(1110)으로부터의 광량 변화에 기초하여 상면의 반사율을 도출하는 단계; 및/또는 상면의 반사율이 미리 설정된 기준 반사율 이상인 경우, 하나 이상의 제2 패턴광(예: 패턴광(232))을 순차적으로 조사하도록 제2 광원(예: 패턴광원(230))을 제어하는 단계를 더 포함할 수 있다.
도 18는 본 개시에 따른 장치(1210)에 의해 수행될 수 있는, 대상체 상면의 각도를 결정하는 방법(1800)의 일 실시예를 나타낸 도면이다. 본 개시의 일 실시예에 따른 방법(1800)은, 하나 이상의 제1 패턴광을 순차적으로 조사하는 단계(S1810), 위상 범위의 각 위상에 대응하는 광이 일부 영역에 분산하여 도달하도록, 제1 패턴광의 광로를 변경하는 단계(S1820), 제1 장치로부터 하나 이상의 제1 반사광에 대한 제1 정보를 획득하는 단계(S1830) 및/또는 제1 정보에 기초하여 기준면에 대한 상면의 각도를 결정하는 단계(S1840)를 포함할 수 있다.
단계(S1810)에서, 제1 광원(예: 패턴광원(1230))은 한 위상 범위를 가지는 하나 이상의 제1 패턴광(예: 패턴광(1232))을 순차적으로 조사할 수 있다. 단계(S1820)에서, 빔 스플리터(예: 빔 스플리터(1240)) 및 하나 이상의 렌즈(예: 렌즈(1250))는, 해당 위상 범위의 각 위상에 대응하는 광이 상면의 일부 영역(A)에 분산하여 도달하도록, 하나 이상의 제1 패턴광(예: 패턴광(1232))의 광로를 변경할 수 있다.
단계(S1830)에서, 제1 프로세서(예: 프로세서(1310))는 제1 장치(예: 장치(1220))로부터, 하나 이상의 제1 패턴광(예: 패턴광(1232))이 일부 영역(A)으로부터 반사되어 생성된 하나 이상의 제1 반사광(예: 반사광(1234))에 대한 제1 정보(예: 정보(1270))를 획득할 수 있다.
단계(S1840)에서, 제1 프로세서(예: 프로세서(1310))는 제1 정보(예: 정보(1270))에 기초하여 기준면(R)에 대한 상면의 각도를 결정할 수 있다.
일 실시예에서, 상면의 각도를 결정하는 단계는, 제1 프로세서(예: 프로세서(1310))가, 하나 이상의 제1 반사광(예: 반사광(1234)) 각각의 광량 값으로부터 하나 이상의 제1 반사광(예: 반사광(1234)) 각각의 위상 값을 도출하는 단계; 및/또는 도출된 위상 값에 기초하여 기준면(R)에 대한 상면의 각도를 결정하는 단계를 포함할 수 있다.
일 실시예에서, 방법(1800)은, 제1 프로세서(예: 프로세서(1310))가, 상면의 각도를 지시하는 제2 정보를 제1 장치(예: 장치(1220))로 전달하는 단계를 더 포함할 수 있다. 제2 정보는, 제1 장치(예: 장치(1220))가 제1 3차원 형상(예: 1차 3차원 형상)이 나타내는 대상체의 상면을 보정하여, 대상체의 제2 3차원 형상(예: 2차 3차원 형상)을 결정하는 데에 사용될 수 있다.
일 실시예에서, 방법(1800)은, 제1 프로세서(예: 프로세서(1310))가, 제1 장치(예: 장치(1220))로부터 대상체의 제1 3차원 형상(예: 1차 3차원 형상)을 지시하는 제3 정보를 획득하는 단계; 및/또는 상면의 각도에 기초하여 제1 3차원 형상(예: 1차 3차원 형상)이 나타내는 대상체의 상면을 보정하여, 대상체의 제2 3차원 형상(예: 2차 3차원 형상)을 결정하는 단계를 더 포함할 수 있다.
일 실시예에서, 방법(1800)은, 제1 광원(예: 패턴광원(1230))이 백색광을 더 조사하는 단계; 및/또는 빔 스플리터(예: 빔 스플리터(1240)) 및 하나 이상의 렌즈(예: 렌즈(1250))가 백색광이 상면에 도달하도록 백색광의 광로를 변경하는 단계를 더 포함할 수 있다.
일 실시예에서, 방법(1800)은, 제1 프로세서(예: 프로세서(1310))가 통신 인터페이스(1330)를 제어하여, 제1 장치(예: 장치(1220))로부터 상면의 반사율을 지시하는 제4 정보를 획득하는 단계; 및/또는 상면의 반사율이 미리 설정된 기준 반사율 이상인 경우, 하나 이상의 제1 패턴광(예: 패턴광(1232))을 순차적으로 조사하도록 제1 광원(예: 패턴광원(1230))을 제어하는 단계를 더 포함할 수 있다.
도 19는 본 개시에 따른 장치(1400)에 의해 수행될 수 있는, 대상체의 3차원 형상을 결정하는 방법(1900)의 일 실시예를 나타낸 도면이다. 본 개시의 일 실시예에 따른 방법(1900)은, 하나 이상의 제1 패턴광을 순차적으로 조사하는 단계(S1910), 하나 이상의 제1 반사광을 캡쳐하는 단계(S1920), 한 위상 범위를 가지는 하나 이상의 제2 패턴광을 순차적으로 조사하는 단계(S1930), 위상 범위의 각 위상에 대응하는 광이 일부 영역에 분산하여 도달하도록, 제2 패턴광의 광로를 변경하는 단계(S1940), 하나 이상의 제2 반사광을 캡쳐하는 단계(S1950) 및/또는 하나 이상의 제1 반사광 및 하나 이상의 제2 반사광에 기초하여, 대상체의 3차원 형상을 결정하는 단계(S1960)를 포함할 수 있다.
단계(S1910)에서, 제1 광원(예: 패턴광원(1410))은 대상체로 하나 이상의 제1 패턴광(예: 패턴광(1412))을 순차적으로 조사할 수 있다. 단계(S1920)에서, 하나 이상의 제1 이미지 센서(예: 이미지 센서(1420))는, 하나 이상의 제1 패턴광(예: 패턴광(1412))이 대상체로부터 반사되어 생성된 하나 이상의 제1 반사광(예: 반사광(1414))을 캡쳐할 수 있다.
단계(S1930)에서, 제2 광원(예: 패턴광원(1430))은 한 위상 범위를 가지는 하나 이상의 제2 패턴광(예: 패턴광(1432))을 순차적으로 조사할 수 있다. 단계(S1940)에서, 빔 스플리터(1440) 및 하나 이상의 렌즈(1450)는, 상술한 위상 범위의 각 위상에 대응하는 광이 대상체 상면의 일부 영역(A)에 분산하여 도달하도록, 하나 이상의 제2 패턴광(예: 패턴광(1432))의 광로를 변경할 수 있다. 단계(S1950)에서, 제2 이미지 센서(예: 이미지 센서(1460))는 하나 이상의 제2 패턴광(예: 패턴광(1432))이 일부 영역(A)으로부터 반사되어 생성된 하나 이상의 제2 반사광(예: 반사광(1434))을 캡쳐할 수 있다.
단계(S1960)에서, 프로세서(1510)는, 하나 이상의 제1 반사광(예: 반사광(1414)) 및 하나 이상의 제2 반사광(예: 반사광(1434))에 기초하여, 대상체의 제1 3차원 형상(예: 2차 3차원 형상)을 결정할 수 있다.
일 실시예에서, 단계(S1960)는, 프로세서(1510)가 하나 이상의 제1 반사광(예: 반사광(1414))의 하나 이상의 제1 패턴광(예: 패턴광(1412))으로부터의 위상 변화 각각에 기초하여, 대상체의 제2 3차원 형상(예: 1차 3차원 형상)을 결정하는 단계를 포함할 수 있다. 또한 단계(S1960)는, 하나 이상의 제2 반사광(예: 반사광(1434)) 각각의 광량 값으로부터 하나 이상의 제2 반사광(예: 반사광(1434)) 각각의 위상 값을 도출하는 단계를 더 포함할 수 있다. 또한 단계(S1960)는, 도출된 위상 값에 기초하여 기준면(R)에 대한 상면의 각도를 결정하는 단계를 더 포함할 수 있다. 또한 단계(S1960)는, 상면의 각도에 기초하여 제2 3차원 형상(예: 1차 3차원 형상)이 나타내는 대상체의 상면을 보정하여, 대상체의 제1 3차원 형상(예: 2차 3차원 형상)을 결정하는 단계를 더 포함할 수 있다.
일 실시예에서, 방법(1900)은, 하나 이상의 제1 이미지 센서(예: 이미지 센서(1420))가 하나 이상의 제2 반사광(예: 반사광(1434))을 캡쳐하는 단계; 및/또는 프로세서(1510)가 하나 이상의 제1 이미지 센서(예: 이미지 센서(1420)) 및 제2 이미지 센서(예: 이미지 센서(1460))가 캡쳐한 하나 이상의 제2 반사광(예: 반사광(1434))에 기초하여, 하나 이상의 제2 반사광(예: 반사광(1434)) 각각의 위상 값을 도출하는 단계를 더 포함할 수 있다.
일 실시예에서, 방법(1900)은, 하나 이상의 제3 광원(예: 조명광원(1610))이 하나 이상의 백색광(1612)을 각각 조사하는 단계를 포함할 수 있다. 또한 방법(1900)은, 제3 이미지 센서(예: 이미지 센서(1620))가 하나 이상의 백색광(1612)이 대상체로부터 반사되어 생성된 하나 이상의 제3 반사광(예: 반사광(1614))을 캡쳐하는 단계를 더 포함할 수 있다. 또한 방법(1900)은, 빔 스플리터(1440)가 하나 이상의 제3 반사광(예: 반사광(1614))이 제3 이미지 센서(예: 이미지 센서(1620))에 도달하도록 하나 이상의 제3 반사광(예: 반사광(1614))의 광로를 변경하는 단계를 더 포함할 수 있다.
일 실시예에서, 방법(1900)은, 프로세서(1510)가, 하나 이상의 제3 반사광(예: 반사광(1614))의 하나 이상의 백색광(1612)으로부터의 광량 변화 각각 및 하나 이상의 제1 반사광(예: 반사광(1414))의 하나 이상의 제1 패턴광(예: 패턴광(1412))으로부터의 위상 변화 각각에 기초하여, 대상체의 제2 3차원 형상(예: 1차 3차원 형상)을 결정하는 단계를 더 포함할 수 있다.
일 실시예에서, 방법(1900)은, 제2 광원(예: 패턴광원(1430))이 백색광(1632)을 조사하는 단계; 빔 스플리터(1440) 및 하나 이상의 렌즈(1450)가, 백색광(1632)이 상면에 도달하도록 백색광(1632)의 광로를 변경하는 단계; 및/또는 제2 이미지 센서(예: 이미지 센서(1460))가, 백색광(1632)이 상면으로부터 반사되어 생성된 제4 반사광(예: 반사광(1634))을 캡쳐하는 단계를 더 포함할 수 있다.
일 실시예에서, 제2 3차원 형상(예: 1차 3차원 형상)을 결정하는 단계는, 프로세서(1510)가, 하나 이상의 제1 반사광(예: 반사광(1414))의 하나 이상의 제1 패턴광(예: 패턴광(1412))으로부터의 위상 변화 각각 및 제4 반사광(예: 반사광(1634))의 백색광(1632)으로부터의 광량 변화에 기초하여, 대상체의 제2 3차원 형상(예: 1차 3차원 형상)을 결정하는 단계를 더 포함할 수 있다.
일 실시예에서, 방법(1900)은, 프로세서(1510)가, 제4 반사광(예: 반사광(1634))의 백색광(1632)으로부터의 광량 변화에 기초하여, 상면의 반사율을 도출하는 단계; 및/또는 상면의 반사율이 미리 설정된 기준 반사율 이상인 경우, 하나 이상의 제2 패턴광(예: 패턴광(1432))을 순차적으로 조사하도록 제2 광원(예: 패턴광원(1430))을 제어하는 단계를 더 포함할 수 있다.
본 개시의 다양한 실시예들은 기기(machine)가 읽을 수 있는 기록 매체(machine-readable recording medium)에 기록된 소프트웨어로 구현될 수 있다. 소프트웨어는 전술한 본 개시의 다양한 실시예들을 구현하기 위한 소프트웨어일 수 있다. 소프트웨어는 본 개시가 속하는 기술분야의 프로그래머들에 의해 본 개시의 다양한 실시예들로부터 추론될 수 있다. 예를 들어 소프트웨어는 기기가 읽을 수 있는 명령(예: 코드 또는 코드 세그먼트) 또는 프로그램일 수 있다. 기기는 기록 매체로부터 호출된 명령어에 따라 동작이 가능한 장치로서, 예를 들어 컴퓨터일 수 있다. 일 실시예에서, 기기는 본 개시의 실시예들에 따른 장치(100, 1210, 1400)일 수 있다. 일 실시예에서, 기기의 프로세서는 호출된 명령을 실행하여, 기기의 구성요소들이 해당 명령에 해당하는 기능을 수행하게 할 수 있다. 일 실시예에서, 프로세서는 본 개시의 실시예들에 따른 하나 이상의 프로세서일 수 있다. 기록 매체는 기기에 의해 읽혀질 수 있는, 데이터가 저장되는 모든 종류의 기록 매체(recording medium)를 의미할 수 있다. 기록 매체는, 예를 들어 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등을 포함할 수 있다. 일 실시예에서, 기록 매체는 하나 이상의 메모리일 수 있다. 일 실시예에서, 기록 매체는 네트워크로 연결된 컴퓨터 시스템 등에 분산된 형태로서 구현될 수도 있다. 소프트웨어는 컴퓨터 시스템 등에 분산되어 저장되고, 실행될 수 있다. 기록 매체는 비일시적(non-transitory) 기록 매체일 수 있다. 비일시적 기록 매체는, 데이터가 반영구적 또는 임시적으로 저장되는 것과 무관하게 실재하는 매체(tangible medium)를 의미하며, 일시적(transitory)으로 전파되는 신호(signal)를 포함하지 않는다.
이상 다양한 실시예들에 의해 본 개시의 기술적 사상이 설명되었지만, 본 개시의 기술적 사상은 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 이해할 수 있는 범위에서 이루어질 수 있는 다양한 치환, 변형 및 변경을 포함한다. 또한, 그러한 치환, 변형 및 변경은 첨부된 청구범위 내에 포함될 수 있는 것으로 이해되어야 한다.

Claims (13)

  1. 기준면 상에 위치한 대상체의 제1 3차원 형상을 결정하는 장치에 있어서,
    상기 대상체로 하나 이상의 제1 패턴광을 순차적으로 조사하는 제1 광원;
    상기 하나 이상의 제1 패턴광이 상기 대상체로부터 반사되어 생성된 하나 이상의 제1 반사광을 캡쳐하는 하나 이상의 제1 이미지 센서;
    한 위상 범위를 가지는 하나 이상의 제2 패턴광을 순차적으로 조사하는 제2 광원;
    상기 위상 범위의 각 위상에 대응하는 광이 상기 대상체의 상면의 일부 영역에 분산하여 도달하도록, 상기 하나 이상의 제2 패턴광의 광로를 변경하는 빔 스플리터 및 하나 이상의 렌즈;
    상기 하나 이상의 제2 패턴광이 상기 일부 영역으로부터 반사되어 생성된 하나 이상의 제2 반사광을 캡쳐하는 제2 이미지 센서; 및
    상기 제1 광원, 상기 하나 이상의 제1 이미지 센서, 상기 제2 광원 및 상기 제2 이미지 센서와 전기적으로 연결된 프로세서를 포함하고,
    상기 프로세서는,
    상기 하나 이상의 제1 반사광 및 상기 하나 이상의 제2 반사광에 기초하여, 상기 대상체의 상기 제1 3차원 형상을 결정하는, 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 하나 이상의 제1 반사광의 상기 하나 이상의 제1 패턴광으로부터의 위상 변화 각각에 기초하여, 상기 대상체의 제2 3차원 형상을 결정하고,
    상기 하나 이상의 제2 반사광 각각의 광량 값으로부터 상기 하나 이상의 제2 반사광 각각의 위상 값을 도출하고,
    상기 위상 값에 기초하여, 상기 기준면에 대한 상기 상면의 각도를 결정하고,
    상기 상면의 각도에 기초하여 상기 제2 3차원 형상이 나타내는 상기 대상체의 상면을 보정하여, 상기 대상체의 상기 제1 3차원 형상을 결정하는, 장치.
  3. 제2항에 있어서,
    상기 기준면에 대한 상기 상면의 각도 및 상기 하나 이상의 제2 반사광 각각의 위상 값 사이의 관계를 지시하는 연관 정보를 저장하는 메모리를 더 포함하고,
    상기 프로세서는,
    상기 위상 값 및 상기 연관 정보에 기초하여, 상기 기준면에 대한 상기 상면의 각도를 결정하는, 장치.
  4. 제1항에 있어서,
    상기 하나 이상의 제1 이미지 센서 각각은, 상기 기준면의 상방에서, 상기 대상체로부터 서로 다른 광축을 따라 진행하는 상기 하나 이상의 제1 반사광을 각각 캡쳐하도록 배치되는, 장치.
  5. 제1항에 있어서,
    상기 제2 이미지 센서는, 상기 대상체가 위치한 상기 기준면 상 영역의 수직 상방에서 상기 대상체에 대향하여 배치되는, 장치.
  6. 제2항에 있어서,
    상기 하나 이상의 제1 이미지 센서는 상기 하나 이상의 제2 반사광을 더 캡쳐하고,
    상기 프로세서는,
    상기 하나 이상의 제1 이미지 센서 및 상기 제2 이미지 센서가 캡쳐한 상기 하나 이상의 제2 반사광에 기초하여, 상기 하나 이상의 제2 반사광 각각의 상기 위상 값을 도출하는, 장치.
  7. 제2항에 있어서,
    상기 기준면의 상방에서 상기 대상체를 향하여, 상기 기준면에 대해 하나 이상의 각도로 하나 이상의 단색광을 각각 조사하는 하나 이상의 제3 광원; 및
    상기 하나 이상의 단색광이 상기 대상체로부터 반사되어 생성된 하나 이상의 제3 반사광을 캡쳐하는 제3 이미지 센서를 더 포함하고,
    상기 빔 스플리터는, 상기 대상체로부터 진행하는 상기 하나 이상의 제3 반사광이 상기 제3 이미지 센서에 도달하도록 상기 하나 이상의 제3 반사광의 광로를 변경하고,
    상기 프로세서는,
    상기 하나 이상의 제3 반사광의 상기 하나 이상의 단색광으로부터의 광량 변화 각각 및 상기 하나 이상의 제1 반사광의 상기 하나 이상의 제1 패턴광으로부터의 위상 변화 각각에 기초하여, 상기 대상체의 상기 제2 3차원 형상을 결정하는, 장치.
  8. 제2항에 있어서,
    상기 제2 광원은 단색광을 더 조사하고,
    상기 빔 스플리터 및 상기 하나 이상의 렌즈는 상기 단색광이 상기 상면에 도달하도록 상기 단색광의 광로를 변경하고,
    상기 제2 이미지 센서는 상기 단색광이 상기 상면으로부터 반사되어 생성된 제4 반사광을 캡쳐하고,
    상기 프로세서는,
    상기 하나 이상의 제1 반사광의 상기 하나 이상의 제1 패턴광으로부터의 위상 변화 각각 및 상기 제4 반사광의 상기 단색광으로부터의 광량 변화에 기초하여, 상기 대상체의 상기 제2 3차원 형상을 결정하는, 장치.
  9. 제8항에 있어서,
    상기 프로세서는,
    상기 제4 반사광의 상기 단색광으로부터의 광량 변화에 기초하여, 상기 상면의 반사율을 도출하고,
    상기 상면의 반사율이 미리 설정된 기준 반사율 이상인 경우, 상기 하나 이상의 제2 패턴광을 순차적으로 조사하도록 상기 제2 광원을 제어하는, 장치.
  10. 제1항에 있어서,
    상기 하나 이상의 제1 패턴광 각각은, 제1 방향 또는 상기 제1 방향에 수직인 제2 방향으로의 패턴을 가지는 패턴광이 미리 설정된 위상 간격의 정수배로 위상 천이되어 생성된 패턴광이고,
    상기 하나 이상의 제2 패턴광 각각은, 상기 제1 방향 또는 상기 제2 방향으로의 패턴을 가지는 패턴광이 미리 설정된 위상 간격의 정수배로 위상 천이되어 생성된 패턴광인, 장치.
  11. 기준면 상에 위치한 대상체의 제1 3차원 형상을 결정하는 방법에 있어서,
    제1 광원이, 상기 대상체로 하나 이상의 제1 패턴광을 순차적으로 조사하는 단계;
    하나 이상의 제1 이미지 센서가, 상기 하나 이상의 제1 패턴광이 상기 대상체로부터 반사되어 생성된 하나 이상의 제1 반사광을 캡쳐하는 단계;
    제2 광원이, 한 위상 범위를 가지는 하나 이상의 제2 패턴광을 순차적으로 조사하는 단계;
    빔 스플리터 및 하나 이상의 렌즈가, 상기 위상 범위의 각 위상에 대응하는 광이 상기 대상체의 상면의 일부 영역에 분산하여 도달하도록, 상기 하나 이상의 제2 패턴광의 광로를 변경하는 단계;
    제2 이미지 센서가, 상기 하나 이상의 제2 패턴광이 상기 일부 영역으로부터 반사되어 생성된 하나 이상의 제2 반사광을 캡쳐하는 단계; 및
    프로세서가, 상기 하나 이상의 제1 반사광 및 상기 하나 이상의 제2 반사광에 기초하여, 상기 대상체의 상기 제1 3차원 형상을 결정하는 단계를 포함하는, 방법.
  12. 제11항에 있어서, 상기 제1 3차원 형상을 결정하는 단계는:
    상기 프로세서가, 상기 하나 이상의 제1 반사광의 상기 하나 이상의 제1 패턴광으로부터의 위상 변화 각각에 기초하여, 상기 대상체의 제2 3차원 형상을 결정하는 단계;
    상기 프로세서가, 상기 하나 이상의 제2 반사광 각각의 광량 값으로부터 상기 하나 이상의 제2 반사광 각각의 위상 값을 도출하는 단계;
    상기 프로세서가, 상기 위상 값에 기초하여, 상기 기준면에 대한 상기 상면의 각도를 결정하는 단계; 및
    상기 프로세서가, 상기 상면의 각도에 기초하여 상기 제2 3차원 형상이 나타내는 상기 대상체의 상면을 보정하여, 상기 대상체의 상기 제1 3차원 형상을 결정하는 단계를 포함하는, 방법.
  13. 제12항에 있어서,
    상기 제2 광원이 단색광을 조사하는 단계;
    상기 빔 스플리터 및 상기 하나 이상의 렌즈가, 상기 단색광이 상기 상면에 도달하도록 상기 단색광의 광로를 변경하는 단계; 및
    상기 제2 이미지 센서가, 상기 단색광이 상기 상면으로부터 반사되어 생성된 제4 반사광을 캡쳐하는 단계를 더 포함하고,
    상기 제2 3차원 형상을 결정하는 단계는, 상기 프로세서가, 상기 하나 이상의 제1 반사광의 상기 하나 이상의 제1 패턴광으로부터의 위상 변화 각각 및 상기 제4 반사광의 상기 단색광으로부터의 광량 변화에 기초하여, 상기 대상체의 상기 제2 3차원 형상을 결정하는 단계를 포함하는, 방법.
PCT/KR2020/008463 2019-06-28 2020-06-29 대상체의 3차원 형상을 결정하기 위한 장치 및 방법 WO2020263056A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP20832482.2A EP3992574A4 (en) 2019-06-28 2020-06-29 DEVICE AND METHOD FOR DETERMINING THE THREE-DIMENSIONAL FORM OF AN OBJECT
CN202080047588.XA CN114041039A (zh) 2019-06-28 2020-06-29 用于确定对象体的三维形象的装置及方法
US17/623,497 US20220357149A1 (en) 2019-06-28 2020-06-29 Apparatus and method for determining three-dimensional shape of object
KR1020217042655A KR20220017428A (ko) 2019-06-28 2020-06-29 대상체의 3차원 형상을 결정하기 위한 장치 및 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0077638 2019-06-28
KR20190077638 2019-06-28

Publications (1)

Publication Number Publication Date
WO2020263056A1 true WO2020263056A1 (ko) 2020-12-30

Family

ID=74059932

Family Applications (3)

Application Number Title Priority Date Filing Date
PCT/KR2020/008461 WO2020263054A1 (ko) 2019-06-28 2020-06-29 대상체의 3차원 형상을 결정하기 위한 장치 및 방법
PCT/KR2020/008462 WO2020263055A1 (ko) 2019-06-28 2020-06-29 대상체의 3차원 형상을 결정하기 위한 장치 및 방법
PCT/KR2020/008463 WO2020263056A1 (ko) 2019-06-28 2020-06-29 대상체의 3차원 형상을 결정하기 위한 장치 및 방법

Family Applications Before (2)

Application Number Title Priority Date Filing Date
PCT/KR2020/008461 WO2020263054A1 (ko) 2019-06-28 2020-06-29 대상체의 3차원 형상을 결정하기 위한 장치 및 방법
PCT/KR2020/008462 WO2020263055A1 (ko) 2019-06-28 2020-06-29 대상체의 3차원 형상을 결정하기 위한 장치 및 방법

Country Status (5)

Country Link
US (3) US20220357149A1 (ko)
EP (3) EP3992576A4 (ko)
KR (3) KR20220004770A (ko)
CN (3) CN114041039A (ko)
WO (3) WO2020263054A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009107981A2 (ko) * 2008-02-26 2009-09-03 주식회사 고영테크놀러지 3차원형상 측정장치 및 측정방법
WO2010137637A1 (ja) * 2009-05-27 2010-12-02 株式会社ニコン 形状測定装置、形状測定方法、および、製造方法
US8224066B2 (en) * 2007-05-29 2012-07-17 Gerd Haeusler Method and microscopy device for the deflectometric detection of local gradients and the three-dimensional shape of an object
US20130278723A1 (en) * 2012-04-20 2013-10-24 Test Research, Inc. Three-dimensional measurement system and three-dimensional measurement method
KR20160121716A (ko) * 2015-04-10 2016-10-20 한국교통대학교산학협력단 하이브리드 조명 기반 표면 검사 장치

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10223168A (ja) * 1997-02-12 1998-08-21 Hitachi Ltd 試料分析装置
US7353954B1 (en) * 1998-07-08 2008-04-08 Charles A. Lemaire Tray flipper and method for parts inspection
JP2003017536A (ja) * 2001-07-04 2003-01-17 Nec Corp パターン検査方法及び検査装置
KR100612932B1 (ko) * 2005-12-14 2006-08-14 주식회사 고영테크놀러지 3차원 형상 측정장치 및 방법
CN101011860A (zh) * 2006-02-01 2007-08-08 海迪斯联合股份公司 热熔性塑料管状零件的镜面焊接工具
KR100708352B1 (ko) * 2006-03-07 2007-04-18 한국과학기술원 모아레 원리의 2π 모호성과 위상천이 수단이 없도록실시되는 3차원 형상 측정장치 및 그 방법
DE102006015792A1 (de) * 2006-04-05 2007-10-18 Isra Surface Vision Gmbh Verfahren und System zur Formmessung einer reflektierenden Oberfläche
KR20080043047A (ko) * 2006-11-13 2008-05-16 주식회사 고영테크놀러지 새도우 모아레를 이용한 3차원형상 측정장치
US8115906B2 (en) * 2007-12-14 2012-02-14 Nikon Corporation Movable body system, pattern formation apparatus, exposure apparatus and measurement device, and device manufacturing method
JP2010185692A (ja) * 2009-02-10 2010-08-26 Hitachi High-Technologies Corp ディスク表面検査装置、その検査システム及びその検査方法
JP2010192470A (ja) * 2009-02-13 2010-09-02 Canon Inc 計測装置、露光装置及びデバイスの製造方法
DE102010064593A1 (de) * 2009-05-21 2015-07-30 Koh Young Technology Inc. Formmessgerät und -verfahren
KR101150755B1 (ko) * 2009-09-14 2012-06-14 이제선 영상촬영장치
KR101640935B1 (ko) * 2010-01-22 2016-07-20 주식회사 고영테크놀러지 3차원 형상 측정장치
CN102052907B (zh) * 2010-11-18 2012-05-23 华中科技大学 一种基于投影莫尔原理的bga共面度测量***
TWI460394B (zh) * 2012-07-20 2014-11-11 Test Research Inc 三維影像量測裝置
JP2016008941A (ja) * 2014-06-26 2016-01-18 株式会社日立ハイテクノロジーズ 欠陥観察方法及びその装置並びに欠陥検出装置
EP3032241B1 (en) * 2014-12-11 2023-03-01 X-Rite Europe GmbH Method and apparatus for digitizing the appearance of a real material
KR101659302B1 (ko) * 2015-04-10 2016-09-23 주식회사 고영테크놀러지 3차원 형상 측정장치
KR101639227B1 (ko) * 2015-06-08 2016-07-13 주식회사 고영테크놀러지 3차원 형상 측정장치
JP6109255B2 (ja) * 2015-07-14 2017-04-05 Ckd株式会社 三次元計測装置
JP6791631B2 (ja) * 2016-01-06 2020-11-25 株式会社サキコーポレーション 画像生成方法及び検査装置
WO2017119118A1 (ja) * 2016-01-08 2017-07-13 オリンパス株式会社 標本形状測定方法及び標本形状測定装置
KR102079181B1 (ko) * 2016-03-04 2020-02-19 주식회사 고영테크놀러지 패턴광 조사 장치 및 방법
WO2018022130A1 (en) * 2016-07-27 2018-02-01 Scannmen Ltd. Hybrid 3d optical scanning system
US10036630B1 (en) * 2017-05-22 2018-07-31 Asm Technology Singapore Pte Ltd Three-dimensional imaging using a multi-phase projector

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8224066B2 (en) * 2007-05-29 2012-07-17 Gerd Haeusler Method and microscopy device for the deflectometric detection of local gradients and the three-dimensional shape of an object
WO2009107981A2 (ko) * 2008-02-26 2009-09-03 주식회사 고영테크놀러지 3차원형상 측정장치 및 측정방법
WO2010137637A1 (ja) * 2009-05-27 2010-12-02 株式会社ニコン 形状測定装置、形状測定方法、および、製造方法
US20130278723A1 (en) * 2012-04-20 2013-10-24 Test Research, Inc. Three-dimensional measurement system and three-dimensional measurement method
KR20160121716A (ko) * 2015-04-10 2016-10-20 한국교통대학교산학협력단 하이브리드 조명 기반 표면 검사 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3992574A4 *

Also Published As

Publication number Publication date
EP3992576A1 (en) 2022-05-04
KR20220004771A (ko) 2022-01-11
WO2020263055A1 (ko) 2020-12-30
EP3992575A1 (en) 2022-05-04
KR20220004770A (ko) 2022-01-11
EP3992575A4 (en) 2022-08-31
CN114096800A (zh) 2022-02-25
EP3992574A1 (en) 2022-05-04
EP3992574A4 (en) 2022-08-31
CN114041039A (zh) 2022-02-11
US20220364852A1 (en) 2022-11-17
KR20220017428A (ko) 2022-02-11
WO2020263054A1 (ko) 2020-12-30
US20220397390A1 (en) 2022-12-15
EP3992576A4 (en) 2022-08-31
CN114051579A (zh) 2022-02-15
US20220357149A1 (en) 2022-11-10

Similar Documents

Publication Publication Date Title
WO2019117453A1 (ko) 측정 대상 물체의 3차원 형상 정보를 생성하는 방법, 결함 검출 방법 및 결함 검출 장치
WO2012050378A2 (ko) 기판 검사방법
WO2016148422A1 (ko) 무색수차 광소자-회전형 타원계측기 및 이를 이용한 시편의 뮬러-행렬 측정 방법
WO2013105830A1 (ko) 비대칭 편광을 이용한 간섭계 및 이를 이용한 광학장치
KR20160150018A (ko) 검사 장치 및 검사 방법
CN101889197A (zh) 检查装置和检查方法
WO2017039171A1 (ko) 레이저 가공장치 및 레이저 가공방법
WO2012050375A2 (ko) 측정장치 및 이의 보정방법
CN111146105B (zh) 一种缺陷检查的装置和方法
WO2015096225A1 (zh) 彩色滤色片膜厚测量方法及装置
WO2020263056A1 (ko) 대상체의 3차원 형상을 결정하기 위한 장치 및 방법
WO2012033301A2 (ko) 웨이퍼 검사장치 및 이를 구비한 웨이퍼 검사 시스템
WO2019199019A1 (ko) 테라헤르츠파 기반 결함 측정 장치 및 방법
WO2009119983A2 (ko) 중복 영상을 이용한 에프피디 기판 및 반도체 웨이퍼 검사시스템
KR20210018879A (ko) 무 초점(Focus-less) 검사 장치 및 검사 방법
TW201641914A (zh) 全域式影像檢測系統及其檢測方法
KR101436573B1 (ko) 기판 검사장치
WO2021230447A1 (ko) 박막 표면 미세 변화 측정 시스템 및 방법
WO2023158138A1 (ko) 파노라믹 영상 블렌딩 방법 및 장치
WO2018190693A2 (en) Glass processing apparatus and methods
WO2023121094A1 (ko) 다수의 영상 정보를 획득하는 입체형상 측정장치
WO2021015517A1 (ko) 두께 측정 장치
WO2017159938A1 (ko) 촬영 방법 및 촬영 방법을 이용한 대상물 정렬 방법
WO2015016624A1 (ko) 포커스 측정 기능을 가지는 레이저 가공 장치 및 레이저 가공 방법
KR100312081B1 (ko) 프로그램가능한 영역 스캔 비전 검사 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20832482

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20217042655

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2020832482

Country of ref document: EP