WO2015189985A1 - 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム、及び記録媒体 - Google Patents

形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム、及び記録媒体 Download PDF

Info

Publication number
WO2015189985A1
WO2015189985A1 PCT/JP2014/065751 JP2014065751W WO2015189985A1 WO 2015189985 A1 WO2015189985 A1 WO 2015189985A1 JP 2014065751 W JP2014065751 W JP 2014065751W WO 2015189985 A1 WO2015189985 A1 WO 2015189985A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
attention area
pattern
unit
region
Prior art date
Application number
PCT/JP2014/065751
Other languages
English (en)
French (fr)
Inventor
山田 智明
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to PCT/JP2014/065751 priority Critical patent/WO2015189985A1/ja
Priority to JP2016527593A priority patent/JP6350657B2/ja
Priority to EP14894726.0A priority patent/EP3156763B1/en
Priority to US15/318,409 priority patent/US10482592B2/en
Publication of WO2015189985A1 publication Critical patent/WO2015189985A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/2416Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures of gears
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0006Industrial image inspection using a design-rule based approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Definitions

  • the present invention relates to a shape measuring device, a structure manufacturing system, a shape measuring method, a structure manufacturing method, a shape measuring program, and a recording medium.
  • the shape measuring device includes a projection unit that projects a predetermined pattern such as slit light on the object to be measured, and an imaging unit that captures a pattern image drawn by the light projected on the measurement target region, and uses a light cutting method.
  • a projection unit that projects a predetermined pattern such as slit light on the object to be measured
  • an imaging unit that captures a pattern image drawn by the light projected on the measurement target region, and uses a light cutting method.
  • an optical measuring device for example, see Patent Document 1).
  • Patent Document 1 describes a displacement sensor that detects an image included in a set measurement target region from image data acquired by imaging and measures the displacement of the measurement target. Further, Patent Document 1 describes that the measurement target region is moved in the displacement measurement direction by following the movement of the reference surface.
  • the shape measuring apparatus described in Patent Document 1 moves the measurement target region in the displacement measurement direction by following the movement of the reference plane. Specifically, based on the movement of the step boundary line on the measurement target object, the measurement target area is moved in the displacement measurement direction by following the movement of the reference plane.
  • the movement direction and movement distance of the pattern position on the image data relative to the relative movement of the pattern and the measurement target object are the shape of the measurement target object, the relative movement direction of the pattern and the measurement target object, the projection unit, the imaging unit, and the measurement target. Since it changes depending on the relative position to the object, the measurement target region may not be set appropriately.
  • An object is to provide a shape measuring device, a structure manufacturing system, a shape measuring method, a structure manufacturing method, a shape measuring program, and a recording medium.
  • the projection unit that projects the pattern onto the measurement target, the imaging unit that captures the measurement target on which the pattern is projected by the projection unit, and the projection unit and the measurement target are relatively moved.
  • a moving unit capable of moving a projection position of the pattern on the measurement target on the measurement target, and a region of interest for acquiring information used for measurement of the measurement target in the imaging unit so as to include the image of the pattern.
  • a shape measuring device including an attention area setting unit that is set in at least a part of an imaged area.
  • a projection unit that projects a pattern onto a measurement target, an imaging unit that captures a measurement target on which the pattern is projected by the projection unit, and the projection unit and the measurement target are relative to each other.
  • a moving unit capable of moving and moving a projection position of the pattern on the measurement target onto the measurement target, and detecting a presence state of an image of the pattern projected on the measurement target captured by the imaging unit
  • a reference region of interest that can set a reference region of interest, and generates a region of interest that sets a region for acquiring information used for the measurement according to the presence state of the pattern image in the reference region of interest.
  • a shape measuring apparatus is provided.
  • the molding apparatus that molds the structure based on the design information related to the shape of the structure, and the first aspect or the second that measures the shape of the structure molded by the molding apparatus.
  • a structure manufacturing system including the shape measuring device according to the aspect and a control device that compares shape information indicating the shape of the structure measured by the shape measuring device with design information.
  • a pattern is projected onto a measurement target, an image of the pattern projected onto the measurement target from a direction different from the projection direction of the pattern is acquired to obtain image data
  • the structure is formed based on the design information related to the shape of the structure, and the shape of the formed structure is measured by the shape measuring method of the fourth aspect.
  • a structure manufacturing method is provided that includes comparing shape information indicating the shape of the measured structure with design information.
  • a pattern is projected onto the measurement target, an image of the pattern projected onto the measurement target from a direction different from the pattern projection direction is captured, and image data is acquired.
  • a shape measurement program for measuring the shape of a measurement object on the basis of a pattern image, wherein the projection of the pattern projection position moves relative to the measurement object on a computer, and information used for measurement of the measurement object
  • the target area for acquisition is set to at least a part of the area captured by the imaging unit so as to include the pattern image, and the measurement target is based on the position of the pattern image located within the target area of the image data.
  • a shape measuring program is provided for executing the following:
  • a computer-readable recording medium that records the shape measurement program of the sixth aspect.
  • a pattern image can be appropriately extracted and used for measurement of a measurement target, and the shape of the object to be measured can be measured under more appropriate conditions.
  • FIG. 1 is a perspective view showing a shape measuring apparatus according to this embodiment.
  • FIG. 2 is a schematic diagram showing the configuration of the shape measuring apparatus of the present embodiment.
  • FIG. 3 is a block diagram showing a schematic configuration of the control device of the shape measuring apparatus of the present embodiment.
  • FIG. 4 is a block diagram showing a schematic configuration of the attention area setting unit of the control device.
  • FIG. 5 is an explanatory diagram for explaining the measurement operation of the shape measuring apparatus according to the present embodiment.
  • FIG. 6 is an explanatory diagram for explaining an example of a screen displayed on the shape measuring apparatus of the present embodiment.
  • FIG. 7 is an explanatory diagram for explaining the measurement operation of the shape measuring apparatus according to the present embodiment.
  • FIG. 1 is a perspective view showing a shape measuring apparatus according to this embodiment.
  • FIG. 2 is a schematic diagram showing the configuration of the shape measuring apparatus of the present embodiment.
  • FIG. 3 is a block diagram showing a schematic configuration of the control device of the shape measuring apparatus of the present embodiment.
  • FIG. 8 is a flowchart illustrating an example of the attention area setting operation of the shape measuring apparatus according to the present embodiment.
  • FIG. 9 is a flowchart illustrating an example of the second region-of-interest generation determination process of the shape measuring apparatus according to the present embodiment.
  • FIG. 10 is a flowchart illustrating an example of the second region-of-interest generation determination process of the shape measuring apparatus according to the present embodiment.
  • FIG. 11 is an explanatory diagram of an example of reference attention area data.
  • FIG. 12 is an explanatory diagram for explaining an example of the attention area setting operation.
  • FIG. 13 is a flowchart showing an example of the measuring operation of the shape measuring apparatus according to the present embodiment.
  • FIG. 14 is a flowchart illustrating an example of the attention area setting operation of the shape measuring apparatus according to the present embodiment.
  • FIG. 15 is a block diagram illustrating a schematic configuration of the attention area setting unit and the storage unit of the control device.
  • FIG. 16 is a flowchart illustrating an example of the attention area setting operation of the shape measuring apparatus according to the present embodiment.
  • FIG. 17 is an explanatory diagram of an example of attention area template data.
  • FIG. 18 is an explanatory diagram for explaining an example of the attention area setting operation.
  • FIG. 19 is an explanatory diagram for explaining an example of the attention area setting operation.
  • FIG. 20 is an explanatory diagram for explaining an example of the attention area setting operation.
  • FIG. 21 is an explanatory diagram for explaining an example of the attention area setting operation.
  • FIG. 15 is a block diagram illustrating a schematic configuration of the attention area setting unit and the storage unit of the control device.
  • FIG. 16 is a flowchart illustrating an example of the attention area setting operation of
  • FIG. 22 is an explanatory diagram for explaining an example of the attention area setting operation.
  • FIG. 23 is a schematic diagram showing a configuration of a system having a shape measuring apparatus.
  • FIG. 24 is a diagram showing a configuration of the structure manufacturing system of the present embodiment.
  • FIG. 25 is a flowchart showing the structure manufacturing method of the present embodiment.
  • an XYZ orthogonal coordinate system is set, and the positional relationship of each part will be described with reference to this XYZ orthogonal coordinate system.
  • the Z-axis direction is set, for example, in the vertical direction
  • the X-axis direction and the Y-axis direction are set, for example, in directions that are parallel to the horizontal direction and orthogonal to each other.
  • the rotation (inclination) directions around the X, Y, and Z axes are the ⁇ X, ⁇ Y, and ⁇ Z axis directions, respectively.
  • FIG. 1 is a diagram illustrating an appearance of a shape measuring apparatus 1 according to the present embodiment.
  • FIG. 2 is a schematic diagram showing a schematic configuration of the shape measuring apparatus of the present embodiment.
  • FIG. 3 is a block diagram showing a schematic configuration of the control device of the shape measuring apparatus of the present embodiment.
  • the shape measuring apparatus 1 measures the three-dimensional shape of the measurement target object (object to be measured) M using, for example, a light cutting method.
  • the shape measuring device 1 includes a probe moving device 2, an optical probe 3, a control device 4, a display device 5, an input device 6, and a holding and rotating device 7.
  • the shape measuring device 1 measures the shape of the object M to be measured that is held by the holding and rotating device 7 provided on the base B.
  • the optical probe 3 captures an image of the line pattern on the object to be measured M while projecting the line pattern on the object to be measured M.
  • the probe moving device 2 and the holding and rotating device 7 serve as a moving mechanism that relatively moves the probe and the object M to be measured.
  • the probe moving device 2 moves the optical probe 3 relative to the measurement target M so that the line pattern projected on the optical probe 3 is projected onto the measurement target region of the measurement target M. Further, the optical probe 3 is moved with respect to the measurement object M so that the projection position of the line pattern can be sequentially moved on the measurement object M.
  • the probe moving device 2 includes a drive unit 10 and a position detection unit 11.
  • the drive unit 10 includes an X moving unit 50X, a Y moving unit 50Y, a Z moving unit 50Z, a first rotating unit 53, and a second rotating unit 54.
  • the X moving part 50X is provided so as to be movable with respect to the base B in the direction of the arrow 62, that is, in the X axis direction.
  • the Y moving unit 50Y is provided so as to be movable in the direction of the arrow 63, that is, in the Y-axis direction with respect to the X moving unit 50X.
  • the Y moving unit 50Y is provided with a holding body 52 extending in the Z-axis direction.
  • the Z moving part 50Z is provided so as to be movable with respect to the holding body 52 in the direction of the arrow 64, that is, in the Z-axis direction.
  • the X moving unit 50X, the Y moving unit 50Y, and the Z moving unit 50Z move together with the first rotating unit 53 and the second rotating unit 54 to move the optical probe 3 in the X axis direction, the Y axis direction, and the Z axis direction.
  • the mechanism is configured.
  • the first rotating portion 53 rotates the optical probe 3 supported by a holding member (holding portion) 55 described later in a rotation direction around a rotation axis (rotation axis) 53 a parallel to the X axis, that is, in the direction of the arrow 65. Then, the posture of the optical probe 3 is changed. In particular, the projection direction of the pattern projected from the optical probe 3 onto the measurement object M is changed by the first rotating unit 53.
  • the second rotating portion 54 rotates the optical probe 3 supported by the holding member 55 in a rotation direction around an axis parallel to a direction in which a first holding portion 55A described later extends, that is, in the direction of the arrow 66. The posture of the optical probe 3 is changed.
  • the second rotating unit 54 changes the longitudinal direction of the line pattern projected from the optical probe 3 with respect to the object M to be measured.
  • the shape measuring apparatus 1 has a reference sphere 73a or a reference sphere 73b used for correcting the relative position between the optical probe 3 and the holding member 55 holding the optical probe 3.
  • the holding and rotating device 7 includes a table 71 that holds the object M, a rotation driving unit 72 that rotates the table 71 in the ⁇ Z axis direction, that is, the direction of the arrow 68, and the table 71. And a position detector 73 for detecting the position in the rotation direction.
  • the position detection unit 73 is an encoder device that detects the rotation of the rotary shaft of the table 71 or the rotation drive unit 72.
  • the holding and rotating device 7 rotates the table 71 by the rotation driving unit 72 based on the result detected by the position detecting unit 73.
  • the linear pattern projected from the optical probe 3 can be projected onto an arbitrary measurement target area of the object M by the holding and rotating device 7 and the probe moving device 3.
  • the driving of the X moving unit 50X, the Y moving unit 50Y, the Z moving unit 50Z, the first rotating unit 53, the second rotating unit 54, and the holding rotating device 7 is driven by the position detecting unit 11 configured by an encoder device or the like. Control is performed by the control device 4 based on the detection result.
  • the optical probe 3 is supported by the holding member 55.
  • the holding member 55 extends in a direction orthogonal to the rotation axis 53a, and is supported by the first rotating portion 53.
  • a second holding portion (second portion, second member) 55B that is provided in the portion and extends in parallel with the rotation axis 53a.
  • the + Z side end of the first holding portion 55 ⁇ / b> A is disposed on the far side from the DUT M.
  • the first holding unit 55A and the second holding unit 55B are orthogonal to each other.
  • the optical probe 3 is supported on the + X side end portion of the second holding portion 55B.
  • the position of the rotation axis 53 a of the first rotating unit 53 is arranged closer to the object to be measured M than the optical probe 3.
  • a counter balance 55c is provided at the end of the first holding portion 55A on the side closer to the object M to be measured. Therefore, the moment generated on the holding member 55 side and the moment generated on the counter balance 55c side are balanced with respect to the rotation axis 53a of the first rotating portion 53.
  • the optical probe 3 includes a light source device 8 and an imaging device 9.
  • the light source device 8 and the imaging device 9 are fixed by a common housing. Therefore, the positional relationship between the projection direction of the line pattern by the light source device 8 and the shooting direction by the imaging device 9 is kept fixed. Therefore, based on the triangulation method based on the position of the image of the line pattern detected by the imaging device 9, based on the projection direction of the line pattern, the shooting direction of the imaging device 9, and the positional relationship between them. The position of the measuring object M in the measurement target region in the three-dimensional space can be obtained.
  • the light source device (projection unit) 8 of the optical probe 3 is controlled by the control device 4 and projects a line-shaped pattern onto the measurement area of the object M held by the holding and rotating device 7.
  • An illumination optical system 13 is provided.
  • the light source 12 of this embodiment includes a laser diode, for example.
  • the light source 12 may include a solid light source such as a light emitting diode (LED) other than the laser diode.
  • the light emission amount of the light source 12 of this embodiment is controlled by the control device 4. In particular, it is controlled by the dimming control unit 38 in the control device 4.
  • the illumination optical system 13 adjusts the spatial light intensity distribution of the light emitted from the light source 12.
  • the illumination optical system 13 of the present embodiment is composed of a plurality of optical elements including, for example, a cylindrical lens.
  • the illumination optical system 13 may be a single optical element or may include a plurality of optical elements.
  • the light emitted from the light source 12 is emitted in the first direction from the light source device 8 toward the object to be measured M, with the spot being expanded in the direction in which the cylindrical lens has positive power.
  • the light source device 8 and the imaging device 9 are arranged on a surface orthogonal to the rotation axis 53a, and the traveling direction of the light projected from the light source device 8 passes through the surface orthogonal to the rotation axis 53a.
  • the direction parallel to the rotation axis 53a is elongated.
  • the line pattern is parallel to the rotation axis 53a.
  • the longitudinal direction of the linear pattern can be changed by the second rotating unit 54 described above.
  • the longitudinal direction of the line-shaped pattern according to the spreading direction of the surface of the object to be measured M, it is possible to efficiently measure.
  • the shooting direction by the imaging device 9 also changes. Therefore, even if the object to be measured has a shape in which convex portions such as gears are arranged, the shape of the root can be measured by setting the photographing direction along the tooth trace.
  • the illumination optical system 13 may include a diffractive optical element such as CGH, and the spatial light intensity distribution of the illumination light beam L emitted from the light source 12 may be adjusted by the diffractive optical element.
  • the projection light whose spatial light intensity distribution is adjusted may be referred to as a pattern.
  • the illumination light beam L is an example of a pattern.
  • the imaging device (imaging unit) 9 includes an imaging element 20, an imaging optical system 21, a diaphragm 23, and a diaphragm driving unit 24.
  • the illumination light beam L projected from the light source device 8 onto the object to be measured M is reflected and scattered by the surface of the object to be measured M, and at least a part thereof enters the imaging optical system 21.
  • the imaging optical system 21 connects the image of the line pattern projected on the surface of the object to be measured M by the light source device 8 to the image sensor 20 together with the image of the object to be measured M.
  • the image sensor 20 captures an image formed by the imaging optical system 21.
  • the image processing unit 25 generates image data from the light reception signal received by the image sensor 20.
  • the diaphragm 23 has an opening whose size can be changed, and the amount of light passing through the imaging optical system 21 can be controlled by changing the size of the opening.
  • the size of the opening of the diaphragm 23 can be adjusted by the diaphragm driving unit 24.
  • the diaphragm driving unit 24 is controlled by the control device 4. In particular, it is controlled by the dimming control unit 38 in the control device 4.
  • an object plane 21 a is set so as to include the projection direction of the line pattern projected from the light source device 8, and the object plane and the light receiving surface 20 a (image plane) of the image sensor 20 are conjugated.
  • the imaging optical system 21 and the image sensor 20 are arranged so as to satisfy the following relationship.
  • the propagation direction of the illumination light beam L is substantially parallel to a plane including the projection direction of the illumination light beam L from the light source device 8 and the longitudinal direction of the spot shape of the illumination light beam L.
  • the control device 4 controls each part of the shape measuring device 1.
  • the control device 4 calculates the three-dimensional shape of the measurement target region of the object M to be measured based on the imaging result of the optical probe 3 and the positional information of the probe moving device 2 and the holding and rotating device 7.
  • the shape information in the present embodiment indicates at least one of the shape, size, unevenness distribution, surface roughness, and position (coordinates) of a point on the measurement target surface regarding at least a part of the measurement target M to be measured. Contains information.
  • a display device 5 and an input device 6 are connected to the control device 4. As illustrated in FIG. 3, the control device 4 includes a control unit 30 and a storage unit 31.
  • the control unit 30 has a circuit block necessary for accurately measuring the object M to be measured.
  • the functions necessary for correctly measuring the object M to be measured may be realized by executing a corresponding program using the central processing unit.
  • the control unit 30 includes an attention area setting unit 32, a measurement range setting unit 36, a dimming area setting unit 37, a dimming control unit 38, a measuring unit 39, and an operation control unit 40.
  • the attention area setting unit 32 sets an attention area indicating an area on the image data.
  • This attention area is used to limit the search range of the image of the illumination light beam L in order to easily extract the image of the illumination light beam L projected on the measurement object M, which is imaged by the image sensor 20. Or for limiting the range for acquiring the brightness information of the image of the illumination light beam L acquired for the exposure control at the time of imaging or the illumination light quantity control of the illumination light beam L.
  • the object to be measured M has a shape in which the pitch of convex portions such as gears is narrow and the surface thereof is glossy, the surface of the object M exhibits an action like a mirror.
  • An image of the illumination light beam L is also formed outside the irradiated region. This is called a multiple reflection image.
  • the attention area setting unit 32 receives data from the imaging device 9 and receives information on the operation of each unit, specifically information on the relative position between the optical probe 3 and the object M to be measured, from the operation control unit 40. .
  • the attention area setting unit 32 sets the attention area at which position with respect to the area that can be imaged by the imaging device 9 (or the visual field range that can be acquired by the imaging device 20) from the position setting data 42 of the attention area of the storage unit 31. Get the location information.
  • the attention area setting unit 32 acquires reference attention area data from the position setting data 44 of the reference attention area.
  • the attention area setting unit 32 outputs the position information of the attention area set within the imaging range by the user or the like to the position setting data 42 of the attention area in the storage unit 31.
  • the measurement range setting unit 36 sets the measurement range based on the position setting data 42 of the region of interest or an instruction input from the input device 6.
  • the measurement range setting unit 36 outputs the set measurement range to the measurement unit 39.
  • the dimming area setting unit 37 sets the dimming area settable range and the dimming area based on the position setting data 42 of the attention area or an instruction input from the input device 6.
  • the dimming area setting unit 37 outputs the set dimming area to the dimming control unit 38.
  • the dimming control unit 38 receives the dimming area from the dimming area setting unit 37.
  • the dimming control unit 38 determines dimming conditions, for example, operating conditions when acquiring image data of the light source device 8 or the imaging device 9 based on information of image data in the dimming region.
  • the dimming control unit 38 outputs the determined dimming conditions to the light source device 8 or the imaging device 9.
  • the measurement unit 39 receives the measurement range set by the measurement range setting unit 36.
  • the measurement unit 39 receives image data acquired by the imaging device 9.
  • the measurement unit 39 receives information on the operation of each unit from the operation control unit 40, specifically, information on the relative position between the optical probe 3 and the object M to be measured.
  • the measurement unit 39 has an image of a line pattern included in the measurement range of the image data (also referred to as an image of line light in the present embodiment) with respect to the relative position between the optical probe 3 that has acquired the image data and the object M to be measured. ) And the outer shape of the object M to be measured is measured based on the image of the pattern.
  • the operation control unit 40 controls the operation of the probe moving device 2, the optical probe 3, and the holding and rotating device 7.
  • the motion control unit 40 outputs motion control information to the attention area setting unit 32 and the measurement unit 39.
  • FIG. 4 is a block diagram showing a schematic configuration of the attention area setting unit of the control device.
  • the attention area setting unit 32 includes an attention area setting section 34 as shown in FIG.
  • the attention area setting section 34 includes an image data acquisition section 80, a movement information acquisition section 82, a projection pattern detection section 84, an attention area determination section 86, and a second attention area generation section 88.
  • the image data acquisition unit 80 acquires image data captured by the imaging device 9.
  • the movement information acquisition unit 82 acquires the drive information of the probe moving device 2, the optical probe 3, and the holding and rotating device 7 from the operation control unit 40 from the encoder of each unit, and how the current measurement target area of the optical probe 3 is. Detect if you are moving to. For example, it is determined how much and in which direction and how much the measurement target area has changed with respect to the previous image acquisition time.
  • the projection pattern image detection unit 84 acquires the position setting data 42 of the attention area, and acquires image data from the image data acquisition unit 80.
  • the attention area is an attention area on the image data.
  • One or more attention areas can be set for one image data.
  • the projection pattern image detection unit 84 detects the position of the pattern image on the image data only within the attention area of the image data.
  • the attention area determination unit 86 uses the position of the pattern on the image data detected by the projection pattern image detection unit 84 as a reference, and focuses the attention area at a position separated by a predetermined number of pixel pitch intervals with the position of the pattern image as the center. Determine the outline of.
  • the attention area determination unit 86 Is determined as a region of interest.
  • the number of attention areas provided in the image data is not particularly limited, and may be one, two, or three or more.
  • the attention area determination section 86 also pays attention to a second attention area that is different from the attention area set based on the position of the pattern. Decide on an area.
  • the attention area determination unit 86 is set as follows in the present embodiment.
  • the region of interest is set by setting, as an outer periphery, a position that is separated by a predetermined distance in all directions around the position of the pattern image detected by the projection pattern image detection unit 84.
  • the distance used to set the outer circumference is calculated as to how far the measurement target region will move on the measurement object M by the next time when the imaging device 9 captures the image.
  • distance information for determining the outer periphery of the region of interest is set.
  • the movement information acquisition unit 82 acquires drive information of the X movement unit 50X, the Y movement unit 50Y, the Z movement unit 50Z, the first rotation unit 53, the second rotation unit 54, and the holding rotation device 7.
  • the line light is used when the moving direction of the line light on the image data can be estimated instead of setting the region of interest so as to widen the range in all directions with respect to the position of the pattern image.
  • the region of interest may be moved on the image data in the moving direction of the line light with reference to the position of.
  • set the focus area when expanding the area around the pattern image, set the focus area so that the outer circumference is set at a position farther away from the pattern image in the direction of line light movement than in the other directions. May be.
  • the second attention area generation section 88 includes a reference attention area projection pattern image detection section 90, a new attention area generation determination section 92, and a first attention area generation determination section 92. And two attention area determination units 94.
  • the reference attention area position setting data 44 is an area set in the field of view that can be designated by the user in advance and can be imaged by the imaging device 9.
  • the reference attention area can be used in the same manner as the position setting data 42 of the attention area described above, and is also used to determine whether or not to create a new attention area.
  • the projection pattern image detection unit 90 in the reference region of interest generates a pattern from the image data acquired from the image data acquisition unit 80 based on the imaging information in the region of interest set based on the position setting data 44 of the reference region of interest.
  • the presence state of the pattern image including the presence / absence of the image and the position of the pattern image is acquired.
  • the reference attention area projection pattern image detection unit 90 functions as a reference attention area setting section that determines the pixel range of the image sensor 22 and the reference attention area on the image data based on the position setting data 44 of the reference attention area.
  • the reference in-region projected pattern image detection unit 90 measures the length of the line light image within the reference attention region of the image data. .
  • the length of the image of the line pattern can be measured by the following method, for example.
  • the image of the line pattern is approximately orthogonal to the image of the line pattern sequentially from top to bottom or from bottom to top.
  • a maximal pixel search column it is detected whether there is a pixel whose change in luminance value shows a maximum.
  • the maximum pixel search column is a direction along the epipolar line.
  • the direction in which the maximum pixel search string extends is the detection direction.
  • the existence state of the image length of the line-like pattern is determined by evaluating how long the maximum pixel exists continuously.
  • the arrangement direction of the pixels of the image sensor 20 may be substantially coincident with the direction of the epipolar line.
  • the new attention area generation determination unit 92 generates a second attention area, that is, a new attention area based on the presence state of the pattern detected by the reference attention area projection pattern image detection section 90, for example, the length of the line light image. It is determined whether or not to generate.
  • the second attention area determination unit 94 determines an area for creating the second attention area when the new attention area generation determination unit 92 determines to generate the second attention area.
  • the second attention area determination unit 94 of the present embodiment determines the same area as the reference attention area as an area for creating the second attention area.
  • the second region-of-interest determination unit 94 sets the region of interest in the same manner as the region-of-interest setting method performed by the region-of-interest setting unit 34 described above, centered on the position of the line light image located within the reference region of interest. You only have to set it.
  • the attention area cancellation determination unit 89 determines whether or not to cancel the attention area set based on the position or size of the attention area.
  • the attention area cancellation determination unit 89 sets the attention area set based on the movement distance estimated by the next imaging device 9 around the pattern existing in the screen data outside the field of view of the screen data. In such a case, the attention area is canceled.
  • the attention area cancellation determination unit 89 cancels the attention area when the area of the attention area set on the image data is smaller than the threshold area.
  • the set attention area information set by the attention area setting unit 32 is used by the measurement range setting section 36 and the light control area setting section 37 described below.
  • the measurement range setting unit 36 sets the attention area set by the attention area setting unit 32 as the position detection area of the pattern image used for calculating the position data of the measurement area of the measurement object M.
  • the measurement range is a range in which the position of the pattern image is detected from the image of the object M measured by the image processing unit 25.
  • the brightest pixel value is searched for each pixel column only within the range set as the measurement range. Note that the process of searching for the brightest pixel value for each pixel column only within the set range is performed in the same manner when a pattern is detected in the dimming area.
  • the light control area setting unit 37 sets a light control area.
  • the dimming area is an area for detecting the brightness of the captured image within the imaging range of the imaging device 20. Although the details of the dimming area in the present embodiment will be described later, the dimming area is also changed in conjunction with the attention area. By doing so, it is possible to limit the range of brightness information to be referred to when performing exposure control of the image sensor 20 or irradiation light amount control of the illumination light beam L according to the point cloud generation region, and harmful. The effect of regular specular reflection light can be minimized.
  • the light control area setting unit 37 of the present embodiment sets a light control area settable range based on the position information of the measurement range, and sets the light control area based on the set light control area settable range.
  • the light control area settable range is a range that is set based on the position information of the measurement range within the imaging range by the imaging unit, and is a range in which the light control area can be set.
  • the dimming area setting unit 37 may set the dimming area setting range based on at least one of the data stored in the storage unit 31 and the input data received by the input device 6 in addition to the measurement range. it can.
  • the dimming area setting unit 37 sets the dimming area based on at least one of the data stored in the storage unit 31 and the input data received by the input device 6 in addition to the dimming area setting range. You can also
  • the dimming control unit 38 acquires the pixel value of the brightest pixel for each pixel row detected in the dimming region, and controls the amount of light emitted to the light source 12 according to the size of the acquired pixel value.
  • the exposure time when acquiring one piece of image data is controlled, or the time when the imaging surface is exposed is controlled by a mechanical shutter (not shown) incorporated in the imaging device 20. Also good.
  • the dimming control unit 38 depends on the size of the acquired pixel value, the light projection amount of the projection unit, the amount of received light received by the imaging unit, the exposure amount when acquiring image data by the imaging unit, or the imaging unit Input / output characteristics (sensitivity or amplification factor for signals detected at each pixel of the image sensor), that is, various conditions (light control conditions) when image data is acquired by the optical probe 3 are controlled.
  • the measuring unit 39 is the position of the pattern image projected by the light source device 8 located within the measurement range of the image data, and the X moving unit 50X, the Y moving unit 50Y, and the Z moving unit 50Z when the image data is acquired.
  • the shape of the object to be measured is measured based on the position information of each moving member of the first rotating unit 53, the second rotating unit 54, and the holding rotating device 7.
  • the measuring unit 39 moves the optical probe 3 and the object to be measured relative to each other by the probe moving device 2 and the holding and rotating device 7, thereby sequentially moving the position where the pattern is projected, and displaying the image of the measurement target region. Imaging is performed by the imaging device 9.
  • the position information of the probe moving device 2 and the holding and rotating device 7 from the position detecting unit 11 is acquired at the timing when the image is picked up by the imaging device 9.
  • the measurement unit 39 adds the positional information of the probe moving device 2 and the holding rotation device 7 from the position detection unit 11 acquired at the timing of imaging by the imaging device 9 and the image of the pattern image of the measurement range acquired by the imaging device 9.
  • the position where the pattern of the object to be measured M is projected is calculated, and the shape data of the object to be measured M is output.
  • the shape measuring apparatus 1 controls the moving speeds of the probe moving device 2 and the holding and rotating device 7 based on the measurement point interval information input from the input device 6 by setting the imaging timing of the imaging device 9 to a constant interval. .
  • the operation control unit 40 controls the operation of each part of the shape measuring apparatus 1 including the probe moving device 2, the optical probe 3, and the holding and rotating device 7.
  • the operation control unit 40 controls the operation of the probe moving device 2, the optical probe 3, and the holding and rotating device 7 based on the operation control information created by the control unit 30. Further, the control unit 30 controls the image acquisition operation by the optical probe 3.
  • the storage unit 31 is a storage device that stores various programs and data such as a hard disk and a memory.
  • the storage unit 31 includes attention area position setting data 42, reference attention area position setting data 44, a condition table 46, a shape measurement program 48, and specification data 49.
  • the storage unit 31 stores various programs and data used for controlling the operation of the shape measuring apparatus 1 in addition to these programs and data.
  • the attention area position setting data 42 stores attention area information on the image data and information on the relative position between the optical probe 3 and the object M to be measured in association with each other.
  • the attention area data 42 is written in association with the attention area information set by the attention area setting unit 32 and the relative position information at the time of setting.
  • the reference attention area position setting data 44 stores information on the reference attention area corresponding to the outer edge of the image.
  • the reference attention area is information on an area where the position with respect to the image is fixed.
  • the reference attention area is a single area, but it may be a plurality of areas.
  • the condition table 46 stores conditions set by the control unit 30 and various conditions input in advance.
  • the shape measurement program 48 stores a program for executing processing of each unit of the control device 4. That is, the control device 4 executes the program stored in the shape measurement program 48 to sequentially reproduce the operation of each unit described above, thereby projecting the measurement target region on the object to be measured M while sequentially moving the measurement target region. Control is performed so that an image of the selected pattern is captured.
  • the shape measurement program 48 includes both a program for measuring the workpiece M generated by the control unit 30 and a program for the control unit 30 to generate the program.
  • the shape measurement program 48 may be stored in the storage unit 31 in advance, but is not limited to this.
  • the shape measurement program 48 may be read from a storage medium stored therein and stored in the storage unit 31 or may be acquired from outside by communication.
  • the specification data 49 stores design data, CAD data, and condition data that can define the shape of the object M to be measured.
  • the control device 4 controls the drive unit 10 of the probe moving device 2 and the rotation drive unit 72 of the holding rotation device 7 so that the relative position between the optical probe 3 and the object M to be measured has a predetermined positional relationship. Further, the control device 4 controls the dimming and the like of the optical probe 3 so that the projected line pattern on the object to be measured M is imaged with an optimum light amount.
  • the control device 4 acquires the position information of the optical probe 3 from the position detection unit 11 of the probe moving device 2, and acquires data (captured image data) indicating an image obtained by capturing the measurement region from the optical probe 3.
  • control device 4 associates the surface position of the measurement object M obtained from the captured image data corresponding to the position of the optical probe 3, the position of the optical probe 3, the projection direction of the line light, and the imaging direction of the imaging device.
  • shape information regarding the three-dimensional shape of the measurement target is calculated and acquired.
  • the display device 5 is configured by, for example, a liquid crystal display device, an organic electroluminescence display device, or the like.
  • the display device 5 displays measurement information related to the measurement by the shape measuring device 1.
  • the measurement information includes, for example, image data captured by the image sensor 20, information indicating the position of the attention area (or measurement area) set in the imaging area of the image sensor 20, information indicating the position of the dimming area, Information indicating the position of the light control area settable range can be displayed.
  • the position information of the attention area (or measurement area), the light control area, and the light control area settable range is displayed superimposed on the image data captured by the image sensor 20.
  • the object to be measured M and the optical probe 3 are photographed by the imaging device 9 at a predetermined photographing rate while relatively moving the object to be measured M and the optical probe 3, and accordingly, according to the relative movement between the optical probe 9 and the object to be measured M.
  • the pattern image also moves.
  • the attention area following this movement can also be displayed with a halftone frame or color display.
  • it includes setting information indicating settings related to measurement, progress information indicating the progress of measurement, shape information indicating the result of measurement, and the like.
  • the display device 5 of the present embodiment is supplied with image data indicating measurement information from the control device 4 and displays an image indicating measurement information according to the image data.
  • the input device 6 includes various input devices such as a keyboard, a mouse, a joystick, a trackball, and a touch pad.
  • the input device 6 receives various information input to the control device 4.
  • the various information includes, for example, command information indicating a command (command) for causing the shape measuring device 1 to start measurement, setting information related to measurement by the shape measuring device 1, and an operation for manually operating at least a part of the shape measuring device 1. Includes information.
  • the control device 4 includes a control unit 30 and a storage unit 31.
  • a display device 5 and an input device 6 are connected to the control device 4.
  • the control device 4, the display device 5, and the input device 6 may be, for example, a computer connected to the shape measuring device 1, a host computer provided in a building where the shape measuring device 1 is installed, or the shape measuring device. It is not limited to the building in which 1 is installed, but may be located away from the shape measuring apparatus 1 and connected to the shape measuring apparatus 1 using a communication means such as the Internet with a computer.
  • the control device 4, the display device 5, and the input device 6 may be held at different places. For example, apart from the computer including the input device 6 and the display device 5, for example, the shape measuring device 1 may be supported inside the optical probe 3. In this case, the information acquired by the shape measuring apparatus 1 is connected to a computer using a communication means.
  • FIG. 5 is an explanatory diagram for explaining the measurement operation of the shape measuring apparatus according to the present embodiment.
  • FIG. 6 is an explanatory diagram for explaining an example of a screen displayed on the shape measuring apparatus of the present embodiment.
  • FIG. 7 is an explanatory diagram for explaining the measurement operation of the shape measuring apparatus according to the present embodiment.
  • FIG. 8 is a flowchart illustrating an example of the attention area setting operation of the shape measuring apparatus according to the present embodiment.
  • FIG. 9 and FIG. 10 are flowcharts illustrating an example of the second region-of-interest generation determination process of the shape measuring apparatus according to the present embodiment, respectively.
  • FIG. 11 is an explanatory diagram of an example of reference attention area data.
  • FIG. 12 is an explanatory diagram for explaining an example of the attention area setting operation.
  • FIG. 13 is a flowchart showing an example of the measuring operation of the shape measuring apparatus according to the present embodiment.
  • the shape measuring device 1 will be described as a case of measuring the shape of the object to be measured Ma in which the shape is repeatedly formed in the circumferential direction.
  • the shape measuring apparatus 1 projects the illumination light beam L onto a tooth, which is one unit of the repetitive shape of the object to be measured Ma, and obtains an image of the pattern projected on the object to be measured Ma, thereby measuring the object to be measured Ma. Measure the shape.
  • the shape measuring apparatus 1 according to the present embodiment obtains an image of a pattern projected on the measurement object Ma while moving the illumination light beam L along the direction of the tooth trace, thereby obtaining the shape of one tooth. Can be measured.
  • the shape measuring apparatus 1 can measure the shape of the measurement object Ma by sequentially measuring the shape of the teeth of the measurement object Ma.
  • the object to be measured Ma is a bevel gear in which teeth having substantially the same shape in design are formed at predetermined intervals in the circumferential direction.
  • the measurement object Ma is a bevel gear, but the shape can be measured using objects of various shapes as the measurement object.
  • the type of gear is not particularly limited.
  • the shape measuring apparatus 1 also measures a spur gear, a helical gear, a helical gear, a worm gear, a pinion, a hypoid gear, and the like, and becomes the object to be measured Ma.
  • the shape measuring apparatus 1 is not limited to measuring the shape of one tooth or measuring the entire shape of the object to be measured Ma, but can also measure the shape of any one point of the object to be measured Ma. it can.
  • the shape measuring apparatus 1 displays a screen 100 shown in FIG.
  • the screen 100 is displayed in a mode for setting conditions for measuring the shape of the workpiece Ma, for example, a teaching mode.
  • the screen 100 includes an image window 102 and windows 104 and 106.
  • the image window 102 displays an image captured by the imaging device 9 and acquired.
  • the image displayed in the image window 102 is an entire image within the imaging range by the imaging device 9.
  • the outer shape 140 of the object to be measured Ma the patterns 142a, 142b, 142c formed by projecting the illumination light beam L onto the outer shape 140, and the illumination light beam L are projected onto the outer shape 140.
  • the bright line 144 generated by the multiple reflection or irregular reflection of the illumination light beam L is included.
  • measurement ranges 150a and 150b, a dimming area settable range 152, and a dimming area 154 are displayed so as to overlap the image.
  • the measurement ranges 150 a and 150 b and the dimming area settable range 152 are areas set by the measurement range setting unit 36.
  • the dimming area 154 is an area set by the dimming area setting unit 37.
  • the dimmable area settable range 152 shown in FIG. 7 is a rectangular range that includes all of the measurement ranges 150a and 150b and circumscribes the measurement ranges 150a and 150b.
  • the light control region settable range 152 is a longitudinal direction of an image of a line pattern formed when the illumination light beam L is projected onto the measurement object Ma having a flat and horizontal surface. And a direction perpendicular to the longitudinal direction is a rectangular range.
  • the dimming area 154 is a range included in the dimming area settable range 152.
  • the window 104 has a measurement condition column 112 and a button 114.
  • the measurement condition column 112 includes an acquisition method when acquiring a shape using the light cutting method, a scanning speed of the illumination light beam L, a distance pitch that is an interval for acquiring image data, a distance to be measured, and the optical probe 3 and a measurement target. Information such as relative value movement distance in each direction with the object Ma is displayed.
  • the control device 34 updates the information displayed in the measurement condition column 112 when various conditions are updated.
  • the button 114 is a button that is operated when a pre-scan process or a scan process (measurement process) described later is started. When the control unit 30 detects that the button 114 is operated by an input to the input device 6, the control unit 30 performs a pre-scan process or a scan process (measurement process).
  • the window 106 has a check box 120 for selecting whether or not to display various profiles related to the displayed image data, a dimming area selection point 122, a measurement range selection point 124, a range column 126, and a button 128. , 130.
  • the check box 120 is a box for selecting whether or not to display a light intensity profile of an image and a histogram.
  • the histogram is a distribution of the maximum luminance value for each column created by extracting the peak value in the width direction of the pattern on the line for each column of the image sensor.
  • the control unit 30 displays an image light amount distribution or a histogram of the maximum luminance value distribution over the image window 102.
  • the dimming area selection point 122 When the dimming area selection point 122 is checked, the coordinate position on the diagonal line of the dimming area range is displayed in the range column 126.
  • the measurement range selection point 124 When the measurement range selection point 124 is checked, the measurement range, that is, the measurement area where the image is acquired by the imaging device can be set in a rectangle. For the range of the measurement area, the coordinate position on the diagonal line of the measurement area is displayed in the range column 126.
  • the button 128 is a button operated when the automatic light control process is started.
  • the button 130 is a button operated when setting a range and a region on the selected side of the dimming region selection point 122 and the measurement range selection point 124.
  • the control unit 30 of the shape measuring apparatus 1 performs an arithmetic process using the central processing unit and sets an attention area used for measuring the shape of the measurement object.
  • the control unit 30 of the shape measuring apparatus 1 executes the process shown in FIG.
  • other processing described later is also realized by executing processing in each unit of the control unit 30 based on a program stored in the storage unit.
  • the process shown in FIG. 8 is realized by executing the process by the attention area setting unit 32 of the control unit 30.
  • the control unit 30 relatively moves the optical probe 3 and the object to be measured, and measures the shape of the object to be measured M by executing the process shown in FIG. 8 for each position where the pattern image is projected. Set the region of interest at each position.
  • the control unit 30 acquires the image data captured by the imaging device 9 by the image data acquisition unit 80 (step S12). After acquiring the image data, the control unit 30 causes the projection pattern image detection unit 84 to read the attention area data stored in the attention area data 42 (step S14). The control unit 30 reads attention area data set based on an image taken before the optical probe 3 and the object to be measured are relatively moved. The control unit 30 reads the initially set attention area data at the start of processing. The initially set attention area data may be set by user input.
  • control unit 30 uses the projection pattern image detection unit 84 to detect an image of line light in the attention area (step S16). After detecting the position of the line light image, the control unit 30 determines how much distance the measurement target region transitions between the detected position of the line light image and the next time the image is picked up by the imaging device 9. Based on the information (scanning information), the position of the region of interest is determined (step S18). The transition distance is calculated based on the movement information of the optical probe input in the teaching mode and the rotation angle information of the holding and rotating device 7. The transition distance is calculated by replacing the distance on the object plane of the imaging device 9 with the transition distance on the imaging surface of the imaging device 9.
  • control unit 30 After determining the position of the attention area, the control unit 30 performs a second attention area generation determination process (step S20).
  • the control unit 30 acquires reference attention area data from the position setting data 44 of the reference attention area by using the projected pattern image detection section 90 in the reference attention area (step S40). After acquiring the reference attention area data, the control unit 30 uses the reference attention area projection pattern image detection section 90 to specify a maximal pixel search string in the reference attention area of the image data (step S42). The control unit 30 specifies the pixel having the highest luminance in the maximum pixel search sequence by using the projected pattern image detection unit 90 in the reference region of interest (step S44), and the specified pixel in the maximum pixel search sequence is a pixel indicating the maximum. Is determined (step S46).
  • the reference pattern-of-interest projection pattern image detection unit 90 detects a change in luminance value of a pixel between a specific pixel and a pixel adjacent to the specific pixel in the maximum pixel search sequence, and the luminance value is maximum at the specific pixel. Detect what happens.
  • Step S46 When it is determined that the specified pixel shows the maximum (Yes in Step S46), the control unit 30 extracts the specified pixel as a peak pixel (Step S48). When it is determined that the specified pixel does not show the maximum (No in step S46), or when the process of step S48 is performed, the control unit 30 causes the reference attention area projection pattern image detection unit 90 to perform the reference attention area. It is determined whether the determination of the entire area is completed (step S50).
  • Step S50 When it is determined that the determination of the entire region within the reference region of interest has not been completed (No in Step S50), the control unit 30 moves the maximum pixel search sequence in a direction substantially orthogonal to the maximum pixel search sequence (Step S52). Return to step S44. That is, the position of the maximal pixel search string that serves as a reference for detecting the peak pixel is moved from the top to the bottom of the image data or from the bottom to the top, and the above processing is performed again.
  • control unit 30 determines whether the number of peak pixels is equal to or greater than the threshold by the new region of interest generation determination unit 92 ( Step S54).
  • Step S54 When the number of peak pixels is determined to be equal to or greater than the threshold (Yes in Step S54), the control unit 30 determines to generate the second attention area (Step S56). When determining that the number of peak pixels is less than the threshold (No in Step S54), the control unit 30 determines not to generate the second region of interest (Step S58).
  • the new attention area generation determination unit 92 further determines, based on the determined attention area information, whether a attention area has already been set for the detected line light image, and the line light image. If a region of interest is set for, it is determined that a second region of interest is not generated.
  • the second attention area generation section 88 detects the line light image with the reference in-target area projection pattern image detection section 90, and the new attention area generation determination section 92 based on the length of the line light image. It may be determined whether to generate the second region of interest.
  • a process for determining whether or not the second attention area generation determination unit 92 generates the second attention area based on the length of the line light image will be described with reference to FIG.
  • the control unit 30 acquires reference attention area data from the position setting data 44 of the reference attention area by using the projected pattern image detection section 90 in the reference attention area (step S40). After acquiring the reference attention area data, the control unit 30 causes the reference attention area projection pattern image detection unit 90 to detect the image of the line light in the reference attention area of the image data (step S62).
  • the control unit 30 detects the length of the line light image (step S64).
  • the length of the line light image is the length of the line light image in the longitudinal direction.
  • the reference pattern-of-interest projection pattern image detection unit 90 continuously detects how many pixels are detected in each maximal pixel search sequence when image data is sequentially detected from top to bottom or from bottom to top. Detect what to do.
  • the reference in-region projected pattern image detection unit 90 has a plurality of pixels in which the line light image is not detected. The length may be detected as being connected.
  • the image of the line pattern acquired by the image sensor 20 is not necessarily continuous. This is because a part of the object to be measured may be lost due to a defect on the surface. For these, for example, an exception process may be inserted in which one or two pixels or a few pixels are missing, assuming that they are continuously connected.
  • the control unit 30 After detecting the length of the line light image, the control unit 30 determines whether the length of the line light image is equal to or greater than the threshold by the new attention area generation determination unit 92 (step S64). When it is determined that the length of the line light image is greater than or equal to the threshold (Yes in step S66), the control unit 30 determines to generate the second region of interest (step S68). When it is determined that the length of the line light image is less than the threshold (No in Step S66), the control unit 30 determines that the second region of interest is not generated (Step S69).
  • the second attention area generation unit 88 of the control unit 30 can generate the second attention area based on the length of the line light image, so that the line light image in the reference attention area is also generated. Based on this, a new attention area can be generated, and an attention area from which an image of line light included in the image data is extracted can be set.
  • the control section 30 causes the second attention area determination section 94 to determine the second attention area based on the reference attention area.
  • the second attention area is determined (step S24).
  • the second region of interest is determined based on the reference region of interest.
  • the second region of interest may be determined based on the position of the line light image included in the reference region of interest.
  • the control section 30 uses the attention area cancellation determination section 89. Attention area cancellation determination processing is performed (step S26).
  • the attention area cancellation determination unit 89 determines whether or not to cancel the attention area set based on the position or size of the attention area.
  • the attention area cancellation determination unit 89 sets the attention area set based on the movement distance estimated by the next imaging device 9 around the pattern existing in the screen data outside the field of view of the screen data. In such a case, it is determined to cancel the attention area.
  • the attention area cancellation determination unit 89 determines that the attention area is canceled when the area of the attention area set on the image data is smaller than the threshold area.
  • the area of the attention area on the image data is used as a material for determining the cancellation of the attention area
  • range information such as an effective shooting range may be set on the image data, and the determination may be made based on the area of an area that matches both the effective shooting range and the attention area.
  • the image in the peripheral area of the image data is easily affected by various aberrations caused by the imaging optical system, the intensity distribution in the short direction of the pattern image is broken by the influence of the aberration. Since this affects measurement accuracy, it is possible to avoid such a peripheral area and set an effective photographing range only in the central area of the image data.
  • the control section 30 cancels the target attention area by the attention area determination section 86 (step S30).
  • the control section 30 determines and generates the attention area determination section 86.
  • the obtained attention area is stored in the attention area data (step S32).
  • the control unit 30 stores the relative position of the optical probe 3 acquired by the movement information acquisition unit 82 and the measurement target in the attention area data 42 in association with the attention area.
  • FIG. 12 shows a case where the line light image moves upward in the image data.
  • the shape measuring apparatus 1 has data in which the reference region of interest 402 is set for the frame 400 that overlaps the entire image data shown in FIG. 11 as the position setting data 44 of the reference region of interest.
  • the shape measuring apparatus 1 will be described with respect to a case where the attention area is not set in the initial setting.
  • the control unit 30 acquires the image data F (N-1) as shown in step ST101.
  • the control unit 30 superimposes the reference attention area data 402 on the acquired image data F (N ⁇ 1), and detects an image of the line light included in the reference attention area 402.
  • the second region of interest is not generated.
  • the control unit 30 After setting the attention area for the image data F (N ⁇ 1) in step ST101, the control unit 30 acquires the image data F (N) as the next frame as shown in step ST102.
  • the image data F (N) is an image acquired at a relative position in which the relative position between the optical probe 3 and the object M to be measured is moved by a predetermined distance from the relative position captured by the image data F (N-1).
  • the control unit 30 detects the line light image 410 included in the reference attention area 402 by superimposing the reference attention area data 402 on the acquired image data F (N) as shown in step ST101.
  • the control unit 30 When the control unit 30 detects the line light image 410 included in the reference region of interest 402 and detects that the line light image 410 satisfies the condition, the control unit 30 displays the line light image 410 as shown in step S103.
  • An attention area (second attention area) 412 is generated based on the position.
  • the generated data of the attention area 412 is stored in the attention area data 42.
  • the control unit 30 After setting the attention area for the image data F (N) in step ST103, the control unit 30 acquires the image data F (N + 1) to be the next frame as shown in step ST104. As shown in step ST104, the line light image 410a included in the image data F (N + 1) is more focused than the line light image 410 because the relative position of the optical probe 3 and the object M to be measured has moved. The position is close to the edge of the region 412. As shown in step ST105, the control unit 30 detects the line light image 410a included in the reference attention area 402. However, since the control section 30 is an image of line light that is a target that can be detected in the attention area 412, the second attention is paid. Do not generate a region. As shown in step S106, the control unit 30 generates the attention area 412a with reference to the position of the line light image 410a.
  • the control unit 30 performs the processing from step ST104 to step S106 every time image data of the next frame is acquired.
  • the line light image moves to the upper side of the screen as the frame advances.
  • the control unit 30 performs the processing from step ST104 to step ST106 each time image data of the next frame is acquired, thereby moving the position of the attention area to the upper side of the screen in accordance with the movement of the line light image.
  • control unit 30 Even when the control unit 30 acquires the image data F (N + m) in which the frame is advanced by (m ⁇ 1) frames from the image data F (N + 1) in step ST106, as shown in step ST107, the control unit 30 A line light image is detected based on the attention area information, and the attention area 412b is generated with reference to the detected line light image 410b. The control unit 30 also detects line light images included in the reference region of interest 402 by parallel processing.
  • the control unit 30 also obtains the image data F (N + l ⁇ 1) further advanced from the image data F (N + m) in step ST107, as shown in step S108, based on the information on the attention area of the previous frame. Then, the line light image is detected, and the attention area 412c is generated with reference to the detected line light image 410c. In the image data F (N + l ⁇ 1), there is another line light 420 below the screen from the line light image 410c.
  • the control unit 30 uses the attention area information of the previous frame as shown in step ST109. Based on this, a line light image is detected, and a region of interest 412d is generated with reference to the detected line light image 410d.
  • the reference attention area 402 includes another line light image 420a on the lower side of the screen from the line light image 410c.
  • a region of interest (second region of interest) 422 is generated with reference to the position of. Thereby, in the case of the image data F (N + l), as the attention area, two attention areas 412d and 422 are set in the imaging area of the imaging element or the image data acquired from the imaging element.
  • the shape measuring apparatus 1 can set a region including the line light image as the region of interest by setting the region of interest based on the position of the line light image. That is, the shape measuring apparatus 1 can set a region of interest where the region moves in response to the movement of the position of the line light image on the image data.
  • the shape measuring apparatus 1 uses a region including a part separated by a distance set from the line light image on the basis of the line light image as a region of interest, so that the position of the line light image can be determined during actual measurement. Even in the case of deviation, an image of line light can be included in the region of interest.
  • the control unit 30 of the shape measuring apparatus 1 displays the screen 100 shown in FIG. 6 and executes the processing shown in FIG.
  • the control unit 30 presets the measurement range, the light control region, and the light control region settable range to the entire range that can be imaged by the imaging device 8.
  • the image data is transferred from the imaging device 8 to the control unit 30, and the image data is displayed on the window 102.
  • the control unit 30 sets the measurement range when a range smaller than the entire range that can be captured by the imaging device 9, that is, a range smaller than the entire range of the acquired image data is set as the measurement range.
  • the method for setting the measurement range can be specified by enclosing part of the image data in an arbitrary shape such as a circle, rectangle, or ellipse on the window 102.
  • the control unit 30 sets the range specified by the user as the measurement range. Further, the control unit 30 may set a measurement range based on information set in the condition table 46. Further, the control unit 30 may extract an image of a pattern onto which an illumination light beam is projected from an image acquired by the imaging device 9 and set a range in which the image of the pattern is extracted as a measurement range.
  • the measurement range setting unit 36 performs the measurement range setting process based on the position coordinates of the image data, and the conditions of the storage unit 31 are determined. Write to the table 46 (step S114).
  • the control unit 30 sets a range smaller than the range that can be captured by the imaging device 9 as the measurement range.
  • the control part 30 sets an attention area to a measurement range, when the setting which makes an attention area the measurement range is selected.
  • control unit 30 determines whether the dimming area is set by the input device 6 (step S112). S116).
  • control unit 30 When it is determined that the light control area is set (Yes in step S116), the control unit 30 performs a light control area setting process by the light control area setting unit 37 (step S118). The control unit 30 sets the attention area as the dimming area when the setting for setting the attention area as the dimming area is selected.
  • the control unit 30 determines whether to perform pre-scanning (step S120).
  • the pre-scan is a position where the optical probe 3 and the object to be measured are relatively moved based on a set condition, the position where the pattern image is projected is moved, and the line light image is projected. Is displayed on the display device 5. While relatively moving the object to be measured, image data including an image of a line pattern acquired by the imaging device 9 at a predetermined frame rate is displayed one after another.
  • the control unit 30 executes the pre-scan process (Step S122).
  • control unit 30 determines whether the setting is completed (step S124). When it is determined that the setting has not been completed (No in step S124), the control unit 30 returns to step S112 and executes the above-described process again.
  • the control unit 30 generates the shape measurement program after the measurement range position information and the dimming range position information stored in the storage unit 31 and the measurement conditions such as the scanning path of the optical probe 3 are set (step). S128).
  • the control unit 30 generates a shape measurement program for measuring the object to be measured Ma including the measurement range, the light control region, the light control method, and the measurement coordinate calculation region, and stores the shape measurement program in the storage unit 31.
  • the control unit 30 determines the measurement path and the measurement speed based on various conditions, the movement path in the XYZ-axis direction by the probe moving device 2, the rotation speed in the Z ⁇ direction by the holding and rotating device 7, and the optical probe 3.
  • a shape measurement program including information on the determined operation, information on the determined operation, information on the set dimming conditions, and information on a measurement range for extracting the position of the pattern image from the acquired image Generate.
  • the control unit 30 determines whether to perform measurement after generating the shape measurement program (step S130).
  • the measurement means that the optical probe 3 and the object to be measured Ma are relatively moved based on the set conditions, the position where the pattern image is projected is moved, and the pattern image is projected within the measurement region. This is a process for measuring the shape by obtaining the coordinate value (point group data) of each part of the object to be measured.
  • the control unit 30 repeats imaging of the imaging device 8 at a predetermined frame rate.
  • the dimming control unit 38 detects the luminance value of the pixel having the maximum value in each maximum pixel search sequence included in the dimming range from the captured image data, and the maximum luminance value (the value of the brightest pixel). ) As the maximum pixel value, and the dimming control unit 38 outputs dimming control information to the light source device 8 and the imaging device 9 (step S131). Next, based on the dimming conditions, the imaging device 9 captures an image of the pattern projected on the object Ma to be measured, and sends the image data at that time to the measuring unit 39 of the control unit 30 (step S132).
  • the measurement unit 39 obtains the position of the pattern image from the image data based on the measurement range information, and the pattern of the object to be measured Ma is determined from the position information of the probe moving device 2 and the position information of the pattern image.
  • a three-dimensional coordinate value of the projected portion is calculated (step S133).
  • the control unit 30 of the present embodiment can extract the line light image with high accuracy by setting the attention area and setting the attention area as the measurement range.
  • the measurement range can be set on the basis of the image of the line light, it is possible to suppress the bright line 144 from being included in the measurement range. As a result, the line light image (pattern image) can be more reliably extracted.
  • the control unit 30 of the present embodiment can reduce the possibility that light other than the light of the line light enters the dimming area by setting the attention area and setting the attention area as the dimming area. Thereby, the light control conditions which are easy to detect a line light can be set.
  • the control unit 30 of the present embodiment can automatically extract a region of interest whose position changes based on the position of the line light image based on the image data as described above. Accordingly, the image data is confirmed for each relative position between the optical probe 3 and the object M to be measured, and the measurement range and the light control region in which the position moves can be set without setting the measurement range and the light control region. be able to.
  • control unit 30 enables the prescan process to be performed, so that the variation in the image in the measurement range and the dimming area when the object to be measured M and the illumination light beam L move relative to each other can be changed. Can be visually confirmed. Thereby, a measurement range and a light control area
  • the attention area setting unit 32 of the above embodiment sets the set area around the line light image as the attention area on the basis of the position of the line light image
  • the attention area setting method is not limited to this.
  • FIG. 14 is a flowchart showing an example of the attention area setting operation of the shape measuring apparatus of the present embodiment.
  • the attention area setting operation shown in FIG. 14 is the same as the attention area setting operation shown in FIG. 8 except for some processes.
  • the same processes as those of the attention area setting operation shown in FIG. 8 are denoted by the same steps, and detailed description thereof is omitted. This series of setting operations is also performed at each photographing timing.
  • the control unit 30 acquires the image data captured by the imaging device 9 by the image data acquisition unit 80 (step S12). After acquiring the image data, the control unit 30 causes the projection pattern image detection unit 84 to read the attention area data stored in the attention area data 42 (step S14). Next, the control unit 30 causes the projection pattern image detection unit 84 to detect an image of line light in the attention area (step S16).
  • the control unit 30 After detecting the position of the line light image, the control unit 30 detects the distance between the edge of the attention region and the detected line light image by the attention region determination unit 86 (step S140).
  • the attention area determination unit 86 detects the distance between the edge of the attention area and the line light image.
  • the distance between the edge of the region of interest and the line light image may be detected at a plurality of set representative points or at all positions.
  • the distance between the edge of the region of interest and the line light image is the distance in the direction along the maximum pixel search sequence.
  • the control section 30 After detecting the distance between the edge of the attention area and the detected line light image, the control section 30 determines whether the distance is within the threshold by the attention area determination section 86 (step S141). When the attention area determination section 86 determines that the distance is within the threshold (Yes in step S141), that is, when the line light image is close to the edge of the attention area, the control section 30 determines the position of the line light image. Based on this, the position of the attention area is moved (step S142). When the attention area determination section 86 determines that the distance is within the threshold (Yes in step S141), that is, when the line light image is close to the edge of the attention area, the control section 30 determines the position of the line light image. Based on this, the position of the attention area is moved (step S142).
  • the attention area determination unit 86 moves the attention area in a direction in which the line light image approaches the center of the attention area.
  • the control section 30 determines the position of the line light image. Based on this, the position of the attention area is moved.
  • control unit 30 After performing the processing of step S142 and step S144, the control unit 30 performs the second attention area generation determination process after determining the position of the attention area (step S20).
  • the subsequent processing is equivalent to the processing shown in FIG.
  • the shape measuring apparatus 1 can simplify the process of setting the attention area by maintaining the shape of the attention area.
  • FIG. 15 is a block diagram illustrating a schematic configuration of the attention area setting unit and the storage unit of the control device.
  • FIG. 15 shows an attention area setting unit 32A and a storage unit 31A of the control unit 30A of the control device 4A.
  • the storage unit 31A includes a condition table 46, a shape measurement program 48, attention area template data 182, read address data 184, and image data 186.
  • the storage unit 31 stores various programs and data used for controlling the operation of the shape measuring apparatus 1 in addition to these programs and data.
  • the attention area template data 182 can be designated in advance by the user, and is an area set corresponding to the field of view that can be imaged by the imaging device 9. This attention area template data can be moved in a position to be superimposed on the field of view that can be imaged by the imaging device 9.
  • the read address data 184 stores information on which position in the image data the region-of-interest template data 182 is superimposed on and the relationship between the relative position between the optical probe 3 and the object M to be measured.
  • the image data 186 stores image data acquired by the image data acquisition unit 80 and captured by the imaging device 9.
  • the attention area setting unit 32A includes an attention area setting section 34A, a distance measurement area setting section 178, and a superimposed image generation section 179.
  • the attention area setting section 34A includes an image data acquisition section 80, a movement information acquisition section 82, a projection pattern image detection section 84, a detection attention area generation section 172, a distance measurement section 174, and an attention area position determination section 176. And consisted of
  • the detection attention area setting section 172 generates a detection attention area used for setting the attention area based on the attention area template data 182 and the read address data 184.
  • the detection attention area is information on the attention area set based on the image data acquired immediately before the movement to the relative position between the target optical probe 3 and the object M to be set.
  • the distance measuring unit 174 measures the distance between the line light image included in the detection attention area and the detection attention area.
  • the distance between the detection region of interest and the line light image may be detected for a plurality of set representative points or at all positions.
  • the distance between the edge of the region of interest for detection and the image of the line light is the distance in the direction along the maximum pixel search sequence.
  • the distance in the direction along the maximum pixel search sequence between the edge of the region of interest and the line light image may be the average of the distances of the representative points of a plurality of points, or the entire region in the direction substantially orthogonal to the maximum pixel search sequence of the region of interest It is good also as the average measured by.
  • the attention area position determination unit 176 determines the position where the attention area template data is arranged with respect to the image data.
  • the attention area position determination unit 176 stores the determined position information in the read address data 184 in association with the relative positions of the optical probe 3 and the object M to be measured.
  • the distance measurement area setting unit 178 sets a position for measuring the distance between the detection attention area and the line light image.
  • the superimposed image generation unit 179 generates an image in which the image of the line light extracted by each of the plurality of acquired image data is superimposed while the optical probe 3 and the measurement object M are relatively moved.
  • the superimposed image generation unit 179 extracts the image of the line light image by extracting only the image of the attention area from the image data based on the information of the attention area.
  • FIG. 16 is a flowchart showing an example of the attention area setting operation of the shape measuring apparatus of the present embodiment.
  • FIG. 17 is an explanatory diagram of an example of attention area template data.
  • 18 and 19 are explanatory diagrams for explaining an example of the attention area setting operation.
  • the process illustrated in FIG. 16 is realized by executing the process in the attention area setting unit 32A of the control unit 30A. Further, the control unit 30A relatively moves the optical probe 3 and the object to be measured, and measures the shape of the object to be measured M by executing the process shown in FIG. 16 for each position where the pattern image is projected. Set the region of interest at each position.
  • control parts acquire the image data imaged with the imaging device 9 by the image data acquisition part 80 (step S212).
  • the control unit 30A acquires the attention region template data 182 by using the detection attention region generation unit 172 (step S214), and acquires the read address data 184 (step S216).
  • a region of interest for detection is generated with the region of interest template data (step S218).
  • the detection attention area is an attention area in which a position to be overlapped with the image data is specified.
  • the shape measuring apparatus 1 has an attention area template 500 shown in FIG. 17 as attention area template data 182.
  • the attention area template 500 is data indicating the positions of the two attention areas 502 and 504.
  • the attention area template data 182 stores the attention area template 500 in, for example, a lookup table.
  • the control unit 30A determines the position of the attention area template 500 to be overlaid on the image data Fa based on the address information.
  • the control unit 30 shifts the image data Fa by a distance of ⁇ 1 in the ⁇ direction and a distance of ⁇ 1 in the ⁇ direction.
  • a target region for detection having target regions 502 and 504 in which the target region template 500 is superimposed at the determined position is generated.
  • the control unit 30A After generating the attention area for detection, the control unit 30A detects the line light image in the attention area for detection by the projection pattern image detection section 84 (step S220). After detecting the position of the line light image, the control unit 30A detects the distance in the direction along the maximum pixel search sequence between the edge of the region of interest and the line light image (step S222).
  • the attention area is a detection attention area or a attention area in which the position of the detection attention area is changed.
  • the control unit 30 ⁇ / b> A has six directions of points P 1, P 2, and P 3 of the attention area 502 and points P 4, P 5, and P 6 of the attention area 504 in the direction along the maximum pixel search sequence.
  • the line light image and distance are detected.
  • the distance in the direction along the maximum pixel search sequence between the edge of the region of interest and the line light image may be the average of the distances of the representative points of a plurality of points, or the entire region in the direction substantially orthogonal to the maximum pixel search sequence of the region of interest It is good also as the average measured by.
  • the control unit 30A determines whether the distance detected by the attention area position determination unit 176 is within the threshold range (step S224). When the control unit 30A determines that the distance is not within the threshold (No in step S224), the attention region position determination unit 176 changes the address of the attention region (step S226), and an image is generated using the address and the attention region template data. A region of interest whose position with respect to the data is changed is generated (step S228), and the process returns to step S222.
  • control unit 30A When it is determined that the distance is within the threshold value (Yes in step S224), the control unit 30A causes the attention region position determination unit 176 to read the address of the attention region and store it in the address data 184. In addition, the control unit 30A associates the relative position between the optical probe 3 acquired by the movement information acquisition unit 82 and the measured object with the address of the region of interest and stores it in the read address data 184.
  • the control device 30A sets the address position for the image data acquired while the relative position is moving, that is, the image data of each frame, thereby moving the attention area in the moving direction of the line light image as shown in FIG. It can be moved along the arrow 510. Further, the control device 30A switches the correspondence between the attention area and the line light image so that the line light image detected in the attention area 504 is detected in the attention area 502 at a predetermined timing. Is preferably set. Thereby, it is possible to efficiently detect the line light image in a plurality of attention areas.
  • control device 30A can set the relationship between the relative movement between the optical probe 3 and the object M to be measured and the moving direction of the line light image on the image data. This makes it easier to find the line light image when detecting the line light image based on the region of interest.
  • the control device 30A displays the image captured by the imaging device 9 together with the screen for setting the moving direction.
  • the image data Fc including the line light image 610 illustrated in FIG. 20
  • the image data Fd including the line light image 610a illustrated in FIG.
  • the image data Fc is image data of a frame at the start of measurement.
  • Image data Fc is image data of a frame at the end of measurement.
  • the control device 30A preferably displays both the image data Fc and the image data Fd.
  • the control device 30A displays the image generated by the superimposed image generation unit 179 on the screen for setting the moving direction.
  • the control device 30 ⁇ / b> A adds the line light image of the frame between the image data Fc and the image data Fd, and displays the image data 600 in which the line light images are superimposed.
  • the image data 600 includes both a line light image 610 of the image data Fc and a line light image 610a of the image data Fd.
  • the control device 30A can display an image in which the direction of the arrow 630 can be easily recognized by displaying the image generated by the superimposed image generation unit 179.
  • the shape measuring apparatus 1 detects the position of the line light image based on the image data including the line light image acquired by the imaging device 9 as in the above-described embodiment, and pays attention based on the position of the line light image. Although it is preferable to set an area
  • the shape measuring apparatus 1 may set a region of interest without using image data.
  • the shape measuring apparatus 1 may set the region of interest based on position information when the line light is projected onto the object to be measured. As an example, the shape measuring apparatus 1 performs a simulation based on the specification data 49 and various conditions of the apparatus, estimates the position of the line light image, and determines the region of interest based on the estimated position of the line light image. It may be set.
  • the shape measuring apparatus 1 may detect the moving direction of the line light image and move the position of the region of interest on the screen data based on the moving direction.
  • the movement amount may be constant or may vary according to a set rule.
  • the shape measuring apparatus 1 may detect the moving direction based on the relative movement between the optical probe 3 and the DUT M and move the attention area.
  • the present invention is not limited to this.
  • a system may be used.
  • the longitudinal direction of the line pattern corresponds to the scanning direction of the deflection scanning mirror.
  • FIG. 23 is a schematic diagram showing a configuration of a system having a shape measuring apparatus.
  • the shape measuring system 300 includes a shape measuring device 1, a plurality (two in the figure) of shape measuring devices 1 a, and a program creation device 302.
  • the shape measuring devices 1 and 1a and the program creating device 302 are connected by a wired or wireless communication line.
  • the shape measuring apparatus 1a has the same configuration as the shape measuring apparatus 1 except that the attention area setting unit 32 is not provided.
  • the program creation device 302 creates various settings and programs created by the control device 4 of the shape measuring device 1 described above.
  • the program creation device 302 includes a shape measurement program including information on a measurement range, a dimming area settable range and a dimming area, a measurement range, a dimming area settable range, and information on a dimming area. create.
  • the program creation device 302 outputs the created program and data to the shape measuring devices 1 and 1a.
  • the shape measuring device 1a acquires area and range information and a shape measuring program from the shape measuring device 1 and the program creation device 302, and performs processing using the acquired data and program.
  • the shape measurement system 300 effectively uses the created data and program by executing measurement with the shape measurement device 1a using the data and program created by the shape measurement device 1 and the program creation device 302 as a measurement program. be able to.
  • the shape measuring apparatus 1a can perform the measurement without providing the attention area setting unit 32 and each part for performing other settings.
  • FIG. 24 is a block diagram of the structure manufacturing system.
  • the structure manufacturing system 200 of this embodiment includes a shape measuring device 201, a design device 202, a forming device 203, a control device (inspection device) 204, and a repair device 205 as described in the above embodiment.
  • the control device 204 includes a coordinate storage unit 210 and an inspection unit 211.
  • the design device 202 creates design information related to the shape of the structure, and transmits the created design information to the molding device 203.
  • the design apparatus 202 stores the created design information in the coordinate storage unit 210 of the control apparatus 204.
  • the design information includes information indicating the coordinates of each position of the structure.
  • the forming apparatus 203 creates the above structure based on the design information input from the design apparatus 202.
  • the molding of the molding apparatus 203 includes, for example, casting, forging, cutting, and the like.
  • the shape measuring device 201 measures the coordinates of the created structure (measurement object) and transmits information (shape information) indicating the measured coordinates to the control device 204.
  • the coordinate storage unit 210 of the control device 204 stores design information.
  • the inspection unit 211 of the control device 204 reads design information from the coordinate storage unit 210.
  • the inspection unit 211 compares information (shape information) indicating coordinates received from the shape measuring apparatus 201 with design information read from the coordinate storage unit 210.
  • the inspection unit 211 determines whether or not the structure has been molded according to the design information based on the comparison result. In other words, the inspection unit 211 determines whether or not the created structure is a non-defective product.
  • the inspection unit 211 determines whether or not the structure can be repaired when the structure is not molded according to the design information. When the structure can be repaired, the inspection unit 211 calculates a defective portion and a repair amount based on the comparison result, and transmits information indicating the defective portion and information indicating the repair amount to the repair device 205.
  • the repair device 205 processes the defective portion of the structure based on the information indicating the defective portion received from the control device 204 and the information indicating the repair amount.
  • FIG. 25 is a flowchart showing the flow of processing by the structure manufacturing system.
  • the design device 202 creates design information related to the shape of the structure (step S301).
  • molding apparatus 203 produces the said structure based on design information (step S302).
  • the shape measuring apparatus 201 measures the shape of the created structure (step S303).
  • the inspection unit 211 of the control device 204 inspects whether or not the structure is created according to the design information by comparing the shape information obtained by the shape measurement device 201 with the design information (step). S304).
  • the inspection unit 211 of the control device 204 determines whether or not the created structure is a good product (step S305).
  • the inspection unit 211 determines that the created structure is a non-defective product (Yes in step S305)
  • the structure manufacturing system 200 ends the process. If the inspection unit 211 determines that the created structure is not a non-defective product (No in step S305), the inspection unit 211 determines whether the created structure can be repaired (step S306).
  • the repair device 205 performs reworking of the structure (Step S307), and the process of Step S303 is performed. Return to processing.
  • the inspection unit 211 determines that the created structure cannot be repaired (No in step S306), the structure manufacturing system 200 ends the process.
  • the structure manufacturing system 200 ends the process of the flowchart shown in FIG.
  • the structure manufacturing system 200 of the present embodiment can determine whether or not the created structure is a good product because the shape measuring apparatus 201 in the above embodiment can measure the coordinates of the structure with high accuracy. be able to. In addition, the structure manufacturing system 200 can repair the structure by reworking the structure when the structure is not a good product.
  • the repair process executed by the repair device 205 in the present embodiment may be replaced with a process in which the molding device 203 re-executes the molding process.
  • molding apparatus 203 re-executes a shaping
  • the shape measuring apparatus 1 in the above embodiment has exemplified the configuration in which the holding member 55 cantilever holds the optical probe 3, but the configuration is not limited to this and may be held by both ends. By holding both ends, the deformation generated in the holding member 55 during rotation can be reduced, and the measurement accuracy can be improved.
  • line light is projected as the illumination light beam L from the optical probe 3 and a line pattern reflected from the object to be measured is imaged.
  • the type of the optical probe 3 is not limited to this.
  • the illumination light emitted from the optical probe 3 may be projected in a lump on a predetermined plane.
  • the method described in US Pat. No. 6,075,605 may be used.
  • the illumination light emitted from the optical probe may be in the form of projecting point spot light.
  • the shape measuring apparatus is preferably used for measurement of an object to be measured having a concavo-convex shape having a repeated shape in the circumferential direction and extending in a direction different from the circumferential direction as in the above embodiment. be able to.
  • the shape measuring apparatus can use the set conditions for measuring other repetitive shapes by setting a measurement range, a dimmable region settable range, and a dimming region for one of the repetitive shapes.
  • the object to be measured is not limited to a shape having a repetitive shape in the circumferential direction and having an uneven shape extending in a direction different from the circumferential direction, and various shapes such as a shape not having a repetitive shape. It may be.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

 被測定物の形状をより適切な条件で測定することができること。形状測定装置は、パターンを測定対象に光を投影する投影部と、投影部によりパターンが投影された測定対象を撮像する撮像部と、投影部と測定対象とを相対移動させて、測定対象へのパターンの前記測定対象上における投影位置を移動可能な移動部と、測定対象の測定に利用される情報を取得するための注目領域をパターンの像を含むように撮像部で撮像される領域の少なくとも一部に設定する注目領域設定部と、を備える。

Description

形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム、及び記録媒体
 本発明は、形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム、及び記録媒体に関する。
 形状測定装置には、被測定物にスリット光等の所定のパターンを投影する投影部と、測定対象領域に投影された光が描くパターン像を撮像する撮像部とを備え、光切断法を利用した光学式測定装置がある(例えば、特許文献1を参照)。特許文献1には、撮像して取得した画像データのうち、設定された測定対象領域に含まれる像を検出して測定対象物の変位を測定する変位センサが記載されている。また、特許文献1には、測定対象領域を基準面の移動に追従させて変位測定方向へと移動させることが記載されている。
国際公開2001/057471号
 特許文献1に記載の形状測定装置は、測定対象領域を基準面の移動に追従させて変位測定方向へと移動させる。具体的には、計測対象物体上の段差境界線の移動に基づいて、測定対象領域を基準面の移動に追従させて変位測定方向へと移動させている。しかしながら、パターンと測定対象物体の相対移動に対する画像データ上におけるパターンの位置の移動方向、移動距離は、測定対象物体の形状、パターンと測定対象物体の相対移動方向、投影部及び撮像部と測定対象物体との相対位置等によって変化するため、測定対象領域が適切に設定できていない場合がある。
 本発明は、以上のような点を考慮してなされたもので、測定対象上に投影されたパターンの投影位置の移動に基づいてパターンの像を適切に抽出し、測定対象の測定に利用することができる形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム、及び記録媒体を提供することを目的とする。
 本発明の第1の態様に従えば、パターンを測定対象に投影する投影部と、投影部によりパターンが投影された測定対象を撮像する撮像部と、投影部と測定対象とを相対移動させて、測定対象への前記パターンの測定対象上における投影位置を移動可能な移動部と、測定対象の測定に利用される情報を取得するための注目領域を前記パターンの像を含むように撮像部で撮像される領域の少なくとも一部に設定する注目領域設定部と、を備える形状測定装置が提供される。
 本発明の第2の態様に従えば、パターンを測定対象に投影する投影部と、前記投影部によりパターンが投影された測定対象を撮像する撮像部と、前記投影部と前記測定対象とを相対移動させて、前記測定対象への前記パターンの前記測定対象上における投影位置を移動可能な移動部と、前記撮像部で撮像された前記測定対象へ投影されたパターンの像の存在状態を検出する基準注目領域を設定可能とし、前記基準注目領域内のパターンの像の存在状態に応じて、前記測定に利用される情報を取得する領域を設定する注目領域を生成する注目領域生成部と、を備える形状測定装置が提供される。
 本発明の第3の態様に従えば、構造物の形状に関する設計情報に基づいて構造物を成形する成形装置と、成形装置によって成形された構造物の形状を測定する第1の態様または第2の態様の形状測定装置と、形状測定装置によって測定された構造物の形状を示す形状情報と設計情報とを比較する制御装置と、を備える構造物製造システムが提供される。
 本発明の第4の態様に従えば、測定対象へパターンを投影し、前記パターンの投影方向とは異なる方向から前記測定対象に投影された前記パターンの像を撮像して画像データを取得し、画像データの前記パターンの像に基づいて、測定対象の形状を測定する形状測定方法であって、パターンの投影位置が測定対象に対して相対移動することと、測定対象の測定に利用される情報を取得するための注目領域を前記パターンの像を含むように撮像部で撮像される領域の少なくとも一部に設定することと、画像データの注目領域内に位置する前記パターンの像の位置に基づいて測定対象の形状を測定することと、を備える形状測定方法が提供される。
 本発明の第5の態様に従えば、構造物の形状に関する設計情報に基づいて構造物を成形することと、成形された構造物の形状を第4の態様の形状測定方法によって測定することと、測定された構造物の形状を示す形状情報と設計情報とを比較することと、を含む構造物製造方法が提供される。
 本発明の第6の態様に従えば、測定対象へパターンを投影し、パターンの投影方向とは異なる方向から測定対象に投影されたパターンの像を撮像して画像データを取得し、画像データのパターンの像に基づいて、測定対象の形状を測定する形状測定プログラムであって、コンピュータにパターンの投影位置が測定対象に対して相対移動する投影ことと、測定対象の測定に利用される情報を取得するための注目領域をパターンの像を含むように撮像部で撮像される領域の少なくとも一部に設定することと、画像データの注目領域内に位置するパターンの像の位置に基づいて測定対象の形状を測定することと、を実行させる形状測定プログラムが提供される。
 本発明の第7の態様に従えば、第6の態様の形状測定プログラムを記録し、コンピュータが読み取り可能な記録媒体が提供される。
 本発明では、パターンの像を適切に抽出し、測定対象の測定に利用することができ、被測定物の形状をより適切な条件で測定することができる。
図1は、本実施形態の形状測定装置を示す斜視図である。 図2は、本実施形態の形状測定装置の構成を示す模式図である。 図3は、本実施形態の形状測定装置の制御装置の概略構成を示すブロック図である。 図4は、制御装置の注目領域設定ユニットの概略構成を示すブロック図である。 図5は、本実施形態の形状測定装置の測定動作を説明するための説明図である。 図6は、本実施形態の形状測定装置に表示する画面の一例を説明するための説明図である。 図7は、本実施形態の形状測定装置の測定動作を説明するための説明図である。 図8は、本実施形態の形状測定装置の注目領域設定動作の一例を示すフローチャートである。 図9は、本実施形態の形状測定装置の第2の注目領域の生成判定処理の一例を示すフローチャートである。 図10は、本実施形態の形状測定装置の第2の注目領域の生成判定処理の一例を示すフローチャートである。 図11は、基準注目領域データの一例を示す説明図である。 図12は、注目領域設定動作の一例を説明するための説明図である。 図13は、本実施形態の形状測定装置の測定動作の一例を示すフローチャートである。 図14は、本実施形態の形状測定装置の注目領域設定動作の一例を示すフローチャートである。 図15は、制御装置の注目領域設定ユニットと記憶部の概略構成を示すブロック図である。 図16は、本実施形態の形状測定装置の注目領域設定動作の一例を示すフローチャートである。 図17は、注目領域テンプレートデータの一例を示す説明図である。 図18は、注目領域設定動作の一例を説明するための説明図である。 図19は、注目領域設定動作の一例を説明するための説明図である。 図20は、注目領域設定動作の一例を説明するための説明図である。 図21は、注目領域設定動作の一例を説明するための説明図である。 図22は、注目領域設定動作の一例を説明するための説明図である。 図23は、形状測定装置を有するシステムの構成を示す模式図である。 図24は、本実施形態の構造物製造システムの構成を示す図である。 図25は、本実施形態の構造物製造方法を示すフローチャートである。
 以下、本発明につき図面を参照しつつ詳細に説明する。なお、下記の発明を実施するための形態(以下、実施形態という)により本発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、下記実施形態で開示した構成要素は適宜組み合わせることが可能である。
 以下の説明においては、XYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。Z軸方向は、例えば鉛直方向に設定され、X軸方向及びY軸方向は、例えば、水平方向に平行で互いに直交する方向に設定される。また、X軸、Y軸、及びZ軸まわりの回転(傾斜)方向をそれぞれ、θX、θY、及びθZ軸方向とする。
(本実施形態)
 図1は、本実施形態に係る形状測定装置1の外観を示す図である。図2は、本実施形態の形状測定装置の概略構成を示す模式図である。図3は、本実施形態の形状測定装置の制御装置の概略構成を示すブロック図である。
 形状測定装置1は、例えば光切断法を利用して、測定対象の物体(被測定物)Mの三次元的な形状を測定する。形状測定装置1は、プローブ移動装置2と、光学プローブ3と、制御装置4と、表示装置5と、入力装置6と、保持回転装置7と、を備える。形状測定装置1は、ベースBに設けられた保持回転装置7に保持されている被測定物Mの形状を測定する。そのために、光学プローブ3は被測定物Mにライン状のパターンを投影しながら、被測定物Mにライン状のパターンの像を撮像する。また、本実施形態では、プローブ移動装置2と保持回転装置7とが、プローブと被測定物Mとを相対的に移動させる移動機構となる。
 プローブ移動装置2は、光学プローブ3に投影されるライン状のパターンが被測定物Mの測定対象領域に投影されるように光学プローブ3を被測定物Mに対して移動させる。また、ライン状のパターンの投影位置が被測定物M上で逐次移動できるように被測定物Mに対して光学プローブ3を移動させる。プローブ移動装置2は、図2に示すように、駆動部10、及び位置検出部11を備えている。駆動部10は、X移動部50X、Y移動部50Y、Z移動部50Z、第1回転部53、及び第2回転部54を備えている。
 X移動部50Xは、ベースBに対して矢印62の方向、つまりX軸方向に移動自在に設けられている。Y移動部50Yは、X移動部50Xに対して矢印63の方向、つまりY軸方向に移動自在に設けられている。Y移動部50Yには、Z軸方向に延在する保持体52が設けられている。Z移動部50Zは、保持体52に対して、矢印64の方向、つまりZ軸方向に移動自在に設けられている。これらX移動部50X、Y移動部50Y、Z移動部50Zは、第1回転部53、第2回転部54とともに光学プローブ3をX軸方向、Y軸方向及びZ軸方向に移動可能にする移動機構を構成している。
 第1回転部53は、後述する保持部材(保持部)55に支持される光学プローブ3をX軸と平行な回転軸線(回転軸)53aを中心とする回転方向、つまり矢印65の方向に回転して光学プローブ3の姿勢を変える。特に、第1回転部53により、光学プローブ3から投影されるパターンの被測定物Mへの投影方向が変えられる。第2回転部54は、保持部材55に支持される光学プローブ3を後述する第1保持部55Aが延在する方向と平行な軸線を中心とする回転方向、つまり矢印66の方向に回転して光学プローブ3の姿勢を変える。特に、第2回転部54により、光学プローブ3から投影されるライン状のパターンの長手方向の向きが被測定物Mに対して変えられる。形状測定装置1は、光学プローブ3と光学プローブ3を保持している保持部材55との相対位置の補正に用いる基準球73aまたは基準球73bを有する。
 保持回転装置7は、図1および図2に示すように、被測定物Mを保持するテーブル71と、テーブル71をθZ軸方向、つまり矢印68の方向に回転させる回転駆動部72と、テーブル71の回転方向の位置を検出する位置検出部73と、を有する。位置検出部73は、テーブル71または回転駆動部72の回転軸の回転を検出するエンコーダ装置である。保持回転装置7は、位置検出部73で検出した結果に基づいて、回転駆動部72によってテーブル71を回転させる。保持回転装置7とプローブ移動装置3により、光学プローブ3から投影されるライン状のパターンは、被測定物Mの任意の測定対象領域に投影することができる。
 これら、X移動部50X、Y移動部50Y、Z移動部50Z、第1回転部53、及び第2回転部54、保持回転装置7の駆動は、エンコーダ装置等によって構成される位置検出部11の検出結果に基づいて、制御装置4により制御される。
 光学プローブ3は、保持部材55に支持されている。保持部材55は、回転軸線53aと直交する方向に延び、第1回転部53に支持される第1保持部(第1部分、第1部材)55Aと、第1保持部55Aの+Z側の端部に設けられ回転軸線53aと平行に延びる第2保持部(第2部分、第2部材)55Bとを有する。第1保持部55Aの+Z側の端部は、被測定物Mに対して遠い側に配置されている。第1保持部55Aと第2保持部55Bとは直交する。第2保持部55Bの+X側の端部に光学プローブ3が支持されている。第1回転部53の回転軸線53aの位置は、光学プローブ3よりも、被測定物Mに近い側に配置されている。また、第1保持部55Aの被測定物Mに対して近い側の端部には、カウンターバランス55cが設けられている。したがって、第1の回転部53の回転軸線53aに対して、保持部材55側に生じるモーメントとカウンターバランス55c側に生じるモーメントが釣り合っている。
 ところで、光学プローブ3は、光源装置8及び撮像装置9を備えている。光源装置8及び撮像装置9は共通の筐体により固定されている。したがって、光源装置8によるライン状のパターンの投影方向と撮像装置9による撮影方向とそれぞれの位置関係は固定された状態に保たれている。したがって、ライン状のパターンの投影方向と撮像装置9の撮影方向とその両者間の位置関係を基に、撮像装置9で検出されたライン状のパターンの像の位置から三角測量法に基づき、被測定物Mの測定対象領域における三次元空間での位置を求めることができる。光学プローブ3の光源装置(投影部)8は、制御装置4によって制御され、保持回転装置7に保持された被測定物Mの測定領域にライン状のパターンを投影するものであり、光源12、照明光学系13を備える。本実施形態の光源12は、例えば、レーザーダイオードを含む。なお、光源12は、レーザーダイオード以外の発光ダイオード(LED)等の固体光源を含んでいてもよい。また、本実施形態の光源12は制御装置4により投光量が制御されている。特に、制御装置4にある調光制御部38で制御している。
 照明光学系13は、光源12から発せられた光の空間的な光強度分布を調整する。本実施形態の照明光学系13は、例えば、シリンドリカルレンズを含む複数の光学素子からなる。なお、照明光学系13は、1つの光学素子であってもよいし、複数の光学素子を含んでいてもよい。光源12から発せられた光は、シリンドリカルレンズが正のパワーを有する方向にスポットが広げられて、光源装置8から被測定物Mに向く第1方向に沿って出射する。図2に示したように、回転軸線53aに直交する面に光源装置8と撮像装置9を配置し、光源装置8から投影した光の進行方向が回転軸線53aに直交する面を通る向きで、光源装置8から出射し、被測定物Mに投影した場合、光源装置8からの出射方向に対して直交する面を有する被測定物Mに投影されたときには、回転軸線53aと平行な方向を長手方向とし、回転軸線53aに平行なライン状のパターンになる。
 なお、このライン状のパターンの長手方向は、先に説明した第2回転部54により方向を変えられる。被測定物Mの面の広がり方向に応じて、ライン状のパターンの長手方向を変えることで、効率的に測定することができる。また、同時に撮像装置9による撮影方向も変わる。したがって、歯車のような凸部が並んだ形状の被測定物であっても、歯筋に沿って撮影方向を設定することで、歯底の形状も測定することができる。
 なお、照明光学系13は、CGH等の回折光学素子を含み、光源12から発せられた照明光束Lの空間的な光強度分布を回折光学素子によって調整してもよい。また、本実施形態において、空間的な光強度分布が調整された投影光をパターンということがある。照明光束Lは、パターンの一例である。ところで、本明細書ではパターンの向きと称しているときは、このライン状のパターンの長手方向の方向を示している。
 撮像装置(撮像部)9は、撮像素子20、結像光学系21、ダイヤフラム23、及びダイヤフラム駆動部24を備える。光源装置8から被測定物Mに投影された照明光束Lは、被測定物Mの表面で反射散乱して、その少なくとも一部が結像光学系21へ入射する。結像光学系21は、光源装置8によって被測定物Mの表面に投影されたライン状のパターンの像を被測定物Mの像と一緒に撮像素子20に結ぶ。撮像素子20は、この結像光学系21が形成する像を撮像する。画像処理部25は、撮像素子20で受光した受光信号から画像データを生成する。ダイヤフラム23は大きさを可変可能にする開口を有し、開口の大きさを変えることで結像光学系21を通過する光量を制御することができる。ダイヤフラム23の開口の大きさは、ダイヤフラム駆動部24により調整可能である。このダイヤフラム駆動部24は制御装置4に制御されている。特に、制御装置4にある調光制御部38で制御している。
 結像光学系21は、光源装置8から投影されるライン状のパターンの投影方向を含むように物体面21aが設定され、その物体面と撮像素子20の受光面20a(像面)とが共役な関係になるように結像光学系21と撮像素子20が配置されている。照明光束Lの伝播方向は、光源装置8からの照明光束Lの投影方向と照明光束Lのスポットの形状の長手方向とを含む面とほぼ平行となる。物体面と撮像素子20の受光面20aと共役な面を照明光束Lの伝播方向に沿って形成するようにすることで、被測定物Mの表面と照明光束Lがどの位置で交差しても、撮像装置9で撮影された照明光束Lによるパターンの像は合焦した像となる。
 制御装置4は、形状測定装置1の各部を制御する。制御装置4は、光学プローブ3による撮像結果とプローブ移動装置2及び保持回転装置7の位置情報に基づき、演算処理を行って被測定物Mの測定対象領域の3次元形状を算出する。本実施形態における形状情報は、測定対象の被測定物Mの少なくとも一部に関する形状、寸法、凹凸分布、表面粗さ、及び測定対象面上の点の位置(座標)、の少なくとも1つを示す情報を含む。制御装置4には、表示装置5、及び入力装置6が接続される。制御装置4は、図3に示すように、制御部30と、記憶部31と、を有する。
 制御部30は、被測定物Mを正確に測定するために必要な回路ブロックを有している。なお、本実施の形態では、中央演算処理装置を用いて、被測定物Mを正しく測定するために必要な機能を、それぞれ対応するプログラムを実行することで実現していてもよい。制御部30は、注目領域設定ユニット32と、測定範囲設定部36と、調光領域設定部37と、調光制御部38と、測定部39と、動作制御部40と、を有する。
 注目領域設定ユニット32は、画像データ上の領域を示す注目領域を設定する。この注目領域は、撮像素子20で撮像された、被測定物M上に投影された照明光束Lの像を容易に抽出しやすくするために照明光束Lの像の探索範囲を制限するために利用したり、または、撮像時の露出制御や照明光束Lの照明光量制御のために取得する照明光束Lの像の明るさ情報を取得する範囲を限定するためになどに利用する。特に、被測定物Mが歯車のような凸部のピッチが狭い形状を持ち、その表面が光沢を有するものは、その表面が合わせ鏡のような作用を発揮してしまうため、照明光束Lが照射された領域以外にも照明光束Lの像が形成されてしまう。これを多重反射像という。
 なお、本実施の形態における形状測定装置では、撮像素子20で取得される画像データに注目領域を設定することで、このような多重反射像やその他の原因で発生する偽像を照明光束Lの像として誤認識することを低減する効果を持つ。
 ところで、注目領域設定ユニット32は、撮像装置9からデータが入力され、動作制御部40から各部の動作の情報、具体的に光学プローブ3と被測定物Mとの相対位置の情報が入力される。注目領域設定ユニット32は、記憶部31の注目領域の位置設定データ42から撮像装置9で撮影できる領域(または、撮像素子20で取得できる視野範囲)に対して、どの位置に注目領域を設定するかの位置情報を取得する。注目領域設定ユニット32は、基準注目領域の位置設定データ44から基準注目領域データを取得する。注目領域設定ユニット32は、ユーザーなどにより撮影範囲内で設定した注目領域の位置情報を記憶部31の注目領域の位置設定データ42に出力する。
 測定範囲設定部36は、注目領域の位置設定データ42また入力装置6から入力される指示に基づいて、測定範囲を設定する。測定範囲設定部36は、設定した測定範囲を測定部39に出力する。
 調光領域設定部37は、注目領域の位置設定データ42また入力装置6から入力される指示に基づいて、調光領域設定可能範囲及び調光領域を設定する。調光領域設定部37は、設定した調光領域を調光制御部38に出力する。
 調光制御部38は、調光領域設定部37から調光領域が入力される。調光制御部38は、調光領域の画像データの情報に基づいて、調光条件、例えば光源装置8または撮像装置9の画像データ取得時の動作条件を決定する。調光制御部38は、決定した調光条件を光源装置8または撮像装置9に出力する。
 測定部39は、測定範囲設定部36で設定された測定範囲が入力される。測定部39は、撮像装置9で取得した画像データ入力される。測定部39は、動作制御部40から各部の動作の情報、具体的に光学プローブ3と被測定物Mとの相対位置の情報が入力される。測定部39は、画像データを取得した光学プローブ3と被測定物Mとの相対位置について、画像データの測定範囲に含まれるライン状のパターンの像(本実施形態ではライン光の像ともいう。)を検出し、そのパターンの像に基づいて、被測定物Mの外形形状を測定する。動作制御部40は、プローブ移動装置2、光学プローブ3及び保持回転装置7の動作制御を実施する。動作制御部40は、動作制御の情報を注目領域設定部32及び測定部39に出力する。
 図4は、制御装置の注目領域設定ユニットの概略構成を示すブロック図である。注目領域設定ユニット32は、図4に示すように、注目領域設定部34と、を有する。注目領域設定部34は、画像データ取得部80と、移動情報取得部82と、投影パターン検出部84と、注目領域決定部86と、第2の注目領域生成部88と、を有する。
 画像データ取得部80は、撮像装置9で撮像した画像データを取得する。移動情報取得部82は、動作制御部40からプローブ移動装置2、光学プローブ3及び保持回転装置7の駆動情報を各ユニットのエンコーダ等から取得し、光学プローブ3の現在の測定対象領域がどのように移動しているのかを検出する。例えば、測定対象領域が前回の画像取得時に対して、どの方向にどれだけの量、遷移したかを求める。
 投影パターン像検出部84は、注目領域の位置設定データ42を取得し、画像データ取得部80から画像データを取得する。ここで、注目領域は、画像データ上での注目領域である。注目領域の数は、1つの画像データに対して1つ以上設定可能である。投影パターン像検出部84は、画像データの注目領域内に限定して、画像データ上におけるパターンの像の位置を検出する。
 注目領域決定部86は、投影パターン像検出部84で検出した画像データ上のパターンの位置を基準として、パターンの像の位置を中心に、画素ピッチ間隔で所定数分だけ離れた位置に注目領域の外郭を決定する。注目領域決定部86は、投影パターン像検出部84で検出した画像データ上のライン光が他のライン光と設定された距離(画素数)以上離れた位置に複数ある場合、複数の領域のそれぞれを注目領域に決定する。画像データ内に設ける注目領域の数は特に限定されず、1つでも2つでも3つ以上でもよい。ここで、注目領域決定部86は、第2の注目領域生成部88で第2の注目領域が決定された場合、パターンの位置に基づいて設定した注目領域とは異なる第2の注目領域も注目領域に決定する。
 ところで、注目領域決定部86は、本実施形態では次のように設定する。投影パターン像検出部84で検出されたパターンの像の位置を中心に、全方向に所定の距離離れた位置を外周として設定することで注目領域を設定している。なお、外周を設定するために用いられる距離は、次回、撮像装置9で撮影されるタイミングまでに、被測定物M上で測定対象領域がどのくらいの距離が移動することになるかを算出し、その算出結果に基づいて、注目領域の外周を決めるための距離情報を設定している。そのために、X移動部50X、Y移動部50Y、Z移動部50Z、第1回転部53、及び第2回転部54、保持回転装置7の駆動情報を移動情報取得部82で取得している。
 なお、本発明は、パターンの像の位置に対して全方向に範囲を広げるようにして注目領域を設定する代わりに、画像データ上でのライン光の移動方向が推定できるような場合、ライン光の位置を基準として、ライン光の移動方向に注目領域を画像データ上で移動するようにしてもよい。またパターンの像を中心に領域を広げる場合にも、ライン光の移動方向の方が、他の方向よりもパターンの像に対して離れた位置に外周が設定されるように注目領域に設定してもよい。
 次に、第2の注目領域生成部88について説明する。第2の注目領域生成部88は、歯車のような複数の凹凸構造を有する形状を測定する場合、ライン状のパターンの像が複数発生する。そこで、本発明は、ある判定基準を設けて、第2の注目領域を生成するようにした。そこで、本実施の形態では第2の注目領域生成部88を備え、第2の注目領域生成部88は、基準注目領域内投影パターン像検出部90と、新規注目領域生成判定部92と、第2の注目領域決定部94と、から構成した。
 基準注目領域の位置設定データ44は、あらかじめユーザが指定することができ、撮像装置9で撮像できる視野内において、設定された領域である。この基準注目領域は、前述の注目領域の位置設定データ42と同じように使用することができる一方、新たな注目領域を作成するか否かを判定するためにも用いられる。
 次に、基準注目領域内投影パターン像検出部90は、基準注目領域の位置設定データ44に基づき設定された注目領域内の撮像情報から、画像データ取得部80から取得された画像データからパターンの像の存在の有無及びパターンの像の位置等を含むパターンの像の存在状態を取得する。
 基準注目領域内投影パターン像検出部90は、基準注目領域の位置設定データ44に基づいて、撮像素子22の画素範囲や画像データ上の基準注目領域を決定する基準注目領域設定部としての機能を備える。
 基準注目領域内投影パターン像検出部90は、パターンの像がライン状の強度分布を有するライン光の像である場合、画像データの基準注目領域内において、ライン光の像の長さを測定する。
 ライン状のパターンの像の長さは、例えば、次のような方法で測定することができる。たとえば、ライン状のパターンの長手方向を画像データの上下方向としたときに、ライン状のパターンの像を順次、上から下へ、または下から上へライン状パターンの像に対してほぼ直交する方向に沿って(以下、極大画素検索列と称す)、輝度値の変化が極大を示す画素があるかどうかを検出する。このようにして、画像データを上から下へまたは下から上へ順次検出していったときに、それぞれの極大画素検索列で検出された画素がどこまで連続して存在するかを評価することによって、長さを測定することができる。なお、極大画素検索列は、エピポーララインに沿った方向である。極大画素検索列が延在する方向が検出方向となる。このように極大画素がどれくらいの長さにわたって、連続して存在するかを評価するかによって、ライン状のパターンの像の長さの存在状態を判定する。
 また、このように検出された明るさが極大を示す画素位置を検索する必要があるため、撮像素子20の画素の配列方向をエピポーララインの方向に略一致するようにしてもよい。
 新規注目領域生成判定部92は、基準注目領域内投影パターン像検出部90で検出したパターンの存在状態、例えばライン光の像の長さに基づいて、第2の注目領域、つまり新たな注目領域を生成するか否かを判定する。
 第2の注目領域決定部94は、新規注目領域生成判定部92で第2の注目領域を生成すると判定した場合、第2の注目領域を作成する領域を決定する。本実施形態の第2の注目領域決定部94は、基準注目領域と同じ領域を第2の注目領域を作成する領域に決定する。第2の注目領域決定部94は、基準注目領域内に位置するライン光の像の位置に中心に、先に説明した注目領域設定部34で行われる注目領域の設定方法と同様に注目領域を設定すればよい。
 注目領域取消判定部89は、注目領域の位置または大きさに基づいて設定した注目領域を取り消すか否かを判定する。注目領域取消判定部89は、画面データに存在するパターンを中心に、次回撮像装置9で撮影されるタイミングまでに推定される移動距離に基づき設定された注目領域が画面データの視野外に設定されるような場合、当該注目領域を取り消す。具体的には、注目領域取消判定部89は、画像データ上で設定される注目領域の面積が閾値面積よりも小さい場合、当該注目領域を取り消す。
 このように、注目領域設定ユニット32で設定された設定された注目領域情報は、次に説明する測定範囲設定部36や調光領域設定部37で利用される。ところで、測定範囲設定部36は、注目領域設定ユニット32で設定された注目領域を被測定物Mの測定領域の位置データを算出するために用いるパターン像の位置検出領域として設定する。測定範囲とは、画像処理部25で撮像された被測定物Mの像の中からパターンの像の位置を検出する範囲である。画像データからパターンの位置を検出する場合、撮像素子20により撮像された画像データのうち、ライン光の像であれば、前述の極大画素を検出する方向(検出方向)と同じ方向で最も明るい画素値を画素列毎に検出する。その際、画像データの画素列の一端から他端までをくまなく探索するのではなく、測定範囲として設定された範囲内だけで、画素列毎に最も明るい画素値を探索する。なお、この設定された範囲内だけで、画素列毎に最も明るい画素値を探索する処理は、調光領域でパターンを検出する場合も同様に実行される。
 調光領域設定部37は、調光領域を設定する。調光領域は、撮像素子20による撮像範囲内で、撮影された像の明るさを検出する領域である。本実施の形態における調光領域については、詳細は後述するが、注目領域に連動して調光領域も変化するようしている。このようにすることで、撮像素子20の露出制御や照明光束Lの照射光量制御を行うときに参照する明るさ情報を点群生成領域に応じて、範囲を限定することができ、また、有害な正反射光などの影響を最小限にすることができる。
 本実施形態の調光領域設定部37は、測定範囲の位置情報に基づいて、調光領域設定可能範囲を設定し、設定した調光領域設定可能範囲に基づいて、調光領域を設定する。調光領域設定可能範囲は、撮像部による撮像範囲内において、測定範囲の位置情報に基づいて設定される範囲であり、調光領域を設定可能とする範囲である。調光領域設定部37は、測定範囲に加え、記憶部31に記憶されているデータ、及び入力装置6で受け付けた入力データの少なくとも一方に基づいて、調光領域設定可能範囲を設定することもできる。また、調光領域設定部37は、調光領域設定可能範囲に加え、記憶部31に記憶されているデータ、及び入力装置6で受け付けた入力データの少なくとも一方に基づいて、調光領域を設定することもできる。
 調光制御部38は、調光領域内で検出された画素列毎に最も明るい画素の画素値を取得し、取得された画素値の大きさに応じて、光源12に対して投光量を制御するための信号、または撮像素子20による撮像時の露出時間を制御するための信号等を出力する。露出時間の制御については、1枚の画像データを取得するときの露出時間で制御したり、撮像素子20に組み込まれている不図示のメカニカルシャッターにより撮像面が露出する時間を制御したりしても良い。したがって、調光制御部38は取得された画素値の大きさに応じて、投影部の投光量、撮像部で受光する受光量、撮像部で画像データを取得するときの露光量または撮像部の入出力特性(感度又は撮像素子の各ピクセルで検出した信号に対する増幅率など)、つまり光学プローブ3によって画像データを取得する際の各種条件(調光条件)を制御する。
 測定部39は、画像データの測定範囲内に位置する光源装置8により投影されたパターンの像の位置と、その画像データを取得した時におけるX移動部50X、Y移動部50Y、Z移動部50Z、第1回転部53、及び第2回転部54、保持回転装置7の各移動部材の位置情報とに基づいて、被測定物の形状を測定する。測定部39は、プローブ移動装置2及び保持回転装置7によって、光学プローブ3と被測定物を相対的に移動させることで、パターンが投影される位置を順次移動させつつ、測定対象領域の画像を撮像装置9で撮像する。また、撮像装置9で撮像したタイミングで位置検出部11からのプローブ移動装置2及び保持回転装置7の位置情報を取得する。測定部39は、撮像装置9で撮像したタイミングで取得した位置検出部11からのプローブ移動装置2及び保持回転装置7の位置情報と、撮像装置9で取得した測定範囲のパターンの像の画像に関連した撮影信号とに基づいて、被測定物Mのパターンが投影された位置を算出し、被測定物Mの形状データを出力する。形状測定装置1は、例えば、撮像装置9の撮影タイミングを一定間隔にし、入力装置6から入力する測定点間隔情報を基に、プローブ移動装置2及び保持回転装置7の移動速度を制御している。
 動作制御部40は、プローブ移動装置2、光学プローブ3及び保持回転装置7を含む、形状測定装置1の各部の動作を制御する。この動作制御部40は、制御部30で作成された動作制御情報を基に、プローブ移動装置2、光学プローブ3及び保持回転装置7の動作制御を実施する。また、制御部30は、光学プローブ3による画像取得動作を制御する。
 記憶部31は、ハードディスク、メモリ等、各種プログラム、データを記憶する記憶装置である。記憶部31は、注目領域の位置設定データ42と、基準注目領域の位置設定データ44と、条件テーブル46と、形状測定プログラム48と、緒元データ49と、を有する。なお、記憶部31は、これらのプログラム、データ以外にも形状測定装置1の動作の制御に用いる各種プログラム、データを記憶している。
 注目領域の位置設定データ42は、画像データ上における注目領域情報と、光学プローブ3と被測定物Mとの相対位置の情報とを対応付けて記憶する。注目領域データ42は、注目領域設定ユニット32により設定された注目領域の情報と設定時の相対位置の情報とが対応付けて書き込まれる。
 基準注目領域の位置設定データ44は、画像の外縁に対応する基準注目領域の情報を記憶している。基準注目領域は、画像に対する位置が固定された領域の情報である。本実施形態では、基準注目領域を1つの領域としたが、複数の領域であってもよい。
 条件テーブル46は、制御部30で設定された条件や、予め入力された各種条件を記憶する。形状測定プログラム48は、制御装置4の各部の処理を実行させるプログラムを記憶している。つまり、制御装置4は、形状測定プログラム48に記憶されているプログラムを実行することで、上述した各部の動作を順次再現することで、測定対象領域を逐次移しながら、被測定物Mに投影されたパターンの像を撮像するように制御する。形状測定プログラム48は、上述した制御部30で生成する被測定物Mを測定するためのプログラムと、制御部30が当該プログラムを生成するためのプログラムの両方を含む。なお、形状測定プログラム48は、予め記憶部31に記憶させてもよいがこれに限定されない。形状測定プログラム48が記憶された記憶媒体から読み取って記憶部31に記憶してもよいし、通信により外部から取得してもよい。緒元データ49は、被測定物Mの設計データ、CADデータ、形状を規定できる条件データ等を記憶している。
 制御装置4は、光学プローブ3と被測定物Mの相対位置が所定の位置関係となるように、プローブ移動装置2の駆動部10及び保持回転装置7の回転駆動部72を制御する。また、制御装置4は、光学プローブ3の調光等を制御して、被測定物M上の投影されたライン状のパターンを最適な光量で撮像させる。制御装置4は、光学プローブ3の位置情報をプローブ移動装置2の位置検出部11から取得し、測定領域を撮像した画像を示すデータ(撮像画像データ)を光学プローブ3から取得する。そして、制御装置4は、光学プローブ3の位置に応じた撮像画像データから得られる被測定物Mの表面の位置と光学プローブ3の位置及びライン光の投影方向と撮像装置の撮影方向とを対応付けることによって、測定対象の三次元的な形状に関する形状情報を演算して取得する。
 表示装置5は、例えば液晶表示装置、有機エレクトロルミネッセンス表示装置等によって構成される。表示装置5は、形状測定装置1の測定に関する測定情報を表示する。測定情報は、例えば、撮像素子20で撮影された画像データや、撮像素子20の撮影領域内に設定された注目領域(または測定領域)の位置を示す情報、調光領域の位置を示す情報、調光領域設定可能範囲の位置を示す情報を表示することができる。これら注目領域(または測定領域)、調光領域及び調光領域設定可能範囲の位置情報は撮像素子20で撮影された画像データ上に重畳して表示する。本実施の形態では、被測定物Mと光学プローブ3とを相対移動しながら、所定の撮影レートで撮像装置9により撮影されるので、光学プローブ9と被測定物Mとの相対移動に応じて、パターンの像も移動する。この移動に追従する注目領域をハーフトーンの枠やカラー表示などで表示することもできる。
 また、他にも測定に関する設定を示す設定情報、測定の経過を示す経過情報、測定の結果を示す形状情報等を含む。本実施形態の表示装置5は、測定情報を示す画像データを制御装置4から供給され、この画像データに従って測定情報を示す画像を表示する。
 入力装置6は、例えばキーボード、マウス、ジョイスティック、トラックボール、タッチバッド等の各種入力デバイスによって構成される。入力装置6は、制御装置4への各種情報の入力を受けつける。各種情報は、例えば、形状測定装置1に測定を開始させる指令(コマンド)を示す指令情報、形状測定装置1による測定に関する設定情報、形状測定装置1の少なくとも一部をマニュアルで操作するための操作情報等を含む。
 本実施形態の形状測定装置1において、制御装置4が制御部30と、記憶部31とを備えている。制御装置4に表示装置5、及び入力装置6が接続されている。制御装置4、表示装置5、及び入力装置6が、例えば、形状測定装置1に接続されるコンピュータでも構わないし、形状測定装置1が設置される建物が備えるホストコンピュータなどでも構わないし、形状測定装置1が設置される建物に限られず、形状測定装置1とは離れた位置にあり、コンピュータでインターネットなどの通信手段を用いて、形状測定装置1と接続されても構わない。また、制御装置4と、表示装置5及び入力装置6とが、別々の場所に保持されても構わない。例えば、入力装置6と表示装置5とを備えるコンピュータとは別に、例えば光学プローブ3の内部に形状測定装置1が支持されていても構わない。この場合には、形状測定装置1で取得した情報を、通信手段を用いて、コンピュータに接続される。
 次に、図5から図13を用いて、上記構成の形状測定装置1により、被測定物の形状を測定する動作の例について説明する。図5は、本実施形態の形状測定装置の測定動作を説明するための説明図である。図6は、本実施形態の形状測定装置に表示する画面の一例を説明するための説明図である。図7は、本実施形態の形状測定装置の測定動作を説明するための説明図である。図8は、本実施形態の形状測定装置の注目領域設定動作の一例を示すフローチャートである。図9及び図10は、それぞれ本実施形態の形状測定装置の第2の注目領域の生成判定処理の一例を示すフローチャートである。図11は、基準注目領域データの一例を示す説明図である。図12は、注目領域設定動作の一例を説明するための説明図である。図13は、本実施形態の形状測定装置の測定動作の一例を示すフローチャートである。
 以下では、図5に示すように、形状測定装置1が円周方向に繰り返し形状が形成された被測定物Maの形状を測定する場合として説明する。形状測定装置1は、照明光束Lを被測定物Maの繰り返し形状の1つの単位である歯に投影し、被測定物Ma上に投影されたパターンの画像を取得することで、被測定物Maの形状を測定する。本実施形態の形状測定装置1は、歯筋の方向に沿って、照明光束Lを移動させつつ、被測定物Ma上に投影されたパターンの画像を取得することで、1つの歯の形状を測定することができる。形状測定装置1は、被測定物Maの歯の形状を順番に測定することで、被測定物Maの形状を測定することができる。被測定物Maは、設計上は略同一形状となる歯が円周方向に所定の間隔で形成された、かさ歯車である。本実施形態の形状測定装置1は、被測定物Maをかさ歯車としたが、種々の形状の物体を被測定物として形状を測定することができる。もちろん、被測定物Maを歯車とした場合、歯車の種類は特に限定されない。形状測定装置1は、かさ歯車以外に、平歯車、はすば歯車、やまば歯車、ウォームギア、ピニオン、ハイポイドギアなども測定対象となり、被測定物Maとなる。なお、形状測定装置1は、1つの歯の形状の測定や、被測定物Maの全体の形状を測定することに限定されず、被測定物Maの任意の1点の形状を測定することもできる。
 形状測定装置1は、稼動時に図6に示す画面100を表示させる。画面100は、被測定物Maの形状を測定するための条件を設定するモード、例えばティーチングモードで表示される。画面100は、画像ウインドウ102と、ウインドウ104、106を含む。
 画像ウインドウ102は、図7に示すように、撮像装置9で撮影し、取得した画像を表示している。画像ウインドウ102に表示されている画像は、撮像装置9による撮像範囲内の全域の画像である。画像ウインドウ102に表示される画像には、被測定物Maの外形140と、外形140に照明光束Lを投影することで形成されるパターン142a、142b、142cと、外形140に照明光束Lを投影した際に、照明光束Lが多重反射したり、乱反射したりすることで、生じる輝線144が含まれる。
 また、画像ウインドウ102には、画像に重ねて、測定範囲150a、150bと、調光領域設定可能範囲152と、調光領域154と、が表示されている。測定範囲150a、150b、調光領域設定可能範囲152は、測定範囲設定部36で設定される領域である。調光領域154は、調光領域設定部37で設定される領域である。図7に示す調光領域設定可能範囲152は、測定範囲150a、150bの全てを含み、測定範囲150a、150bに外接する矩形形状の範囲である。また、調光領域設定可能範囲152は、照明光束Lを平坦でかつ水平な面を持つ被測定物Maに投影したときに形成されるライン状のパターンの像に対して、その像の長手方向と長手方向に対して直交する方向とが辺となる矩形の範囲である。調光領域154は、調光領域設定可能範囲152に含まれる範囲である。
 ウインドウ104は、測定条件欄112と、ボタン114と、を有する。測定条件欄112は、光切断法を用いて形状を取得する際の取得方法、照明光束Lの走査速度、画像データを取得する間隔である距離ピッチ、測定する距離、及び光学プローブ3と被測定物Maとの各方向における相対値移動距離等の情報を表示する。制御装置34は、各種条件が更新されると測定条件欄112に表示される情報を更新する。ボタン114は、後述するプレスキャン処理またはスキャン処理(測定処理)が開始される際に操作されるボタンである。制御部30は、入力装置6への入力でボタン114が操作されたことを検出した場合、プレスキャン処理またはスキャン処理(測定処理)を実行する。
 ウインドウ106は、表示されている画像データに関する各種プロファイルの表示を行うかどうかを選択するためのチェックボックス120と、調光領域選択点122、測定範囲選択点124と、範囲欄126と、ボタン128、130と、を有する。チェックボックス120は、画像の光量のプロファイルや、ヒストグラムを表示させるか否かを選択するためのボックスである。ヒストグラムは、ライン上のパターンの幅方向におけるピーク値を撮像素子の列毎に抽出して作成した列毎の最大輝度値の分布である。制御部30は、チェックボックス120にチェックが入力されている場合、画像ウインドウ102に重ねて画像の光量分布や、最大輝度値分布のヒストグラムを表示させる。また、調光領域選択点122にチェックが入った場合、調光領域の範囲の対角線上の座標位置を範囲欄126に表示させる。測定範囲選択点124にチェックが入った場合は、測定範囲つまり撮像装置で画像を取得した測定領域を矩形で設定できるようになっている。測定領域の範囲は、測定領域の対角線上の座標位置を範囲欄126に表示させる。ボタン128は、自動調光処理が開始される際に操作されるボタンである。ボタン130は、調光領域選択点122と測定範囲選択点124のうち、選択されている側の範囲、領域の設定を行う場合に操作されるボタンである。
 次に、図8を用いて、上記構成の形状測定装置1の制御部30が、中央演算処理装置を用いて演算処理を行い実現する、測定物の形状の測定に用いる注目領域を設定する動作について説明する。形状測定装置1の制御部30は、例えば、ティーチングモードが選択された場合に、図8に示す処理を実行する。また、後述する他の処理も記憶部に記憶されているプログラムに基づいて制御部30の各部で処理を実行することで、実現される。図8に示す処理は、制御部30の注目領域設定ユニット32で処理を実行することで、実現される。また、制御部30は、光学プローブ3と被測定物を相対的に移動させ、パターン像が投影される位置毎に図8に示す処理を実行することで、被測定物Mの形状を測定する各位置での注目領域を設定する。
 制御部30は、画像データ取得部80により、撮像装置9で撮像した画像データを取得する(ステップS12)。制御部30は、画像データを取得した後、投影パターン像検出部84により、注目領域データ42に記憶されている注目領域データを読み出す(ステップS14)。制御部30は、光学プローブ3と被測定物を相対的に移動させる前に撮影した画像に基づいて設定した注目領域データを読み出す。制御部30は、処理開始時は、初期設定されている注目領域データを読み出す。初期設定されている注目領域データは、ユーザの入力によって設定すればよい。
 次に、制御部30は、投影パターン像検出部84により、注目領域内にあるライン光の像を検出する(ステップS16)。制御部30は、ライン光の像の位置を検出した後、検出したライン光の像の位置と次回、撮像装置9で撮像される時点までに測定対象領域がどの程度の距離分遷移するかの情報(走査情報)に基づいて、注目領域の位置を決定する(ステップS18)。この遷移距離は、ティーチングモードで入力された光学プローブの移動情報や、保持回転装置7の回転角度情報を基に遷移距離を算出する。なお、その遷移距離は、撮像装置9の物体面上での距離ではなく、撮像装置9の撮像面上での遷移距離に置き換えて算出する。
 制御部30は、注目領域の位置を決定した後、第2の注目領域生成判定処理を行う(ステップS20)。
 図9を用いて、第2の注目領域生成判定処理について説明する。制御部30は、基準注目領域内投影パターン像検出部90により、基準注目領域の位置設定データ44から基準注目領域データを取得する(ステップS40)。制御部30は、基準注目領域データを取得した後、基準注目領域内投影パターン像検出部90により、画像データの基準注目領域内の極大画素検索列を特定する(ステップS42)。制御部30は、基準注目領域内投影パターン像検出部90により、極大画素検索列において輝度が最も高い画素を特定し(ステップS44)、極大画素検索列における特定した画素が極大を示す画素であるか否かを判定する(ステップS46)。基準注目領域内投影パターン像検出部90は、極大画素検索列における、特定の画素と特定の画素に隣接する画素との画素の輝度値の変化を検出し、特定の画素で輝度値が極大となるかを検出する。
 制御部30は、特定した画素が極大を示す(ステップS46でYes)と判定した場合、特定した画素をピーク画素として抽出する(ステップS48)。制御部30は、特定した画素が極大を示さない(ステップS46でNo)と判定した場合、または、ステップS48の処理を行った場合、基準注目領域内投影パターン像検出部90により、基準注目領域内の全域の判定が完了したかを判定する(ステップS50)。
 制御部30は、基準注目領域内の全域の判定が完了していない(ステップS50でNo)と判定した場合、極大画素検索列を極大画素検索列と略直交する方向に移動させ(ステップS52)、ステップS44に戻る。つまり、ピーク画素を検出する基準となる極大画素検索列の位置を画像データの上から下、または下から上に移動させて、上記処理を再び行う。
 制御部30は、基準注目領域内の全域の判定が完了した(ステップS50でYes)と判定した場合、新規注目領域生成判定部92により、ピーク画素の数が閾値以上であるかを判定する(ステップS54)。
 制御部30は、ピーク画素の数が閾値以上である(ステップS54でYes)判定した場合、第2の注目領域を生成すると判定する(ステップS56)。制御部30は、ピーク画素の数が閾値未満である(ステップS54でNo)判定した場合、第2の注目領域を生成しないと判定する(ステップS58)。新規注目領域生成判定部92は、さらに、決定されている注目領域の情報に基づいて、検出しているライン光の像に対して既に注目領域が設定されているかを判定し、ライン光の像に対して注目領域が設定されている場合、第2の注目領域を生成しないと判定する。
 ここで、第2の注目領域生成部88は、基準注目領域内投影パターン像検出部90でライン光の像を検出し、ライン光の像の長さに基づいて新規注目領域生成判定部92で第2の注目領域を生成するかを判定してもよい。図10を用いて、ライン光の像の長さに基づいて新規注目領域生成判定部92で第2の注目領域を生成するかを判定する処理について説明する。制御部30は、基準注目領域内投影パターン像検出部90により、基準注目領域の位置設定データ44から基準注目領域データを取得する(ステップS40)。制御部30は、基準注目領域データを取得した後、基準注目領域内投影パターン像検出部90により、画像データの基準注目領域内のライン光の像を検出する(ステップS62)。制御部30は、ライン光の像を検出した後、ライン光の像の長さを検出する(ステップS64)。ライン光の像の長さは、ライン光の像の長手方向の長さである。基準注目領域内投影パターン像検出部90は、画像データを上から下へまたは下から上へ順次検出していったときに、それぞれの極大画素検索列で検出された画素がどこまで連続して存在するかを検出する。基準注目領域内投影パターン像検出部90は、極大画素検索列に直交する方向において、ライン光の像が分断している場合も、ライン光の像が検出されない画素が複数画素分である場合、繋がっているとして長さを検出してもよい。なお、実際には、撮像素子20で取得されるライン状のパターンの像は、必ずしも連続したものではない。被測定物の表面の欠陥などにより一部が欠落してしまう場合があるためである。これらに対して、例えば1、2画素または数画素欠落していても連続して繋がっているようにみなす例外処理を入れてもよい。
 制御部30は、ライン光の像の長さを検出した後、新規注目領域生成判定部92により、ライン光の像の長さが閾値以上であるかを判定する(ステップS64)。制御部30は、ライン光の像の長さが閾値以上である(ステップS66でYes)判定した場合、第2の注目領域を生成すると判定する(ステップS68)。制御部30は、ライン光の像の長さが閾値未満である(ステップS66でNo)判定した場合、第2の注目領域を生成しないと判定する(ステップS69)。
 このように、制御部30の第2の注目領域生成部88は、ライン光の像の長さに基づいて、第2の注目領域を生成することでも、基準注目領域内のライン光の像に基づいて新しい注目領域を生成することができ、画像データに含まれるライン光の像を抽出する注目領域を設定することができる。
 図8に戻り、制御部30の処理の説明を続ける。制御部30は、新規注目領域生成判定部92により第2の注目領域を生成する(ステップS22でYes)と判定した場合、第2の注目領域決定部94により、基準注目領域に基づいて、第2の注目領域を決定する(ステップS24)。本実施形態では、基準注目領域に基づいて第2の注目領域を決定したが、基準注目領域に含まれるライン光の像の位置に基づいて第2の注目領域を決定してもよい。
 制御部30は、新規注目領域生成判定部92により第2の注目領域を生成しない(ステップS22でNo)、または、ステップS24で第2の注目領域を決定したら、注目領域取消判定部89により、注目領域取消判定処理を行う(ステップS26)。ここで、注目領域取消判定部89は、注目領域の位置または大きさに基づいて設定した注目領域を取り消すか否かを判定する。注目領域取消判定部89は、画面データに存在するパターンを中心に、次回撮像装置9で撮影されるタイミングまでに推定される移動距離に基づき設定された注目領域が画面データの視野外に設定されるような場合、当該注目領域を取り消すと判定する。また、注目領域取消判定部89は、画像データ上で設定される注目領域の面積が閾値面積よりも小さい場合、当該注目領域を取り消すと判定する。
 注目領域の取り消し判定の判断材料として画像データ上における注目領域の面積としたが、これだけに限られない。たとえば、画像データ上に有効撮影範囲などの範囲情報を設定しておき、有効撮影範囲と注目領域との両方合致した領域の面積などで判定してもよい。特に画像データの周縁領域の像は、結像光学系による諸収差の影響を受けやすいため、パターンの像の短手方向の強度分布が収差の影響を受けて崩れる。これが測定精度に影響を与えるので、このような周縁領域を避け、画像データの中央領域のみ有効撮影範囲を設定するようにしてもよい。
 制御部30は、注目領域取消判定部89により、取り消す注目領域がある(ステップS28でYes)と判定した場合、注目領域決定部86により対象の注目領域を取り消す(ステップS30)。
 制御部30は、注目領域取消判定部89により、取り消す注目領域がない(ステップS28でNo)と判定した場合、または、ステップS30の処理を行った場合、注目領域決定部86で決定し、生成した注目領域を注目領域データに記憶させる(ステップS32)。また、制御部30は、注目領域に移動情報取得部82で取得した光学プローブ3と被測定物の相対位置を対応付けて注目領域データ42に記憶する。
 図11及び図12を用いて、より具体的に説明する。図12の例は、画像データ内で、ライン光の像が上方向に移動する場合を示している。まず、形状測定装置1は、基準注目領域の位置設定データ44として、図11に示す画像データの全面と重なる枠400に対して基準注目領域402が設定されたデータを有する。形状測定装置1は、初期設定で注目領域が設定されていない場合を説明する。
 制御部30は、処理が開始されるとステップST101に示すように、画像データF(N-1)を取得する。制御部30は、取得した像データF(N-1)に基準注目領域データ402を重ねて、基準注目領域402に含まれるライン光の像を検出する。ステップST101では、基準注目領域402に含まれるライン光の像がないため、第2の注目領域を生成しない。
 制御部30は、ステップST101で画像データF(N-1)に対する注目領域の設定を行った後、ステップST102に示すように、次のフレームとなる画像データF(N)を取得する。画像データF(N)は、光学プローブ3と被測定物Mとの相対位置が画像データF(N-1)で撮影した相対位置から所定距離移動した相対位置で取得した画像である。制御部30は、ステップST101に示すように取得した像データF(N)に基準注目領域データ402を重ねて、基準注目領域402に含まれるライン光の像410を検出する。
 制御部30は、基準注目領域402に含まれるライン光の像410を検出し、ライン光の像410が条件を満たしていることを検出した場合、ステップS103に示すようにライン光の像410の位置を基準として注目領域(第2の注目領域)412を生成する。生成した注目領域412のデータは注目領域データ42に記憶する。
 制御部30は、ステップST103で画像データF(N)に対する注目領域の設定を行った後、ステップST104に示すように、次のフレームとなる画像データF(N+1)を取得する。ステップST104に示すように、画像データF(N+1)に含まれるライン光の像410aは、光学プローブ3と被測定物Mとの相対位置が移動しているため、ライン光の像410よりも注目領域412の縁に近づいた位置となる。制御部30は、ステップST105に示すように、基準注目領域402に含まれるライン光の像410aを検出するが、注目領域412で検出できる対象であるライン光の像であるため、第2の注目領域を生成しない。制御部30は、ステップS106に示すように、ライン光の像410aの位置を基準として注目領域412aを生成する。
 制御部30は、次のフレームの画像データを取得するごとにステップST104からステップS106の処理を行う。画像データは、フレームが進むにしたがって、ライン光の像が画面上側に移動する。制御部30は、次のフレームの画像データを取得するごとにステップST104からステップST106の処理を行うことで、ライン光の像の移動に合わせて注目領域の位置を画面上側に移動させる。
 制御部30は、ステップST106の画像データF(N+1)から(m-1)分フレームが進んだ画像データF(N+m)を取得した場合も、ステップST107に示すように、1つ前のフレームの注目領域の情報に基づいてライン光の像を検出し、検出したライン光の像410bを基準として、注目領域412bを生成する。また、制御部30は、基準注目領域402に含まれるライン光の像も並行処理で検出する。
 制御部30は、ステップST107の画像データF(N+m)からさらに進んだ画像データF(N+l-1)を取得した場合もステップS108に示すように、1つ前のフレームの注目領域の情報に基づいてライン光の像を検出し、検出したライン光の像410cを基準として、注目領域412cを生成する。画像データF(N+l-1)では、ライン光の像410cよりも画面下側に別のライン光420がある。
 制御部30は、ステップST108の画像データF(N+l-1)の次のフレームの画像データF(N+l)を取得した場合もステップST109に示すように、1つ前のフレームの注目領域の情報に基づいてライン光の像を検出し、検出したライン光の像410dを基準として、注目領域412dを生成する。画像データF(N+l)では、ライン光の像410cよりも画面下側の別のライン光の像420aが基準注目領域402に含まれる。制御部30は、基準注目領域402に含まれるライン光の像420aを検出し、ライン光の像440aが条件を満たしていることを検出した場合、ステップST110に示すように、ライン光の像420aの位置を基準として注目領域(第2の注目領域)422を生成する。これにより、画像データF(N+l)の場合では注目領域は、撮像素子の撮像エリアまたは撮像素子から取得された画像データ内に2つ注目領域412d、422が設定される。
 形状測定装置1は、ライン光の像の位置に基づいて注目領域を設定することで、ライン光の像を含む位置を注目領域とすることができる。つまり、形状測定装置1は、画像データ上のライン光の像の位置の移動に対応して、領域が移動する注目領域を設定することができる。形状測定装置1は、ライン光の像を基準としてライン光の像から設定された距離分、離れた部分も含む領域を、注目領域とすることで、実際の計測時にライン光の像の位置がずれた場合も注目領域内にライン光の像を含めることができる。
 以下、図13を用いて、形状測定装置1の処理動作の一例を説明する。形状測定装置1の制御部30は、例えば、ティーチングモードが選択された場合に、図6に示す画面100を表示し図13に示す処理を実行する。
 制御部30は、ティーチングモードが選択されると、測定範囲、調光領域、調光領域設定可能範囲を撮像装置8により撮影できる全範囲に予め設定する。次に、撮像装置8から画像データが制御部30に転送され、その画像データがウインドウ102に表示される。画像データがウインドウ120に表示された状態になった時点で、測定範囲の設定がなされたかを判定する(ステップS112)。ここで、制御部30は、撮像装置9で撮影可能な範囲の全範囲よりも小さい範囲、つまり取得した画像データの全範囲よりも小さい範囲が測定範囲として設定されている場合、測定範囲が設定されていると判定する。測定範囲の設定方法は、ウインドウ102上に円形や矩形、楕円形などの任意の形状で画像データの一部を囲むようにして指定することができる。なお、制御部30は、例えば、測定範囲選択点124が選択されボタン130が操作された後、ユーザによって指定された範囲を測定範囲に設定する。また、制御部30は、条件テーブル46に設定されている情報に基づいて測定範囲を設定してもよい。また、制御部30は、撮像装置9が取得した画像から照明光束が投影されたパターンの像を抽出し、当該パターンの像が抽出された範囲を測定範囲としてもよい。
 制御部30は、測定範囲の設定がある(ステップS112でYes)と判定した場合、測定範囲設定部36により、画像データの位置座標を基に測定範囲の設定処理を行い、記憶部31の条件テーブル46に書き込む(ステップS114)。制御部30は、撮像装置9で撮影可能な範囲よりも小さい範囲を測定範囲に設定する。また、制御部30は、注目領域を測定範囲とする設定が選択されている場合、注目領域を測定範囲に設定する。
 制御部30は、測定範囲の設定がない(ステップS112でNo)と判定した場合、または測定範囲の設定処理を行った場合、入力装置6による調光領域の設定があるかを判定する(ステップS116)。
 制御部30は、調光領域の設定がある(ステップS116でYes)と判定した場合、調光領域設定部37により、調光領域の設定処理を行う(ステップS118)。制御部30は、注目領域を調光領域とする設定が選択されている場合、注目領域を調光領域に設定する。
 制御部30は、調光領域の設定がない(ステップS116でNo)と判定した場合、または調光領域の設定処理を行った場合、プレスキャンを実行するかを判定する(ステップS120)。ここで、プレスキャンとは、設定された条件に基づいて、光学プローブ3と被測定物を相対的に移動させ、パターン像が投影される位置を移動させ、ライン光の像が投影される位置を表示装置5に表示させる処理である。被測定物を相対的に移動させながら、所定のフレームレートで撮像装置9により取得されたライン状のパターンの像を含む画像データを次々と表示させる。それと同時に、測定範囲150a、150b、調光領域設定可能範囲152、調光領域154を画像データに重畳させながら表示し続けるようにすると良い。制御部30は、プレスキャンを実行する(ステップS120でYes)と判定した場合、プレスキャン処理を実行する(ステップS122)。
 制御部30は、プレスキャンを実行しない(ステップS120でNo)と判定した場合、またはプレスキャン処理を行った場合、設定が終了したかを判定する(ステップS124)。制御部30は、設定が終了していない(ステップS124でNo)と判定した場合、ステップS112に戻り、上述した処理を再び実行する。
 制御部30は、記憶部31に記憶された測定範囲の位置情報及び調光範囲の位置情報と、光学プローブ3の走査パスなどの測定条件が設定された後、形状測定プログラムを生成する(ステップS128)。制御部30は、測定範囲、調光領域、調光方式や測定座標算出領域も含めた被測定物Maを測定するための形状測定プログラムを生成し、記憶部31に記憶する。具体的には、制御部30は、各種条件に基づいて測定パス、測定速度を決定し、プローブ移動装置2によるXYZ軸方向の移動経路、保持回転装置7によるZθ方向の回転速度、光学プローブ3による画像の取得タイミング等を決定し、決定した動作の情報と、設定した調光条件の情報と、取得した画像からパターンの像の位置を抽出する測定範囲の情報と、を含む形状測定プログラムを生成する。
 制御部30は、形状測定プログラムを生成した後、測定を実行するかを判定する(ステップS130)。ここで、測定とは、設定された条件に基づいて、光学プローブ3と被測定物Maを相対的に移動させ、パターン像が投影される位置を移動させ、測定領域内でパターン像が投影される位置を検出し、被測定物の各部位の座標値(点群データ)を取得することで、形状を測定する処理である。制御部30は、測定を実行する(ステップS130でYes)と判定した場合、撮像装置8を所定のフレームレートで撮影を繰り返される。調光制御部38は、その撮影された画像データから調光範囲に含まれる各極大画素検索列の極大値となる画素の輝度値を検出し、その輝度値の最大値(最も明るい画素の値)を最大画素値として取得し、調光制御部38は光源装置8や撮像装置9に調光制御の情報を出力する(ステップS131)。次に、その調光条件に基づき、撮像装置9は被測定物Maに投影されたパターンの像を撮像し、そのときの画像データを制御部30の測定部39に送出する(ステップS132)。次に、測定部39では、測定範囲情報に基づき、画像データの中からパターンの像の位置を求め、かつプローブ移動装置2の位置情報とパターンの像の位置情報から被測定物Maのパターンが投影された部分の三次元座標値を算出する(ステップS133)。
 本実施形態の制御部30は、注目領域を設定し、注目領域を測定範囲とすることで、ライン光の像を高い精度で抽出することができる。また、ライン光の像を基準として測定範囲を設定できるため、輝線144が測定範囲に含まれることを抑制することができる。これにより、ライン光の像(パターンの像)をより確実に抽出することができる。
 本実施形態の制御部30は、注目領域を設定し、注目領域を調光領域とすることで、ライン光の光以外の光が調光領域に入る恐れを低減することができる。これにより、ライン光を検出しやすい調光条件を設定することができる。
 本実施形態の制御部30は、上述したように画像データに基づいて、ライン光の像の位置に基づいて位置が変化する注目領域を自動で抽出することができる。これにより、光学プローブ3と被測定物Mとの相対位置毎に画像データを確認して、測定範囲、調光領域を設定しなくても、位置が移動する測定範囲、調光領域を設定することができる。
 また、本実施形態の制御部30は、プレスキャン処理を実行可能とすることで、被測定物Mと照明光束Lとが相対移動する際の、測定範囲及び調光領域の画像の変動をユーザが目視で確認することができる。これにより、測定範囲及び調光領域をより適切な範囲、領域に設定することができる。
 上記実施形態の注目領域設定ユニット32は、ライン光の像の位置を基準として、ライン光の像の周囲の設定された範囲を注目領域に設定したが注目領域の設定方法はこれに限定されない。
 図14は、本実施形態の形状測定装置の注目領域設定動作の一例を示すフローチャートである。図14に示す注目領域設定動作は、一部の処理以外は、図8に示す注目領域設定動作と同様である。図14に示す注目領域設定動作のうち、図8に示す注目領域設定動作と同様の処理については、同一のステップを付して詳細な説明を省略する。この一連の設定動作についても、撮影タイミング毎に実施する。
 制御部30は、画像データ取得部80により、撮像装置9で撮像した画像データを取得する(ステップS12)。制御部30は、画像データを取得した後、投影パターン像検出部84により、注目領域データ42に記憶されている注目領域データを読み出す(ステップS14)。次に、制御部30は、投影パターン像検出部84により、注目領域内にあるライン光の像を検出する(ステップS16)。
 制御部30は、ライン光の像の位置を検出した後、注目領域決定部86により注目領域の縁と検出したライン光の像との距離を検出する(ステップS140)。注目領域決定部86は、注目領域の縁とライン光の像との距離を検出する。注目領域の縁とライン光の像との距離は、設定された複数の代表点について検出しても、全ての位置で検出してもよい。注目領域の縁とライン光の像との距離は、極大画素検索列に沿った方向における距離である。
 制御部30は、注目領域の縁と検出したライン光の像との距離を検出した後、注目領域決定部86により距離が閾値以内であるかを判定する(ステップS141)。制御部30は、注目領域決定部86により距離が閾値以内である(ステップS141でYes)と判定した場合、つまり、ライン光の像が注目領域の縁に近い場合、ライン光の像の位置に基づいて、注目領域の位置を移動させる(ステップS142)。制御部30は、注目領域決定部86により距離が閾値以内である(ステップS141でYes)と判定した場合、つまり、ライン光の像が注目領域の縁に近い場合、ライン光の像の位置に基づいて、注目領域の位置を移動させる(ステップS142)。注目領域決定部86は、ライン光の像が注目領域の中央に近づく方向に注目領域を移動させる。
 制御部30は、注目領域決定部86により距離が閾値以内である(ステップS141でYes)と判定した場合、つまり、ライン光の像が注目領域の縁に近い場合、ライン光の像の位置に基づいて、注目領域の位置を移動させる。
 制御部30は、ステップS142またステップS144の処理を行った後、注目領域の位置を決定したら、第2の注目領域生成判定処理を行う(ステップS20)。以降の処理は、図8に示す処理と同等である。
 形状測定装置1は、図14に示すように、注目領域の形状を維持することで、注目領域を設定する処理を簡単にすることができる。
 図15は、制御装置の注目領域設定ユニットと記憶部の概略構成を示すブロック図である。図15は、制御装置4Aの制御部30Aの注目領域設定ユニット32Aと記憶部31Aを示す。
 まず、記憶部31Aについて説明する。記憶部31Aは、条件テーブル46と、形状測定プログラム48と、注目領域テンプレートデータ182と、読み出しアドレスデータ184と、画像データ186と、を有する。なお、記憶部31は、これらのプログラム、データ以外にも形状測定装置1の動作の制御に用いる各種プログラム、データを記憶している。
 注目領域テンプレートデータ182は、あらかじめユーザが指定することができ、撮像装置9で撮像できる視野に対応して、設定された領域である。この注目領域テンプレートデータは、撮像装置9で撮像できる視野に対して重ね合わせる位置を移動させることができる。
 読み出しアドレスデータ184は、注目領域テンプレートデータ182を画像データのどの位置に重ねるかの情報と、光学プローブ3と被測定物Mとの相対位置との関係を対応付けて記憶する。
 画像データ186は、画像データ取得部80が取得した、撮像装置9で撮像された画像データを記憶する。
 注目領域設定ユニット32Aは、注目領域設定部34Aと、距離測定領域設定部178と、重ね合わせ画像生成部179と、を有する。注目領域設定部34Aは、画像データ取得部80と、移動情報取得部82と、投影パターン像検出部84と、検出用注目領域生成部172と、距離測定部174と、注目領域位置決定部176と、から構成した。
 検出用注目領域設定部172は、注目領域テンプレートデータ182と読み出しアドレスデータ184とに基づいて、注目領域の設定に使用する検出用注目領域を生成する。検出用注目領域は、注目領域を設定する対象の光学プローブ3と被測定物Mの相対位置に移動直前に取得した画像データに基づいて設定した注目領域の情報となる。
 距離測定部174は、検出用注目領域に含まれるライン光の像と検出用注目領域との距離を測定する。検出用注目領域とライン光の像との距離は、設定された複数の代表点について検出しても、全ての位置で検出してもよい。検出用注目領域の縁とライン光の像との距離は、極大画素検索列に沿った方向における距離である。注目領域の縁とライン光の像との極大画素検索列に沿った方向における距離は、複数点の代表点の距離の平均でもよいし、注目領域の極大画素検索列に略直交する方向の全域で計測した平均としてもよい。
 注目領域位置決定部176は、注目領域テンプレートデータを画像データに対して配置する位置を決定する。注目領域位置決定部176は、決定した位置情報を光学プローブ3と被測定物Mの相対位置に対応付けて、読み出しアドレスデータ184に記憶する。
 距離測定領域設定部178は、検出用注目領域とライン光の像との距離を計測する位置を設定する。
 重ね合わせ画像生成部179は、光学プローブ3と被測定物Mとを相対移動させつつ、取得した複数の画像データのそれぞれで抽出されたライン光の像の画像を重ね合わせた画像を生成する。重ね合わせ画像生成部179は、注目領域の情報に基づいて、画像データから注目領域の画像のみを抽出することで、ライン光の像の画像を抽出する。
 図16は、本実施形態の形状測定装置の注目領域設定動作の一例を示すフローチャートである。図17は、注目領域テンプレートデータの一例を示す説明図である。図18及び図19は、注目領域設定動作の一例を説明するための説明図である。図16に示す処理は、制御部30Aの注目領域設定ユニット32Aで処理を実行することで、実現される。また、制御部30Aは、光学プローブ3と被測定物を相対的に移動させ、パターン像が投影される位置毎に図16に示す処理を実行することで、被測定物Mの形状を測定する各位置での注目領域を設定する。
 制御部30Aは、画像データ取得部80により、撮像装置9で撮像した画像データを取得する(ステップS212)。制御部30Aは、画像データを取得した後、検出用注目領域生成部172により、注目領域テンプレートデータ182を取得し(ステップS214)、読み出しアドレスデータ184を取得し(ステップS216)、読み出したアドレスと注目領域テンプレートデータとで、検出用注目領域を生成する(ステップS218)。検出用注目領域は、画像データに対して重ねる位置が特定されている注目領域となる。
 形状測定装置1は、注目領域テンプレートデータ182として、図17に示す注目領域テンプレート500を有する。注目領域テンプレート500は、2つの注目領域502、504の位置を示すデータである。注目領域テンプレートデータ182は、注目領域テンプレート500は、例えばルックアップテーブルで記憶している。
 制御部30Aは、アドレス情報に基づいて、画像データFaに重ねる注目領域テンプレート500の位置を決定する。制御部30は、図18に示すα方向にα1、β方向にβずらすアドレス情報が設定されている場合、画像データFaに対してα方向にα1分の距離、β方向にβ1分の距離ずれた位置に注目領域テンプレート500を重ねた注目領域502、504を有する検出用注目領域を生成する。
 制御部30Aは、検出用注目領域を生成した後、投影パターン像検出部84により、検出用注目領域内にあるライン光の像を検出する(ステップS220)。制御部30Aは、ライン光の像の位置を検出した後、注目領域の縁とライン光の像との極大画素検索列に沿った方向における距離を検出する(ステップS222)。ここで、注目領域は、検出用注目領域または検出用注目領域の位置を変更した注目領域となる。
 制御部30Aは、図18に示すように、注目領域502の点P1、P2、P3と、注目領域504の点P4、P5,P6の6点のそれぞれから、極大画素検索列に沿った方向のライン光の像と距離を検出する。注目領域の縁とライン光の像との極大画素検索列に沿った方向における距離は、複数点の代表点の距離の平均でもよいし、注目領域の極大画素検索列に略直交する方向の全域で計測した平均としてもよい。
 制御部30Aは、距離を検出した後、注目領域位置決定部176により検出した距離が閾値範囲内であるかを判定する(ステップS224)。制御部30Aは、距離が閾値以内ではない(ステップS224でNo)と判定した場合、注目領域位置決定部176により注目領域のアドレスを変更し(ステップS226)、アドレスと注目領域テンプレートデータとで画像データに対する位置を変更した注目領域を生成し(ステップS228)、ステップS222に戻る。
 制御部30Aは、距離が閾値以内である(ステップS224でYes)と判定した場合、注目領域位置決定部176により、注目領域のアドレスを読み出しアドレスデータ184に記憶する。また、制御部30Aは、注目領域のアドレスに移動情報取得部82で取得した光学プローブ3と被測定物の相対位置を対応付けて読み出しアドレスデータ184に記憶する。
 制御装置30Aは、相対位置が移動しながら取得された画像データ、つまり各フレームの画像データについて、アドレス位置を設定することで、図19に示すように注目領域をライン光の像の移動方向の矢印510に沿って移動させることができる。また、制御装置30Aは、所定のタイミングで、注目領域504で検出していたライン光の像を注目領域502で検出するように、注目領域とライン光の像との対応関係を切り換えるようにアドレスを設定することが好ましい。これにより、複数の注目領域で効率よくライン光の像を検出することができる。
 また、制御装置30Aは、光学プローブ3と被測定物Mとの相対移動と画像データ上でのライン光の像の移動方向との関係を設定できるようにすることが好ましい。これにより、注目領域に基づいて、ライン光の像を検出する場合にライン光の像を見つけやすくすることができる。
 図20から図22は、それぞれ注目領域設定動作の一例を説明するための説明図である。また、制御装置30Aは、移動方向を設定する画面に撮像装置9で撮像した画像をあわせて表示させることが好ましい。例えば、図20に示すライン光の像610を含む画像データFcや図21に示すライン光の像610aを含む画像データFdを表示させることが好ましい。ここで、画像データFcは、測定開始時のフレームの画像データである。画像データFcは、測定終了時のフレームの画像データである。制御装置30Aは、画像データFcと画像データFdの両方を表示させることが好ましい。
 また、制御装置30Aは、移動方向を設定する画面に重ね合わせ画像生成部179で生成した画像をあわせて表示させることがより好ましい。例えば、制御装置30Aは、図22に示すように、画像データFcと画像データFdの間のフレームのライン光の像も加えて、ライン光の像を重ね合わせた画像データ600を表示させる。画像データ600は、画像データFcのライン光の像610と画像データFdのライン光の像610aの両方を含む。制御装置30Aは、重ね合わせ画像生成部179で生成した画像を表示することで、矢印630の方向を認識しやすい画像を表示することができる。
 形状測定装置1は、上記実施形態のように撮像装置9で取得したライン光の像を含む画像データに基づいてライン光の像の位置を検出し、ライン光の像の位置に基づいて、注目領域を設定することが好ましいが、これに限定されない。形状測定装置1は、画像データを用いずに注目領域を設定してもよい。形状測定装置1は、ライン光が被測定物に投影された時の位置情報に基づいて、注目領域を設定してもよい。一例として、形状測定装置1は、緒元データ49と装置の各種条件に基づいて、シミュレーションを行い、ライン光の像の位置を推定し、推定したライン光の像の位置に基づいて注目領域を設定してもよい。
 また、形状計測装置1は、ライン光の像の移動方向を検出し、その移動方向に基づいて、画面データ上の注目領域の位置を移動させるようにしてもよい。移動量は、一定としてもよいし、設定した規則で変動するようにしてもよい。また、形状計測装置1は、光学プローブ3と被測定物Mの相対移動に基づいて移動方向を検出し、注目領域を移動させてもよい。
 ところで、光学プローブ3の照明光学系13によりライン状のパターンが投影される例で説明したが、本発明はこれだけに限られない。例えば、被測定物Mに対してドット状のスポットパターンが投影される光学系と、このスポットパターンが被測定物Mの表面上で1方向に走査できるように、偏向走査ミラーを具備した照明光学系を用いても良い。この場合は、ライン状のパターンの長手方向が偏向走査ミラーの走査方向に対応する。これにより、ドット状のスポットパターン少なくとも線状の走査範囲内で走査しながら投影し、線状の走査範囲内がライン状のパターンとなる。
 上記実施形態の形状測定装置1は、1台の装置で処理を行ったが複数組み合わせてもよい。図23は、形状測定装置を有するシステムの構成を示す模式図である。次に、図23を用いて、形状測定装置を有する形状測定システム300について説明する。形状測定システム300は、形状測定装置1と、複数台(図では2台)の形状測定装置1aと、プログラム作成装置302とを、有する。形状測定装置1、1a、プログラム作成装置302は、有線または無線の通信回線で接続されている。形状測定装置1aは、注目領域設定ユニット32を備えていない以外は、形状測定装置1と同様の構成である。プログラム作成装置302は、上述した形状測定装置1の制御装置4で作成する種々の設定やプログラムを作成する。具体的には、プログラム作成装置302は、測定範囲、調光領域設定可能範囲及び調光領域の情報や、測定範囲、調光領域設定可能範囲及び調光領域の情報を含む形状測定プログラム等を作成する。プログラム作成装置302は、作成したプログラムや、データを形状測定装置1、1aに出力する。形状測定装置1aは、領域及び範囲の情報や形状測定プログラムを形状測定装置1や、プログラム作成装置302から取得し、取得したデータ、プログラムを用いて、処理を行う。形状測定システム300は、測定プログラムを形状測定装置1や、プログラム作成装置302で作成したデータ、プログラムを用いて、形状測定装置1aで測定を実行することで、作成したデータ、プログラムを有効活用することができる。また、形状測定装置1aは、注目領域設定ユニット32、さらにその他の設定を行う各部を設けなくても測定を行うことができる。
 次に、上述した形状測定装置を備えた構造物製造システムについて、図24を参照して説明する。図24は、構造物製造システムのブロック構成図である。本実施形態の構造物製造システム200は、上記の実施形態において説明したような形状測定装置201と、設計装置202と、成形装置203と、制御装置(検査装置)204と、リペア装置205とを備える。制御装置204は、座標記憶部210及び検査部211を備える。
 設計装置202は、構造物の形状に関する設計情報を作成し、作成した設計情報を成形装置203に送信する。また、設計装置202は、作成した設計情報を制御装置204の座標記憶部210に記憶させる。設計情報は、構造物の各位置の座標を示す情報を含む。
 成形装置203は、設計装置202から入力された設計情報に基づいて、上記の構造物を作成する。成形装置203の成形は、例えば鋳造、鍛造、切削等が含まれる。形状測定装置201は、作成された構造物(測定対象物)の座標を測定し、測定した座標を示す情報(形状情報)を制御装置204へ送信する。
 制御装置204の座標記憶部210は、設計情報を記憶する。制御装置204の検査部211は、座標記憶部210から設計情報を読み出す。検査部211は、形状測定装置201から受信した座標を示す情報(形状情報)と、座標記憶部210から読み出した設計情報とを比較する。検査部211は、比較結果に基づき、構造物が設計情報通りに成形されたか否かを判定する。換言すれば、検査部211は、作成された構造物が良品であるか否かを判定する。検査部211は、構造物が設計情報通りに成形されていない場合に、構造物が修復可能であるか否か判定する。検査部211は、構造物が修復できる場合、比較結果に基づいて不良部位と修復量を算出し、リペア装置205に不良部位を示す情報と修復量を示す情報とを送信する。
 リペア装置205は、制御装置204から受信した不良部位を示す情報と修復量を示す情報とに基づき、構造物の不良部位を加工する。
 図25は、構造物製造システムによる処理の流れを示したフローチャートである。構造物製造システム200は、まず、設計装置202が構造物の形状に関する設計情報を作成する(ステップS301)。次に、成形装置203は、設計情報に基づいて上記構造物を作成する(ステップS302)。次に、形状測定装置201は、作成された上記構造物の形状を測定する(ステップS303)。次に、制御装置204の検査部211は、形状測定装置201で得られた形状情報と上記の設計情報とを比較することにより、構造物が設計情報通りに作成されたか否か検査する(ステップS304)。
 次に、制御装置204の検査部211は、作成された構造物が良品であるか否かを判定する(ステップS305)。構造物製造システム200は、作成された構造物が良品であると検査部211が判定した場合(ステップS305でYes)、その処理を終了する。また、検査部211は、作成された構造物が良品でないと判定した場合(ステップS305でNo)、作成された構造物が修復できるか否か判定する(ステップS306)。
 構造物製造システム200は、作成された構造物が修復できると検査部211が判定した場合(ステップS306でYes)、リペア装置205が構造物の再加工を実施し(ステップS307)、ステップS303の処理に戻る。構造物製造システム200は、作成された構造物が修復できないと検査部211が判定した場合(ステップS306でNo)、その処理を終了する。以上で、構造物製造システム200は、図25に示すフローチャートの処理を終了する。
 本実施形態の構造物製造システム200は、上記の実施形態における形状測定装置201が構造物の座標を高精度に測定することができるので、作成された構造物が良品であるか否か判定することができる。また、構造物製造システム200は、構造物が良品でない場合、構造物の再加工を実施し、修復することができる。
 なお、本実施形態におけるリペア装置205が実行するリペア工程は、成形装置203が成形工程を再実行する工程に置き換えられてもよい。その際には、制御装置204の検査部211が修復できると判定した場合、成形装置203は、成形工程(鍛造、切削等)を再実行する。具体的には、例えば、成形装置203は、構造物において本来切削されるべき箇所であって切削されていない箇所を切削する。これにより、構造物製造システム200は、構造物を正確に作成することができる。
 以上、添付図面を参照しながら本発明に係る好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。上述した例において示した各構成部材の諸形状や組み合わせ等は一例であって、本発明の主旨から逸脱しない範囲において設計要求等に基づき種々変更可能である。
 例えば、上記実施形態における形状測定装置1は、保持部材55が片持ちで光学プローブ3を保持する構成を例示したが、これに限定されるものではなく、両持ちで保持する構成としてもよい。両持ちで保持することにより、回転時に保持部材55に生じ変形を低減することができ、測定精度の向上を図ることが可能になる。
 また、上述実施形態では光学プローブ3から照明光束Lとしてライン光を投影し、被測定物から反射するライン状のパターンを撮像しているが、光学プローブ3の形式はこれに限られない。光学プローブ3から発せられる照明光は、所定の面内に一括で投影する形式でも構わない。例えば、米国特許6075605号に記載さる方式でも構わない。光学プローブから発せられる照明光は、点状のスポット光を投影する形式でも構わない。
 また、形状測定装置は、上記実施形態のように、円周方向に繰り返し形状を有しかつ円周方向とは異なる方向に延在した凹凸形状を有する形状の被測定物の測定に好適に用いることができる。形状測定装置は、繰り返し形状の1つについて、測定範囲、調光領域設定可能範囲及び調光領域を設定することで、設定した条件を他の繰り返し形状の測定に用いることができる。なお、被測定物は、円周方向に繰り返し形状を有しかつ円周方向とは異なる方向に延在した凹凸形状を有する形状に限定されず、種々の形状、例えば、繰り返し形状を備えない形状であってもよい。
  1 形状測定装置
  2 プローブ移動装置
  3 光学プローブ
  4 制御装置
  5 表示装置
  6 入力装置
  7 保持回転装置
  8 光源装置
  9 撮像装置
 10 駆動部
 11 位置検出部
 12 光源
 13 照明光学系
 20 撮像素子
 20a 受光面
 21 結像光学系
 21a 物体面
 30 制御部
 31 記憶部
 32,32A 注目領域設定ユニット
 34 注目領域設定部
 36 測定範囲設定部
 37 調光領域設定部
 38 調光制御部
 39 測定部
 40 動作制御部
 42 注目領域の位置設定データ
 44 基準注目領域の位置設定データ
 46 条件テーブル
 48 形状測定プログラム
 49 緒元データ
 50X,50Y,50Z 移動部
 51X,51Y,51Z ガイド部
 52 保持体
 53 第1回転部
 53a 回転軸線
 54 第2回転部
 55 保持部材
 55A 第1保持部
 55B 第2保持部
 62,63,64,65,66,68 矢印
 71 テーブル
 72 回転駆動部
 73a,73b 基準球
 80 画像データ取得部
 82 移動情報取得部
 84 投影パターン像検出部
 86 注目領域決定部
 88 第2の注目領域生成部
 89 注目領域取消判定部
 90 基準注目領域内投影パターン像検出部
 92 新規注目領域生成判定部
 94 第2の注目領域決定部
100 画面
102,102a,102b,102c 画像ウインドウ
104,106 ウインドウ
112 測定条件欄
114,128,130 ボタン
120 チェックボックス
122 調光領域選択点
124 測定範囲選択点(点群抽出範囲)
126 範囲欄
140 被測定物
142a,142b,142c ライン光
144 輝線
150a,150b 測定領域
152 調光領域設定可能範囲
154 調光領域
172 検出用注目領域生成部
174 距離測定部
176 注目領域位置決定部
178 距離測定領域設定部
179 重ね合わせ画像生成部
182 注目領域テンプレートデータ
184 読み出しアドレスデータ
186 画像データ
200 構造物製造システム
201 形状測定装置
202 設計装置
203 成形装置
204 制御装置
205 リペア装置
210 座標記憶部
211 検査部
300 形状測定システム
302 プログラム作成装置
 AX 回転軸中心
  B ベース
  M 被測定物
  L 照明光束

Claims (29)

  1.  パターンを測定対象に投影する投影部と、
     前記投影部によりパターンが投影された測定対象を撮像する撮像部と、
     前記投影部と前記測定対象とを相対移動させて、前記測定対象への前記パターンの前記測定対象上における投影位置を移動可能な移動部と、
     前記測定対象の測定に利用される情報を取得するための注目領域を前記パターンの像を含むように前記撮像部で撮像される領域の少なくとも一部に設定する注目領域設定部と、
    を備える形状測定装置。
  2.  前記注目領域設定部は、前記撮像部で取得された前記パターンの像を含む画像に基づき、前記注目領域を設定する請求項1に記載の形状測定装置。
  3.  前記注目領域設定部は、前記パターンが前記測定対象に投影された時の位置情報に基づいて、前記注目領域を設定する請求項1に記載の形状測定装置。
  4.  請求項1から3のいずれか一項に記載の形状測定装置において、
     前記注目領域設定部は、前記投影部と前記前記測定対象との相対移動条件を含む移動情報に基づいて前記注目領域を設定する形状測定装置。
  5.  請求項4に記載の形状測定装置において、
     前記移動情報は、前記測定対象に対する前記パターンの投影位置の移動方向を含み、
     前記注目領域設定部は、前記移動方向に基づいて前記注目領域を設定する形状測定装置。
  6.  請求項4または請求項5に記載の形状測定装置において、
     前記注目領域設定部は、前記相対移動を行う前の前記パターンの像と、前記相対移動条件により算出される前記撮像部の撮像面におけるパターンの像の移動距離と、に基づいて、前記注目領域を設定する形状測定装置。
  7.  請求項6に記載の形状測定装置において、
     更に、前記注目領域を前記パターンの投影位置の移動に基づかずに、前記撮像部で撮像される領域内の少なくとも一部に前記測定対象の測定に利用される情報を取得するための基準注目領域を設定する基準注目領域設定部を有する形状測定装置。
  8.  請求項7に記載の形状測定装置において、
     前記注目領域設定部は、前記基準注目領域と前記移動情報に基づいて、前記注目領域を設定する形状測定装置。
  9.  請求項7または8に記載の形状測定装置において、
     前記注目領域設定部は、前記基準注目領域を設定した位置に新たに第2の注目領域を生成する第2の注目領域生成部を備える形状測定装置。
  10.  請求項9に記載の形状測定装置において、
     前記第2の注目領域生成部は、前記基準注目領域の内側に形成される像の特徴量に基づいて、前記第2の注目領域を新たに生成するか否かを判定する新規注目領域生成判定部を有する形状測定装置。
  11.  請求項10に記載の形状測定装置において、
     前記投影部は、前記測定対象に投影されるパターンとして、ライン状の光強度分布を持つ光束を投影することでライン光を投影し、
     前記新規注目領域生成判定部は、前記基準注目領域に内のライン光のパターンの像について、前記ライン光のパターンの像の検出方向に沿って検出されるピーク値を持つ画素を、前記ライン光のパターンの像の前記検出方向に交差する方向の各位置で検出し、前記ピーク画素の個数が設定された値以上である場合、前記注目領域を新たに生成するように制御する形状測定装置。
  12.  請求項10に記載の形状測定装置において、
     前記新規注目領域生成判定部は、前記基準注目領域内の前記ライン光のパターンの像の長さが設定された長さ以上である場合、前記注目領域を新たに生成するように制御する形状測定装置。
  13.  請求項9に記載の形状測定装置において、
     前記注目領域設定部は、前記第2の注目領域の内側に形成される像の特徴に基づいて、前記第2の注目領域を取り消すか否かを判定する注目領域取消判定部を有する形状測定装置。
  14.  請求項4に記載の形状測定装置において、
     前記注目領域設定部は、更に前記注目領域を、前記パターンの投影位置の相対移動に基づいて生ずるパターンの像の移動距離または移動方向に基づいて、前記注目領域を再設定する形状測定装置。
  15.  請求項14に記載の形状測定装置において、
     前記注目領域設定部は、前記相対移動の前後の複数の画像から前記パターンの像の移動距離または移動方向を算出する形状測定装置。
  16.  請求項14に記載の形状測定装置において、
     前記注目領域設定部は、前記初期注目領域の外縁から前記パターンの像までの距離に基づき、前記注目領域を移動する形状測定装置。
  17.  請求項16に記載の形状測定装置において、
     更に前記初期注目領域の外縁から前記パターンの像まで距離を測定する場所を特定する距離測定領域を設定する距離測定領域設定部を備える形状測定装置。
  18.  請求項14に記載の形状測定装置において、
     更に前記相対移動しながら撮影することで取得された複数の画像データの前記パターンの像を重ね合わせた画像を生成する重ね合わせ画像生成部を備え、
     前記注目領域設定部は、前記重ね合わせ画像生成部で生成された前記パターンの像を重ね合わせた画像に基づいて前記パターンの像の移動距離または移動方向を算出する形状測定装置。
  19.  請求項14に記載の形状測定装置において、
     前記注目領域設定部は、前記移動部から得られた前記測定対象に対する前記投影部の相対移動方向と、前記測定対象の緒元データに基づいて、前記パターンの像の移動距離または移動方向を算出する形状測定装置。
  20.  請求項1から19のいずれか一項に記載の形状測定装置において、
     更に、前記投影部の前記ライン光の投影方向と、前記撮像部の撮像方向とがそれぞれ異なるように前記投影部と前記撮像部とを保持する筐体とを有するプローブを備える形状測定装置。
  21.  請求項1から20のいずれか一項の形状測定装置において、
     前記注目領域は、点群生成領域であり、
     更に、前記画像データの前記点群生成領域内に位置する前記パターンの像の位置に基づいて、前記測定対象の形状を測定する測定部を備える形状測定装置。
  22.  請求項1から21のいずれか一項の形状測定装置において、
     前記注目領域は、調光領域であり、
     更に、前記画像データの前記調光領域で検出された撮影された像の明るさに応じて、前記投影部からの投光量、前記撮像部で受光する受光量、前記撮像部で前記画像データを取得するときの露光量または前記撮像部の入出力特性を制御する調光制御部を備える形状測定装置。
  23.  パターンを測定対象に投影する投影部と、
     前記投影部によりパターンが投影された測定対象を撮像する撮像部と、
     前記投影部と前記測定対象とを相対移動させて、前記測定対象への前記パターンの前記測定対象上における投影位置を移動可能な移動部と、
     前記撮像部で撮像された前記測定対象へ投影されたパターンの像の存在状態を検出する基準注目領域を設定可能とし、前記基準注目領域内のパターンの像の存在状態に応じて、前記測定に利用される情報を取得する領域を設定する注目領域を生成する注目領域生成部と、
    を備える形状測定装置。
  24.  更に、前記注目領域生成部で生成された生成された前記注目領域を、前記測定対象上における前記パターンの投影位置の移動に基づいて、変化させる注目領域設定部を有する請求項23に記載の形状測定装置。
  25.  構造物の形状に関する設計情報に基づいて前記構造物を成形する成形装置と、
     前記成形装置によって成形された前記構造物の形状を測定する請求項1から24のいずれか一項に記載の形状測定装置と、
     前記形状測定装置によって測定された前記構造物の形状を示す形状情報と前記設計情報とを比較する制御装置と、を備える構造物製造システム。
  26.  測定対象へパターンを投影し、前記パターンの投影方向とは異なる方向から前記測定対象に投影された前記パターンの像を撮像して画像データを取得し、前記画像データの前記パターンの像に基づいて、前記測定対象の形状を測定する形状測定方法であって、
     前記パターンの投影位置が前記測定対象に対して相対移動することと、
     前記測定対象の測定に利用される情報を取得するための注目領域を前記パターンの像を含むように前記撮像部で撮像される領域の少なくとも一部に設定することと、
     前記画像データの前記注目領域内に位置する前記パターンの像の位置に基づいて前記測定対象の形状を測定することと、
    を備える形状測定方法。
  27.  構造物の形状に関する設計情報に基づいて前記構造物を成形することと、
     前記成形された前記構造物の形状を請求項26の形状測定方法によって測定することと、
     前記測定された前記構造物の形状を示す形状情報と前記設計情報とを比較することと、
    を含む構造物製造方法。
  28.  測定対象へパターンを投影し、前記パターンの投影方向とは異なる方向から前記測定対象に投影された前記パターンの像を撮像して画像データを取得し、前記画像データの前記パターンの像に基づいて、前記測定対象の形状を測定する形状測定プログラムであって、
     コンピュータに
     前記パターンの投影位置が前記測定対象に対して相対移動することと、
     前記測定対象の測定に利用される情報を取得するための注目領域を前記パターンの像を含むように前記撮像部で撮像される領域の少なくとも一部に設定することと、
     前記画像データの前記注目領域内に位置する前記パターンの像の位置に基づいて前記測定対象の形状を測定することと、
    を実行させる形状測定プログラム。
  29.  請求項28に記載の形状測定プログラムを記録し、コンピュータが読み取り可能な記録媒体。
PCT/JP2014/065751 2014-06-13 2014-06-13 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム、及び記録媒体 WO2015189985A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2014/065751 WO2015189985A1 (ja) 2014-06-13 2014-06-13 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム、及び記録媒体
JP2016527593A JP6350657B2 (ja) 2014-06-13 2014-06-13 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム、及び記録媒体
EP14894726.0A EP3156763B1 (en) 2014-06-13 2014-06-13 Shape measurement device
US15/318,409 US10482592B2 (en) 2014-06-13 2014-06-13 Shape measuring device, structured object manufacturing system, shape measuring method, structured object manufacturing method, shape measuring program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/065751 WO2015189985A1 (ja) 2014-06-13 2014-06-13 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム、及び記録媒体

Publications (1)

Publication Number Publication Date
WO2015189985A1 true WO2015189985A1 (ja) 2015-12-17

Family

ID=54833113

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/065751 WO2015189985A1 (ja) 2014-06-13 2014-06-13 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム、及び記録媒体

Country Status (4)

Country Link
US (1) US10482592B2 (ja)
EP (1) EP3156763B1 (ja)
JP (1) JP6350657B2 (ja)
WO (1) WO2015189985A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108204791A (zh) * 2017-12-30 2018-06-26 北京工业大学 一种六轴线激光齿轮测量装置
JP2018146365A (ja) * 2017-03-03 2018-09-20 リコーエレメックス株式会社 画像検査装置
CN111795657A (zh) * 2020-07-16 2020-10-20 南京大量数控科技有限公司 一种快速测量柔性板材平整度设备及方法
US20210072019A1 (en) * 2018-02-27 2021-03-11 Nikon Corporation Image analysis device, analyis device, shape measurement device, image analysis method, measurement condition determination method, shape measurement method, and program
CN112525078A (zh) * 2019-09-18 2021-03-19 财团法人工业技术研究院 三维量测装置与其操作方法

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10824315B2 (en) * 2015-05-29 2020-11-03 Canon Medical Systems Corporation Medical image processing apparatus, magnetic resonance imaging apparatus and medical image processing method
TWI653563B (zh) * 2016-05-24 2019-03-11 仁寶電腦工業股份有限公司 投影觸控的圖像選取方法
DE102018004592A1 (de) * 2017-06-20 2018-12-20 Mitutoyo Corporation Messapparat für dreidimensionale Geometrie und Messverfahren für dreidimensionale Geometrie
US20190012782A1 (en) * 2017-07-05 2019-01-10 Integrated Vision Systems LLC Optical inspection apparatus and method
JP6962145B2 (ja) * 2017-11-13 2021-11-05 富士通株式会社 画像処理プログラム、画像処理方法および情報処理装置
US10692236B2 (en) * 2017-12-22 2020-06-23 Symbol Technologies, Llc Container use estimation
KR101921021B1 (ko) * 2018-04-06 2018-11-21 (주)이즈미디어 회전식 카메라모듈 검사장치
US11040452B2 (en) * 2018-05-29 2021-06-22 Abb Schweiz Ag Depth sensing robotic hand-eye camera using structured light
JP6606234B1 (ja) * 2018-07-13 2019-11-13 Dmg森精機株式会社 測定装置
CN109238132B (zh) * 2018-09-12 2020-03-27 北京工业大学 基于外差干涉的双基圆盘式渐开线样板测量光学***仿真方法
JP7219034B2 (ja) * 2018-09-14 2023-02-07 株式会社ミツトヨ 三次元形状測定装置及び三次元形状測定方法
US11475571B2 (en) * 2019-03-13 2022-10-18 Canon Kabushiki Kaisha Apparatus, image processing apparatus, and control method
US11545114B2 (en) * 2020-07-14 2023-01-03 Qualcomm Incorporated Methods and apparatus for data content integrity
DE102021102122B4 (de) * 2021-01-29 2023-12-28 Klingelnberg GmbH. Verfahren und Vorrichtung zum Messen einer Verzahnung
US11663761B2 (en) * 2021-08-25 2023-05-30 Sap Se Hand-drawn diagram recognition using visual arrow-relation detection

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63149507A (ja) * 1986-12-13 1988-06-22 Kobe Steel Ltd 作業線自動検出方法
WO1991010111A1 (en) * 1989-12-28 1991-07-11 Kabushiki Kaisha Toyota Chuo Kenkyusho Apparatus for measuring three-dimensional coordinate
WO2001057471A1 (fr) * 2000-01-31 2001-08-09 Omron Corporation Capteur visuel a deplacement
JP2005241570A (ja) * 2004-02-27 2005-09-08 Sunx Ltd 表面形状検出器
JP2013234854A (ja) * 2012-05-02 2013-11-21 Nikon Corp 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、及びそのプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6858826B2 (en) * 1996-10-25 2005-02-22 Waveworx Inc. Method and apparatus for scanning three-dimensional objects
JP4111592B2 (ja) * 1998-06-18 2008-07-02 コニカミノルタセンシング株式会社 3次元入力装置
JP2001289614A (ja) 2000-01-31 2001-10-19 Omron Corp 変位センサ
JP4282643B2 (ja) * 2005-08-30 2009-06-24 ダイハツ工業株式会社 歪評価装置及び歪評価方法
JP2008096123A (ja) 2006-10-05 2008-04-24 Keyence Corp 光学式変位計、光学式変位測定方法、光学式変位測定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
US8531650B2 (en) * 2008-07-08 2013-09-10 Chiaro Technologies LLC Multiple channel locating
DE102010064593A1 (de) * 2009-05-21 2015-07-30 Koh Young Technology Inc. Formmessgerät und -verfahren
DE102010029319B4 (de) * 2009-05-27 2015-07-02 Koh Young Technology Inc. Vorrichtung zur Messung einer dreidimensionalen Form und Verfahren dazu
JP5425601B2 (ja) * 2009-12-03 2014-02-26 株式会社日立ハイテクノロジーズ 荷電粒子線装置およびその画質改善方法
US9179106B2 (en) * 2009-12-28 2015-11-03 Canon Kabushiki Kaisha Measurement system, image correction method, and computer program
WO2011085225A1 (en) * 2010-01-08 2011-07-14 Wake Forest University Health Sciences Delivery system
WO2012133926A2 (en) 2011-04-01 2012-10-04 Nikon Corporation Profile measuring apparatus, method for measuring profile, and method for manufacturing structure
US20140157579A1 (en) * 2012-12-08 2014-06-12 8 Tree, Llc Networked marketplace for custom 3D fabrication
US9717461B2 (en) * 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9041914B2 (en) * 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63149507A (ja) * 1986-12-13 1988-06-22 Kobe Steel Ltd 作業線自動検出方法
WO1991010111A1 (en) * 1989-12-28 1991-07-11 Kabushiki Kaisha Toyota Chuo Kenkyusho Apparatus for measuring three-dimensional coordinate
WO2001057471A1 (fr) * 2000-01-31 2001-08-09 Omron Corporation Capteur visuel a deplacement
JP2005241570A (ja) * 2004-02-27 2005-09-08 Sunx Ltd 表面形状検出器
JP2013234854A (ja) * 2012-05-02 2013-11-21 Nikon Corp 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、及びそのプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3156763A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018146365A (ja) * 2017-03-03 2018-09-20 リコーエレメックス株式会社 画像検査装置
CN108204791A (zh) * 2017-12-30 2018-06-26 北京工业大学 一种六轴线激光齿轮测量装置
US20210072019A1 (en) * 2018-02-27 2021-03-11 Nikon Corporation Image analysis device, analyis device, shape measurement device, image analysis method, measurement condition determination method, shape measurement method, and program
CN112525078A (zh) * 2019-09-18 2021-03-19 财团法人工业技术研究院 三维量测装置与其操作方法
CN111795657A (zh) * 2020-07-16 2020-10-20 南京大量数控科技有限公司 一种快速测量柔性板材平整度设备及方法

Also Published As

Publication number Publication date
US20170132784A1 (en) 2017-05-11
JPWO2015189985A1 (ja) 2017-04-20
EP3156763B1 (en) 2019-02-06
EP3156763A4 (en) 2018-01-03
JP6350657B2 (ja) 2018-07-04
US10482592B2 (en) 2019-11-19
EP3156763A1 (en) 2017-04-19

Similar Documents

Publication Publication Date Title
JP6350657B2 (ja) 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム、及び記録媒体
JP5436431B2 (ja) 被検体の凹凸検出方法とその装置
JP6184289B2 (ja) 三次元画像処理装置、三次元画像処理方法、三次元画像処理プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
RU2762619C2 (ru) Графическая накладка для измерения размеров элементов при помощи устройства видеоконтроля
JP5109598B2 (ja) 物品検査方法
JP2012045610A (ja) ビードの終端部の形状を判定する装置及びその方法
US20160054119A1 (en) Shape measurement device, structure production system, shape measurement method, structure production method, and shape measurement program
JP2013064644A (ja) 形状測定装置、形状測定方法、構造物製造システム及び構造物の製造方法
JP2005121486A (ja) 3次元測定装置
JP2014145735A (ja) 形状測定装置、構造物製造システム、評価装置、形状測定方法、構造物製造方法、及び形状測定プログラム
JP6248510B2 (ja) 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム、及び記録媒体
JP5170622B2 (ja) 形状測定方法、プログラム、および形状測定装置
JP2014126381A (ja) 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、及び形状測定プログラム
JP2023176008A (ja) 像解析装置、解析装置、形状測定装置、像解析方法、測定条件決定方法、形状測定方法及びプログラム
JP6887141B2 (ja) 表面形状測定方法および表面形状測定装置
US20170069110A1 (en) Shape measuring method
JP7491664B2 (ja) 形状測定装置、構造物製造システム、形状測定方法、及び構造物製造方法
JP2018141810A (ja) 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム、及び記録媒体
JP2012093234A (ja) 三次元形状測定装置、三次元形状測定方法、構造物の製造方法および構造物製造システム
JP7001947B2 (ja) 表面形状測定方法
JP5786999B2 (ja) 三次元形状計測装置、三次元形状計測装置のキャリブレーション方法
JP6270264B2 (ja) 情報処理装置、情報処理方法、プログラム、測定装置、及び測定方法
JP6820516B2 (ja) 表面形状測定方法
US20020159073A1 (en) Range-image-based method and system for automatic sensor planning
JP2009069063A (ja) 計測方法、形状計測方法、計測装置及び形状計測装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14894726

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016527593

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2014894726

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15318409

Country of ref document: US

Ref document number: 2014894726

Country of ref document: EP