WO2018163572A1 - 画像処理システム、画像処理装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理システム、画像処理装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
WO2018163572A1
WO2018163572A1 PCT/JP2017/046519 JP2017046519W WO2018163572A1 WO 2018163572 A1 WO2018163572 A1 WO 2018163572A1 JP 2017046519 W JP2017046519 W JP 2017046519W WO 2018163572 A1 WO2018163572 A1 WO 2018163572A1
Authority
WO
WIPO (PCT)
Prior art keywords
image processing
image
individually
processing unit
inspection
Prior art date
Application number
PCT/JP2017/046519
Other languages
English (en)
French (fr)
Inventor
林 健吉
洋介 成瀬
慶延 岸根
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2019504344A priority Critical patent/JP6588675B2/ja
Priority to CN201780088006.0A priority patent/CN110402577B/zh
Publication of WO2018163572A1 publication Critical patent/WO2018163572A1/ja
Priority to US16/550,800 priority patent/US20190378259A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/022Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/045Correction of measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Definitions

  • the present invention relates to an image processing system, an image processing apparatus, an image processing method, and an image processing program that acquire image data from a plurality of imaging units and inspect, measure, or recognize a target imaged by each imaging unit by image processing. .
  • a technique is known in which image data is acquired from a plurality of imaging units, and an object imaged by each imaging unit is inspected, measured, or recognized by image processing.
  • Patent Documents 1 and 2 and the like include a technique for inspecting an object to be inspected by a plurality of imaging units, performing image processing on image data obtained from each imaging unit, and checking the appearance quality, the presence or absence of scratches, and the like. Are listed.
  • Patent Document 3 describes a technique in which a measurement target is imaged by a plurality of imaging units, image data obtained from each imaging unit is subjected to image processing, and a position, a dimension, and the like are measured.
  • Patent Documents 4, 5 and the like describe a technique for recognizing characters or the like written on an imaged object by performing image processing on image data obtained by imaging with a plurality of imaging units. .
  • JP 2001-153625 A Japanese Unexamined Patent Publication No. 7-27714 JP 2008-281348 A JP-A-8-5316 JP2015-197780A
  • the quality of image data obtained from each imaging unit varies. For example, if there are individual differences in imaging lenses used in individual imaging units, the quality of image data obtained from each imaging unit varies. If there is a variation in the quality of image data obtained from each imaging unit, the results of subsequent inspections will be affected.
  • the cameras that make up the imaging unit usually have individual differences, and it is difficult to prepare multiple imaging units with the same performance. In particular, it is difficult to prepare a plurality of imaging lenses having the same performance.
  • An object is to provide an image processing system, an image processing apparatus, an image processing method, and an image processing program.
  • a plurality of imaging units a first image processing unit that individually acquires image data from the plurality of imaging units, and individually corrects image degradation caused by each imaging unit by image processing; and first image processing
  • a second image processing unit that individually acquires the corrected image data from the unit and individually inspects, measures, or recognizes the imaged target by image processing, and the first image processing unit includes a plurality of imaging units.
  • An image processing system that individually corrects image data acquired from a plurality of imaging units so that the results of the second image processing unit match within a desired range when the units image the same target.
  • the first image processing unit and the second image processing unit are provided as the image processing unit.
  • the first image processing unit individually acquires image data from a plurality of imaging units, and performs image processing for image degradation caused by each imaging unit, for example, image degradation caused by an optical system provided in each imaging unit. Correct individually.
  • the second image processing unit individually acquires the corrected image data from the first image processing unit, and individually inspects, measures, or recognizes the imaged target by image processing.
  • the first image processing unit does not simply correct image degradation caused by individual imaging units, but corrects it in consideration of subsequent inspections and the like. In other words, correction is not performed so as to completely eliminate image degradation, but correction is performed so that the results of inspection and the like match within a desired range when a plurality of imaging units capture the same object.
  • the “same target” includes items that can be regarded as substantially the same. That is, the same here includes almost the same concept. For example, imaging of the same shape and appearance but different ones (for example, a plurality of screws, etc.) is also included in the imaging of the same object.
  • match within a desired range means matching at a level of accuracy required for inspection or the like. Therefore, it is desirable to correct so that the results of inspection and the like match, but an error is allowed within a certain range. That is, it is only necessary to correct so as to substantially match.
  • Examples of correction performed by the first image processing unit include image distortion correction, resolution correction, image magnification correction, and spectral transmittance correction.
  • the image processing apparatus further includes a third image processing unit that individually acquires image data from a plurality of image capturing units, individually corrects image quality variations caused by differences in image capturing environments by image processing, and equalizes the image data.
  • the image processing system according to (1) wherein the unit individually acquires the corrected image data from the third image processing unit, and individually corrects the image degradation caused by each imaging unit by image processing.
  • the third image processing unit is further provided.
  • the third image processing unit individually acquires the image data from the plurality of imaging units, and individually corrects and uniforms the image quality variation caused by the difference in the imaging environment by the image processing.
  • the first image processing unit individually acquires the corrected image data from the third image processing unit, and individually corrects image degradation caused by the individual imaging units by image processing. As a result, it is possible to correct variations in image quality caused by differences in imaging environments.
  • Examples of correction by the third image processing unit include brightness correction and white balance correction.
  • image degradation caused by the optical system provided in each imaging unit is individually corrected by image processing.
  • distortion, reduction in resolution, and the like caused by the optical system are corrected by image processing.
  • a parameter setting unit that sets parameters for image processing performed by the first image processing unit is further provided, and the parameter setting unit sets parameters based on the results of inspection, measurement, or recognition by the second image processing unit.
  • the image processing system according to any one of (1) to (3) above.
  • the parameter setting unit that sets parameters for image processing performed by the first image processing unit is further provided.
  • the parameter setting unit sets a parameter based on the result of inspection or the like by the second image processing unit. That is, the parameters of the image processing performed by the first image processing unit are set so that the results of the inspection and the like match within a desired range when the plurality of imaging units capture the same target.
  • the parameter is optimized by observing the change in the result of the inspection of the second image processing unit when the parameter is changed. For example, the parameter is changed minutely to measure how the result of the inspection or the like of the second processing unit changes, and the parameter is optimized based on the measurement result.
  • the gradient method is adopted as a method for optimizing the parameters.
  • a first image processing unit that individually acquires image data from a plurality of imaging units and individually corrects image degradation caused by the individual imaging units by image processing, and an image that has been corrected from the first image processing unit
  • a second image processing unit that individually obtains data and individually inspects, measures, or recognizes an imaged target by image processing, and the first image processing unit captures the same target by a plurality of imaging units
  • An image processing apparatus that individually corrects the image data acquired from the plurality of imaging units so that the results of the second image processing unit match within a desired range in this case.
  • the first image processing unit and the second image processing unit are provided as the image processing unit.
  • the first image processing unit individually acquires image data from a plurality of imaging units, and individually corrects image degradation caused by the individual imaging units by image processing.
  • the second image processing unit individually acquires the corrected image data from the first image processing unit, and individually inspects, measures, or recognizes the imaged target by image processing.
  • the first image processing unit does not simply correct image degradation caused by individual imaging units, but corrects it in consideration of subsequent inspections and the like. In other words, correction is not performed so as to completely eliminate image degradation, but correction is performed so that the results of inspection and the like match within a desired range when a plurality of imaging units capture the same object.
  • the image processing apparatus further includes a third image processing unit that individually acquires image data from a plurality of image capturing units and individually corrects and uniforms image quality variations caused by differences in image capturing environment by image processing.
  • the third image processing unit is further provided.
  • the third image processing unit individually acquires the image data from the plurality of imaging units, and individually corrects and uniforms the image quality variation caused by the difference in the imaging environment by the image processing.
  • the first image processing unit individually acquires the corrected image data from the third image processing unit, and individually corrects image degradation caused by the individual imaging units by image processing. As a result, it is possible to correct variations in image quality caused by differences in imaging environments.
  • image degradation caused by the optical system provided in each imaging unit is individually corrected by image processing.
  • a parameter setting unit that sets parameters for image processing performed by the first image processing unit is further provided, and the parameter setting unit sets parameters based on the results of inspection, measurement, or recognition by the second image processing unit.
  • the image processing apparatus according to any one of (7) to (9) above.
  • the parameter setting unit that sets parameters for image processing performed by the first image processing unit is further provided.
  • the parameter setting unit sets a parameter based on the result of inspection or the like by the second image processing unit. That is, the parameters of the image processing performed by the first image processing unit are set so that the results of the inspection and the like match within a desired range when the plurality of imaging units capture the same target.
  • a first image processing step of individually acquiring image data from a plurality of imaging units and individually correcting image degradation caused by the individual imaging units by image processing, and an image corrected by the first image processing step A second image processing step of individually acquiring data and individually inspecting, measuring, or recognizing the imaged target by image processing, wherein the first image processing step captures the same target
  • an image processing method for individually correcting image data acquired from a plurality of imaging units so that the results of the inspection, measurement, or recognition in the second image processing step match within a desired range.
  • the first image processing step and the second image processing step are provided as an image processing step for performing image processing on image data acquired from a plurality of imaging units and inspecting an object being imaged.
  • image data is individually acquired from a plurality of imaging units, and image deterioration caused by each imaging unit is individually corrected by image processing.
  • the image data corrected by the first image processing step is individually acquired, and the object being imaged is individually inspected, measured, or recognized by image processing.
  • image deterioration caused by individual imaging units is not simply corrected, but is corrected in consideration of subsequent inspections and the like.
  • correction is not performed so as to completely eliminate image degradation, but correction is performed so that the results of inspection and the like match within a desired range when a plurality of imaging units capture the same object.
  • a third image processing step further includes a third image processing step of individually acquiring image data from a plurality of imaging units and individually correcting and uniforming image quality variations caused by differences in imaging environments by image processing.
  • the third image processing step is further included.
  • image data is individually acquired from a plurality of imaging units, and variations in image quality caused by differences in imaging environments are individually corrected and made uniform by image processing.
  • the first image processing step is performed after the third image processing step. As a result, it is possible to correct variations in image quality caused by differences in imaging environments.
  • a parameter setting step for setting parameters for image processing performed in the first image processing step is further provided, and the parameter setting step sets parameters based on the results of inspection, measurement, or recognition in the second image processing step.
  • the parameter setting step for setting the parameters of the image processing performed by the first image processing step is further included.
  • the parameter is set based on the result of inspection or the like. That is, when a plurality of imaging units capture the same object, parameters are set based on the results of the inspection and the like so that the results of the inspection and the like match within a desired range.
  • image degradation caused by the optical system provided in each imaging unit is individually corrected by image processing.
  • a first image processing function that individually acquires image data from a plurality of imaging units and individually corrects image degradation caused by each imaging unit by image processing, and an image that has been corrected by the first image processing function
  • An image processing program for causing a computer to acquire data individually and to implement a second image processing function for individually inspecting, measuring, or recognizing an object being imaged by image processing, wherein the first image processing function is: When multiple imaging units image the same object, individually correct the image data acquired from multiple imaging units so that the results of inspection, measurement, or recognition by the second image processing function match within a desired range An image processing program.
  • the first image processing function and the second image processing function are provided as the image processing functions.
  • the first image processing function individually acquires image data from a plurality of imaging units, and individually corrects image degradation caused by each imaging unit by image processing.
  • the second image processing function individually acquires the corrected image data from the first image processing function, and individually inspects, measures, or recognizes the imaged target by image processing.
  • the first image processing function does not simply correct image degradation caused by individual imaging units, but corrects it in consideration of subsequent inspections and the like. In other words, correction is not performed so as to completely eliminate image degradation, but correction is performed so that the results of inspection and the like match within a desired range when a plurality of imaging units capture the same object.
  • the image processing apparatus further includes a third image processing function for individually acquiring image data from a plurality of image capturing units and individually correcting and uniforming variations in image quality caused by differences in image capturing environment by image processing.
  • the function is the image processing program according to (15), in which the corrected image data is individually acquired from the third image processing function, and image deterioration caused by each imaging unit is individually corrected by image processing.
  • the third image processing function is further provided.
  • the third image processing function individually acquires image data from a plurality of imaging units, and individually corrects and uniforms image quality variations caused by differences in imaging environments by image processing.
  • the first image processing function individually acquires the corrected image data from the third image processing function, and individually corrects the image degradation caused by each imaging unit by image processing. As a result, it is possible to correct variations in image quality caused by differences in imaging environments.
  • a parameter setting function for setting parameters for image processing performed by the first image processing function is further provided, and the parameter setting function sets parameters based on a result of inspection, measurement, or recognition by the second image processing function.
  • the parameter setting function for setting the parameters of the image processing performed by the first image processing function is further provided.
  • the parameter setting function sets parameters based on the result of inspection or the like by the second image processing function. That is, when a plurality of imaging units capture the same target, parameters for image processing performed by the first image processing function are set so that the results of the inspection and the like match within a desired range.
  • image degradation caused by the optical system provided in each imaging unit is individually corrected by image processing by the first image processing function.
  • FIG. 1 is a system configuration diagram showing an example of an inspection system to which an image processing system according to the present invention is applied.
  • a plan view showing an example of a substrate to be inspected Block diagram of functions of inspection equipment
  • the figure which shows an example of the original image data acquired from a 1st camera and a 2nd camera, when imaging the same object The figure which shows an example of the image data after keystone distortion correction
  • amending so that a test result may become the same Block diagram of functions provided in the inspection apparatus of the second embodiment Flow chart showing the procedure for optimizing parameters
  • FIG. 1 is a system configuration diagram showing an example of an inspection system to which an image processing system according to the present invention is applied.
  • the inspection system 1 of the present embodiment is configured as a system for continuously inspecting the substrates B that are continuously conveyed by the conveyor 2.
  • the inspection system 1 of the present embodiment is configured as a system for inspecting the length of the substrate B. That is, it is configured as a system for inspecting whether or not the length of the substrate B satisfies a predetermined standard.
  • FIG. 2 is a plan view showing an example of a substrate to be inspected.
  • the substrate B to be inspected has a horizontally long rectangular shape in plan view.
  • the inspection system 1 measures the length (length of the short side) L of the substrate B and determines whether or not the measured length L satisfies a predetermined standard. Further, pass / fail of the substrate B is determined based on the determination result. That is, if the measured length L satisfies the standard, it is determined to be acceptable (OK), and otherwise, it is determined to be unacceptable (NG (NG: No Good)).
  • Standard is set with a certain width.
  • the range of acceptable length is set to Lmin ⁇ L ⁇ Lmax. In this case, if the measured length L is not less than Lmin and not more than Lmax, it is determined to be acceptable.
  • the label Lb is also determined. That is, it is determined what kind of label is attached to the substrate B.
  • the inspection system 1 individually acquires image data from two cameras 10 ⁇ / b> A and 10 ⁇ / b> B that images the substrate B conveyed by the conveyor 2, and the two cameras 10 ⁇ / b> A and 10 ⁇ / b> B. And an inspection apparatus 100 that inspects the substrate B being processed by image processing.
  • the conveyor 2 conveys the substrate B to be inspected along a predetermined conveyance path.
  • the substrate B is transported horizontally along a straight line.
  • the substrate B is transported in two rows on the conveyor 2. Moreover, the board
  • the direction indicated by the arrow Fd is the transport direction of the substrate B.
  • the substrate B is transported in parallel with the short side.
  • the two cameras 10A and 10B are an example of a plurality of imaging units.
  • the two cameras 10 ⁇ / b> A and 10 ⁇ / b> B are installed on the conveyance path of the substrate B by the conveyor 2.
  • one camera 10A is referred to as a first camera 10A
  • the other camera 10B is referred to as a second camera 10B.
  • the first camera 10A outputs the captured image as digital data.
  • the first camera 10A includes an imaging lens 12A and a camera body 14A.
  • the imaging lens 12A is an example of an optical system.
  • the imaging lens 12A of the present embodiment is a single-focus imaging lens and includes a diaphragm and a focus mechanism.
  • the imaging lens 12A is detachably attached to the camera body 14A via a mount.
  • the camera body 14A captures an image formed by the imaging lens 12A and outputs it as digital image data.
  • the camera body 14A is provided with an image sensor as means for capturing an image formed by the imaging lens 12A. Further, the camera body 14A includes a signal processing unit as means for processing a signal output from the image sensor and generating image data.
  • a solid-state imaging device such as a CMOS (CMOS: “Complementary” Metal “Oxide” Semiconductor) or a CCD (CCD: “Charged” Coupled Device) is used.
  • the first camera 10A images the substrates B in one row (the left row in FIG. 1) of the substrates B transported in two rows by the conveyor 2. Therefore, the first camera 10 ⁇ / b> A is installed at a position where the substrate B in one row can be imaged. This position is a position where the entire image of the substrate B to be inspected can be captured in one frame.
  • the configuration of the second camera 10B is the same as the configuration of the first camera 10A. That is, it is configured by the imaging lens 12B and the camera body 14B.
  • the specifications of the imaging lens 12B and the specifications of the camera body 14B are also the same as the specifications of the imaging lens 12A and the camera body 14A of the first camera 10A.
  • the second camera 10B images the substrates B in the other row (the right column in FIG. 1) among the substrates B transported in two rows by the conveyor 2. Therefore, the second camera 10B is installed at a position where the substrate B in the other row can be imaged. This position is a position where the entire image of the substrate B to be inspected can be captured in one frame.
  • the inspection apparatus 100 is an example of an image processing apparatus.
  • the inspection apparatus 100 acquires image data from the first camera 10A and the second camera 10B, individually performs image processing on the obtained image data, and inspects the substrate B being imaged. That is, the length L of the substrate B being imaged is measured, it is determined whether or not the measured length L satisfies the standard, and pass / fail is determined.
  • the inspection apparatus 100 is configured by a computer having a CPU (CPU: Central Processing Unit), a RAM (RAM: Random Access Memory), and a ROM (ROM: Read Only Memory). That is, the computer functions as the inspection apparatus 100 by executing a predetermined program.
  • a personal computer can be used as the computer.
  • FIG. 3 is a block diagram of functions provided in the inspection apparatus.
  • the inspection apparatus 100 includes a function (first image processing function) as an image correction processing unit 102 for correcting image data acquired from the first camera 10A and the second camera 10B, and an image correction process.
  • a function (second image processing function) as an inspection processing unit 104 that acquires corrected image data from the unit 102 and inspects the imaged substrate B by image processing, and image processing performed by the image correction processing unit 102 (second image processing function).
  • the image correction processing unit 102 is an example of a first image processing unit.
  • the image correction processing unit 102 includes a first image correction processing unit 102A that corrects image data acquired from the first camera 10A and a second image correction processing unit 102B that corrects image data acquired from the second camera 10B. .
  • the first image correction processing unit 102A acquires image data of the first camera 10A, and corrects image deterioration caused by the first camera 10A by image processing.
  • image degradation caused by the first camera 10A there are various types of image degradation caused by the first camera 10A, such as image distortion and resolution reduction.
  • the target to be corrected by the first image correction processing unit 102A is not all of the image deterioration caused by the first camera 10A but the image deterioration that affects the subsequent inspection.
  • image distortion is corrected in the first image correction processing unit 102A. Correction is performed according to the type of distortion that has occurred. For example, when distortion occurs, distortion correction is performed. If trapezoidal distortion has occurred, keystone distortion correction is performed. A known image processing method is adopted for the correction.
  • the correction here is not intended to completely eliminate image deterioration, but is performed for the purpose of reducing variations in inspection results due to performance differences of cameras used. That is, when the same object is imaged by the first camera 10A and the second camera 10B, the inspection is performed for the purpose of matching the inspection results within a desired range. This point will be described later.
  • the second image correction processing unit 102B acquires the image data of the second camera 10B and corrects image degradation caused by the second camera 10B by image processing.
  • the object to be corrected is the same as that of the first image correction processing unit 102A, and is image distortion.
  • the inspection processing unit 104 is an example of a second image processing unit.
  • the inspection processing unit 104 acquires the corrected image data from the first image correction processing unit 102A, and from the first inspection processing unit 104A and the second image correction processing unit 102B that inspects the imaged substrate B by image processing.
  • a second inspection processing unit 104B that acquires the corrected image data and inspects the imaged substrate B by image processing is provided.
  • the first inspection processing unit 104A acquires the corrected image data from the first image correction processing unit 102A, and inspects the imaged substrate B by image processing. Further, the first inspection processing unit 104A determines the label Lb attached to the substrate B simultaneously with the inspection. That is, what kind of label is attached is recognized and discriminated by image processing.
  • the inspection performed by the first inspection processing unit 104A is an inspection of the length L of the substrate B as described above. That is, it is inspected whether the length L of the substrate B being imaged satisfies the standard.
  • the first inspection processing unit 104A first extracts the substrate B from the obtained image data. Next, the vertical length L of the extracted substrate B is measured by image processing. Next, it is determined whether or not the length L of the substrate B obtained by measurement satisfies the standard. If the standard is satisfied, it is determined to be acceptable. On the other hand, if the standard is not satisfied, it is determined as a failure.
  • a known image processing method is adopted for extraction and measurement of the inspection object. For the determination of the label Lb, a known image processing method is employed.
  • the second inspection processing unit 104B is an example of a second image processing unit.
  • the second inspection processing unit 104B acquires the corrected image data from the second image correction processing unit 102B, and inspects the imaged substrate B by image processing.
  • the second inspection processing unit 104B determines the label Lb attached to the substrate B simultaneously with the inspection.
  • the inspection performed by the second inspection processing unit 104B is an inspection of the length L of the substrate B, similarly to the first inspection processing unit 104A.
  • the inspection method is also the same as that of the first inspection processing unit 104A. That is, the first inspection processing unit 104A and the second inspection processing unit 104B perform the same image processing on the acquired image data and inspect the substrate B being imaged.
  • the first inspection processing unit 104A and the second inspection processing unit 104B perform the same image processing on the acquired image data to determine the label Lb attached to the substrate B.
  • the parameter setting unit 106 individually sets parameters for image processing (image correction processing) performed by the first image correction processing unit 102A and the second image correction processing unit 102B.
  • the parameters are set so that the inspection results of the first inspection processing unit 104A and the second inspection processing unit 104B match within a desired range when the same object is imaged by the first camera 10A and the second camera 10B. .
  • matching within a desired range means matching at a level of accuracy required for inspection or the like. Therefore, it is desirable to correct so that the results of inspection and the like match, but an error is allowed within a certain range. That is, it is only necessary to correct so as to substantially match. Moreover, the case where the same object here can be regarded as the substantially same object is included.
  • the first camera 10A and the second camera 10B are cameras having the same specifications.
  • the quality of the image data obtained from the first camera 10A and the quality of the image data obtained from the second camera 10B substantially match.
  • the inspection results of the first inspection processing unit 104A and the second inspection processing unit 104B are obtained. Substantially match.
  • the difference in the inspection result caused by the difference in the performance of the camera is eliminated by the correction processing by the first image correction processing unit 102A and the second image correction processing unit 102B. That is, even if there is a difference in the performance of the cameras to be used, the first image correction processing unit 102A and the second image correction processing unit 102B in advance in the first image correction processing unit 102B in order to prevent a difference in the inspection result. Correct the data. Thereby, even if there is a difference in performance between the first camera 10A and the second camera 10B, the object can be inspected with high accuracy using the image data.
  • the difference in camera performance here is not only the performance difference based on the optical performance difference of the mounted imaging lens, but also the performance difference based on the mounting accuracy, and the performance based on the mounting accuracy of the imaging lens to the camera body.
  • a difference in performance based on a difference, an inclination of an image sensor inside the camera, a sensitivity, and the like is also included. This is because the optical axis shift, inclination, and the like may occur due to the difference in mounting accuracy, the difference in mounting accuracy, the inclination of the image sensor, and the like, and the inspection result may be different. Another reason is that a difference in inspection results may also occur due to a difference in sensitivity between image sensors provided in the camera.
  • FIG. 4 is a diagram illustrating an example of original image data acquired from the first camera and the second camera when the same object is imaged.
  • FIG. 5A shows an example of original image data acquired from the first camera 10A.
  • FIG. 5B shows an example of original image data acquired from the second camera 10B.
  • the original image data has trapezoidal distortion in both the first camera 10A and the second camera 10B.
  • the amount of distortion is larger in the image data i0b acquired from the second camera 10B than in the image data i0a acquired from the first camera 10A.
  • FIGS. 4A and 4B for comparison, an image of a substrate that is imaged when no distortion occurs is displayed with a broken line.
  • FIG. 5 is a diagram showing an example of image data after trapezoidal distortion correction.
  • FIG. 6A shows an example when trapezoidal distortion correction is performed on image data acquired from the first camera 10A.
  • FIG. 5B shows an example when trapezoidal distortion correction is performed on image data acquired from the second camera 10B.
  • FIG. 5 shows an example in which each image data is corrected without considering the inspection result.
  • each image data is independently corrected and corrected so as to completely remove the distortion. That is, each image data is completely corrected to an ideal image shape.
  • the corrected image data i1a of the first camera 10A is corrected to the same rectangular shape as the actual substrate shape.
  • the corrected image data i1b of the second camera 10B is also corrected to the same rectangular shape as the actual substrate shape.
  • the inspection results of the length L of the substrate B can be matched.
  • the original image data has a larger distortion amount in the image data i0b of the second camera 10B than in the image data i0a of the first camera 10A (see FIG. 4).
  • the corrected image data is corrected in the corrected image data i1b of the second camera 10B rather than the corrected image data i1a of the first camera 10A.
  • the amount increases.
  • the resolution of the image data i1b after correction of the second camera 10B may be reduced, and a situation in which the label Lb cannot be determined may occur.
  • FIG. 6 is a diagram showing an example of image data when the inspection result is corrected to be the same.
  • FIG. 3A shows an example when image data acquired from the first camera 10A is corrected.
  • FIG. 5B shows an example when image data acquired from the second camera 10B is corrected. Note that in FIGS. 7A and 7B, images of the substrate when distortion is completely corrected are overlaid with broken lines for comparison.
  • the corrected image data i2a of the first camera 10A and the corrected image data i2b of the second camera 10B are as follows.
  • the image data is almost the same.
  • the inspection system 1 of the present embodiment when the same object is imaged by the first camera 10A and the second camera 10B, the difference between the inspection results of the first inspection processing unit 104A and the second inspection processing unit 104B.
  • the image data is corrected in the first image correction processing unit 102A and the second image correction processing unit 102B so as not to occur, that is, to match within a desired range.
  • the parameter setting unit 106 sets parameters for image processing so that such correction is performed. That is, a parameter is set so that the inspection result matches within a desired range when the same object is imaged.
  • the parameter is set by feeding back the inspection result, for example.
  • the image processing parameters set in the first image correction processing unit 102A and the second image correction processing unit 102B are optimized based on how the inspection result changes by changing all the parameters in order. To do. In this case, it is preferable not to change a parameter which has no sensitivity, that is, does not affect the inspection result even if it is changed.
  • the inspection result changes is obtained by, for example, obtaining a partial differential of the difference in the inspection result with respect to the parameter change.
  • the probability distribution of the inspection results is made substantially the same in the first inspection processing unit 104A and the second inspection processing unit 104B.
  • a known optimization method can be adopted.
  • an optimization method using a known gradient method can be employed.
  • a method including a regularization term such as DLS (DLS: Dumped Least Squares).
  • the parameters are simply set so that the inspection results are the same, there may occur a situation in which a place that should be passed is determined to be rejected. For this reason, when setting parameters, the accuracy of inspection is also taken into consideration. For example, an accurate inspection result is prepared, and parameters are set so as to be the same as the inspection result. In the case of this example, for example, it is ensured that the inspection result of the first inspection processing unit 104A is correct and the inspection result of the second inspection processing unit 104B substantially matches the inspection result of the first inspection processing unit 104A. Set.
  • the parameter setting unit 106 sets parameters for image processing performed by the first image correction processing unit 102A and the second image correction processing unit 102B. That is, the first image correction processing unit 102A so that the inspection results of the first inspection processing unit 104A and the second inspection processing unit 104B substantially match when the same image is captured by the first camera 10A and the second camera 10B.
  • the image processing parameters of the second image correction processing unit 102B are adjusted and set. Thereby, for example, even when there is a difference in performance between the first camera 10A and the second camera 10B, such as when there is an individual difference in the mounted imaging lenses, it is possible to appropriately inspect.
  • the inspection is performed by imaging the substrate B transported in two rows on the conveyor 2 with the first camera 10A and the second camera 10B.
  • the image data output from the first camera 10A and the second camera 10B is taken into the inspection apparatus 100 and used for inspection.
  • the inspection apparatus 100 processes image data by the following procedure (image processing method) and inspects the substrate being imaged.
  • the image data of the first camera 10A and the image data of the second camera 10B captured by the inspection apparatus 100 are first subjected to image degradation caused by the optical system in the first image correction processing unit 102A and the second image correction processing unit 102B.
  • image processing first image processing step.
  • trapezoidal distortion is corrected.
  • the image data acquired from the first camera 10A is subjected to image processing in the first image correction processing unit 102A to correct the trapezoidal distortion.
  • the image data acquired from the second camera 10B is subjected to image processing in the second image correction processing unit 102B, and the trapezoidal distortion is corrected.
  • parameters for image processing performed in the first image correction processing unit 102A and the second image correction processing unit 102B are set in advance (parameter setting step). This parameter is set so that the inspection results substantially match when the same object is imaged.
  • the first image correction processing unit 102A and the second image correction processing unit 102B perform image processing on the image data according to the set parameters, and correct trapezoidal distortion generated in the image.
  • the image data of the first camera 10A and the image data of the second camera 10B for which the trapezoidal distortion has been corrected in the first image correction processing unit 102A and the second image correction processing unit 102B are then used for the first inspection processing unit 104A and the first image processing unit 104A. 2 is added to the inspection processing unit 104B and used for inspection (second image processing step).
  • the first inspection processing unit 104A acquires the image data corrected by the first image correction processing unit 102A, performs image processing on the acquired image data, and inspects the length of the substrate being imaged. More specifically, the length L in the vertical direction of the substrate being imaged is measured, and it is determined whether or not a predetermined criterion is satisfied, thereby determining whether or not the substrate is acceptable. Further, the acquired image data is subjected to image processing to determine the label attached to the substrate.
  • the second inspection processing unit 104B acquires the image data corrected by the second image correction processing unit 102B, performs image processing on the acquired image data, and inspects the length of the substrate being imaged. Further, the acquired image data is subjected to image processing to determine the label attached to the substrate.
  • the image data to be processed in the first inspection processing unit 104A and the second inspection processing unit 104B is the image data corrected in the first image correction processing unit 102A and the second image correction processing unit 102B.
  • the image data is corrected so that almost the same result can be obtained when the same object is imaged. For this reason, even if there is a difference in performance between the first camera 10A and the second camera 10B, it is possible to appropriately inspect the target with each camera.
  • the inspection system 1 of the present embodiment even when inspecting using a plurality of cameras, it is possible to appropriately inspect the target with each camera. In particular, even when cameras with individual differences are used, it is possible to appropriately inspect the object. Further, even when an imaging lens having individual differences is used in each camera, it is possible to appropriately inspect the target.
  • the present invention can be applied even if the inspection algorithm is unknown (so-called black box). This is particularly effective when a method such as machine learning is adopted for the inspection.
  • image degradation caused by the camera can be directly manipulated, so that adjustment can be performed with a high degree of freedom.
  • FIG. 7 is a functional block diagram of the inspection apparatus according to the second embodiment.
  • the inspection apparatus 110 is different from the inspection apparatus 100 according to the first embodiment in that it further includes a pre-processing unit 112. Therefore, only the function of the preprocessing unit 112 will be described here.
  • the pre-processing unit 112 is an example of a third image processing unit.
  • the preprocessing unit 112 preprocesses the image data acquired from the first camera 10A and the second camera 10B.
  • the preprocessing here means that predetermined image processing is performed before the image data is corrected in the image correction processing unit 102. Specifically, a process of correcting and uniforming the image quality variation generated between the first camera 10A and the second camera 10B due to the difference in the imaging environment is performed. Variations in image quality caused by differences in imaging environments include, for example, image brightness variations, color tone variations, and the like.
  • the pre-processing unit 112 includes a first pre-processing unit 112A and a second pre-processing unit 112B.
  • the first preprocessing unit 112A performs image processing on the image data acquired from the first camera 10A and corrects the image quality.
  • the second preprocessing unit 112B performs image processing on the image data acquired from the second camera 10B and corrects the image quality. For example, when a difference occurs in the brightness of an image to be picked up due to differences in how the illumination light strikes in the image pickup area of the first camera 10A and the image pickup area of the second camera 10B, the brightness of the image in the pre-processing unit 112 Is corrected.
  • the preprocessing unit 112 corrects the image quality variation caused by the difference in the imaging environment by the image processing, and makes it uniform (third image processing step).
  • the image correction processing unit 102 takes in the image processed in the preprocessing unit 112 and performs correction processing (first image processing step). Thereby, the variation in image quality caused by the difference in the imaging environment can be removed, and the target can be inspected more appropriately.
  • the function (third image processing function) of the pre-processing unit 112 is provided when a computer constituting the inspection apparatus 110 executes a predetermined program (image processing program or the like).
  • the function of the preprocessing unit 112 may be provided in the first camera 10A and the second camera 10B. That is, the function of the preprocessing unit 112 may be provided in the signal processing unit provided in the camera bodies 14A and 14B of the first camera 10A and the second camera 10B.
  • the system, device, etc. for measuring the object refers to a system, device, etc. for acquiring image data obtained by imaging the object and measuring the object by image processing.
  • Examples of the measurement include length measurement, area measurement, color measurement, and position measurement.
  • the system, device, etc. for recognizing a target refers to a system, device, etc. that recognizes a target by acquiring image data obtained by capturing the target and performing image processing.
  • Examples of recognition include character recognition, figure recognition, external shape recognition, and recognition of a specific object.
  • the present invention can be applied to various inspections using image processing such as inspection of appearance shape, inspection of surface properties, inspection of position, inspection of size, inspection of types, and the like.
  • image processing such as inspection of appearance shape, inspection of surface properties, inspection of position, inspection of size, inspection of types, and the like.
  • processing such as measurement and recognition is performed by image processing along with the inspection, the present invention can be applied to those processing.
  • each camera images a different object.
  • the present invention can also be applied to a system in which each camera images the same object and inspects it.
  • the present invention can also be applied to a system in which different parts of the same object are imaged by a plurality of cameras and inspected.
  • the present invention can be applied to a system in which the surface of a single substrate is divided into a plurality of regions and each region is imaged with a different camera to inspect for the presence of scratches, the presence of foreign matter, and the like.
  • the case where there are two cameras has been described as an example.
  • the number of cameras to be used is not particularly limited. It is sufficient if a plurality of cameras are used.
  • the imaging lens may be integrally assembled with the camera body.
  • the present invention can also be applied to the case of inspecting a continuous material such as a web. For example, when the surface of a continuously conveyed web is picked up by multiple cameras and inspected for the presence or absence of scratches, etc., it is also applicable when recognizing and distinguishing marks displayed at predetermined intervals. it can.
  • a system for measuring the position of an object in order to perform object alignment, positioning, etc., image distortion caused by an optical system image distortion affects the recognition result. Therefore, this type of system mainly corrects image distortion and resolution caused by the optical system.
  • the image distortion is corrected by using a known distortion correction technique such as a known distortion correction technique or the above-described trapezoidal distortion correction technique.
  • the resolution is corrected using, for example, a known point image restoration processing technique.
  • a point image is an optical image in which a point object is obtained through an imaging lens. If there is aberration or diffraction in the imaging lens, a point image that is not a point but spread (a blurred point image) is obtained. That is, the point image represents an optical deterioration state of the imaging lens.
  • the point image restoration process is an image process that brings optical degradation close to the original state.
  • image distortion caused by the optical system mainly affects the processing result. Therefore, in this type of system, image distortion caused mainly by the optical system is corrected.
  • image distortion caused by the optical system and the difference in image magnification of each optical system affect the processing result. Therefore, in this type of system, image distortion and image magnification caused by the optical system are mainly corrected.
  • the image magnification is corrected by, for example, enlarging / reducing the image data (also referred to as electronic zoom or digital zoom).
  • the difference in spectral transmittance of each optical system mainly affects the processing result. Therefore, in this type of system, the difference in spectral transmittance is mainly corrected.
  • the first image processing unit, the second image processing unit, the third image processing unit, and the parameter setting unit are configured by a computer, but the first image processing unit, the second image processing unit, the third The hardware configuration for realizing the image processing unit and the parameter setting unit is not limited to this.
  • These processing units and the like can be configured by various processors.
  • the circuit configuration can be changed after manufacturing a CPU, FPGA (FPGA: Field Programmable Gate Array), which is a general-purpose processor that functions as a processing unit that executes various types of processing by executing software (programs).
  • FPGA Field Programmable Gate Array
  • PLD Programmable Logic Device
  • ASIC Application Specific Integrated Circuit
  • One processing unit may be configured by one of these various processors, or may be configured by two or more processors of the same type or different types. For example, it may be composed of a plurality of FPGAs or a combination of a CPU and FPGA.
  • a plurality of processing units may be configured by a single processor.
  • a single processor is configured by a combination of one or more CPUs and software, There is a form in which this processor functions as a plurality of processing units.
  • SoC system-on-chip
  • IC Integrated Circuit
  • the various processing units are configured by using one or more of the various processors as a hardware structure.
  • the hardware structure of these various processors is more specifically an electric circuit in which circuit elements such as semiconductor elements are combined.
  • the first image correction processing unit 102A so that the inspection results of the first inspection processing unit 104A and the second inspection processing unit 104B match within a desired range.
  • An example of setting parameters for image processing performed by the second image correction processing unit 102B will be described.
  • nth teacher image image taken by the first camera 10A with a known pass / fail judgment result, 1 ⁇ n ⁇ N
  • TAn Judgment result of nth teacher image (pass: 1, fail: 0)
  • MAm, MBm Comparative image for matching the mth result (1 ⁇ m ⁇ M, M >> N, M ⁇ dim ⁇ ); where dim ⁇ is the dimension of the ⁇ vector.
  • FIG. 8 is a flowchart showing a processing procedure for optimizing the parameters of the image processing.
  • the procedure for optimizing image processing parameters is as follows.
  • step S1 First, an initial parameter vector ⁇ 0 is set ( ⁇ ⁇ ⁇ 0). In addition, the number of iterations of nonlinear optimization itr is set to 1 (itr ⁇ 1).
  • step S2 Acquire pass / fail judgment results for all images with a teacher (step S2)
  • step S2 pass / fail judgment results for all images with a teacher are acquired as probabilities YAn.
  • the evaluation criterion V is defined as the sum of the cross entropy and the amount of culback information ⁇ times as in the following equation.
  • Step S5 the value of the calculated evaluation criterion V is compared with the threshold value Vth, and it is determined whether or not the calculated value of the evaluation criterion V is less than the threshold value Vth. If the calculated value of the evaluation criterion V is less than the threshold value (V ⁇ Vth), the process ends normally.
  • Step S6 Determination (Step S6) In the determination of step S5, when the calculated value of the evaluation criterion V is equal to or greater than the threshold (V ⁇ Vth), the number of iterations of nonlinear optimization itr and the threshold Tth are compared, and the number of iterations of nonlinear optimization itr is It is determined whether or not the threshold value Tth is exceeded. If the number of non-linear optimization iterations itr exceeds the threshold Tth (itr> Tth), the processing is interrupted on the assumption that a desired correction effect cannot be obtained. In this case, it is necessary to review the correction algorithm and the imaging system.
  • step S7 Minute change of parameter (step S6)
  • step S6 if the number of iterations of nonlinear optimization itr is less than or equal to a threshold (itr ⁇ Tth), the parameter is slightly changed. This process is performed in the following procedure.
  • the parameter vector obtained by adding ⁇ to the i-th element of the parameter vector ⁇ is expressed as ⁇ + ⁇ i.
  • the parameter is replaced with ⁇ + ⁇ i, and the calculation in steps S2 to S4 is repeated to obtain the value Vi of the evaluation criterion V in each case.
  • YAni f (g (IAn
  • ⁇ + ⁇ i)); ZAmi f (g (MAm
  • ⁇ + ⁇ i)); ZBmi f (g (MBm
  • ⁇ + ⁇ i)); Vi ( ⁇ 1 / N) * ⁇ n TAni * log (YAni) + ⁇ * ( ⁇ 1 / M) * ⁇ m ZBmi * log (ZAmi).
  • is moved in the direction in which the value of the evaluation criterion V decreases.
  • step S2 After minutely changing the parameters, the process returns to step S2, and the processes after step S2 are executed again.
  • the processes in steps S2 to S7 are repeatedly performed until normal termination or the process is interrupted.
  • the inspection results can be matched within a desired range.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Chemical & Material Sciences (AREA)
  • Immunology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pathology (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

各撮像部の性能に個体差がある場合であっても、複数の撮像部を使用して対象を適切に検査、計測又は認識できる画像処理システム、画像処理装置、画像処理方法及び画像処理プログラムを提供する。第1カメラ10A及び第2カメラ10Bから画像データを個別に取得し、個々のカメラに起因する像劣化を画像処理によって個別に補正する画像補正処理部102と、画像補正処理部102から補正後の画像データを個別に取得し、撮像されている対象を画像処理によって個別に検査する検査処理部104と、を備える。画像補正処理部102は、第1カメラ10A及び第2カメラ10Bによって同一対象を撮像した場合に、検査結果が所望の範囲内において一致するように、各カメラから取得した画像データを個別に補正する。

Description

画像処理システム、画像処理装置、画像処理方法及び画像処理プログラム
 本発明は、複数の撮像部から画像データを取得し、各撮像部により撮像されている対象を画像処理によって検査、計測又は認識する画像処理システム、画像処理装置、画像処理方法及び画像処理プログラムに関する。
 複数の撮像部から画像データを取得し、各撮像部により撮像されている対象を画像処理によって検査、計測又は認識する技術が知られている。
 たとえば、特許文献1、2等には、検査対象を複数の撮像部によって撮像し、各撮像部から得られた画像データを画像処理して、外観の良否、傷の有無等を検査する技術が記載されている。
 また、特許文献3には、計測対象を複数の撮像部によって撮像し、各撮像部から得られた画像データを画像処理して、位置、寸法等を計測する技術が記載されている。
 また、特許文献4、5等には、複数の撮像部によって撮像して得られた画像データを画像処理して、撮像された対象に記されている文字等を認識する技術が記載されている。
特開2001-153625号公報 特開平7-27714号公報 特開2008-281348号公報 特開平8-5316号公報 特開2015-197780号公報
 ところで、複数の撮像部を使用して検査等する場合、各撮像部の性能が揃っていないと、各撮像部から得られる画像データの品質にバラツキが生じる。たとえば、個々の撮像部で使用する撮像レンズに個体差があると、各撮像部から得られる画像データの品質にバラツキが生じる。各撮像部から得られる画像データの品質にバラツキがあると、後段の検査等の結果に影響が生じる。
 撮像部を構成するカメラには、通常、個体差があり、完全に同じ性能の撮像部を複数揃えるのは難しい。特に、完全に同じ性能の撮像レンズを複数揃えるのは難しい。
 また、各撮像部を個別に調整して、性能を揃えることもできるが、調整には多大な手間と時間を要するという問題がある。特に、個体差のある撮像レンズを使用している場合に、その性能を揃えるには、多大な手間と時間を要する。
 また、後段の検査等の判定基準等を個別に調整することもできるが、その調整にも多大な手間と時間を要するという問題がある。特に、非常に多くのパラメータが存在する場合、その1つ1つを調整するのは現実的ではない。また、後段の検査等の処理において、機械学習等を使用している場合には、パラメータを調整すると、思わぬ悪影響が現れる場合もある。また、後段の検査等の処理において、ニューラルネットワークを用いた機械学習等を使用している場合には、撮像部の個体差ごとに学習させ直すのは大変な手間がかかる。
 本発明は、このような事情に鑑みてなされたもので、各撮像部の性能に個体差がある場合であっても、複数の撮像部を使用して対象を適切に検査、計測又は認識できる画像処理システム、画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。
 上記課題を解決するための手段は、次のとおりである。
 (1)複数の撮像部と、複数の撮像部から画像データを個別に取得し、個々の撮像部に起因する像劣化を画像処理によって個別に補正する第1画像処理部と、第1画像処理部から補正後の画像データを個別に取得し、撮像されている対象を画像処理によって個別に検査、計測又は認識する第2画像処理部と、を備え、第1画像処理部は、複数の撮像部が同一対象を撮像した場合に、第2画像処理部の結果が所望の範囲内において一致するように、複数の撮像部から取得した画像データを個別に補正する、画像処理システム。
 本態様によれば、画像処理部として、第1画像処理部及び第2画像処理部が備えられる。第1画像処理部は、複数の撮像部から画像データを個別に取得し、個々の撮像部に起因する像劣化、たとえば、個々の撮像部に備えられた光学系に起因する像劣化を画像処理によって個別に補正する。第2画像処理部は、第1画像処理部から補正後の画像データを個別に取得し、撮像されている対象を画像処理によって個別に検査、計測又は認識する。第1画像処理部は、単に個々の撮像部に起因する像劣化を補正するのではなく、後段の検査等を考慮して補正する。すなわち、像劣化を完全に解消するように補正するのではなく、複数の撮像部が同一対象を撮像した場合に、検査等の結果が所望の範囲内において一致するように補正する。これにより、各撮像部の性能に個体差がある場合であっても、複数の撮像部を使用して、精度よく対象を検査等できる。また、検査等で行う画像処理については、変更を加える必要がないので、検査等のアルゴリズムが未知(いわゆるブラックボックス)であっても使用できる。更に、撮像部に起因する像劣化を直接操作できるため、高い自由度をもって調整できる。
 なお、「同一対象」には、実質的に同一とみなせる範囲のものが含まれる。すなわち、ここにおける同一は、ほぼ同一の概念を含むものである。たとえば、同じ形状、外観ではあるが異なるもの(たとえば、複数のネジ等)を撮像する場合も同一対象の撮像に含まれる。
 また、「所望の範囲内において一致」とは、検査等に要求される精度のレベルにおいて一致させることを意味するものである。したがって、望ましくは、検査等の結果が一致するように補正することであるが、一定の範囲内において誤差が許容される。すなわち、ほぼ一致するように補正されればよい。
 第1画像処理部で行う補正としては、たとえば、像の歪みの補正、解像の補正、像倍率の補正、分光透過率の補正等が挙げられる。
 (2)複数の撮像部から画像データを個別に取得し、撮像環境の相違によって生じた画質のバラツキを画像処理によって個別に補正し均一化する第3画像処理部を更に備え、第1画像処理部は、第3画像処理部から補正後の画像データを個別に取得し、個々の撮像部に起因する像劣化を画像処理によって個別に補正する、上記(1)の画像処理システム。
 本態様によれば、第3画像処理部が更に備えられる。第3画像処理部は、複数の撮像部から画像データを個別に取得し、撮像環境の相違によって生じた画質のバラツキを画像処理によって個別に補正し均一化する。第1画像処理部は、第3画像処理部から補正後の画像データを個別に取得し、個々の撮像部に起因する像劣化を画像処理によって個別に補正する。これにより、撮像環境の相違によって生じる画質のバラツキを補正できる。
 第3画像処理部による補正としては、たとえば、明るさの補正、ホワイトバランスの補正等が挙げられる。
 (3)第1画像処理部は、個々の撮像部に備えられた光学系に起因する像劣化を画像処理によって個別に補正する、上記(1)又は(2)の画像処理システム。
 本態様によれば、第1画像処理部において、個々の撮像部に備えられた光学系に起因する像劣化が画像処理によって個別に補正される。たとえば、光学系に起因して発生するディストーション、解像低下等が画像処理によって補正される。これにより、個体差のある撮像レンズを使用した場合であっても、適切に検査等できる。
 (4)第1画像処理部が行う画像処理のパラメータを設定するパラメータ設定部を更に備え、パラメータ設定部は、第2画像処理部による検査、計測又は認識の結果に基づいて、パラメータを設定する、上記(1)から(3)のいずれか一の画像処理システム。
 本態様によれば、第1画像処理部が行う画像処理のパラメータを設定するパラメータ設定部が更に備えられる。パラメータ設定部は、第2画像処理部による検査等の結果に基づいて、パラメータを設定する。すなわち、複数の撮像部が同一対象を撮像した場合に、検査等の結果が所望の範囲内において一致するように、第1画像処理部が行う画像処理のパラメータを設定する。
 (5)パラメータ設定部は、パラメータを変化させた場合の第2画像処理部の結果の変化に基づいて、パラメータを最適化する、上記(4)の画像処理システム。
 本態様によれば、パラメータを変化させた場合の第2画像処理部の検査等の結果の変化を観測することにより、パラメータが最適化される。たとえば、パラメータを微小に変化させて、第2処理部の検査等の結果がどのように変化するかを測定し、その測定結果に基づいてパラメータを最適化する。
 (6)パラメータ設定部は、勾配法によりパラメータを最適化する、上記(4)の画像処理システム。
 本態様によれば、パラメータを最適化する手法として、勾配法が採用される。
 (7)複数の撮像部から画像データを個別に取得し、個々の撮像部に起因する像劣化を画像処理によって個別に補正する第1画像処理部と、第1画像処理部から補正後の画像データを個別に取得し、撮像されている対象を画像処理によって個別に検査、計測又は認識する第2画像処理部と、を備え、第1画像処理部は、複数の撮像部が同一対象を撮像した場合に、第2画像処理部の結果が所望の範囲内において一致するように、複数の撮像部から取得した画像データを個別に補正する、画像処理装置。
 本態様によれば、画像処理部として、第1画像処理部及び第2画像処理部が備えられる。第1画像処理部は、複数の撮像部から画像データを個別に取得し、個々の撮像部に起因する像劣化を画像処理によって個別に補正する。第2画像処理部は、第1画像処理部から補正後の画像データを個別に取得し、撮像されている対象を画像処理によって個別に検査、計測又は認識する。第1画像処理部は、単に個々の撮像部に起因する像劣化を補正するのではなく、後段の検査等を考慮して補正する。すなわち、像劣化を完全に解消するように補正するのではなく、複数の撮像部が同一対象を撮像した場合に、検査等の結果が所望の範囲内において一致するように補正する。これにより、各撮像部の性能に個体差がある場合であっても、複数の撮像部を使用して、精度よく対象を検査等できる。また、検査等で行う画像処理については、変更を加える必要がないので、検査等のアルゴリズムが未知(いわゆるブラックボックス)であっても使用できる。更に、撮像部に起因する像劣化を直接操作できるため、高い自由度をもって調整できる。
 (8)複数の撮像部から画像データを個別に取得し、撮像環境の相違によって生じた画質のバラツキを画像処理によって個別に補正し均一化する第3画像処理部を更に備え、第1画像処理部は、第3画像処理部から補正後の画像データを個別に取得し、個々の撮像部に起因する像劣化を画像処理によって個別に補正する、上記(7)の画像処理装置。
 本態様によれば、第3画像処理部が更に備えられる。第3画像処理部は、複数の撮像部から画像データを個別に取得し、撮像環境の相違によって生じた画質のバラツキを画像処理によって個別に補正し均一化する。第1画像処理部は、第3画像処理部から補正後の画像データを個別に取得し、個々の撮像部に起因する像劣化を画像処理によって個別に補正する。これにより、撮像環境の相違によって生じる画質のバラツキを補正できる。
 (9)第1画像処理部は、個々の撮像部に備えられた光学系に起因する像劣化を画像処理によって個別に補正する、上記(7)又は(8)の画像処理装置。
 本態様によれば、第1画像処理部において、個々の撮像部に備えられた光学系に起因する像劣化が画像処理によって個別に補正される。
 (10)第1画像処理部が行う画像処理のパラメータを設定するパラメータ設定部を更に備え、パラメータ設定部は、第2画像処理部による検査、計測又は認識の結果に基づいて、パラメータを設定する、上記(7)から(9)のいずれか一の画像処理装置。
 本態様によれば、第1画像処理部が行う画像処理のパラメータを設定するパラメータ設定部が更に備えられる。パラメータ設定部は、第2画像処理部による検査等の結果に基づいて、パラメータを設定する。すなわち、複数の撮像部が同一対象を撮像した場合に、検査等の結果が所望の範囲内において一致するように、第1画像処理部が行う画像処理のパラメータを設定する。
 (11)複数の撮像部から画像データを個別に取得し、個々の撮像部に起因する像劣化を画像処理によって個別に補正する第1画像処理工程と、第1画像処理工程による補正後の画像データを個別に取得し、撮像されている対象を画像処理によって個別に検査、計測又は認識する第2画像処理工程と、を含み、第1画像処理工程は、複数の撮像部が同一対象を撮像した場合に、第2画像処理工程による検査、計測又は認識の結果が所望の範囲内において一致するように、複数の撮像部から取得した画像データを個別に補正する、画像処理方法。
 本態様によれば、複数の撮像部から取得した画像データを画像処理して、撮像されている対象を検査等する画像処理工程として、第1画像処理工程及び第2画像処理工程を備える。第1画像処理工程は、複数の撮像部から画像データを個別に取得し、個々の撮像部に起因する像劣化を画像処理によって個別に補正する。第2画像処理工程は、第1画像処理工程による補正後の画像データを個別に取得し、撮像されている対象を画像処理によって個別に検査、計測又は認識する。第1画像処理工程は、単に個々の撮像部に起因する像劣化を補正するのではなく、後段の検査等を考慮して補正する。すなわち、像劣化を完全に解消するように補正するのではなく、複数の撮像部が同一対象を撮像した場合に、検査等の結果が所望の範囲内において一致するように補正する。これにより、各撮像部の性能に個体差がある場合であっても、複数の撮像部を使用して、精度よく対象を検査等できる。また、検査等によって行う画像処理については、変更を加える必要がないので、検査等のアルゴリズムが未知(いわゆるブラックボックス)であっても使用できる。更に、撮像部に起因する像劣化を直接操作できるため、高い自由度をもって調整できる。
 (12)複数の撮像部から画像データを個別に取得し、撮像環境の相違によって生じた画質のバラツキを画像処理によって個別に補正し均一化する第3画像処理工程を更に含み、第3画像処理工程の後に第1画像処理工程が実行される、上記(11)の画像処理方法。
 本態様によれば、第3画像処理工程が更に含まれる。第3画像処理工程は、複数の撮像部から画像データを個別に取得し、撮像環境の相違によって生じた画質のバラツキを画像処理によって個別に補正し均一化する。第1画像処理工程は、第3画像処理工程の後に実施される。これにより、撮像環境の相違によって生じる画質のバラツキを補正できる。
 (13)第1画像処理工程により行われる画像処理のパラメータを設定するパラメータ設定工程を更に備え、パラメータ設定工程は、第2画像処理工程による検査、計測又は認識の結果に基づいて、パラメータを設定する、上記(11)又は(12)の画像処理方法。
 本態様によれば、第1画像処理工程により行われる画像処理のパラメータを設定するパラメータ設定工程が更に含まれる。パラメータは、検査等の結果に基づいて設定される。すなわち、複数の撮像部が同一対象を撮像した場合に、検査等の結果が所望の範囲内において一致するように、検査等の結果に基づいて、パラメータを設定する。
 (14)第1画像処理工程は、個々の撮像部に備えられた光学系に起因する像劣化を画像処理によって個別に補正する、上記(11)から(13)のいずれか一の画像処理方法。
 本態様によれば、第1画像処理工程において、個々の撮像部に備えられた光学系に起因する像劣化が画像処理によって個別に補正される。
 (15)複数の撮像部から画像データを個別に取得し、個々の撮像部に起因する像劣化を画像処理によって個別に補正する第1画像処理機能と、第1画像処理機能による補正後の画像データを個別に取得し、撮像されている対象を画像処理によって個別に検査、計測又は認識する第2画像処理機能と、をコンピュータに実現させる画像処理プログラムであって、第1画像処理機能は、複数の撮像部が同一対象を撮像した場合に、第2画像処理機能による検査、計測又は認識の結果が所望の範囲内において一致するように、複数の撮像部から取得した画像データを個別に補正する、画像処理プログラム。
 本態様によれば、画像処理機能として、第1画像処理機能及び第2画像処理機能が備えられる。第1画像処理機能は、複数の撮像部から画像データを個別に取得し、個々の撮像部に起因する像劣化を画像処理によって個別に補正する。第2画像処理機能は、第1画像処理機能から補正後の画像データを個別に取得し、撮像されている対象を画像処理によって個別に検査、計測又は認識する。第1画像処理機能は、単に個々の撮像部に起因する像劣化を補正するのではなく、後段の検査等を考慮して補正する。すなわち、像劣化を完全に解消するように補正するのではなく、複数の撮像部が同一対象を撮像した場合に、検査等の結果が所望の範囲内において一致するように補正する。これにより、各撮像部の性能に個体差がある場合であっても、複数の撮像部を使用して、精度よく対象を検査等できる。また、検査等によって行う画像処理については、変更を加える必要がないので、検査等のアルゴリズムが未知(いわゆるブラックボックス)であっても使用できる。更に、撮像部に起因する像劣化を直接操作できるため、高い自由度をもって調整できる。
 (16)複数の撮像部から画像データを個別に取得し、撮像環境の相違によって生じた画質のバラツキを画像処理によって個別に補正し均一化する第3画像処理機能を更に備え、第1画像処理機能は、第3画像処理機能から補正後の画像データを個別に取得し、個々の撮像部に起因する像劣化を画像処理によって個別に補正する、上記(15)の画像処理プログラム。
 本態様によれば、第3画像処理機能が更に備えられる。第3画像処理機能は、複数の撮像部から画像データを個別に取得し、撮像環境の相違によって生じた画質のバラツキを画像処理によって個別に補正し均一化する。第1画像処理機能は、第3画像処理機能から補正後の画像データを個別に取得し、個々の撮像部に起因する像劣化を画像処理によって個別に補正する。これにより、撮像環境の相違によって生じる画質のバラツキを補正できる。
 (17)第1画像処理機能が行う画像処理のパラメータを設定するパラメータ設定機能を更に備え、パラメータ設定機能は、第2画像処理機能による検査、計測又は認識の結果に基づいて、パラメータを設定する、上記(15)又は(16)の画像処理プログラム。
 本態様によれば、第1画像処理機能が行う画像処理のパラメータを設定するパラメータ設定機能が更に備えられる。パラメータ設定機能は、第2画像処理機能による検査等の結果に基づいて、パラメータを設定する。すなわち、複数の撮像部が同一対象を撮像した場合に、検査等の結果が所望の範囲内において一致するように、第1画像処理機能が行う画像処理のパラメータを設定する。
 (18)第1画像処理機能は、個々の撮像部に備えられた光学系に起因する像劣化を画像処理によって個別に補正する、上記(15)から(17)のいずれか一の画像処理プログラム。
 本態様によれば、第1画像処理機能によって、個々の撮像部に備えられた光学系に起因する像劣化が画像処理によって個別に補正される。
 本発明によれば、各撮像部の性能に個体差がある場合であっても、複数の撮像部を使用して対象を適切に検査、計測又は認識できる。
本発明に係る画像処理システムが適用された検査システムの一例を示すシステム構成図 検査対象である基板の一例を示す平面図 検査装置が備える機能のブロック図 同一対象を撮像した場合に第1カメラ及び第2カメラから取得されるオリジナルの画像データの一例を示す図 台形歪み補正後の画像データの一例を示す図 検査結果が同じになるように補正した場合の画像データの一例を示す図 第2の実施の形態の検査装置が備える機能のブロック図 パラメータを最適化する処理の手順を示すフローチャート
 以下、添付図面に従って本発明を実施するための好ましい形態について詳説する。
 ◆◆第1の実施の形態◆◆
 [検査システムの構成]
 図1は、本発明に係る画像処理システムが適用された検査システムの一例を示すシステム構成図である。
 同図に示すように、本実施の形態の検査システム1は、コンベヤ2によって連続的に搬送される基板Bを連続的に検査するシステムとして構成される。特に、本実施の形態の検査システム1は、基板Bの長さを検査するシステムとして構成される。すなわち、基板Bの長さが、あらかじめ定められた基準を満たすか否かを検査するシステムとして構成される。
 《検査対象》
 図2は、検査対象である基板の一例を示す平面図である。
 同図に示すように、検査対象である基板Bは、平面視において、横長の矩形状である。
 検査システム1は、基板Bの縦方向の長さ(短辺の長さ)Lを計測し、計測した長さLが、あらかじめ定められた基準を満たすか否かを判定する。また、その判定結果に基づいて、基板Bの合否を判定する。すなわち、計測した長さLが基準を満たせば合格(OK)、満たさなければ不合格(NG(NG:No Good))と判定する。
 基準は一定の幅をもって設定される。たとえば、合格とする長さの範囲をLmin≦L≦Lmaxとする。この場合、計測した長さLが、Lmin以上、Lmax以下の場合に合格とされる。
 検査の際には、ラベルLbの判別も行われる。すなわち、基板Bに、どのようなラベルが付されているかが判別される。
 《システム構成》
 図1に示すように、検査システム1は、コンベヤ2によって搬送される基板Bを撮像する2台のカメラ10A、10Bと、2台のカメラ10A、10Bから画像データを個別に取得して、撮像されている基板Bを画像処理により検査する検査装置100と、を備えて構成される。
 〈コンベヤ〉
 コンベヤ2は、検査対象の基板Bを所定の搬送経路に沿って搬送する。本実施の形態では、基板Bを直線に沿って水平に搬送する。
 基板Bは、コンベヤ2の上に2列に並べられて搬送される。また、基板Bは、各列において、一定の間隔によって配置されて搬送される。
 なお、図2において、矢印Fdによって示す方向が、基板Bの搬送方向である。基板Bは、短辺と平行に搬送される。
 〈カメラ〉
 2台のカメラ10A、10Bは、複数の撮像部の一例である。2台のカメラ10A、10Bは、コンベヤ2による基板Bの搬送経路上に設置される。以下、2台のカメラ10A、10Bを区別するため、一方のカメラ10Aを第1カメラ10Aとし、他方のカメラ10Bを第2カメラ10Bとする。
 〔第1カメラ〕
 第1カメラ10Aは、撮像した画像をデジタルデータとして出力する。第1カメラ10Aは、撮像レンズ12A及びカメラ本体14Aにより構成される。
 撮像レンズ12Aは、光学系の一例である。本実施の形態の撮像レンズ12Aは、単焦点の撮像レンズであり、絞り及びフォーカス機構を備える。撮像レンズ12Aは、マウントを介してカメラ本体14Aに着脱自在に装着される。
 カメラ本体14Aは、撮像レンズ12Aにより結像された像を撮像し、デジタルの画像データとして出力する。カメラ本体14Aには、撮像レンズ12Aで結像された像を撮像する手段として、イメージセンサが備えられる。また、カメラ本体14Aには、イメージセンサから出力される信号を処理して画像データを生成する手段として、信号処理部が備えられる。イメージセンサには、たとえば、CMOS(CMOS: Complementary Metal Oxide Semiconductor)、CCD(CCD: Charged Coupled Device)等の固体撮像素子が使用される。
 第1カメラ10Aは、コンベヤ2によって2列において搬送される基板Bのうち一方側の列(図1において左側の列)の基板Bを撮像する。したがって、第1カメラ10Aは、一方側の列の基板Bを撮像できる位置に設置される。この位置は検査対象とする基板Bの全体像を1フレームに収めて撮像できる位置である。
 〔第2カメラ〕
 第2カメラ10Bの構成は、第1カメラ10Aの構成と同じである。すなわち、撮像レンズ12B及びカメラ本体14Bにより構成される。撮像レンズ12Bの仕様及びカメラ本体14Bの仕様も、第1カメラ10Aの撮像レンズ12Aの仕様及びカメラ本体14Aの仕様と同じである。
 第2カメラ10Bは、コンベヤ2によって2列において搬送される基板Bのうち他方側の列(図1において右側の列)の基板Bを撮像する。したがって、第2カメラ10Bは、他方側の列の基板Bを撮像できる位置に設置される。この位置は検査対象とする基板Bの全体像を1フレームに収めて撮像できる位置である。
 〈検査装置〉
 検査装置100は、画像処理装置の一例である。検査装置100は、第1カメラ10A及び第2カメラ10Bから画像データを取得し、得られた画像データを個別に画像処理して、撮像されている基板Bを検査する。すなわち、撮像されている基板Bの長さLを計測し、計測した長さLが基準を満たすか否か判定して、合否を判定する。
 検査装置100は、CPU(CPU:Central Processing Unit)、RAM(RAM:Random Access Memory)、ROM(ROM:Read Only Memory)を備えたコンピュータにより構成される。すなわち、コンピュータが所定のプログラムを実行することにより、検査装置100として機能する。コンピュータには、たとえば、パーソナルコンピュータ等を使用できる。
 図3は、検査装置が備える機能のブロック図である。
 同図に示すように、検査装置100は、第1カメラ10A及び第2カメラ10Bから取得した画像データを補正処理する画像補正処理部102としての機能(第1画像処理機能)と、画像補正処理部102から補正後の画像データを取得し、撮像されている基板Bを画像処理によって検査する検査処理部104としての機能(第2画像処理機能)と、画像補正処理部102が行う画像処理(画像補正処理)のパラメータを設定するパラメータ設定部106としての機能(パラメータ設定機能)と、を備える。これらの機能は、検査装置100を構成するコンピュータが、所定のプログラム(画像処理プログラム等)を実行することにより提供される。プログラムは、たとえば、ROMに格納される。
 〔画像補正処理部〕
 画像補正処理部102は、第1画像処理部の一例である。画像補正処理部102は、第1カメラ10Aから取得した画像データを補正処理する第1画像補正処理部102A及び第2カメラ10Bから取得した画像データを補正処理する第2画像補正処理部102Bを備える。
 第1画像補正処理部102Aは、第1カメラ10Aの画像データを取得し、第1カメラ10Aに起因する像劣化を画像処理により補正する。
 ここで、第1カメラ10Aに起因する像劣化には、像の歪み、解像の低下等、さまざまな種類のものが存在する。
 第1画像補正処理部102Aが補正する対象は、第1カメラ10Aに起因する像劣化のすべてではなく、後段の検査に影響を及ぼす像劣化が対象となる。
 本実施の形態の検査システム1では、基板Bの長さLを検査するので、長さLの検査に影響を及ぼす像劣化が補正される。長さLの検査に影響を及ぼす像劣化は、主として像の歪みである。このため、本実施の形態の検査システム1では、第1画像補正処理部102Aにおいて、像の歪みが補正される。補正は発生している歪みの種類に応じて行われる。たとえば、ディストーションが生じている場合は、ディストーション補正が行われる。また、台形歪みが生じている場合は台形歪み補正が行われる。補正には、公知の画像処理手法が採用される。
 また、ここでの補正は、像劣化を完全に除去することを目的とするものではなく、使用するカメラの性能差による検査結果のバラツキを低減させることを目的として行われる。すなわち、同一対象を第1カメラ10A及び第2カメラ10Bで撮像した場合に、その検査結果を所望の範囲内において一致させることを目的として行われる。この点については、後述する。
 第2画像補正処理部102Bは、第2カメラ10Bの画像データを取得し、第2カメラ10Bに起因する像劣化を画像処理により補正する。補正する対象は、第1画像補正処理部102Aと同じであり、像の歪みである。
 〔検査処理部〕
 検査処理部104は、第2画像処理部の一例である。検査処理部104は、第1画像補正処理部102Aから補正後の画像データを取得し、撮像されている基板Bを画像処理によって検査する第1検査処理部104A及び第2画像補正処理部102Bから補正後の画像データを取得し、撮像されている基板Bを画像処理によって検査する第2検査処理部104Bを備える。
 第1検査処理部104Aは、第1画像補正処理部102Aから補正後の画像データを取得し、撮像されている基板Bを画像処理によって検査する。また、第1検査処理部104Aは、検査と同時に基板Bに付されているラベルLbを判別する。すなわち、どのようなラベルが付されているかを画像処理によって認識し、判別する。
 第1検査処理部104Aが行う検査は、上記のように、基板Bの長さLの検査である。すなわち、撮像されている基板Bの長さLが基準を満たしているか否かを検査する。第1検査処理部104Aは、まず、得られた画像データから基板Bを抽出する。次いで、抽出した基板Bの縦方向の長さLを画像処理によって計測する。次いで、計測により得られた基板Bの長さLが基準を満たしているか否かを判定する。基準を満たしていれば、合格と判定する。一方、基準を満たしていなければ、不合格と判定する。検査対象の抽出及び計測には、公知の画像処理手法が採用される。ラベルLbの判別も公知の画像処理手法が採用される。
 第2検査処理部104Bは、第2画像処理部の一例である。第2検査処理部104Bは、第2画像補正処理部102Bから補正後の画像データを取得し、撮像されている基板Bを画像処理によって検査する。また、第2検査処理部104Bは、検査と同時に基板Bに付されているラベルLbを判別する。
 第2検査処理部104Bが行う検査は、第1検査処理部104Aと同様に、基板Bの長さLの検査である。また、その検査手法も第1検査処理部104Aと同じである。すなわち、第1検査処理部104A及び第2検査処理部104Bは、取得した画像データに対して同じ画像処理を行って撮像されている基板Bを検査する。第1検査処理部104A及び第2検査処理部104Bは、取得した画像データに対して同じ画像処理を行って基板Bに付されているラベルLbを判別する。
 〔パラメータ設定部〕
 パラメータ設定部106は、第1画像補正処理部102A及び第2画像補正処理部102Bが行う画像処理(画像補正処理)のパラメータを個別に設定する。パラメータは、第1カメラ10A及び第2カメラ10Bで同一対象を撮像した場合に、第1検査処理部104A及び第2検査処理部104Bの検査結果が、所望の範囲内において一致するように設定する。
 ここで、「所望の範囲内において一致」とは、検査等で要求される精度のレベルにおいて一致させることを意味するものである。したがって、望ましくは、検査等の結果が一致するように補正することであるが、一定の範囲内において誤差が許容される。すなわち、ほぼ一致するように補正されればよい。また、ここでの同一対象には、実質的に同じ対象とみなせる場合が含まれる。
 このようにパラメータを設定し、画像データを補正することにより、個体差のあるカメラを使用した場合であっても、精度よく対象を検査できる。以下、この点について、詳説する。
 [画像補正処理部による補正の概念]
 第1カメラ10A及び第2カメラ10Bは、同じ仕様のカメラが使用される。使用するカメラの性能に差がない場合、第1カメラ10Aから得られる画像データの品質と第2カメラ10Bから得られる画像データの品質は実質的に一致する。この場合、同一対象を第1カメラ10A及び第2カメラ10Bによって撮像すれば、第1検査処理部104A及び第2検査処理部104Bの検査結果(基板の合否の判定結果及びラベルの判別結果)は実質的に一致する。
 しかし、通常、カメラには個体差が存在する。第1カメラ10Aと第2カメラ10Bとで使用するカメラの性能に差が存在すると、第1カメラ10Aから得られる画像データの品質と第2カメラ10Bから得られる画像データの品質に差が生じる。この場合、同一対象を撮像した場合であっても、第1検査処理部104Aの検査結果と第2検査処理部104Bの検査結果との間には差が生じ得る。
 本実施の形態の検査装置100では、このカメラの性能の差によって生じる検査結果の差を第1画像補正処理部102A及び第2画像補正処理部102Bによる補正処理によって解消する。すなわち、使用するカメラの性能に差が存在する場合であっても、検査結果に差が生じないように、事前に第1画像補正処理部102A及び第2画像補正処理部102Bにおいて処理対象の画像データを補正する。これにより、第1カメラ10A及び第2カメラ10Bの性能に差がある場合であっても、その画像データを用いて精度よく対象を検査できる。
 なお、ここでのカメラの性能の差には、装着された撮像レンズの光学性能の差に基づく性能差の他、マウントの精度に基づく性能差、カメラ本体への撮像レンズの装着精度に基づく性能差、カメラ内部のイメージセンサの傾き、感度等に基づく性能差等も含まれる。マウントの精度の差、装着の精度の差、イメージセンサの傾き等によって光軸のズレ、傾き等が生じ、検査結果に差が生じ得るからである。また、カメラに備えられているイメージセンサの感度の差によっても、検査結果に差が生じ得るからである。
 以下、具体例を挙げて、画像補正処理部が行う補正について説明する。ここでは、台形歪みを補正する場合を例に説明する。
 図4は、同一対象を撮像した場合に第1カメラ及び第2カメラから取得されるオリジナルの画像データの一例を示す図である。同図(A)は、第1カメラ10Aから取得されるオリジナルの画像データの一例を示している。また、同図(B)は、第2カメラ10Bから取得されるオリジナルの画像データの一例を示している。
 図4に示すように、オリジナルの画像データは、第1カメラ10A及び第2カメラ10Bの双方において台形歪みが発生している。ただし、第2カメラ10Bから取得される画像データi0bの方が、第1カメラ10Aから取得される画像データi0aよりも歪み量が大きい。
 なお、図4(A)、(B)には、比較のため、歪みが発生しない場合に撮像される基板の像を破線で重ねて表示している。
 図5は、台形歪み補正後の画像データの一例を示す図である。同図(A)は、第1カメラ10Aから取得された画像データに対して台形歪み補正を施した場合の一例を示している。また、同図(B)は、第2カメラ10Bから取得された画像データに対して台形歪み補正を施した場合の一例を示している。
 図5は、検査結果を考慮せずに各画像データを補正した場合の例である。この場合、各画像データは独立して補正され、歪みを完全に除去するように補正される。すなわち、各画像データにおいて、完全に理想的な画像形状に補正される。この結果、同図(A)に示すように、第1カメラ10Aの補正後の画像データi1aは、実際の基板の形状と同じ矩形状に補正される。また、同図(B)に示すように、第2カメラ10Bの補正後の画像データi1bも実際の基板の形状と同じ矩形状に補正される。
 このように補正された画像データi1a、i1bに基づいて、基板を検査すると、基板Bの長さLの検査については、両者の検査結果を一致させることができる。
 しかし、基板Bに付されたラベルLbの判別の結果については、両者の結果に差が生じ得る。これは次の理由による。オリジナルの画像データは、第1カメラ10Aの画像データi0aよりも第2カメラ10Bの画像データi0bの方が、歪み量が大きい(図4参照)。このため、完全に歪みを除去するように補正すると、補正後の画像データは、第1カメラ10Aの補正後の画像データi1aよりも第2カメラ10Bの補正後の画像データi1bの方が、補正量が大きくなる。この結果、第2カメラ10Bの補正後の画像データi1bは解像が低下し、ラベルLbの判別ができない事態が生じ得る。
 図6は、検査結果が同じになるように補正した場合の画像データの一例を示す図である。同図(A)は、第1カメラ10Aから取得された画像データに対して補正した場合の一例を示している。また、同図(B)は、第2カメラ10Bから取得された画像データに対して補正した場合の一例を示している。なお、同図(A)、(B)には、比較のため、歪みを完全に補正した場合の基板の像を破線で重ねて表示している。
 図6(A)、(B)に示すように、検査結果が同じになるように補正すると、第1カメラ10Aの補正後の画像データi2a及び第2カメラ10Bの補正後の画像データi2bは、ほぼ同じ画像データとなる。
 検査結果が同じになるように補正する場合、図6(A)、(B)に示すように、歪みの残存が許容される場合がある。すなわち、検査結果が同じになるように補正する場合、検査結果に影響を及ぼさない項目については、劣化の残存が許容される。本例では、基板Bの縦方向の長さLの検査なので、基板Bの横方向の歪みは許容される。一方、ラベルLbの判別に影響を及ぼすため、補正が制限される。すなわち、ラベルLbの判別が可能な範囲で補正が行われる。
 このように、本実施の形態の検査システム1では、第1カメラ10A及び第2カメラ10Bで同一対象を撮像した場合に、第1検査処理部104A及び第2検査処理部104Bの検査結果に差が生じないように、すなわち、所望の範囲内において一致するように、第1画像補正処理部102A及び第2画像補正処理部102Bにおいて画像データを補正する。
 パラメータ設定部106は、そのような補正が行われるように、画像処理のパラメータを設定する。すなわち、同一対象を撮像した場合に、検査結果を所望の範囲内において一致させるようなパラメータを設定する。
 パラメータは、たとえば、検査結果をフィードバックして設定する。たとえば、すべてのパラメータを順番に微小変化させて検査結果がどのように変化するかに基づいて、第1画像補正処理部102A及び第2画像補正処理部102Bに設定する画像処理のパラメータを最適化する。この場合、感度がない、すなわち、変更しても検査結果に影響しないパラメータは、変更しないようにすることが好ましい。
 検査結果がどのように変化するかは、たとえば、パラメータの変化に対する検査結果の差の偏微分を求めて観測する。
 また、パラメータを最適化する際は、たとえば、検査結果の確率分布が、第1検査処理部104A及び第2検査処理部104Bにおいてほぼ同じになるようにする。
 このようにパラメータを微小変化させて、パラメータを最適化する手法には、公知の最適化手法を採用できる。たとえば、公知の勾配法による最適化手法を採用することができる。ただし、感度がない場合にパラメータが動かない必要があるため、DLS(DLS:Dumped Least Squares/減衰最小自乗法)のように、正則化項を含む手法を採用することが好ましい。
 なお、単に検査結果が同じになるようにパラメータを設定すると、本来、合格とすべきところを不合格と判定してしまう事態が生じ得る。このため、パラメータを設定する場合は、検査の正確性も考慮する。たとえば、正確な検査結果を用意し、その検査結果と同じになるように、パラメータを設定する。本例の場合、たとえば、第1検査処理部104Aの検査結果が正しいことを保証し、第2検査処理部104Bの検査結果が第1検査処理部104Aの検査結果とほぼ一致するように、パラメータを設定する。
 [検査システムの作用]
 《初期設定》
 まず、初期設定として、パラメータ設定部106において、第1画像補正処理部102A及び第2画像補正処理部102Bが行う画像処理のパラメータが設定される。すなわち、第1カメラ10A及び第2カメラ10Bで同一対象を撮像した場合に第1検査処理部104A及び第2検査処理部104Bの検査結果が、ほぼ一致するように、第1画像補正処理部102A及び第2画像補正処理部102Bの画像処理のパラメータが調整され、かつ、設定される。これにより、たとえば、装着された撮像レンズに個体差がある場合などのように、第1カメラ10A及び第2カメラ10Bの性能に差がある場合であっても、適切に検査できる。
 《検査の処理手順》
 検査は、コンベヤ2の上を2列で搬送される基板Bを第1カメラ10A及び第2カメラ10Bによって撮像することにより行われる。
 第1カメラ10A及び第2カメラ10Bから出力された画像データは、検査装置100に取り込まれ、検査に供される。検査装置100は、次の手順(画像処理方法)によって画像データを処理し、撮像されている基板を検査する。
 検査装置100に取り込まれた第1カメラ10Aの画像データ及び第2カメラ10Bの画像データは、まず、第1画像補正処理部102A及び第2画像補正処理部102Bにおいて、光学系に起因する像劣化が画像処理によって補正される(第1画像処理工程)。本例では、台形歪みが補正される。この際、第1カメラ10Aから取得された画像データは、第1画像補正処理部102Aにおいて画像処理されて、台形歪みが補正される。また、第2カメラ10Bから取得された画像データは、第2画像補正処理部102Bにおいて画像処理されて、台形歪みが補正される。
 ここで、上記のように、第1画像補正処理部102A及び第2画像補正処理部102Bにおいて行う画像処理のパラメータは事前に設定される(パラメータ設定工程)。このパラメータは、同一対象を撮像した場合に、検査結果がほぼ一致するように設定される。第1画像補正処理部102A及び第2画像補正処理部102Bは、設定されたパラメータに従って画像データを画像処理し、画像に生じた台形歪みを補正する。
 第1画像補正処理部102A及び第2画像補正処理部102Bにおいて台形歪みが補正された第1カメラ10Aの画像データ及び第2カメラ10Bの画像データは、次に、第1検査処理部104A及び第2検査処理部104Bに加えられ、検査に供される(第2画像処理工程)。
 第1検査処理部104Aは、第1画像補正処理部102Aにおいて補正処理された画像データを取得して、取得した画像データを画像処理して、撮像されている基板の長さを検査する。より詳しくは、撮像されている基板の縦方向の長さLを計測し、あらかじめ設定された基準を満たしているか否かを判定して、基板の合否を判定する。また、取得した画像データを画像処理して、基板に付されているラベルを判別する。
 第2検査処理部104Bは、第2画像補正処理部102Bにおいて補正処理された画像データを取得して、取得した画像データを画像処理して、撮像されている基板の長さを検査する。また、取得した画像データを画像処理して、基板に付されているラベルを判別する。
 ここで、第1検査処理部104A及び第2検査処理部104Bにおいて処理対象とする画像データは、第1画像補正処理部102A及び第2画像補正処理部102Bにおいて補正処理された画像データであり、同一対象を撮像した場合にほぼ同じ結果が得られるように補正された画像データである。このため、第1カメラ10A及び第2カメラ10Bの性能に差がある場合であっても、個々のカメラで対象を適切に検査できる。
 このように、本実施の形態の検査システム1によれば、複数のカメラを使用して検査する場合であっても、個々のカメラにおいて、適切に対象を検査できる。特に、個体差のあるカメラを使用した場合であっても、適切に対象を検査できる。また、個々のカメラにおいて、個体差のある撮像レンズを使用した場合であっても、適切に対象を検査できる。
 また、第1検査処理部104A及び第2検査処理部104Bにおいて行う処理については変更を加える必要がないので、検査のアルゴリズムが未知(いわゆるブラックボックス)であっても適用できる。このことは、検査に機械学習等の手法を採用している場合に特に有効である。
 また、本実施の形態の検査システム1によれば、カメラに起因する像劣化を直接操作できるため、高い自由度をもって調整できる。
 ◆◆第2の実施の形態◆◆
 図7は、第2の実施の形態の検査装置が備える機能のブロック図である。
 同図に示すように、本実施の形態の検査装置110は、前処理部112を更に備えている点で上記第1の実施の形態の検査装置100と相違する。したがって、ここでは、前処理部112の機能についてのみ説明する。
 前処理部112は、第3画像処理部の一例である。前処理部112は、第1カメラ10A及び第2カメラ10Bから取得した画像データを前処理する。ここでの前処理とは、画像データを画像補正処理部102において補正処理する前に所定の画像処理を施すことを意味する。具体的には、撮像環境の相違によって第1カメラ10A及び第2カメラ10Bの間において生じた画質のバラツキを画像処理によって補正し、均一化する処理を行う。撮像環境の相違によって生じる画質のバラツキには、たとえば、画像の明るさバラツキ、色調のバラツキ等が挙げられる。
 前処理部112は、第1前処理部112A及び第2前処理部112Bを備える。第1前処理部112Aは、第1カメラ10Aから取得した画像データを画像処理して、その画質を補正する。第2前処理部112Bは、第2カメラ10Bから取得した画像データを画像処理して、その画質を補正する。たとえば、第1カメラ10Aの撮像領域と第2カメラ10Bの撮像領域における照明光の当たり方が異なることにより、撮像される画像の明るさに差が生じる場合、前処理部112において画像の明るさが補正される。
 このように、前処理部112は、撮像環境の相違によって生じる画質のバラツキを画像処理によって補正し、均一化する(第3画像処理工程)。画像補正処理部102は、この前処理部112において処理された画像を取り込み、補正処理する(第1画像処理工程)。これにより、撮像環境の相違によって生じる画質のバラツキを除去でき、対象をより適切に検査できる。
 前処理部112の機能(第3画像処理機能)は、検査装置110を構成するコンピュータが、所定のプログラム(画像処理プログラム等)を実行することにより提供される。
 なお、前処理部112の機能は、第1カメラ10A及び第2カメラ10Bに備えてもよい。すなわち、第1カメラ10A及び第2カメラ10Bのカメラ本体14A、14Bに備えられた信号処理部に前処理部112の機能を備えてもよい。
 ◆◆その他の実施の形態◆◆
 [撮像された対象に対する処理]
 上記実施の形態では、対象を検査するシステムに本発明を適用した場合を例に説明したが、本発明の適用は、これに限定されるものではない。この他、たとえば、対象を計測、認識等するシステム、装置等に適用できる。
 対象を計測するシステム、装置等とは、対象が撮像された画像データを取得し、画像処理によって対象を計測するシステム、装置等をいう。計測には、たとえば、長さの計測、面積の計測、色の計測、位置の計測などが挙げられる。
 対象を認識するシステム、装置等とは、対象が撮像された画像データを取得し、画像処理によって対象を認識するシステム、装置等をいう。認識には、たとえば、文字の認識、図形の認識、外観形状の認識、特定対象物の認識などが挙げられる。
 また、上記実施の形態では、検査として、対象の長さを検査する場合を例に説明したが、検査の種類は、これに限定されるものではない。たとえば、外観形状の検査、表面性状の検査、位置の検査、サイズの検査、種類の検査等、画像処理を用いた種々の検査に本発明は適用できる。また、検査に伴い計測、認識等の処理が画像処理によって行われる場合には、それらの処理にも本発明は適用できる。
 [検査等を行うシステムの構成]
 上記実施の形態では、コンベヤによって搬送される対象を順次撮像し、処理する場合を例に説明したが、検査等を行うシステムの構成は、これに限定されるものではない。この他、たとえば、車両に複数台のカメラを設置し、人等を認識するシステム等にも本発明は適用できる。
 また、上記実施の形態では、各カメラが異なる対象を撮像する構成としているが、各カメラが同じ対象を撮像し、検査等するシステムにも本発明は適用できる。また、同じ対象の異なる部位を複数のカメラで撮像し、検査等するシステムにも本発明は適用できる。たとえば、1枚の基板の表面を複数の領域に分割し、各領域を異なるカメラで撮像して、キズの有無、異物の有無等を検査するシステムに本発明を適用できる。
 また、上記実施の形態では、カメラが2台の場合を例に説明したが、使用するカメラの数は、特に限定されるものではない。複数台のカメラが使用されていればよい。また、撮像レンズは、カメラ本体に一体的に組み付けられていてもよい。
 また、本発明は、ウェブ等の連続物を検査等する場合にも適用できる。たとえば、連続して搬送されるウェブの表面を複数台のカメラで撮像し、キズの有無等を検査したり、所定の間隔で表示されたマーク等を認識、判別等したりする場合にも適用できる。
 [画像補正処理部(第1画像処理部)の補正対象]
 上記のように、画像補正処理部102では、後段の検査等の結果に影響を及ぼす像劣化が画像処理によって補正される。
 たとえば、対象に付された文字、図形等を認識するシステム、対象の位置合わせ、位置決め等を行うために対象の位置を計測するシステム等においては、主として、光学系に起因する画像の歪み、解像の低下等が認識結果に影響を及ぼす。したがって、この種のシステムでは、主として、光学系に起因する画像の歪み、解像が補正される。画像の歪みは、たとえば、公知のディストーション補正の技術、上記の台形歪み補正の技術等、公知の歪み補正の技術を用いて補正される。解像は、たとえば、公知の点像復元処理の技術を用いて補正される。点像とは、点物体が撮像レンズを通して得られる光学像のことである。撮像レンズに収差、回折があると、点が点にならず広がった点像(ボケた点像)が得られる。すなわち、点像は、撮像レンズの光学的な劣化状態を表わす。点像復元処理は、光学的な劣化を元の状態に近づける画像処理である。
 また、対象の形状を計測、検査等するシステムでは、主として、光学系に起因する画像の歪みが処理結果に影響を及ぼす。したがって、この種のシステムにおいては、主として、光学系に起因する画像の歪みが補正される。
 また、対象の面積、長さ等を計測、検査等するシステムでは、主として、光学系に起因する画像の歪み、各光学系の像倍率の差が、処理結果に影響を及ぼす。したがって、この種のシステムにおいては、主として、光学系に起因する画像の歪み、像倍率が補正される。像倍率は、たとえば、画像データを拡縮処理(電子ズーム、デジタルズームなどともいう。)することにより補正する。
 また、対象の色を計測、検査等するシステムでは、主として、各光学系の分光透過率の差が処理結果に影響を及ぼす。したがって、この種のシステムにおいては、主として、分光透過率の差が補正される。
 [その他の実施の形態]
 上記実施の形態では、第1画像処理部、第2画像処理部、第3画像処理部及びパラメータ設定部をコンピュータによって構成しているが、第1画像処理部、第2画像処理部、第3画像処理部及びパラメータ設定部を実現するためのハードウェア的な構成は、これに限定されるものではない。これらの処理部等は、各種のプロセッサーによって構成できる。各種のプロセッサーには、ソフトウェア(プログラム)を実行して各種の処理を行う処理部として機能する汎用的なプロセッサーであるCPU、FPGA(FPGA:Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサーであるPLD(PLD:Programmable Logic Device)、ASIC(ASIC:Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサーである専用電気回路などが含まれる。
 一つの処理部は、これら各種のプロセッサーのうちの一つにより構成されていてもよいし、同種又は異種の二つ以上のプロセッサーにより構成されていてもよい。たとえば、複数のFPGAで構成されてもよいし、CPU及びFPGAの組み合わせで構成されてもよい。
 また、複数の処理部を一つのプロセッサーによって構成してもよい。複数の処理部を一つのプロセッサーによって構成する例としては、第1に、クライアント、サーバなどのコンピュータに代表されるように、一つ以上のCPUとソフトウェアとの組合せで一つのプロセッサーを構成し、このプロセッサーが複数の処理部として機能する形態がある。第2に、システムオンチップ(SoC:System On Chip)などに代表されるように、複数の処理部を含むシステム全体の機能を一つのICチップ(IC:Integrated Circuit)で実現するプロセッサーを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサーを一つ以上用いて構成される。
 更に、これらの各種のプロセッサーのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路である。
 以下、上記第1の実施の形態の検査システム1において、第1検査処理部104A及び第2検査処理部104Bの検査結果が、所望の範囲内において一致するように、第1画像補正処理部102A及び第2画像補正処理部102Bが行う画像処理のパラメータを設定する場合の一実施例を説明する。
 なお、本例では、第1画像補正処理部102A及び第2画像補正処理部102Bが台形歪み補正を行う場合を例に説明する。
 また、本例では、勾配法により各パラメータを最適化する場合を例に説明する。
 [台形歪み補正]
 一般に、台形歪みは、射影変換によって補正される。
 入力画像の点(x0,y0)を点(x1,y1)の位置に変換する場合、座標変換は、次式で定義される。
 x1 = (a1*x0+b1*y0+c1) / (a0*x0+b0*y0+c0);
 y1 = (a2*x0+b2*y0+c2) / (a0*x0+b0*y0+c0)、
 なお、式中の*は乗算を意味する(以下同様)。
 パラメータをまとめてパラメータベクトルθ=(a0,b0,c0,a1,b1,c1,a2,b2,c2)として表記する。
 [記号の定義]
 IAn : n番目の教師画像(合否の判定結果が既知の第1カメラ10Aにより撮影された画像、1≦n≦N);
 TAn : n番目の教師画像の合否の判定結果(合格の場合:1、不合格の場合:0);
 MAm,MBm : m番目の結果一致のための比較画像(1≦m≦M、M>>N、M≧dimθ);なお、dimθはθベクトルのディメンションである。
 Y = g(X|θ) : 入力画像Xを補正して画像Yに変換する画像補正処理(θはパラメータベクトル);
 D = f(X) : 入力画像Xが合格である確率(0≦D≦1)を返す識別アルゴリズム(検査アルゴリズム)。
 [準備すべきパラメータ]
 Δθ : パラメータの微少変化量;
 Vth : 所望とされる結果一致の程度を示す閾値;
 Tth : 非線形最適化打ち切り閾値;
 λ : 第1カメラおける判定結果の精度と第1、第2カメラ間の判定結果の一致の程度のバランスを定義する定数;
 θ0 : 初期パラメータベクトル;
 ε : 最急降下法の更新量。
 [変数の説明]
 θ : 現在のパラメータベクトル;
 itr : 非線形最適化の反復の回数。
 [実施手順]
 図8は、画像処理のパラメータを最適化する処理の手順を示すフローチャートである。
 画像処理のパラメータを最適化する手順は、次のとおりである。
 (1)初期パラメータを設定(ステップS1)
 まず、初期パラメータベクトルθ0を設定する(θ ← θ0)。また、非線形最適化の反復の回数itrを1に設定する(itr ← 1)。
 (2)教師のある画像すべての合否判定結果を取得(ステップS2)
 次に、教師のある画像すべての合否の判定結果を確率YAnとして取得する。
 YAn = f(g(IAn|θ))
 (3)比較画像のすべての合否判定結果を取得(ステップS3)
 次に、比較画像のすべての合否の判定結果を確率ZAm、ZBmとして取得する。
 ZAm = f(g(MAm|θ))
 ZBm = f(g(MBm|θ))
 (4)評価基準Vの値を算出(ステップS4)
 次に、評価基準Vの値を算出する。評価基準Vは、次式のように、交差エントロピーとカルバック情報量のλ倍の和として定義される。
 V = (-1/N) * Σn TAn*log(YAn) + λ * (-1/M) * Σm ZBm*log(ZAm)
 (5)判定(ステップS5)
 次に、算出した評価基準Vの値と閾値Vthとを比較し、算出した評価基準Vの値が閾値Vth未満か否かを判定する。算出した評価基準Vの値が、閾値未満(V<Vth)の場合、正常終了する。
 (6)判定(ステップS6)
 上記ステップS5の判定において、算出した評価基準Vの値が閾値以上(V≧Vth)の場合、非線形最適化の反復の回数itrと閾値Tthとを比較し、非線形最適化の反復の回数itrが閾値Tthを超えているか否かを判定する。非線形最適化の反復の回数itrが閾値Tthを超えている場合(itr>Tth)、所望の補正効果は得られないものとして処理を中断する。この場合、補正アルゴリズム、撮像系の見直しが必要となる。
 (7)パラメータを微小変化(ステップS7)
 上記ステップS6において、非線形最適化の反復の回数itrが閾値以下(itr≦Tth)の場合、パラメータを微小変化させる。この処理は、次の手順で行われる。
 パラメータベクトルθのi番目の要素にΔθ加算したパラメータベクトルをθ+Δθiと表記する。1≦i≦dimθ のすべてのiについて、パラメータをθ+Δθiに置き換え、上記ステップS2~S4の計算を繰り返し、各場合の評価基準Vの値Viを求める。
 YAni = f(g(IAn|θ+Δθi));
 ZAmi = f(g(MAm|θ+Δθi));
 ZBmi = f(g(MBm|θ+Δθi));
 Vi = (-1/N) * Σn TAni*log(YAni) + λ * (-1/M) * Σm ZBmi*log(ZAmi)。
 次に、評価基準Vのパラメータベクトルθによる勾配の近似を得る。
 dVi/dθ = (Vi-V)/Δθ;
 dV/dθ = (dV1/dθ, dV2/dθ, ... , dVk/dθ), k=dimθ、
 次に、評価基準Vの値が小さくなる方向にθを移動させる。
 θ←θ-ε*dV/dθ、
 以上によってパラメータを微小変化させる処理が完了する。
 パラメータを微小変化させた後、上記ステップS2に戻り、ステップS2以降の処理を再度実行する。正常終了又は処理が中断されるまでステップS2~S7の処理が繰り返し実施される。
 以上のようにして画像処理のパラメータを最適化することにより、検査結果を所望の範囲内において一致させることができる。一方、準備にコストがかかる判定教師データの数を大幅に抑えることができる。
1 検査システム
2 コンベヤ
10A 第1カメラ
10B 第2カメラ
12A 第1カメラの撮像レンズ
12B 第2カメラの撮像レンズ
14A 第1カメラのカメラ本体
14B 第2カメラのカメラ本体
100 検査装置
102 画像補正処理部
102A 第1画像補正処理部
102B 第2画像補正処理部
104 検査処理部
104A 第1検査処理部
104B 第2検査処理部
106 パラメータ設定部
110 検査装置
112 前処理部
112A 第1前処理部
112B 第2前処理部
B 基板
Fd 基板の搬送方向
Lb ラベル
i0a、i0b、i1a、i1b、i2a、i2b 画像データ
S1~S7 画像処理のパラメータを最適化する処理の手順

Claims (18)

  1.  複数の撮像部と、
     複数の前記撮像部から画像データを個別に取得し、個々の前記撮像部に起因する像劣化を画像処理によって個別に補正する第1画像処理部と、
     前記第1画像処理部から補正後の前記画像データを個別に取得し、撮像されている対象を画像処理によって個別に検査、計測又は認識する第2画像処理部と、
     を備え、
     前記第1画像処理部は、複数の前記撮像部が同一対象を撮像した場合に、前記第2画像処理部の結果が所望の範囲内において一致するように、複数の前記撮像部から取得した画像データを個別に補正する、
     画像処理システム。
  2.  複数の前記撮像部から前記画像データを個別に取得し、撮像環境の相違によって生じた画質のバラツキを画像処理によって個別に補正し均一化する第3画像処理部を更に備え、
     前記第1画像処理部は、前記第3画像処理部から補正後の前記画像データを個別に取得し、個々の前記撮像部に起因する像劣化を画像処理によって個別に補正する、
     請求項1に記載の画像処理システム。
  3.  前記第1画像処理部は、個々の前記撮像部に備えられた光学系に起因する像劣化を画像処理によって個別に補正する、
     請求項1又は2に記載の画像処理システム。
  4.  前記第1画像処理部が行う画像処理のパラメータを設定するパラメータ設定部を更に備え、
     前記パラメータ設定部は、前記第2画像処理部による検査、計測又は認識の結果に基づいて、前記パラメータを設定する、
     請求項1から3のいずれか1項に記載の画像処理システム。
  5.  前記パラメータ設定部は、パラメータを変化させた場合の前記第2画像処理部の結果の変化に基づいて、前記パラメータを最適化する、
     請求項4に記載の画像処理システム。
  6.  前記パラメータ設定部は、勾配法により前記パラメータを最適化する、
     請求項4に記載の画像処理システム。
  7.  複数の撮像部から画像データを個別に取得し、個々の前記撮像部に起因する像劣化を画像処理によって個別に補正する第1画像処理部と、
     前記第1画像処理部から補正後の前記画像データを個別に取得し、撮像されている対象を画像処理によって個別に検査、計測又は認識する第2画像処理部と、
     を備え、前記第1画像処理部は、複数の前記撮像部が同一対象を撮像した場合に、前記第2画像処理部の結果が所望の範囲内において一致するように、複数の前記撮像部から取得した画像データを個別に補正する、
     画像処理装置。
  8.  複数の前記撮像部から前記画像データを個別に取得し、撮像環境の相違によって生じた画質のバラツキを画像処理によって個別に補正し均一化する第3画像処理部を更に備え、
     前記第1画像処理部は、前記第3画像処理部から補正後の前記画像データを個別に取得し、個々の前記撮像部に起因する像劣化を画像処理によって個別に補正する、
     請求項7に記載の画像処理装置。
  9.  前記第1画像処理部は、個々の前記撮像部に備えられた光学系に起因する像劣化を画像処理によって個別に補正する、
     請求項7又は8に記載の画像処理装置。
  10.  前記第1画像処理部が行う画像処理のパラメータを設定するパラメータ設定部を更に備え、
     前記パラメータ設定部は、前記第2画像処理部による検査、計測又は認識の結果に基づいて、前記パラメータを設定する、
     請求項7から9のいずれか1項に記載の画像処理装置。
  11.  複数の撮像部から画像データを個別に取得し、個々の前記撮像部に起因する像劣化を画像処理によって個別に補正する第1画像処理工程と、
     前記第1画像処理工程による補正後の前記画像データを個別に取得し、撮像されている対象を画像処理によって個別に検査、計測又は認識する第2画像処理工程と、
     を含み、
     前記第1画像処理工程は、複数の前記撮像部が同一対象を撮像した場合に、前記第2画像処理工程による検査、計測又は認識の結果が所望の範囲内において一致するように、複数の前記撮像部から取得した画像データを個別に補正する、
     画像処理方法。
  12.  複数の前記撮像部から前記画像データを個別に取得し、撮像環境の相違によって生じた画質のバラツキを画像処理によって個別に補正し均一化する第3画像処理工程を更に含み、
     前記第3画像処理工程の後に前記第1画像処理工程が実行される、
     請求項11に記載の画像処理方法。
  13.  前記第1画像処理工程により行われる画像処理のパラメータを設定するパラメータ設定工程を更に備え、
     前記パラメータ設定工程は、第2画像処理工程による検査、計測又は認識の結果に基づいて、前記パラメータを設定する、
     請求項11又は12に記載の画像処理方法。
  14.  前記第1画像処理工程は、個々の前記撮像部に備えられた光学系に起因する像劣化を画像処理によって個別に補正する、
     請求項11から13のいずれか1項に記載の画像処理方法。
  15.  複数の撮像部から画像データを個別に取得し、個々の前記撮像部に起因する像劣化を画像処理によって個別に補正する第1画像処理機能と、
     前記第1画像処理機能による補正後の前記画像データを個別に取得し、撮像されている対象を画像処理によって個別に検査、計測又は認識する第2画像処理機能と、
     をコンピュータに実現させる画像処理プログラムであって、
     前記第1画像処理機能は、複数の前記撮像部が同一対象を撮像した場合に、前記第2画像処理機能による検査、計測又は認識の結果が所望の範囲内において一致するように、複数の前記撮像部から取得した画像データを個別に補正する、
     画像処理プログラム。
  16.  複数の前記撮像部から前記画像データを個別に取得し、撮像環境の相違によって生じた画質のバラツキを画像処理によって個別に補正し均一化する第3画像処理機能を更に備え、
     前記第1画像処理機能は、前記第3画像処理機能から補正後の前記画像データを個別に取得し、個々の前記撮像部に起因する像劣化を画像処理によって個別に補正する、
     請求項15に記載の画像処理プログラム。
  17.  前記第1画像処理機能が行う画像処理のパラメータを設定するパラメータ設定機能を更に備え、
     前記パラメータ設定機能は、前記第2画像処理機能による検査、計測又は認識の結果に基づいて、前記パラメータを設定する、
     請求項15又は16に記載の画像処理プログラム。
  18.  前記第1画像処理機能は、個々の前記撮像部に備えられた光学系に起因する像劣化を画像処理によって個別に補正する、
     請求項15から17のいずれか1項に記載の画像処理プログラム。
PCT/JP2017/046519 2017-03-10 2017-12-26 画像処理システム、画像処理装置、画像処理方法及び画像処理プログラム WO2018163572A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019504344A JP6588675B2 (ja) 2017-03-10 2017-12-26 画像処理システム、画像処理装置、画像処理方法及び画像処理プログラム
CN201780088006.0A CN110402577B (zh) 2017-03-10 2017-12-26 图像处理***、图像处理装置、图像处理方法及存储有图像处理程序的存储介质
US16/550,800 US20190378259A1 (en) 2017-03-10 2019-08-26 Image processing system, image processing device, image processing method, and image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-046594 2017-03-10
JP2017046594 2017-03-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/550,800 Continuation US20190378259A1 (en) 2017-03-10 2019-08-26 Image processing system, image processing device, image processing method, and image processing program

Publications (1)

Publication Number Publication Date
WO2018163572A1 true WO2018163572A1 (ja) 2018-09-13

Family

ID=63448728

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/046519 WO2018163572A1 (ja) 2017-03-10 2017-12-26 画像処理システム、画像処理装置、画像処理方法及び画像処理プログラム

Country Status (4)

Country Link
US (1) US20190378259A1 (ja)
JP (1) JP6588675B2 (ja)
CN (1) CN110402577B (ja)
WO (1) WO2018163572A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220032846A (ko) * 2020-09-08 2022-03-15 한화시스템 주식회사 적외선 촬영 장치 및 이의 제조 방법
CN115880574A (zh) * 2023-03-02 2023-03-31 吉林大学 一种水下光学图像轻量化目标识别方法、设备和介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
US11381737B2 (en) * 2018-03-28 2022-07-05 Sony Corporation Arithmetic device and arithmetic method
CN113259580A (zh) * 2020-02-12 2021-08-13 中电科海洋信息技术研究院有限公司 光电监控***拍摄参数自校正方法、装置、设备和介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11337493A (ja) * 1998-05-28 1999-12-10 Nikon Corp 画像処理による異常点位置検出システム
JP2009284188A (ja) * 2008-05-22 2009-12-03 Panasonic Corp カラー撮像装置
JP2013211707A (ja) * 2012-03-30 2013-10-10 Clarion Co Ltd カメラキャリブレーション装置
JP2014035261A (ja) * 2012-08-08 2014-02-24 Sony Corp 情報処理方法、情報処理装置、プログラム、撮像装置、検査方法、検査装置、及び基板の製造方法
JP2014107631A (ja) * 2012-11-26 2014-06-09 Nikon Corp 画像生成方法及び装置
JP2014123797A (ja) * 2012-12-20 2014-07-03 Ricoh Co Ltd 撮像制御装置、撮像システム、撮像制御方法およびプログラム

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5537669A (en) * 1993-09-30 1996-07-16 Kla Instruments Corporation Inspection method and apparatus for the inspection of either random or repeating patterns
US5825483A (en) * 1995-12-19 1998-10-20 Cognex Corporation Multiple field of view calibration plate having a reqular array of features for use in semiconductor manufacturing
US6806903B1 (en) * 1997-01-27 2004-10-19 Minolta Co., Ltd. Image capturing apparatus having a γ-characteristic corrector and/or image geometric distortion correction
US6151406A (en) * 1997-10-09 2000-11-21 Cognex Corporation Method and apparatus for locating ball grid array packages from two-dimensional image data
US6915007B2 (en) * 1998-01-16 2005-07-05 Elwin M. Beaty Method and apparatus for three dimensional inspection of electronic components
US6915006B2 (en) * 1998-01-16 2005-07-05 Elwin M. Beaty Method and apparatus for three dimensional inspection of electronic components
US7653237B2 (en) * 1998-01-16 2010-01-26 Scanner Technologies Corporation Method of manufacturing ball array devices using an inspection apparatus having two or more cameras and ball array devices produced according to the method
DE19903486C2 (de) * 1999-01-29 2003-03-06 Leica Microsystems Verfahren und Vorrichtung zur optischen Untersuchung von strukturierten Oberflächen von Objekten
US6323776B1 (en) * 1999-12-21 2001-11-27 Snap-On Technologies, Inc. Method and apparatus of automatically identifying faults in a machine vision measuring system
JP2001201324A (ja) * 2000-01-20 2001-07-27 Minolta Co Ltd 形状計測装置
US6809809B2 (en) * 2000-11-15 2004-10-26 Real Time Metrology, Inc. Optical method and apparatus for inspecting large area planar objects
US7170677B1 (en) * 2002-01-25 2007-01-30 Everest Vit Stereo-measurement borescope with 3-D viewing
US7525659B2 (en) * 2003-01-15 2009-04-28 Negevtech Ltd. System for detection of water defects
JP4095491B2 (ja) * 2003-05-19 2008-06-04 本田技研工業株式会社 距離測定装置、距離測定方法、及び距離測定プログラム
DE10359415A1 (de) * 2003-12-16 2005-07-14 Trimble Jena Gmbh Verfahren zur Kalibrierung eines Vermessungsgeräts
US20090136117A1 (en) * 2004-10-26 2009-05-28 May High-Tech Solutions Ltd. Method and apparatus for residue detection on a polished wafer
SG138491A1 (en) * 2006-06-21 2008-01-28 Generic Power Pte Ltd Method and apparatus for 3-dimensional vision and inspection of ball and like protrusions of electronic components
US7664608B2 (en) * 2006-07-14 2010-02-16 Hitachi High-Technologies Corporation Defect inspection method and apparatus
US8811692B2 (en) * 2007-04-17 2014-08-19 Francine J. Prokoski System and method for using three dimensional infrared imaging for libraries of standardized medical imagery
FR2923054B1 (fr) * 2007-10-24 2009-12-11 Centre Nat Rech Scient Procede et dispositif de reconstruction du volume d'un objet a partir d'une sequence d'images de coupes dudit objet
JP5466377B2 (ja) * 2008-05-16 2014-04-09 株式会社日立ハイテクノロジーズ 欠陥検査装置
JP5835722B2 (ja) * 2009-12-10 2015-12-24 オルボテック エルティ ソラー,エルエルシー 自動順位付け多方向直列型処理装置
US8705801B2 (en) * 2010-06-17 2014-04-22 Panasonic Corporation Distance estimation device, distance estimation method, integrated circuit, and computer program
JP5306298B2 (ja) * 2010-09-01 2013-10-02 株式会社東芝 画像処理装置
US9129277B2 (en) * 2011-08-30 2015-09-08 Digimarc Corporation Methods and arrangements for identifying objects
US8655068B1 (en) * 2011-10-07 2014-02-18 LI Creative Technologies, Inc. Color correction system
US20150262346A1 (en) * 2012-10-18 2015-09-17 Konica Minolta, Inc. Image processing apparatus, image processing method, and image processing program
US9285296B2 (en) * 2013-01-02 2016-03-15 The Boeing Company Systems and methods for stand-off inspection of aircraft structures
EP2757524B1 (en) * 2013-01-16 2018-12-19 Honda Research Institute Europe GmbH Depth sensing method and system for autonomous vehicles
WO2014138695A1 (en) * 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for measuring scene information while capturing images using array cameras
CN104581136B (zh) * 2013-10-14 2017-05-31 钰立微电子股份有限公司 图像校准***和立体摄像机的校准方法
CN111199218A (zh) * 2014-01-30 2020-05-26 移动眼视力科技有限公司 用于车辆的控制***、和图像分析***
US9704232B2 (en) * 2014-03-18 2017-07-11 Arizona Board of Regents of behalf of Arizona State University Stereo vision measurement system and method
DE112014006672T5 (de) * 2014-06-10 2017-02-23 Olympus Corporation Bildverarbeitungsvorrichtung, Bildgebungsvorrichtung, Mikroskopsystem, Bildverarbeitungsverfahren und ein Bildverarbeitungsprogramm
JP6546826B2 (ja) * 2015-10-08 2019-07-17 株式会社日立パワーソリューションズ 欠陥検査方法、及びその装置
JP6546509B2 (ja) * 2015-10-28 2019-07-17 株式会社ニューフレアテクノロジー パターン検査方法及びパターン検査装置
US9978147B2 (en) * 2015-12-23 2018-05-22 Intel Corporation System and method for calibration of a depth camera system
US20170374331A1 (en) * 2016-06-27 2017-12-28 Intel Corporation Auto keystone correction and auto focus adjustment
JP2018055429A (ja) * 2016-09-29 2018-04-05 ファナック株式会社 物体認識装置および物体認識方法
US20180159469A1 (en) * 2016-12-01 2018-06-07 Bt Imaging Pty Ltd Determining the condition of photovoltaic modules
US10572982B2 (en) * 2017-10-04 2020-02-25 Intel Corporation Method and system of image distortion correction for images captured by using a wide-angle lens

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11337493A (ja) * 1998-05-28 1999-12-10 Nikon Corp 画像処理による異常点位置検出システム
JP2009284188A (ja) * 2008-05-22 2009-12-03 Panasonic Corp カラー撮像装置
JP2013211707A (ja) * 2012-03-30 2013-10-10 Clarion Co Ltd カメラキャリブレーション装置
JP2014035261A (ja) * 2012-08-08 2014-02-24 Sony Corp 情報処理方法、情報処理装置、プログラム、撮像装置、検査方法、検査装置、及び基板の製造方法
JP2014107631A (ja) * 2012-11-26 2014-06-09 Nikon Corp 画像生成方法及び装置
JP2014123797A (ja) * 2012-12-20 2014-07-03 Ricoh Co Ltd 撮像制御装置、撮像システム、撮像制御方法およびプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220032846A (ko) * 2020-09-08 2022-03-15 한화시스템 주식회사 적외선 촬영 장치 및 이의 제조 방법
KR102566873B1 (ko) * 2020-09-08 2023-08-14 한화시스템 주식회사 적외선 촬영 장치 및 이의 제조 방법
CN115880574A (zh) * 2023-03-02 2023-03-31 吉林大学 一种水下光学图像轻量化目标识别方法、设备和介质
CN115880574B (zh) * 2023-03-02 2023-06-16 吉林大学 一种水下光学图像轻量化目标识别方法、设备和介质

Also Published As

Publication number Publication date
JPWO2018163572A1 (ja) 2019-11-21
US20190378259A1 (en) 2019-12-12
JP6588675B2 (ja) 2019-10-09
CN110402577A (zh) 2019-11-01
CN110402577B (zh) 2021-06-22

Similar Documents

Publication Publication Date Title
JP6588675B2 (ja) 画像処理システム、画像処理装置、画像処理方法及び画像処理プログラム
JP7087397B2 (ja) 基板の欠陥検査装置、基板の欠陥検査方法及び記憶媒体
TWI706485B (zh) 光學晶粒對資料庫檢查
CN107533759B (zh) 对于关注图案图像群体的异常检测
US9689805B2 (en) Systems and methods eliminating false defect detections
US10964014B2 (en) Defect detecting method and defect detecting system
KR100598381B1 (ko) 인-라인 타입의 자동 웨이퍼결함 분류장치 및 그 제어방법
JPH11153550A (ja) 欠陥検査方法及び欠陥検査装置
US20190026879A1 (en) Method of detecting defects in an object
US11774371B2 (en) Defect size measurement using deep learning methods
JPWO2006073155A1 (ja) パターン欠陥検査のための装置、その方法及びそのプログラムを記録したコンピュータ読取り可能な記録媒体
JP5178781B2 (ja) センサ出力データの補正装置及びセンサ出力データの補正方法
JP4629086B2 (ja) 画像欠陥検査方法および画像欠陥検査装置
JP2005106725A (ja) 被検査物の外観検査方法及び外観検査装置
JPWO2018198916A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
Haefner Best practices for imaging system MTF measurement
JP2012185030A (ja) 色ムラ判別装置、色ムラ判別方法及び表示装置
KR100902301B1 (ko) 결함 검사 장치
Kostrin et al. Application of an Automated Optoelectronic System for Determining Position of an Object
EP4205379B1 (en) A method for optical path maintenance need decision for fix focus systems due to electro-optical performance degradation in time
KR102295631B1 (ko) 분광특성지수를 이용한 초분광영상 활용 방법
US20230345145A1 (en) Method for optical path maintenance need decision for fix focus systems due to electro-optical performance degradation in time
WO2023110123A1 (en) Method for processing image data, image processor unit and computer program
JP2008089471A (ja) 欠陥検査装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17899969

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019504344

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17899969

Country of ref document: EP

Kind code of ref document: A1