WO2023053727A1 - 画像処理装置、処理システム、画像表示方法及びプログラム - Google Patents

画像処理装置、処理システム、画像表示方法及びプログラム Download PDF

Info

Publication number
WO2023053727A1
WO2023053727A1 PCT/JP2022/030413 JP2022030413W WO2023053727A1 WO 2023053727 A1 WO2023053727 A1 WO 2023053727A1 JP 2022030413 W JP2022030413 W JP 2022030413W WO 2023053727 A1 WO2023053727 A1 WO 2023053727A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
attention area
processed
processors
area
Prior art date
Application number
PCT/JP2022/030413
Other languages
English (en)
French (fr)
Inventor
瑛一 田中
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN202280064408.8A priority Critical patent/CN118043651A/zh
Priority to JP2023550427A priority patent/JPWO2023053727A1/ja
Publication of WO2023053727A1 publication Critical patent/WO2023053727A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/04Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/06Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and measuring the absorption
    • G01N23/18Investigating the presence of flaws defects or foreign matter
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present invention relates to an image processing device, a processing system, an image display method and a program.
  • the transmitted image of the industrial product to be inspected is visually inspected to detect air bubbles, foreign matter, cracks, etc. generated in the industrial product to be inspected. Defects are detected to determine whether the industrial product to be inspected is good or bad.
  • Patent Document 1 describes a defect review device that acquires SEM images of a wafer using a scanning electron microscope, detects defects from the SEM images, and displays multiple images for each defect.
  • SEM is an abbreviation for Scanning Electron Microscope.
  • Patent Document 2 describes a defect inspection apparatus that detects defect candidates from an image obtained by photographing an industrial product to be inspected and displays the defect candidates.
  • defect candidate images representing defect candidates are displayed on the photographed image.
  • the device described in the same document is configured so that the types of defects to be displayed can be selected using sliders, check boxes, and the like.
  • defects in transmission images have weak signal strength and poor visibility, and when visually evaluating the presence or absence of defects, false detections such as missing defects and overdetection of defects may occur. Poor defect visibility may hinder effective utilization of automatically detected defects, cause unnecessary confusion, and reduce the efficiency of inspection operations.
  • the display mode in which a plurality of images are displayed for each defect adopted in the device described in Patent Document 1 makes it difficult to grasp the correspondence relationship between, for example, a low-magnification captured image and a high-magnification captured image. It is difficult for the apparatus described in 1 to provide a suitable environment for inspection work for visual confirmation.
  • the present invention has been made in view of such circumstances, and aims to provide an image processing apparatus, a processing system, an image display method, and a program that can ensure good visibility of an object to be processed.
  • An image processing apparatus includes one or more processors, the one or more processors acquire a processing target image generated by photographing a processing target, and display the processing target image on a first display device. display in a first area, obtain an attention area image in which an attention area in a processing object is reproduced, and display the attention area image in a second area different from the first area of the first display device, or display the first display
  • This image processing apparatus displays an attention area image on a second display device different from the apparatus, and operates one of the processing target image and the attention area image in conjunction with the operation of the other.
  • the target image displayed in the first area of the first display device and the attention area image displayed in the second area of the first display device or the second display device is operated in conjunction with the operation of one. This ensures good visibility of the region of interest on the object to be processed. In addition, it is possible to easily grasp the correspondence between the operation of one of the changes of the image to be processed or the attention area image and the other.
  • Acquisition of an image to be processed includes a mode of acquiring the image to be processed itself and a mode of acquiring an image that is the basis of the image to be processed and performing prescribed image processing on the acquired image to generate the image to be processed. can contain.
  • the acquisition of the attention area image includes the aspect of acquiring the attention area image itself and the acquisition of an image that is the basis of the attention area image, and performing prescribed processing on the acquired image to generate the attention area image. aspects.
  • a region-of-interest image can contain a background of a single color.
  • the region-of-interest image may apply the same size as the image to be processed.
  • the region-of-interest image can be displayed at the same scale as the image to be processed. That is, the attention area image is an image that includes the attention area in the processing target image, and can be an image that reproduces the position and form of the attention area.
  • Examples of processing for processing objects include defect inspection, analysis, classification and evaluation.
  • Examples of the region of interest include a defect region of a processing object, an inspection target region, an analysis target region, a region contributing to classification, a region contributing to evaluation, and the like.
  • the image processing apparatus includes one or more memories storing programs to be executed by one or more processors, and the one or more processors can execute instructions of the programs.
  • the one or more processors obtain, as the processing target image, a transmission image generated based on light or radiation that has passed through the processing target, and acquire the transmission image as the processing target image. may be displayed.
  • one or more processors acquire a transmission image generated based on light rays or radiation that has passed through an object to be processed as an image to be processed, and perform frequency selection processing on the transmission image. may be applied to generate a frequency-selected image, and the frequency-selected image may be displayed as the image to be processed.
  • the one or more processors acquire a processing target image manipulation command representing manipulation of the processing target image, operate the processing target image in accordance with the processing target image manipulation command, and perform the processing target image manipulation command.
  • the attention area image may be operated in conjunction with the operation of the image.
  • the attention area image is operated in conjunction with the operation on the processing target image.
  • the one or more processors obtain, as the processing target image operation command, a processing target image change command for changing a position with respect to the processing target image, and according to the processing target image change command, The position of the image to be processed may be changed.
  • the position of the attention area image can be changed according to the position change of the image to be processed.
  • the one or more processors obtain, as the processing target image operation command, a processing target image change command for changing a scaling factor for the processing target image, and perform processing according to the processing target image change command. , the image to be processed may be magnified.
  • the scaling of the attention area image can be changed according to the scaling of the processing target image.
  • one or more processors acquire a region-of-interest image manipulation command representing manipulation of a region-of-interest image, manipulate the region-of-interest image in accordance with the region-of-interest image manipulation command, and generate a region-of-interest image.
  • the image to be processed may be operated in conjunction with the operation of the image.
  • the image to be processed is operated in conjunction with the operation on the attention area image.
  • the one or more processors obtain, as the region-of-interest image operation command, a region-of-interest image change command for changing a position with respect to the region-of-interest image, and according to the region-of-interest image change command, Repositioning of the region-of-interest image may be implemented.
  • the position of the image to be processed can be changed according to the position change of the attention area image.
  • the one or more processors acquire, as the region-of-interest image operation command, a region-of-interest image change command for changing the scaling factor for the region-of-interest image, and perform , scaling of the region-of-interest image may be performed.
  • the scaling of the image to be processed can be changed in accordance with the scaling of the attention area image.
  • the one or more processors automatically detect a region of interest from an image to be processed, generate a region-of-interest image based on the automatically detected region of interest in the image to be processed, and A region-of-interest image may be acquired.
  • one or more processors associate and store an image to be processed and an automatic detection result of an attention area, and learn a set of an image to be processed and an automatic detection result of an attention area.
  • a first learning model trained as data may be generated, and the first learning model may be applied to automatic detection of the region of interest.
  • one or more processors may acquire a pre-generated attention area image based on a pre-detected attention area from the processing target image.
  • the attention area image generated in advance can be displayed in the second area.
  • the one or more processors may receive modifications to the region of interest and modify the region of interest image based on the modifications.
  • a region-of-interest image in which the region of interest has been modified can be applied.
  • one or more processors associate and store the attention area image and the attention area image correction result, and create a set of the attention area image and the attention area image correction result.
  • a second learning model trained as learning data may be generated, and the second learning model may be applied to automatic detection of the region of interest.
  • the one or more processors may superimpose and display grids interlocking with each other on the processing target image and the attention area image.
  • the grid can apply a mode having a unit length in each of two mutually orthogonal directions.
  • the one or more processors accept a position specifying operation specifying a position for one of the processing target image and the attention area image, and in response to the position specifying operation for one, Emphasis processing may be performed to emphasize the position on the other side corresponding to the position on the other side.
  • the visibility of the correspondence relationship between the image to be processed displayed in the first area and the attention area image displayed in the second area can be improved.
  • enhancement processing there is an example in which the brightness value of pixels other than the pixel at the specified position is lowered and the brightness at the specified position is relatively increased.
  • the one or more processors accept a position specifying operation specifying a position for one of the processing target image and the attention area image, and in response to the position specifying operation for one, A pointer may be displayed to a position on the other that corresponds to the position on the other.
  • the one or more processors receive a ruler operation on one of the processing target image and the attention area image, and in response to the ruler operation on one, perform a ruler operation on the other corresponding to the ruler operation on the other.
  • a ruler operation may be displayed.
  • An example of the ruler operation is the operation of adding an index such as a line used for measuring and evaluating the defect area to the defect area.
  • the one or more processors acquire the type of the attention area, display the attention area type in the first area, and associate the attention area type with the attention area type to be displayed in the first area. Then, the type of the attention area may be displayed on the second area or the second display device.
  • the type of the defective area can be confirmed.
  • the one or more processors may display the processing target image in grayscale and the attention area image in color.
  • the information of the defect area image is colorized. This can improve the efficiency of inspection work.
  • a monochrome display device may be applied to display the image to be processed, and a color display device may be applied to display the region-of-interest image.
  • the one or more processors switch between a first display mode in which only the processing target image is displayed and a second display mode in which the processing target image and the attention area image are displayed. good.
  • the attention area image can be displayed as necessary.
  • a processing system includes an imaging device that captures an object to be processed, and one or more processors.
  • the one or more processors acquire an image to be processed that is generated by capturing an object to be processed. Then, the image to be processed is displayed in the first area of the first display device, the attention area image in which the attention area in the processing object is reproduced is obtained, and the attention is paid to the second area different from the first area of the first display device.
  • a processing system that displays an area image or displays an attention area image on a second display device different from the first display device, and operates one of the processing target image and the attention area image in conjunction with the operation of the other. .
  • a computer acquires a processing target image generated by photographing a processing target, displays the processing target image in a first region of a first display device, and displays a region of interest in the processing target. is obtained, and the attention area image is displayed on a second area different from the first area of the first display device, or the attention area image is displayed on a second display device different from the first display device.
  • This is an image display method in which one of the processing target image and the attention area image is operated in conjunction with the operation of the other.
  • the image display method according to the present disclosure it is possible to obtain effects similar to those of the image processing device according to the present disclosure.
  • Components of an image processing device according to another aspect can be applied to components of an image display method according to another aspect.
  • the program according to the present disclosure provides a computer with a function of acquiring a processing target image generated by photographing a processing target, a function of displaying the processing target image in the first region of the first display device, and A function of acquiring a region-reproduced region-of-interest image, displaying the region-of-interest image in a second region different from the first region of the first display device, or displaying the region-of-interest image in a second display device different from the first display device and a function of operating one of the processing target image and the attention area image in conjunction with the operation of the other.
  • the program according to the present disclosure it is possible to obtain the same effects as the image processing device according to the present disclosure.
  • the constituent requirements of the image processing apparatus according to other aspects can be applied to the constituent requirements of the program according to other aspects.
  • the present invention is linked to the operation of one of the object image displayed on the first area of the first display device and the attention area image displayed on the second area of the first display device or the second display device. and the other is manipulated. This ensures good visibility of the region of interest on the object to be processed. In addition, it is possible to easily grasp the correspondence between the operation of one of the changes of the image to be processed or the attention area image and the other.
  • FIG. 1 is a configuration diagram of a defect inspection system according to an embodiment.
  • FIG. 2 is a block diagram showing a configuration example of the photographing system shown in FIG.
  • FIG. 3 is a configuration diagram of photographing data.
  • FIG. 4 is a configuration diagram of product data.
  • FIG. 5 is a configuration diagram of inspection data.
  • FIG. 6 is a schematic diagram showing an example of a transmission image.
  • FIG. 7 is a schematic diagram showing another example of a transmission image.
  • FIG. 8 is a schematic diagram showing defects in a transmission image.
  • FIG. 9 is a schematic diagram showing a first display example of the defect area in the transmission image.
  • FIG. 10 is a schematic diagram showing a second display example of the defect area in the transmission image.
  • FIG. 1 is a configuration diagram of a defect inspection system according to an embodiment.
  • FIG. 2 is a block diagram showing a configuration example of the photographing system shown in FIG.
  • FIG. 3 is a configuration diagram of photographing data.
  • FIG. 11 is a schematic diagram showing a third display example of the defect area in the transmission image.
  • FIG. 12 is a schematic diagram of a screen to which the image display method according to the first embodiment is applied.
  • FIG. 13 is a functional block diagram showing the electrical configuration of an image processing section applied to the inspection apparatus according to the first embodiment.
  • FIG. 14 is a schematic diagram of a screen to which the image display method according to the second embodiment is applied.
  • FIG. 15 is a functional block diagram showing the electrical configuration of an image processing section applied to the inspection apparatus according to the second embodiment.
  • FIG. 16 is a functional block diagram showing the electrical configuration of an image processing section applied to the inspection apparatus according to the third embodiment.
  • FIG. 17 is a functional block diagram showing the electrical configuration of an image processing section applied to the inspection apparatus according to the fourth embodiment.
  • FIG. 18 is a functional block diagram showing the electrical configuration of an image processing section applied to the inspection apparatus according to the fifth embodiment.
  • FIG. 19 is a schematic diagram of a screen to which the image display method according to the sixth embodiment is applied.
  • FIG. 20 is a schematic diagram of a screen to which the image display method according to the seventh embodiment is applied.
  • FIG. 21 is a schematic diagram of a screen to which the image display method according to the modified example of the seventh embodiment is applied.
  • FIG. 22 is a schematic diagram of a screen to which the image display method according to the eighth embodiment is applied.
  • FIG. 23 is a schematic diagram of a screen to which the image display method according to the modified example of the eighth embodiment is applied.
  • FIG. 19 is a functional block diagram showing the electrical configuration of an image processing section applied to the inspection apparatus according to the fifth embodiment.
  • FIG. 19 is a schematic diagram of a screen to which the image display method according to the sixth embodiment is applied.
  • FIG. 20 is a schematic diagram of a screen to which the image
  • FIG. 24 is a functional block diagram showing the electrical configuration of an image processing section applied to the inspection apparatus according to the ninth embodiment.
  • FIG. 25 is a schematic diagram of a screen to which the image display method according to the tenth embodiment is applied.
  • FIG. 26 is a block diagram showing a hardware configuration example of the inspection apparatus according to the embodiment.
  • FIG. 1 is a configuration diagram of a defect inspection system according to an embodiment.
  • the defect inspection system 10 detects defects in the inspection object based on photographed image data obtained by photographing the industrial product that is the inspection object, and notifies the presence or absence of defects in the inspection object. That is, the defect inspection system 10 supports defect inspection of the inspection object.
  • the defect inspection system 10 includes an inspection device 20, an imaging system 100, and a product database 120.
  • the inspection device 20 is connected to an input device 32 and a display device 34 via an input/output interface. Note that illustration of the input/output interface is omitted in FIG.
  • the inspection device 20, the imaging system 100, and the product database 120 perform data communication with each other via the network NW.
  • the inspection apparatus 20 acquires the imaging data D100 from the imaging system 100 via the network NW.
  • the inspection device 20 acquires the product data D120 from the product database 120 via the network NW.
  • the communication form of the network NW may be wired communication or wireless communication.
  • the network NW can be LAN (Local Area Network), WAN (Wide Area Network), the Internet, or the like.
  • the inspection device 20 can apply a computer.
  • the form of the computer may be a server, a personal computer, a workstation, a tablet terminal, or the like.
  • the inspection apparatus 20 uses the input device 32 to acquire information input by an inspection operator who is a radiogram interpreter.
  • the input device 32 can apply a keyboard, a pointing device, and the like. Examples of pointing devices include mice, trackballs and joysticks.
  • the inspection device 20 causes the display device 34 to display various information such as the photographed image of the inspection object and inspection results.
  • the inspection apparatus 20 may be connected to one display device 34 or may be connected to a plurality of display devices 34 .
  • the inspection device 20 includes an image processing section 22 and an inspection processing section 24 .
  • the image processing unit 22 acquires photographed data D100 including photographed image data, and performs prescribed image processing on the photographed image data.
  • the image processing unit 22 causes the display device 34 to display an image generated by image processing. For example, the image processing unit 22 displays defects detected from captured image data.
  • the inspection processing unit 24 performs defect inspection of the inspection object based on the photographed data of the inspection object and generates inspection data. For example, the inspection processing unit 24 detects defects in the inspection object from the photographed image data, and generates inspection data representing the presence or absence of defects in the inspection object using the defect detection results.
  • FIG. 2 is a block diagram showing a configuration example of the photographing system shown in FIG.
  • the imaging system 100 images an inspection object OBJ placed in an imaging room 114 and generates captured image data of the inspection object OBJ.
  • the imaging system 100 includes an imaging control unit 102 , an imaging operation unit 104 , an image recording unit 106 , a camera 108 , a first radiation source 110 and a second radiation source 112 .
  • the radiation source 113 when there is no need to distinguish between the first radiation source 110 and the second radiation source 112 , both are collectively referred to as the radiation source 113 .
  • the imaging control unit 102 controls the operation of each unit of the imaging system 100 .
  • the imaging control unit 102 includes a CPU (Central Processing Unit).
  • the imaging control unit 102 receives operation input from the operator via the imaging operation unit 104, transmits control signals corresponding to the operation input to each unit of the imaging system 100, and controls the operation of each unit.
  • CPU Central Processing Unit
  • the imaging operation unit 104 is an input device operated by an operator.
  • the photographing operation unit 104 may have the same configuration as the input device 32 shown in FIG.
  • the operator can use the imaging operation unit 104 to input an instruction to perform imaging to the camera 108 .
  • the input of the instruction to perform shooting may include settings such as exposure time, focal length, shooting conditions such as aperture, shooting angle, shooting location, and the like.
  • the operator uses the imaging operation unit 104 to input information about the object to be inspected OBJ, input an instruction to irradiate the radiation source 113 with radiation, and input an instruction to record the acquired image data in the image recording unit 106 . obtain.
  • the input of the radiation irradiation instruction for the radiation source 113 may include settings such as irradiation start time, irradiation duration, irradiation angle, and irradiation intensity.
  • the image recording unit 106 records captured image data of the object to be inspected OBJ that has been captured using the camera 108 and generated. Information for identifying the inspection object OBJ is recorded in the image recording unit 106 in association with the captured image data. Note that the term “record” in this specification is synonymous with the term “memory”.
  • the camera 108 , first radiation source 110 and second radiation source 112 are arranged inside an imaging room 114 .
  • the first radiation source 110 and the second radiation source 112 emit X-rays as radiation.
  • the partition between the exterior of the imaging room 114 and the entrance to the imaging room 114 are X-ray protected using X-ray protective materials such as lead and concrete. In the case of irradiating the inspection object OBJ with visible light for imaging, it is not necessary to use the imaging room 114 with X-ray protection.
  • the first radiation source 110 and the second radiation source 112 irradiate the inspection object OBJ placed inside the imaging room 114 with radiation in accordance with instructions transmitted from the imaging control unit 102 .
  • the first radiation source 110 and the second radiation source 112 are supported so as to be adjustable in distance and angle with respect to the inspection object OBJ.
  • the camera 108 emits the radiation emitted from the first radiation source 110 to the inspection object OBJ and reflected by the inspection object OBJ, or the radiation emitted from the second radiation source 112 to the inspection object OBJ and transmitted through the inspection object OBJ. Radiation is received to generate a reflection image of the inspection object OBJ or a transmission image of the inspection object OBJ.
  • the camera 108 is supported so that the distance and angle with respect to the inspection object OBJ can be adjusted.
  • a support member that supports the first radiation source 110, the second radiation source 112, and the camera 108 can be a manipulator, a mounting table, a movable mounting table, or the like.
  • the operator can adjust the distances of the first radiation source 110, the second radiation source 112, and the camera 108 with respect to the inspection object OBJ, and use the camera 108 to photograph an arbitrary position of the inspection object OBJ.
  • the imaging control unit 102 terminates irradiation of the inspection object OBJ from the first radiation source 110 and the second radiation source 112 in response to the end of imaging by the camera 108 .
  • FIG. 2 shows an example in which the camera 108 is arranged inside the imaging room 114 , but the camera 108 only needs to be capable of imaging the object to be inspected OBJ inside the imaging room 114 . may be placed in
  • FIG. 2 illustrates the imaging system 100 with one camera 108 and with one each of the first radiation source 110 and the second radiation source 112, but the camera 108, the first radiation source 110 and the second radiation source 110 are illustrated.
  • the number of sources 112 is not limited to the example shown in FIG. Multiple cameras may be provided, and multiple first radiation sources 110 and multiple second radiation sources 112 may be provided.
  • the defect inspection system 10 described in the embodiment is an example of a processing system.
  • the imaging system 100 described in the embodiment is an example of an imaging device.
  • FIG. 3 is a configuration diagram of photographing data.
  • the imaging data D100 transmitted from the imaging system 100 shown in FIG. 2 to the inspection device 20 shown in FIG.
  • the inspection object specifying information D102 is information used to specify the inspection object OBJ, and may include, for example, information indicating the product name, product number, manufacturer name, technical classification, etc. of the inspection object OBJ.
  • the photographed image data D104 is image data representing the inspection object OBJ generated by photographing the inspection object OBJ.
  • X-ray transmission image data is generated as the captured image data D104.
  • the photographing condition data D106 is associated with the photographed image data D104 and stored for each photographed image data D104.
  • the photographing condition data D106 includes the date and time of photographing for each piece of photographed image data, the portion to be photographed, the distance between the inspection object OBJ and the camera 108 at the time of photographing, the angle of the camera 108 with respect to the inspection object OBJ at the time of photographing, and the like. It may contain information indicating
  • the illumination condition data D108 may include information indicating the type of radiation used for imaging the inspection object OBJ, the irradiation intensity, the irradiation angle, and the like. If an illumination device for irradiating light such as visible light is provided to inspection object OBJ, illumination condition data D108 may include information indicating the type of light.
  • FIG. 4 is a configuration diagram of product data.
  • Product data D120 transmitted from the product database 120 shown in FIG. 1 to the inspection device 20 includes product identification information D122, product attribute information D124, and inspection area designation information D126.
  • the product data D120 is transmitted from the product database 120 to the inspection device 20 according to the inspection object identification information D102 of the inspection object OBJ.
  • the inspection device 20 associates and stores the imaging data D100 and the product data D120.
  • the product specification information D122 is information for specifying the inspection object OBJ, and may include, for example, information indicating the product name, product number, manufacturer name, and technical classification.
  • the product identification information D122 includes information that can be collated with the inspection object identification information D102.
  • the product attribute information D124 may include, for example, information indicating the material of each part of the product, the dimensions of each part of the product, the application of the product, and the like.
  • the information indicating the use of the product may include, for example, information on the name, type, processing state, and attachment method of the device to which the product is attached. Examples of attachment methods include bonding, welding, screwing, fitting and soldering.
  • the product attribute information D124 includes defect occurrence information.
  • the defect occurrence information includes at least the past inspection date and time, the material of the object to be inspected OBJ, the position information, shape, size, depth, occurrence location, defect occurrence frequency, and defect capture image. It can contain one piece of information.
  • Examples of types of defects include foreign matter, air bubbles, and cracks.
  • Examples of the generation site include site coordinates, material thickness, processing state, and the like.
  • Examples of the processed state include the processed state of the joint portion and the processed state of the welded portion.
  • the inspection area designation information D126 includes information indicating the inspection area designated for each product designated by the manufacturer.
  • the information indicating the inspection area is information including the position of the inspection area, and can be created based on defect occurrence information such as presence/absence of occurrence of defects in the past and frequency information regarding defect occurrence frequency.
  • the inspection area designation information D126 is created based on information obtained when the manufacturer or the like repaired the product in the past, and based on identification of locations where defects are likely to occur statistically or structurally.
  • the defect occurrence information can include at least one of the past inspection date and time, the material of the inspection object OBJ, the type, shape, size, depth of the defect that occurred in the past, the location of occurrence, and the captured image of the defect.
  • FIG. 5 is a configuration diagram of inspection data.
  • the inspection data D10 shown in FIG. 5 is generated and output using the inspection apparatus 20 shown in FIG.
  • the output of inspection data D10 may be adapted for display on display device 34 .
  • output of electric signals, printing using a printer, or the like may be applied.
  • the inspection data D10 includes inspection object identification information D12, inspection object measurement data D14, defect candidate data D16, and diagnosis result data D18.
  • the inspection object specifying information D12 is information for specifying the inspection object OBJ in the inspection data D10. It may contain information indicative of classification.
  • the inspection data D10 is stored in association with the imaging data D100 using the inspection object identification information D12.
  • the inspection object measurement data D14 is acquired by measuring each part of the inspection object OBJ.
  • the inspection object measurement data D14 includes information such as the overall size of the inspection object OBJ and measurement values for each measurement position of the inspection object OBJ.
  • the defect candidate data D16 includes information on defect candidates obtained as a result of defect detection.
  • the defect candidate data D16 includes information indicating the characteristics of the defect candidate, such as the position of the defect candidate, the size of the defect candidate, the amount of thickness change in the defect candidate, and the type of the defect candidate.
  • the information indicating the position of the defect candidate can apply the coordinate values in the coordinate system applied to the measurement of the inspection object OBJ.
  • coordinate systems include a three-dimensional orthogonal coordinate system, a polar coordinate system, a cylindrical coordinate system, and the like.
  • Information indicating the type of defect candidate is created based on the shape of the defect candidate detected from the photographed image data of the inspection object OBJ.
  • Examples of information indicating the types of defect candidates include granular defects, spot-like defects, and crack-like defects. It should be noted that the types of defect candidates described in the embodiment are examples of types of defect regions.
  • the diagnosis result data D18 includes information additionally input by the inspection operator for inspection dates and defect candidates.
  • diagnostic result data include information indicating replacement of the inspection object OBJ, information indicating follow-up observation of the inspection object OBJ, and information indicating that there is no defect.
  • the information indicating the follow-up observation of the inspection object OBJ can include information on re-examination.
  • the inspection data D10 may include at least part of the imaging data D100. Also, the inspection data D10 may include at least part of the product data D120.
  • the product data D120 stored in the product database 120 may be updated using the inspection data D10.
  • the defect candidate data D16 and the diagnosis result data D18 included in the inspection data D10 can be used to update the inspection area designation information D126 included in the product data D120.
  • the inspection data D10 may include simulation result data representing the results of simulation of growth prediction of defect candidates detected from the inspection object OBJ.
  • the simulation result data may include defect candidate identification information for identifying defect candidates, and information indicating the degree of growth of defect candidates when inspected object OBJ is used under prescribed usage conditions.
  • defect candidate identification information examples include defect candidate positions and defect candidate identification information.
  • information representing the degree of defect candidate growth include the degree of spread of granular defects, the degree of spread of spot-like defects, the degree of decrease in wall thickness, the degree of extension of cracks, the depth of cracks, and the like.
  • the simulation result data may include simulation results of growth prediction of defect candidates at multiple points in the future.
  • a plurality of future points in time can be determined in advance for each type and use of the inspection object OBJ as an industrial product.
  • FIG. 6 is a schematic diagram showing an example of a transmission image.
  • FIG. 6 shows a transmission image IMG1 showing a metal part 50 molded by casting or forging.
  • the metal component 50 has a relatively thin first component portion 51 and a second component portion 52 thicker than the first component portion 51 .
  • the outside area other than the metal part 50 in the transmission image IMG1 is the area of the background 54 .
  • FIG. 7 is a schematic diagram showing another example of a transmission image.
  • FIG. 7 shows a transparent image IMG2 showing a metal part 60 manufactured by applying welding.
  • the metal component 60 has a relatively thin first component portion 61 and a second component portion 62 thicker than the first component portion 61 .
  • the area outside the metal part 60 in the transmission image IMG2 is the area of the background 64 .
  • FIG. 8 is a schematic diagram showing defects in a transmission image.
  • FIG. 8 shows the display screen of the display device 34 on which a transmission image IMG3 obtained by enlarging the transmission image IMG1 shown in FIG. 6 is displayed.
  • a transmission image IMG3 shown in FIG. 8 has a defect DE in the second part portion 52 .
  • Examples of defect DEs in cast or forged metal parts or welded metal parts include at least one of air bubbles, porosity, FMLD (Foreign material less dense) and FMLD (Foreign material more dense) .
  • FMLD is the contamination of foreign matter (low density) defects that appear black in an X-ray transmission image.
  • FMMD is the contamination of foreign matter (high density) defects that appear white in an X-ray transmission image.
  • the equipment that supports inspection work uses the following functions to improve the efficiency of inspection work.
  • the frequency selection processing is a series of image processing for obtaining good visibility of the input image by performing gradation processing, frequency processing, dynamic range compression processing, and the like on the input image.
  • Gradation processing is image processing that obtains appropriate brightness or density and appropriate contrast, and is realized by applying an input/output correspondence table of brightness values.
  • the frequency processing is realized by applying Fourier transform, difference of blurred images with different granularities, and the like.
  • Dynamic range compression processing is an image processing that converts areas that are difficult to see due to blown-out highlights and blocked-up shadows into easily visible areas without impairing brightness and contrast. It is realized by applying a prescribed luminance addition or the like to .
  • It provides an operation to add a marker such as a line segment to the transmission image IMG1 or the like or the frequency selection image, calculates the actual size based on the size of the marker, has a function to display the actual size, and uses the marker to measure the actual size of the defect.
  • a marker such as a line segment
  • the inspection operator is equipped with a function to automatically detect defect candidate areas that are candidates for defects in advance to further improve the efficiency of inspection work.
  • the inspection operator can refer to the automatically detected defect candidate areas and more efficiently access the areas where the presence or absence of defects should be determined, thereby improving the efficiency of the inspection work.
  • FIG. 9 is a schematic diagram showing a first display example of the defect area in the transmission image.
  • FIG. 9 shows an example in which a rectangular defect area DA1 is displayed by superimposing a frame 56 surrounding the defect DE on the transparent image IMG3.
  • FIG. 10 is a schematic diagram showing a second display example of the defect area in the transmission image.
  • FIG. 10 shows an example in which a defect area DA2 having the same shape and size as the defect DE is superimposed on the transmission image IMG3 by filling in the adaptive shape of the defect DE.
  • FIG. 11 is a schematic diagram showing a third display example of the defect area in the transmission image.
  • FIG. 11 shows an example in which the contour line 58 of the adaptive shape of the defect DE is superimposed on the transmission image IMG3 to display the defect area DA3 having the same shape as the contour of the defect DE.
  • the severity of the defect DE depends on the shape of the defect DE. Displaying the shape of the defect DE as the defect area is more effective in evaluating the severity of the defect DE than displaying a rectangle surrounding the defect DE as the defect area.
  • a monochrome display device is often used to display a transmissive image IMG in which grayscale gradation is expressed using only luminance.
  • the transparent image IMG is a general term for the transparent image IMG1 shown in FIG. 6, the transparent image IMG2 shown in FIG. 7, and the transparent image IMG3 shown in FIGS.
  • the probability that an accurate rectangular pattern drawn using computer graphics will appear in a transparent image or the like is relatively low, and a monochrome display device is used for the defect area DA1 to which the rectangular frame 56 shown in FIG. 9 is applied. Even if it is, it is possible to visually recognize it easily.
  • the defect area DA2 and the defect area DA3 to which the adaptive shape of the defect DE shown in FIGS. 10 and 11 is applied have the problem of poor visibility when a monochrome display device is used.
  • the display of the contour line 58 of the defect DE shown in FIG. 11 causes the contour line 58 to be mixed with the defect DE.
  • the contour line 58 is not necessarily straight, making it difficult to determine whether it is a component of the transmission image IMG or a component of the defect DE. If so, the visibility of the defect area DA3 is poor, which may cause the inspection operator to overlook the defect DE and overdetect the defect DE.
  • FIG. 12 is a schematic diagram of a screen to which the image display method according to the first embodiment is applied.
  • the image display method according to the first embodiment displays the transmission image IMG and the defect area image IMGD representing only the defect area DA2 in separate first display windows 70 and second display windows. 72, and the display of the first display window 70 and the second display window 72 and the operation of one of the transmissive image IMG and the defect area image IMGD are interlocked between the display windows. This ensures good visibility between the transmission image IMG and the defect area image IMGD.
  • the display device 34 shown in FIG. 12 displays the first display window 70 in which the transmissive image IMG is displayed and the second display window 72 in which the defect area image IMGD is displayed.
  • the first display window 70 and the second display window 72 are always changed in conjunction with reception of change operations such as position change operations and scaling factor change operations.
  • the operation of changing the position and the operation of changing the scale factor may be an operation performed by the inspection operator or an operation of applying a predetermined value.
  • the first display window 70 and the second display window 72 may apply a display area set in one application, or may apply a display area set in one operating system.
  • the first viewing window 70 and the second viewing window 72 may each be displayed on separate display devices.
  • the defect area image IMGD shown in FIG. 12 has the same shape and size as the transmission image IMG.
  • the defect area DA2 is arranged at the same position as the position of the defect area DA1 in the transparent image IMG.
  • the defect area DA2 arranged in the defect area image IMGD has the same shape and size as the defect area DA1 in the transmission image IMG.
  • FIG. 12 shows the defect area image IMGD with a single color background applied and superimposed with the same grid as the transparent image IMG.
  • FIG. 13 is a functional block diagram showing the electrical configuration of an image processing section applied to the inspection apparatus according to the first embodiment.
  • An image processing unit 22 shown in the figure is provided in the inspection apparatus 20 shown in FIG.
  • the image processing section 22 includes a transmission image reception section 400 and a first display window generation section 402 .
  • the transmission image receiving unit 400 receives the transmission image IMG transmitted from the imaging system 100 shown in FIG.
  • the transparent image IMG corresponds to the photographed image data D104 of the photographed data D100 shown in FIG. Receipt of the transparent image IMG is synonymous with acquisition of the transparent image IMG. Reception of images, data, signals, etc. described below is synonymous with acquisition of images, data, signals, etc.
  • FIG. Transparent image reception unit 400 transmits transparent image IMG to first display window generation unit 402 .
  • First display window generation unit 402 changes transmission image IMG acquired via transmission image reception unit 400 into a format for displaying it on first display window 70 shown in FIG. 12, and outputs it as first display window image IMGW1. .
  • the image processing unit 22 includes a defect area reception unit 410 , a defect area image generation unit 412 and a second display window generation unit 414 .
  • the defective area reception unit 410 receives information on the defective area DA detected in advance from the transparent image IMG. Information on the defect area DA can be included in the defect candidate data D16 included in the inspection data D10 shown in FIG.
  • the defect area image generation unit 412 uses the information of the defect area DA transmitted from the defect area reception unit 410 to generate the defect area image IMGD.
  • the defect area image generator 412 outputs the defect area image IMGD.
  • the defect area reception unit 410 may acquire a pre-generated defect area image IMGD based on the pre-detected defect area DA. That is, the defect area reception unit 410 may function as a defect area image reception unit that receives the pre-generated defect area image IMGD.
  • Second display window generation unit 414 changes defect area image IMGD generated in defect area image generation unit 412 into a format for displaying it on second display window 72 shown in FIG. 12, and outputs it as second display window image IMGW2. do.
  • the image processing unit 22 includes a display control unit 430.
  • the display control unit 430 acquires the first display window image IMGW1 and the second display window image IMGW2, and the display control unit 430 of the display device 34 acquires the display image including the first display window image IMGW1 and the second display window image IMGW2.
  • Send IMGDIS to display device 34 .
  • the display device 34 displays the first display window image IMGW1 on the first display window 70 and displays the second display window image IMGW2 on the second display window 72 .
  • the image processing unit 22 includes a display change operation reception unit 420 and an image change parameter generation unit 422 .
  • the display change operation accepting unit 420 accepts a display change operation input using the input device 32 or the like shown in FIG.
  • the display change operation reception unit 420 outputs a change parameter PAR representing the content of the display change.
  • Image change parameter generation unit 422 acquires change parameter PAR output from display change operation reception unit 420, and generates first image change parameter PAR1 applied to change first display window image IMGW1 from change parameter PAR. . Further, the image modification parameter generator 422 generates a second image modification parameter PAR2 applied to modify the second display window image IMGW2 from the modification parameter PAR.
  • the first image change parameter PAR1 can apply a scaling factor when scaling the first display window image IMGW1.
  • the scaling factor may be an enlargement ratio for enlargement or a reduction ratio for reduction.
  • the first image change parameter PAR1 may be a movement distance when changing the position of the first display window image IMGW1, or may be a coordinate value representing the position of the first display window image IMGW1 after movement.
  • the second image change parameter PAR2 can apply a scaling factor when scaling the second display window image IMGW2.
  • the second image change parameter PAR2 may be a movement distance when changing the position of the second display window image IMGW2, or may be a coordinate value representing the position of the second display window image IMGW2 after movement.
  • the second image changing parameter PAR2 is the scaling factor for scaling the second display window image IMGW2.
  • the same scaling factor as the first image modification parameter PAR1 is applied. The same is true for position changes.
  • the image change parameter generation unit 422 generates the first image change parameter PAR1 and the second image change parameter PAR2 for operating the second display window image IMGW2 in conjunction with the operation on the first display window image IMGW1.
  • the image change parameter generation unit 422 generates a first image change parameter PAR1 and a second image change parameter PAR2 for operating the first display window image IMGW1 in conjunction with the operation on the second display window image IMGW2.
  • the transmission image IMG and the information on the defect area DA are not mixed, and the correspondence between the two can be easily confirmed.
  • the adaptive shape of the defect area DA can be utilized in the monochrome display device 34, and the efficiency of the inspection work is improved.
  • the image processing unit 22 shown in FIG. 13 can execute an image display method including steps corresponding to the functions of each unit.
  • the image processing unit 22 performs a step of receiving a transmission image IMG, a step of receiving a defect area DA, a step of generating a defect area image IMGD based on the defect area DA, and a first display window image IMGW1 based on the transmission image IMG.
  • a step of displaying on the display window 70, a step of displaying a second display window image IMGW2 based on the defect area image IMGD on the second display window 72, and a step of interlocking the first display window image IMGW1 and the second display window image IMGW2. may implement an image display method comprising:
  • Each step corresponding to the function of each unit in the second to tenth embodiments described below can be included in the image display method described above.
  • the inspection object OBJ described in the embodiment is an example of the processing object.
  • the transparent image IMG described in the embodiment is an example of an image to be processed.
  • the display device 34 described in the embodiment is an example of the first display device.
  • the first display window 70 described in the embodiment is an example of the first area.
  • the second display window 72 is an example of the second area.
  • the defect area DA described in the embodiment is an example of the attention area.
  • the defect area image IMGD described in the embodiment is an example of an attention area image in which the position of the attention area and the form of the attention area in the image to be processed are reproduced.
  • a display change operation input using the input device 32 or the like described in the embodiment is an example of a processing target image operation command and an example of an attention area image operation command.
  • the first image change parameter PAR1 described in the embodiment is an example of a process target image change instruction.
  • the second image change parameter PAR2 described in the embodiment is an example of the attention area image change command.
  • FIG. 14 is a schematic diagram of a screen to which the image display method according to the second embodiment is applied.
  • the frequency selection image IMGF is displayed in the first display window 70 instead of the transmission image IMG.
  • FIG. 15 is a functional block diagram showing the electrical configuration of the image processing section applied to the inspection apparatus according to the second embodiment.
  • the image processing unit 22A shown in the figure includes a frequency selection processing unit 440.
  • FIG. Frequency selection processing unit 440 performs frequency selection processing on transmission image IMG acquired via transmission image reception unit 400 to generate frequency selection image IMGF.
  • the first display window generation unit 402 changes the format of the frequency selection image IMGF to be displayed on the first display window 70 shown in FIG. 12, and outputs it as the first display window image IMGW1.
  • the display device 34 displays the frequency selection image IMGF on the first display window 70 as the first display window image IMGW1.
  • a frequency selection image reception unit that receives the frequency selection image IMGF may be provided to acquire the frequency selection image IMGF generated outside the inspection apparatus 20. good.
  • the frequency selection image that provides better visibility than the transmission image IMG is displayed on the first display window 70 .
  • the visibility of the defect area DA1 displayed in the first display window 70 can be improved.
  • FIG. 16 is a functional block diagram showing the electrical configuration of an image processing section applied to the inspection apparatus according to the third embodiment.
  • the image processing unit 22B shown in the figure includes a defective area detection unit 450 instead of the defective area receiving unit 410 shown in FIG.
  • the defect area detection unit 450 performs defect detection processing on the transmission image IMG acquired via the transmission image reception unit 400, and automatically detects the defect area DA.
  • the defect area detection unit 450 can perform defect detection processing by applying area detection processing such as segmentation.
  • the defective area detection unit 450 can apply a learned learning model.
  • the learning model applied to the defect area detection unit 450 performs learning using a set of the input image of the defect area detection unit 450 and the detection result of the defect area DA as learning data.
  • Examples of learning models include deep learning models such as convolutional neural networks called CNNs (Convolutional Neural Networks).
  • the learning model applied to the defect area detection unit 450 described in the embodiment is an example of the first learning model.
  • the result of automatic detection of the defect area DA described in the embodiment is an example of the result of automatic detection of the attention area.
  • the defect area detection unit 450 may automatically detect the defect area DA from the frequency selection image IMGF.
  • FIG. 17 is a functional block diagram showing the electrical configuration of an image processing section applied to the inspection apparatus according to the fourth embodiment.
  • the image processing unit 22C shown in FIG. 16 has a defect area correction receiving unit 460 added to the image processing unit 22B shown in FIG.
  • the defect area correction reception unit 460 receives corrections to the defect area image IMGD input by the inspection operator using the input device 32 shown in FIG. That is, the defective area correction reception unit 460 transmits the defective area correction information INFR to the defective area image generation unit 412 .
  • the defect area image generator 412 corrects the defect area image IMGD based on the defect area correction information INFR.
  • the second display window 72 of the display device 34 displays a second display window image IMGW2 corresponding to the manually corrected defect area image IMGD.
  • the inspection operator can correct an error in the defect area DA automatically detected from the transmission image IMG.
  • FIG. 18 is a functional block diagram showing the electrical configuration of an image processing section applied to the inspection apparatus according to the fifth embodiment.
  • the image processing unit 22D shown in the figure has a defect area detection learning unit 470 added to the image processing unit 22C shown in FIG.
  • the image processing unit applied to the inspection apparatus uses the correction result of the defect area DA performed by the inspection operator as training data for machine learning.
  • the defective area detection learning unit 470 uses, as learning data, a set of defective area correction information INFR representing the correction of the defective area DA performed by the inspection operator and the defective area image IMGD obtained as a result of the correction.
  • the automatic detection of the defect area DA applied to the defect area detection unit 450 is based on “Long, Jonathan, Evan Shelhamer, and Trevor Darrell. “Fully convolutional networks for semantic segmentation.” Proceedings of the IEEE conference on computer vision and pattern recognition. 2015”, a machine learning method such as a segmentation model that applies deep learning.
  • An example of deep learning applied to the defect area detection learning unit 470 is a convolutional neural network. Note that the learning model applied to the defect area detection learning unit 470 described in the embodiment is an example of the second learning model.
  • the defective area detection unit 450 can automatically detect the defective area DA by applying the learned defective area detection model LM that has been trained by the defective area detection learning unit 470 .
  • the image processing section 22D provided with the defective area detection learning section 470 is illustrated in the present embodiment, the defective area detection learning section 470 may be an independent component from the image processing section 22D.
  • FIG. 19 is a schematic diagram of a screen to which the image display method according to the sixth embodiment is applied.
  • a grid 74 indicating the position is displayed on the first display window 70 shown in FIG.
  • Line types may include line types and line widths.
  • the inspection operator can efficiently , the corresponding positions of the frequency selection image IMGF and the defect area image IMGD can be confirmed.
  • FIG. 20 is a schematic diagram of a screen to which the image display method according to the seventh embodiment is applied.
  • a mouse hover on either the first display window 70 or the second display window 72 is received, the position of the mouse hover is detected, and the corresponding position on the other display window is detected. to display the marker.
  • a mouse hover may be accepted in the first display window or the second display window 72 .
  • a mouse hover to place the mouse cursor 80 over the defective area DA2 of the second display window 72 is accepted, and a marker 82 is displayed at the corresponding position in the first display window 70 with respect to the position of the mouse hover in the second display window 72.
  • a display device 34 is shown.
  • the display change operation reception unit 420 shown in FIG. 15 receives the mouse hover, and the image change parameter generation unit 422 detects the mouse hover position with respect to the second display window 72 and acquires the mouse hover position information.
  • the second display window generation unit 414 generates a second display window image IMGW2 by superimposing the mouse cursor 80 on the defect area image IMGD based on the mouse hover position information. Further, the first display window generation unit 402 duplicates the mouse hover position with respect to the second display window 72, and generates the first display window image IMGW1 by superimposing the marker 82 on the frequency selection image IMGF. Mouse hover position may apply position in pixels.
  • FIG. 20 illustrates a mode in which the intersection of the line segment 84 and the line segment 86 orthogonal to each other is the marker 82, but the marker 82 is not limited to the form shown in FIG. 20, and various forms may be applied. good.
  • mouse hover is an operation of placing the mouse cursor over an object, and is sometimes called mouse-on and rollover.
  • the mouse cursor is sometimes referred to as a mouse pointer or the like.
  • FIG. 21 is a schematic diagram of a screen to which the image display method according to the modified example of the seventh embodiment is applied.
  • the pixel 88 in the first display window 70 corresponding to the pixel position of the mouse cursor 80 in the second display window 72 is highlighted.
  • the pixel values of the pixels other than the pixel 88 are lowered to make it darker, and the pixel 88 is highlighted.
  • the pixel values of all pixels other than the pixel 88 may be lowered, or the brightness of the pixels surrounding the pixel 88 may be lowered.
  • a monochrome display device 34 is used to display the frequency selection image IMGF. Then, when the pixel value of the pixel 88 at the corresponding position is changed, the original information of the pixel 88 may be lost. Therefore, the pixel values of the pixels other than the pixel 88 are lowered so that the inspection operator can confirm the pixel 88 which is the corresponding position without losing the original information of the pixel 88 .
  • the process of highlighting the pixel 88 in the first display window 70 corresponding to the pixel position of the mouse cursor 80 in the second display window 72 described in the embodiment is performed by highlighting the position in the other corresponding to the position specified in one. It is an example of emphasis processing to emphasize.
  • a mouse hover that places the mouse cursor 80 over the defect area DA2 of the second display window 72 described in the embodiment is an example of a position specifying operation that specifies a position with respect to either the processing target image or the attention area image.
  • FIG. 22 is a schematic diagram of a screen to which the image display method according to the eighth embodiment is applied.
  • a ruler operation on one of the first display window 70 or the second display window 72 is detected, and the ruler operation on one display window is copied to the other display window. Detection of the ruler operation may be performed by the first display window 70 or the second display window 72 .
  • FIG. 22 illustrates the display device 34 in which a ruler operation measuring the maximum length of the defect area DA2 of the second viewing window 72 is detected and the ruler operation for the second viewing window 72 is replicated to the first viewing window 70. do.
  • the display change operation reception unit 420 shown in FIG. 15 receives the ruler operation for the defect area DA2 of the second display window 72, and the image change parameter generation unit 422 obtains the result of the ruler operation for the second display window 72.
  • the position information of the line segment 90 is acquired.
  • the second display window generation unit 414 generates a second display window image IMGW2 by superimposing the line segment 90 on the defect area image IMGD based on the positional information of the line segment 90 . Further, the first display window generation unit 402 duplicates the line segment 90 for the second display window 72 and generates the first display window image IMGW1 by superimposing the line segment 92 on the frequency selection image IMGF.
  • FIG. 22 illustrates an operation of drawing a line segment 90 with respect to the defect area DA2 as an example of ruler operation for measuring the maximum length of the defect area DA2.
  • a mouse cursor 80 illustrated using a dashed line is placed at the starting point of line segment 90 .
  • a mouse cursor 80 illustrated using a solid line indicates a state where it is placed at the end point of line segment 90 .
  • FIG. 23 is a schematic diagram of a screen to which the image display method according to the modified example of the eighth embodiment is applied.
  • the ruler operation for one of the first display window 70 or the second display window 72 is interrupted, the ruler operation may be taken over for the other display window.
  • Reference numeral 34A shown in FIG. 24 indicates a state in which the ruler operation on the second display window 72 is interrupted.
  • Reference numeral 34B indicates a state in which the ruler operation for the second display window 72 has been succeeded to the ruler operation for the first display window 70.
  • a mouse cursor 81 illustrated using a broken line indicates the mouse cursor 81 at the time when the ruler operation was taken over.
  • the display change operation reception unit 420 shown in FIG. 15 receives interruption of the ruler operation on the second display window 72 .
  • the image modification parameter generator 422 acquires the position information of the line segment 90 drawn halfway in the second display window 72 .
  • the second display window generation unit 414 generates a second display window image IMGW2 by superimposing the line segment 90 on the defect area image IMGD based on the positional information of the line segment 90 . Further, the first display window generation unit 402 duplicates the line segment 90 in the second display window 72 and generates the first display window image IMGW1 by superimposing the line segment 92 on the frequency selection image IMGF.
  • the display change operation accepting unit 420 accepts the ruler operation for the first display window 70 that has been taken over.
  • the image modification parameter generator 422 acquires the position information of the line segment 92 .
  • First display window generation unit 402 generates first display window image IMGW1 by superimposing line segment 92 on frequency selection image IMGF based on the positional information of line segment 92 .
  • Second display window generation unit 414 duplicates line segment 92 in first display window 70 and generates second display window image IMGW2 by superimposing line segment 90 on defect area image IMGD.
  • FIG. 24 is a functional block diagram showing the electrical configuration of an image processing section applied to the inspection apparatus according to the ninth embodiment.
  • the inspection apparatus according to the ninth embodiment displays the defect area image IMGD in color. Based on the defect area DA, a color defect area image IMGDC using color information is generated.
  • a mode in which the type of defect, the severity of the defect, and the like are color-coded may be adopted.
  • the image processing unit 22E shown in FIG. 24 includes a color defect area image generation unit 412A in place of the defect area image generation unit 412 and a color defect area image generation unit 412A in place of the second display window generation unit 414 in the image processing unit 22 shown in FIG.
  • a second display window generator 414A is provided, and a color display controller 431 is added.
  • the color defect area image generation unit 412A generates a color defect area image IMGDC.
  • RGB can be applied to color representation. In RGB, R represents red, G represents green, and B represents blue.
  • the color second display window generation unit 414A generates a color second display window image IMGWC.
  • Color display control unit 431 generates a display signal representing color display image IMGC based on color second display window image IMGWC, and transmits the display signal representing color display image IMGC to color display device 35 .
  • a color display device 35 displays a color display image IMGC.
  • the transmission image IMG or the frequency selection image IMGF is generated as a monochrome grayscale image and displayed on the monochrome display device 34 , and only the color defect area image IMGDC is displayed on the color display device 35 .
  • a monochrome grayscale is applied to the first display window 70 and displayed on the display device 34 .
  • the second display window 72 is color applied and displayed on the color display device 35 .
  • the first display window 70 and the second display window 72 are interlocked.
  • color display device 35 described in the embodiment is an example of the second display device.
  • a monochrome grayscale image displayed on the monochrome display device 34 described in the embodiment is an example of grayscale display.
  • FIG. 25 is a schematic diagram of a screen to which the image display method according to the tenth embodiment is applied.
  • a defect area image IMGD is generated for each type of defect DE, and the second display window 72 displaying the defect area image IMGD displays information representing the type of defect DE. be.
  • a defect type information display area 96 for displaying information representing the type of defect DE is set. Characters, symbols, images, and the like can be applied as the display form of the information representing the type of defect DE. Examples of characters representing the type of defect DE include character information representing the name of the type of defect DE and character information representing the abbreviation of the type of defect DE.
  • color information can be applied as information representing the type of defect DE.
  • FIG. 25 illustrates a mode in which a defect type information display area 94 is set also in the first display window 70 corresponding to the defect type information display area 96 in the second display window 72 .
  • the defect type information display area 94 can display information indicating the same type of defect DE as the defect type information display area 96 .
  • a button or the like for selecting the type of defect may be displayed on at least one of the first display window 70 and the second display window 72, and the selected defect type may be displayed on the display device 34 in accordance with the operation of the button or the like. good.
  • the inspection operator can grasp the type of the defect DE by looking at the defect type information display area 96 .
  • FIG. 26 is a block diagram showing a hardware configuration example of the inspection apparatus according to the embodiment.
  • the inspection device 20 includes a processor 202 , a non-transitory tangible computer-readable medium 204 , a communication interface 206 and an input/output interface 208 .
  • the processor 202 includes a CPU, which is a general-purpose processing device.
  • the processor 202 may include a GPU (Graphics Processing Unit), which is a processing device specialized for image processing.
  • GPU Graphics Processing Unit
  • Processor 202 is coupled to computer-readable media 204 , communication interface 206 and input/output interface 208 via bus 210 .
  • Input device 32 and display device 34 are connected to bus 210 via input/output interface 208 .
  • the computer-readable medium 204 includes a memory that is a main storage device and a storage that is an auxiliary storage device.
  • the computer readable medium 204 may use semiconductor memory, hard disk drives, solid state drives, and the like. Computer readable medium 204 may utilize any combination of devices.
  • the hard disk device can be called HDD, which is an abbreviation for Hard Disk Drive in English.
  • a solid state drive device may be referred to as SSD, which is an abbreviation for the English notation Solid State Drive.
  • the inspection device 20 is connected to a network via a communication interface 206 and is communicably connected to an external device.
  • the network can use a LAN (Local Area Network) or the like. Note that illustration of the network is omitted in FIG.
  • the computer-readable medium 204 stores an image processing program 220, a display program 222 and an inspection program 224.
  • the computer-readable medium 204 may store a storage processing program for storing various types of data.
  • the image processing program 220 is a program that is applied to various types of image processing in the image processing section 22 and the like shown in FIG.
  • the image processing program 220 includes a transmission image processing program 230 , an interlocking processing program 232 and a defect area image processing program 234 .
  • the transmission image processing program 230 is applied to the process of generating the first display window image IMGW1 from the transmission image IMG or the frequency selection image IMGF, and mainly implements the function of the first display window generation unit 402.
  • the transmission image processing program 230 may be applied to the process of generating the frequency selection image IMGF and implement the function of the frequency selection processing section 440 .
  • the link processing program 232 is applied to the process of linking the first display window image IMGW1 and the second display window image IMGW2, and mainly implements the function of the image change parameter generator 422.
  • the defect area image processing program 234 is applied to the process of generating the second display window image IMGW2 from the defect area image IMGD, and mainly implements the function of the second display window generation unit 414.
  • the display program 222 is applied to processing related to display on the display device 34 and implements the functions of the display control unit 430 . Further, the display program 222 is applied to processing related to display of the color display device 35 shown in FIG.
  • the inspection program 224 is applied to the processing related to the inspection processing unit 24 shown in FIG. 1, and realizes the functions of the inspection processing unit 24.
  • Various programs stored on the computer-readable medium 204 include one or more instructions.
  • the computer-readable medium 204 stores various data, various parameters, and the like.
  • the processor 202 executes various programs stored in the computer-readable medium 204, and realizes various functions in the inspection device 20.
  • program is synonymous with the term software.
  • the inspection device 20 performs data communication with an external device via the communication interface 206.
  • the communication interface 206 can apply various standards such as USB (Universal Serial Bus).
  • the communication form of the communication interface 206 may be either wired communication or wireless communication.
  • the inspection device 20 is connected to the input device 32 and the display device 34 via the input/output interface 208 .
  • Input devices such as a keyboard and a mouse are applied to the input device 32 .
  • the display device 34 displays various information applied to the inspection device 20 .
  • a liquid crystal display, an organic EL display, a projector, or the like can be applied to the display device 34 .
  • the display device 34 may apply any combination of multiple devices.
  • EL in the organic EL display is an abbreviation for Electro-Luminescence.
  • examples of the hardware structure of the processor 202 include a CPU, GPU, PLD (Programmable Logic Device), and ASIC (Application Specific Integrated Circuit).
  • a CPU is a general-purpose processor that executes programs and acts as various functional units.
  • a GPU is a processor specialized for image processing.
  • a PLD is a processor whose electrical circuit configuration can be changed after the device is manufactured. Examples of PLDs include FPGAs (Field Programmable Gate Arrays). An ASIC is a processor with dedicated electrical circuitry specifically designed to perform a particular process.
  • a single processing unit may be composed of one of these various processors, or may be composed of two or more processors of the same type or different types.
  • Examples of combinations of various processors include combinations of one or more FPGAs and one or more CPUs, and combinations of one or more FPGAs and one or more GPUs.
  • Other examples of combinations of various processors include combinations of one or more CPUs and one or more GPUs.
  • a single processor may be used to configure multiple functional units.
  • configuring multiple functional units using one processor applying a combination of one or more CPUs and software such as SoC (System On a Chip), typified by a computer such as a client or server
  • SoC System On a Chip
  • Another example of using one processor to configure multiple functional units is to use a processor that implements the functions of the entire system including multiple functional units using one IC chip.
  • various functional units are configured using one or more of the various processors described above as a hardware structure.
  • the hardware structure of the various processors described above is, more specifically, an electric circuit combining circuit elements such as semiconductor elements.
  • the computer-readable medium 204 may include semiconductor devices such as ROM (Read Only Memory) and RAM (Random Access Memory).
  • Computer readable media 204 may include magnetic storage media such as a hard disk.
  • Computer readable media 204 may comprise multiple types of storage media.
  • the inspection apparatuses shown in the first to tenth embodiments can be adapted to switch between the normal display mode and the multi-display mode.
  • the display mode may be switched according to a display mode switching signal input using the input device 32 shown in FIG.
  • the normal display mode displays only the transmission image IMG or the frequency selection image IMGF
  • the multi display mode displays the transmission image IMG or the frequency selection image IMGF in the first display window 70, and displays the defect image in the second display window 72.
  • the normal display mode described in the embodiment is an example of the first display mode
  • the multi-display mode is an example of the second display mode.
  • the defect inspection apparatus for inspecting industrial products for defects was exemplified. Any of the embodiments 1 through 10 can be applied.
  • the image processing unit 22 and the like shown in the first to tenth embodiments have the hardware configuration shown in FIG. 26, and can be configured as an image processing device that executes a program related to image processing and a program related to display.
  • defect inspection system 20 inspection device 22 image processing unit 22A image processing unit 22B image processing unit 22C image processing unit 22D image processing unit 22E image processing unit 32 input device 34 display device 34A ruler operation interrupted state 34B ruler operation is taken over folded state 35 color display device 50 metal part 51 first part part 52 second part part 54 background 56 frame 58 outline 60 metal part 61 first part part 62 second part part 64 background 70 first display window 72 second Display window 74 Grid 76 Grid 80 Mouse cursor 82 Marker 84 Line segment 86 Line segment 88 Pixel 90 Line segment 92 Line segment 94 Defect type information display area 96 Defect type information display area 100 Imaging system 102 Imaging control unit 104 Imaging operation unit 106 Image recording unit 108 camera 110 first radiation source 112 second radiation source 113 radiation source 114 imaging room 120 product database 202 processor 204 computer readable medium 206 communication interface 208 input/output interface 210 bus 220 image processing program 222 display program 224 inspection program 230 transmission Image processing program 232 Interlocking processing program 234 Defect area image processing program 400 Transparent image reception unit 40

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

処理対象物における欠陥の良好な視認性が確保され得る、画像処理装置、処理システム、画像表示方法及びプログラムを提供する。処理対象物を撮影して生成される処理対象画像(IMG)を取得し、処理対象画像を第1表示装置(34)の第1領域(70)へ表示させ、処理対象画像における注目領域(DA)が再現された注目領域画像(IMGD)を取得し、第1表示装置の第1領域と異なる第2領域(72)へ注目領域画像を表示させるか、又は第1表示装置と異なる第2表示装置へ注目領域画像を表示させ、処理対象画像又は注目領域画像の一方への操作に連動して他方を操作する。

Description

画像処理装置、処理システム、画像表示方法及びプログラム
 本発明は画像処理装置、処理システム、画像表示方法及びプログラムに関する。
 工業製品の非破壊検査において、画像を利用した欠陥判定を支援する技術が知られている。例えば、X線透過画像等を利用した工業製品の非破壊検査では、検査対象の工業製品を透過撮影した透過画像を目視して、検査対象の工業製品に発生した、気泡、異物及びひび割れ等の欠陥を検出し、検査対象の工業製品が良品であるか不良品であるかを判定している。
 特許文献1は、走査型電子顕微鏡を用いてウェハのSEM画像を取得し、SEM画像から欠陥を検出し、欠陥ごとに複数枚の画像を表示する欠陥レビュー装置が記載される。なお、SEMはScanning Electron Microscopeの省略語である。
 特許文献2は、検査対象の工業製品を撮影して得られる画像から、欠陥の候補を検出し、欠陥の候補を表示する欠陥検査装置が記載される。同文献に記載の装置は、撮影画像に対して欠陥の候補を表す欠陥候補画像が表示される。また、同文献に記載の装置は、スライダー及びチェックボックス等を用いて、表示対象の欠陥の種類を選択可能に構成される。
特開2007-225351号公報 国際公開第2017/130550号
 しかしながら、透過画像における欠陥は信号強度が微弱であって視認性が悪く、目視して欠陥の有無を評価する場合は、欠陥の見逃し及び欠陥の過剰検出等の誤検出が発生し得る。欠陥の視認性の悪さは、自動検出された欠陥の効果的な活用を阻害するおそれがあり、不要な混乱の要因になり、検査業務の効率を低下させるおそれがある。
 特許文献1に記載の装置において採用される欠陥ごとに複数の画像を表示させる表示態様は、例えば、低倍率の撮影画像と高倍率の撮影画像との対応関係の把握が困難であり、特許文献1に記載の装置は、目視確認を行う検査作業において好適な環境の提供は困難である。
 特許文献2に記載の装置における欠陥の候補の撮影画像への重畳表示は、欠陥の候補の視認性が悪く、目視確認を行う検査作業において好適な環境の提供は困難である。また、表示対象の欠陥の種類の切り替えは、作業者にとって煩雑であり、好適な解決策ではない。ここでは欠陥検査における課題を示すが、上記した課題は、工業製品の評価及び分析、解析及び測定においても存在し得る。
 本発明はこのような事情に鑑みてなされたもので、処理対象物における良好な視認性が確保され得る、画像処理装置、処理システム、画像表示方法及びプログラムの提供を目的とする。
 本開示に係る画像処理装置は、1つ以上のプロセッサを備え、1つ以上のプロセッサは、処理対象物を撮影して生成される処理対象画像を取得し、処理対象画像を第1表示装置の第1領域へ表示させ、処理対象物における注目領域が再現された注目領域画像を取得し、第1表示装置の第1領域と異なる第2領域へ注目領域画像を表示させるか、又は第1表示装置と異なる第2表示装置へ注目領域画像を表示させ、処理対象画像又は注目領域画像の一方への操作に連動して他方を操作する画像処理装置である。
 本開示に係る画像処理装置によれば、第1表示装置の第1領域へ表示させた対象物画像と、第1表示装置の第2領域又は第2表示装置へ表示させた注目領域画像との一方の操作に連動させて他方が操作される。これにより、処理対象物における注目領域の良好な視認性が確保される。また、処理対象画像又は注目領域画像の変動の一方の操作に対する他方の対応を容易に把握し得る。
 処理対象画像の取得とは、処理対象画像自体を取得する態様及び処理対象画像の基となる画像を取得し、取得した画像に対して規定の画像処理を施して処理対象画像を生成する態様を含み得る。同様に、注目領域画像の取得とは、注目領域画像自体を取得する態様及び注目領域画像の基となる画像を取得し、取得した画像に対して規定の処理を施して注目領域画像を生成する態様を含み得る。
 注目領域画像は、単一色の背景を含み得る。注目領域画像は、処理対象画像と同一のサイズを適用し得る。また、注目領域画像は、表示の際に処理対象画像と同一の縮尺を適用し得る。すなわち、注目領域画像は、処理対象画像における注目領域が含まれる画像であり、注目領域の位置及び形態が再現される画像とし得る。
 処理対象物への処理の例として、欠陥検査、分析、分類及び評価等が挙げられる。注目領域の例として、処理対象物の欠陥領域、検査対象領域、分析対象領域、分類に寄与する領域及び評価に寄与する領域等が挙げられる。
 本開示に係る画像処理装置において、1つ以上のプロセッサに実行させるプログラムが記憶される1つ以上のメモリを備え、1つ以上のプロセッサは、プログラムの命令を実行し得る。
 他の態様に係る画像処理装置において、1つ以上のプロセッサは、処理対象画像として、処理対象物を透過した光線又は放射線に基づいて生成される透過画像を取得し、処理対象画像として透過画像を表示させてもよい。
 かかる態様によれば、処理対象物の透過画像又は注目領域画像の変動の一方の操作に対する他方の対応を容易に把握し得る。
 他の態様に係る画像処理装置において1つ以上のプロセッサは、処理対象画像として処理対象物を透過した光線又は放射線に基づいて生成される透過画像を取得し、透過画像に対して周波数選択処理を施して周波数選択画像を生成し、処理対象画像として周波数選択画像を表示させてもよい。
 かかる態様によれば、処理対象物における注目領域の良好な視認性を確保し得る。
 他の態様に係る画像処理装置において、1つ以上のプロセッサは、処理対象画像に対する操作を表す処理対象画像操作指令を取得し、処理対象画像操作指令に応じて処理対象画像を操作し、処理対象画像の操作に連動して注目領域画像を操作してもよい。
 かかる態様によれば、処理対象画像に対する操作に連動して、注目領域画像が操作される。
 他の態様に係る画像処理装置において、1つ以上のプロセッサは、処理対象画像操作指令として、処理対象画像に対する位置を変更する処理対象画像変更指令を取得し、処理対象画像変更指令に応じて、処理対象画像の位置変更を実施してもよい。
 かかる態様によれば、処理対象画像の位置変更に応じて、注目領域画像の位置を変更し得る。
 他の態様に係る画像処理装置において、1つ以上のプロセッサは、処理対象画像操作指令として、処理対象画像に対する変倍率を変更する処理対象画像変更指令を取得し、処理対象画像変更指令に応じて、処理対象画像の変倍を実施してもよい。
 かかる態様によれば、処理対象画像の変倍に応じて、注目領域画像の変倍を変更し得る。
 他の態様に係る画像処理装置において、1つ以上のプロセッサは、注目領域画像に対する操作を表す注目領域画像操作指令を取得し、注目領域画像操作指令に応じて注目領域画像を操作し、注目領域画像の操作に連動して処理対象画像を操作してもよい。
 かかる態様によれば、注目領域画像に対する操作に連動して、処理対象画像が操作される。
 他の態様に係る画像処理装置において、1つ以上のプロセッサは、注目領域画像操作指令として、注目領域画像に対する位置を変更する注目領域画像変更指令を取得し、注目領域画像変更指令に応じて、注目領域画像の位置変更を実施してもよい。
 かかる態様によれば、注目領域画像の位置変更に応じて、処理対象画像の位置を変更し得る。
 他の態様に係る画像処理装置において、1つ以上のプロセッサは、注目領域画像操作指令として、注目領域画像に対する変倍率を変更する注目領域画像変更指令を取得し、注目領域画像変更指令に応じて、注目領域画像の変倍を実施してもよい。
 かかる態様によれば、注目領域画像の変倍に応じて、処理対象画像の変倍を変更し得る。
 他の態様に係る画像処理装置において、1つ以上のプロセッサは、処理対象画像から注目領域を自動検出し、自動検出された処理対象画像における注目領域に基づいて注目領域画像を生成し、生成された注目領域画像を取得してもよい。
 かかる態様によれば、自動検出された注目領域に基づく注目領域画像を取得し得る。
 他の態様に係る画像処理装置において1つ以上のプロセッサは、処理対象画像と注目領域の自動検出結果とを対応付けして記憶し、処理対象画像と注目領域の自動検出結果との組を学習データとして学習した第1学習モデルを生成し、第1学習モデルを注目領域の自動検出に適用してもよい。
 かかる態様によれば、注目領域の自動検出における一定の精度を確保し得る。
 他の態様に係る画像処理装置において1つ以上のプロセッサは、処理対象画像から予め検出された注目領域に基づいて、予め生成された注目領域画像を取得してもよい。
 かかる態様によれば、予め生成された注目領域画像を第2領域へ表示させ得る。
 他の態様に係る画像処理装置において、1つ以上のプロセッサは、注目領域に対する修正を受け付け、修正に基づいて注目領域画像を修正してもよい。
 かかる態様によれば、注目領域が修正された注目領域画像を適用し得る。
 他の態様に係る画像処理装置において、1つ以上のプロセッサは、注目領域画像と注目領域画像の修正結果とを対応付けして記憶し、注目領域画像と注目領域画像の修正結果との組を学習データとして学習した第2学習モデルを生成し、第2学習モデルを注目領域の自動検出に適用してもよい。
 かかる態様によれば、注目領域の修正が反映された注目領域の自動検出を実施し得る。
 他の態様に係る画像処理装置において、1つ以上のプロセッサは、処理対象画像及び注目領域画像に対して、互いに連動するグリッドを重畳表示させてもよい。
 かかる態様によれば、第1領域表示される処理対象画像と、第2領域へ表示される注目領域画像との対応関係を、効率よく確認し得る。
 グリッドは、互いに直交する2方向のそれぞれについて単位長さを有する態様を適用し得る。
 他の態様に係る画像処理装置において、1つ以上のプロセッサは、処理対象画像又は注目領域画像の一方に対する位置を指定する位置指定操作を受け付け、一方に対する位置指定操作に応じて、一方において指定された位置に対応する他方における位置を強調する強調処理を施してもよい。
 かかる態様によれば、第1領域表示される処理対象画像と、第2領域へ表示される注目領域画像との対応関係の視認性が向上し得る。
 強調処理の例として、指定された位置の画素以外の画素の輝度値を下げ、相対的に指定位置の輝度を上げる例が挙げられる。
 他の態様に係る画像処理装置において、1つ以上のプロセッサは、処理対象画像又は注目領域画像の一方に対する位置を指定する位置指定操作を受け付け、一方に対する位置指定操作に応じて、一方において指定された位置に対応する他方における位置へポインタを表示させてもよい。
 かかる態様によれば、処理対象画像及び注目領域画像への煩雑な情報の付加が回避され、処理対象画像と注目領域画像との対応関係を、効率よく確認し得る。
 他の態様に係る画像処理装置において、1つ以上のプロセッサは、処理対象画像又は注目領域画像の一方に対するルーラ操作を受け付け、一方に対するルーラ操作に応じて、一方に対するルーラ操作に対応する他方へのルーラ操作を表示させてもよい。
 かかる態様によれば、良好な視認性が確保された状態において、注目領域の測定及び注目領域の評価等の処理を実施し得る。
 ルーラ操作の例として、欠陥領域の測定及び評価等に使用される線等の指標を欠陥領域へ付与する操作が挙げられる。
 他の態様に係る画像処理装置において、1つ以上のプロセッサは、注目領域の種類を取得し、注目領域の種類を第1領域へ表示させ、第1領域へ表示させる注目領域の種類に対応付けして、第2領域又は第2表示装置へ注目領域の種類を表示させてもよい。
 かかる態様によれば、欠陥領域の種類を確認し得る。
 他の態様に係る画像処理装置において、1つ以上のプロセッサは、処理対象画像をグレースケール表示させ、注目領域画像をカラー表示させてもよい。
 かかる態様によれば、欠陥領域画像の情報がカラー化される。これにより、検査業務の効率を向上し得る。
 かかる態様において、白黒のディスプレイ装置を適用して処理対象画像を表示させ、カラーのディスプレイ装置を適用して注目領域画像を表示させてもよい。
 他の態様に係る医用画像処理装置において、1つ以上のプロセッサは、処理対象画像のみを表記させる第1表示モードと、処理対象画像及び注目領域画像を表示させる第2表示モードとを切り替えてもよい。
 かかる態様によれば、必要に応じて注目領域画像を表示させ得る。
 本開示に係る処理システムは、処理対象物を撮影する撮影装置と、1つ以上のプロセッサと、を備え、1つ以上のプロセッサは、処理対象物を撮影して生成される処理対象画像を取得し、処理対象画像を第1表示装置の第1領域へ表示させ、処理対象物における注目領域が再現された注目領域画像を取得し、第1表示装置の第1領域と異なる第2領域へ注目領域画像を表示させるか、又は第1表示装置と異なる第2表示装置へ注目領域画像を表示させ、処理対象画像又は注目領域画像の一方への操作に連動して他方を操作する処理システムである。
 本開示に係る処理システムによれば、本開示に係る画像処理装置と同様の作用効果を得ることが可能である。他の態様に係る画像処理装置の構成要件は、他の態様に係る処理システムの構成要件へ適用し得る。
 本開示に係る画像処理方法はコンピュータが、処理対象物を撮影して生成される処理対象画像を取得し、処理対象画像を第1表示装置の第1領域へ表示させ、処理対象物における注目領域が再現された注目領域画像を取得し、第1表示装置の第1領域と異なる第2領域へ注目領域画像を表示させるか、又は第1表示装置と異なる第2表示装置へ注目領域画像を表示させ、処理対象画像又は注目領域画像の一方への操作に連動して他方を操作する画像表示方法である。
 本開示に係る画像表示方法によれば、本開示に係る画像処理装置と同様の作用効果を得ることが可能である。他の態様に係る画像処理装置の構成要件は、他の態様に係る画像表示方法の構成要件へ適用し得る。
 本開示に係るプログラムは、コンピュータに、処理対象物を撮影して生成される処理対象画像を取得する機能、処理対象画像を第1表示装置の第1領域へ表示させる機能、処理対象物における注目領域が再現された注目領域画像を取得する機能、第1表示装置の第1領域と異なる第2領域へ注目領域画像を表示させるか、又は第1表示装置と異なる第2表示装置へ注目領域画像を表示させる機能、及び処理対象画像又は注目領域画像の一方への操作に連動して他方を操作する機能を実現させるプログラムである。
 本開示に係るプログラムによれば、本開示に係る画像処理装置と同様の作用効果を得ることが可能である。他の態様に係る画像処理装置の構成要件は、他の態様に係るプログラムの構成要件へ適用し得る。
 本発明によれば、第1表示装置の第1領域へ表示させた対象物画像と、第1表示装置の第2領域又は第2表示装置へ表示させた注目領域画像との一方の操作に連動させて他方が操作される。これにより、処理対象物における注目領域の良好な視認性が確保される。また、処理対象画像又は注目領域画像の変動の一方の操作に対する他方の対応を容易に把握し得る。
図1は実施形態に係る欠陥検査システムの構成図である。 図2は図1に示す撮影システムの構成例を示すブロック図である。 図3は撮影データの構成図である。 図4は製品データの構成図である。 図5は検査データの構成図である。 図6は透過画像の一例を示す模式図である。 図7は透過画像の他の例を示す模式図である。 図8は透過画像における欠陥を示す模式図である。 図9は透過画像における欠陥領域の第1表示例を示す模式図である。 図10は透過画像における欠陥領域の第2表示例を示す模式図である。 図11は透過画像における欠陥領域の第3表示例を示す模式図である。 図12は第1実施形態に係る画像表示方法が適用される画面の模式図である。 図13は第1実施形態に係る検査装置に適用される画像処理部の電気的構成を示す機能ブロック図である。 図14は第2実施形態に係る画像表示方法が適用される画面の模式図である。 図15は第2実施形態に係る検査装置に適用される画像処理部の電気的構成を示す機能ブロック図である。 図16は第3実施形態に係る検査装置に適用される画像処理部の電気的構成を示す機能ブロック図である。 図17は第4実施形態に係る検査装置に適用される画像処理部の電気的構成を示す機能ブロック図である。 図18は第5実施形態に係る検査装置に適用される画像処理部の電気的構成を示す機能ブロック図である。 図19は第6実施形態に係る画像表示方法が適用される画面の模式図である。 図20は第7実施形態に係る画像表示方法が適用される画面の模式図である。 図21は第7実施形態の変形例に係る画像表示方法が適用される画面の模式図である。 図22は第8実施形態に係る画像表示方法が適用される画面の模式図である。 図23は第8実施形態の変形例に係る画像表示方法が適用される画面の模式図である。 図24は第9実施形態に係る検査装置に適用される画像処理部の電気的構成を示す機能ブロック図である。 図25は第10実施形態に係る画像表示方法が適用される画面の模式図である。 図26は実施形態に係る検査装置のハードウェアの構成例を示すブロック図である。
 以下、添付図面に従って本発明の好ましい実施形態について詳説する。本明細書では、同一の構成要素には同一の参照符号を付して、重複する説明は適宜省略する。
 [欠陥検査システムの構成例]
 図1は実施形態に係る欠陥検査システムの構成図である。欠陥検査システム10は、検査対象物である工業製品を撮影して得られる撮影画像データに基づいて、検査対象物の欠陥を検出し、検査対象物の欠陥の有無を報知する。すなわち、欠陥検査システム10は、検査対象物の欠陥検査を支援する。
 欠陥検査システム10は、検査装置20、撮影システム100及び製品データベース120を備える。検査装置20は、入出力インターフェースを介して入力装置32及びディスプレイ装置34が接続される。なお、図1では入出力インターフェースの図示を省略する。
 検査装置20、撮影システム100及び製品データベース120は、ネットワークNWを介して相互にデータ通信を実施する。検査装置20は、ネットワークNWを介して撮影システム100から撮影データD100を取得する。検査装置20は、ネットワークNWを介して製品データベース120から製品データD120を取得する。
 ネットワークNWの通信形態は、有線通信でもよいし無線通信でもよい。ネットワークNWは、LAN(Local Area Network)、WAN(Wide Area Network)及びインターネット等を適用し得る。
 検査装置20は、コンピュータを適用し得る。コンピュータの形態は、サーバであってもよいし、パーソナルコンピュータであってもよく、ワークステーションであってもよく、また、タブレット端末などであってもよい。
 検査装置20は、入力装置32を用いて読影者である検査作業者が入力した情報を取得する。入力装置32は、キーボード及びポインティングデバイス等を適用し得る。ポインティングデバイスの例として、マウス、トラックボール及びジョイスティックが挙げられる。
 検査装置20は、検査対象物の撮影画像及び検査結果等の各種情報をディスプレイ装置34へ表示させる。検査装置20は、1台のディスプレイ装置34が接続されてもよいし、複数台のディスプレイ装置34が接続されてもよい。
 検査装置20は、画像処理部22及び検査処理部24を備える。画像処理部22は、撮影画像データを含む撮影データD100を取得し、撮影画像データに対して規定の画像処理を施す。画像処理部22は、画像処理を施して生成した画像をディスプレイ装置34へ表示させる。例えば、画像処理部22は、撮影画像データから検出された欠陥を表示させる。
 検査処理部24は、検査対象物の撮影データに基づいて、検査対象物の欠陥検査を実施し、検査データを生成する。例えば、検査処理部24は、撮影画像データから検査対象物の欠陥を検出し、欠陥の検出結果を用いて検査対象物の欠陥の有無を表す検査データを生成する。
 [撮影システムの構成例]
 図2は図1に示す撮影システムの構成例を示すブロック図である。撮影システム100は、撮影室114に置かれた検査対象物OBJを撮影し、検査対象物OBJの撮影画像データを生成する。撮影システム100は、撮影制御部102、撮影操作部104、画像記録部106、カメラ108、第1放射線源110及び第2放射線源112を備える。以下、第1放射線源110と第2放射線源112とを区別する必要がない場合は、両者を総称して放射線源113と記載する。
 撮影制御部102は、撮影システム100の各部の動作を制御する。撮影制御部102は、CPU(Central Processing Unit)を備える。撮影制御部102は、撮影操作部104を介してオペレータからの操作入力を受け付け、操作入力に応じた制御信号を撮影システム100の各部に送信して各部の動作を制御する。
 撮影操作部104は、オペレータが操作する入力装置である。撮影操作部104は、図1に示す入力装置32と同様の構成を適用し得る。オペレータは、撮影操作部104を用いて、カメラ108に対する撮影実行の指示の入力を実施し得る。撮影実行の指示の入力は、露出時間、焦点距離、絞り等の撮影条件、撮影角度及び撮影箇所等の設定を含み得る。
 オペレータは、撮影操作部104を用いて、検査対象物OBJに関する情報の入力、放射線源113に対する放射線の照射の指示の入力及び取得した画像データを画像記録部106に記録する指示の入力を実施し得る。放射線源113に対する放射線の照射の指示の入力は、照射開始時間、照射継続時間、照射角度及び照射強度等の設定を含み得る。
 画像記録部106は、カメラ108を用いて撮影され、生成された検査対象物OBJの撮影画像データを記録する。画像記録部106には、検査対象物OBJを特定するための情報が撮影画像データと関連付けて記録される。なお、本明細書における記録という用語は、記憶という用語と同義とする。
 カメラ108、第1放射線源110及び第2放射線源112は、撮影室114の内部に配置されている。第1放射線源110及び第2放射線源112は、放射線としてX線を放射する。
 撮影室114の外部との間の隔壁及び撮影室114の出入口は、鉛及びコンクリート等のX線防護材料を用いてX線防護が施される。なお、検査対象物OBJに対して可視光を照射して撮影を行う場合には、X線防護を施した撮影室114を用いる必要はない。
 第1放射線源110及び第2放射線源112は、撮影制御部102から送信される指示に応じて、撮影室114の内部に載置された検査対象物OBJへ放射線を照射する。第1放射線源110及び第2放射線源112は、検査対象物OBJに対する距離及び角度が調整自在に支持される。
 カメラ108は、第1放射線源110から検査対象物OBJへ照射され、検査対象物OBJにおいて反射された放射線、又は第2放射線源112から検査対象物OBJへ照射され、検査対象物OBJを透過した放射線を受光して、検査対象物OBJの反射画像又は検査対象物OBJの透過画像を生成する。カメラ108は、検査対象物OBJに対する距離及び角度が調整自在に支持される。第1放射線源110、第2放射線源112及びカメラ108を支持する支持部材は、マニピュレーター、載置台及び可動式の載置台等を適用し得る。
 オペレータは、検査対象物OBJに対する第1放射線源110、第2放射線源112及びカメラ108の距離等を調整し、カメラ108を用いて検査対象物OBJの任意の位置を撮影し得る。
 撮影制御部102は、カメラ108の撮影終了に応じて、第1放射線源110及び第2放射線源112からの検査対象物OBJへの放射線の照射を終了させる。
 図2には、撮影室114の内部にカメラ108が配置される例を示したが、カメラ108は、撮影室114の内部の検査対象物OBJを撮影可能であればよく、撮影室114の外部に配置されていてもよい。
 図2には、1台のカメラ108を備え、1台ずつの第1放射線源110及び第2放射線源112を備える撮影システム100を例示したが、カメラ108、第1放射線源110及び第2放射線源112の数は図2に示す例に限定されない。複数のカメラを備えてもよいし、複数の第1放射線源110及び複数の第2放射線源112を備えてもよい。
 なお、実施形態に記載の欠陥検査システム10は処理システムの一例である。実施形態に記載の撮影システム100は撮影装置の一例である。
 [検査対象物の撮影データの構成例]
 図3は撮影データの構成図である。図2に示す撮影システム100から図1に示す検査装置20へ送信される撮影データD100は、検査対象物特定情報D102、撮影画像データD104、撮影条件データD106及び照明条件データD108が含まれる。
 検査対象物特定情報D102は、検査対象物OBJの特定に用いられる情報であり、例えば、検査対象物OBJの製品名、製品番号、製造者名及び技術分類等を示す情報を含み得る。
 撮影画像データD104は、検査対象物OBJを撮影し、生成された、検査対象物OBJを表す画像データである。放射線源113からX線が照射される場合、撮影画像データD104としてX線透過画像データが生成される。
 撮影条件データD106は、撮影画像データD104と対応付けされ、撮影画像データD104ごとに記憶される。撮影条件データD106は、撮影画像データごとの撮影日時、撮影対象箇所、撮影の際における検査対象物OBJとカメラ108との間の距離及び撮影の際における検査対象物OBJに対するカメラ108の角度等を示す情報を含み得る。
 照明条件データD108は、検査対象物OBJの撮影に用いた放射線の種類、照射強度及び照射角度等を示す情報を含み得る。検査対象物OBJに対して、可視光線等の光線を照射する照明装置を備える場合、照明条件データD108は、光線の種類を示す情報を含み得る。
 [製品データの構成例]
 図4は製品データの構成図である。図1に示す製品データベース120から検査装置20へ送信される製品データD120は、製品特定情報D122、製品属性情報D124及び検査領域指定情報D126が含まれる。
 製品データD120は、検査対象物OBJの検査対象物特定情報D102に応じて、製品データベース120から検査装置20へ送信される。検査装置20は、撮影データD100と製品データD120とを関連付けして記憶する。
 製品特定情報D122は、検査対象物OBJを特定するための情報であり、例えば、製品名、製品番号、製造者名及び技術分類を示す情報を含み得る。製品特定情報D122は、検査対象物特定情報D102と照合し得る情報が含まれる。
 製品属性情報D124は、例えば、製品の各部の材質、製品の各部の寸法及び製品の用途等を示す情報を含み得る。製品の用途を示す情報は、例えば、製品が取り付けられる装置等の名称、種類、加工状態及び取付方法に関する情報を含み得る。取付方法の例として、接合、溶接、ねじ止め、はめ込み及びハンダ付け等が挙げられる。
 また、製品属性情報D124は、欠陥発生情報が含まれる。欠陥発生情報は、過去の検査日時、検査対象物OBJの材質、過去に発生した、位置情報、形状、大きさ、深さ、発生部位、欠陥発生頻度に関する頻度情報、欠陥のキャプチャー画像のうち少なくとも1つの情報を含み得る。
 欠陥の種類の例として、異物、気泡及び亀裂等が挙げられる。発生部位の例として、部位座標、材質の肉厚及び加工状態等が挙げられる。加工状態の例として、接合部の加工状態及び溶接部の加工状態等が挙げられる。
 検査領域指定情報D126は、製造者等が指定する製品ごとに指定された検査領域を示す情報が含まれる。検査領域を示す情報は、検査領域の位置を含む情報であり、過去の欠陥発生の有無、欠陥発生頻度に関する頻度情報等の欠陥発生情報に基づいて作成され得る。検査領域指定情報D126は、製造者等が過去に製品を修理した際に得られた情報に基づいて、統計的に又は構造的に欠陥が生じやすい箇所の特定に基づいて作成される。
 欠陥発生情報は、過去の検査日時、検査対象物OBJの材質、過去に発生した欠陥の種類、形状、大きさ、深さ、発生部位及び欠陥のキャプチャー画像のうち少なくとも1つの情報を含み得る。
 [検査データの構成例]
 図5は検査データの構成図である。図5に示す検査データD10は、図1に示す検査装置20を用いて生成され、出力される。検査データD10の出力は、ディスプレイ装置34への表示を適用し得る。検査データD10の出力は、電気信号の出力及びプリンタを用いる印刷等を適用してもよい。
 検査データD10は、検査対象物特定情報D12、検査対象物測定データD14、欠陥候補データD16及び診断結果データD18が含まれる。検査対象物特定情報D12は、検査データD10における検査対象物OBJを特定するための情報であり、撮影データD100における検査対象物特定情報D102と同様に、製品名、製品番号、製造者名及び技術分類を示す情報を含み得る。検査データD10は、検査対象物特定情報D12を用いて撮影データD100と関連付けされ、記憶される。
 検査対象物測定データD14は、検査対象物OBJの各部を測定して取得される。検査対象物測定データD14は、検査対象物OBJの全体のサイズ、検査対象物OBJの測定位置ごとの測定値等の情報が含まれる。
 欠陥候補データD16は、欠陥検出の結果として得られる欠陥候補に関する情報が含まれる。欠陥候補データD16は、欠陥候補の位置、欠陥候補のサイズ、欠陥候補における肉厚の変化量及び欠陥候補の種類等の欠陥候補の特徴を示す情報が含まれる。
 欠陥候補の位置を示す情報は、検査対象物OBJの測定に適用される座標系における座標値を適用し得る。座標系の例として、3次元直交座標系、極座標系及び円柱座標系等が挙げられる。
 欠陥候補の種類を示す情報は、検査対象物OBJの撮影画像データから検出された欠陥候補の形状に基づいて作成される。欠陥候補の種類を示す情報の例として、粒状欠陥、シミ状欠陥、ヒビ状欠陥等が挙げられる。なお、実施形態に記載の欠陥候補の種類は、欠陥領域の種類の一例である。
 診断結果データD18は、検査日時及び欠陥候補に対して検査作業者が追加入力した情報が含まれる。診断結果データの例として、検査対象物OBJの交換を示す情報、検査対象物OBJの経過観察を示す情報及び欠陥ではない旨を表す情報等が挙げられる。検査対象物OBJの経過観察を示す情報は、再検査に関する情報が含まれ得る。
 なお、検査データD10は、撮影データD100の少なくとも一部が含まれてもよい。また、検査データD10は、製品データD120の少なくとも一部が含まれてもよい。
 検査データD10を用いて、製品データベース120に記憶される製品データD120を更新してもよい。例えば、検査データD10に含まれる欠陥候補データD16及び診断結果データD18を用いて、製品データD120に含まれる検査領域指定情報D126を更新し得る。
 検査データD10は、検査対象物OBJから検出された欠陥候補の成長予測のシミュレーションの結果を表すシミュレーション結果データを含み得る。シミュレーション結果データは、欠陥候補を特定する欠陥候補特定情報、検査対象物OBJを規定の使用条件を適用して使用した場合の欠陥候補の成長度合いを表す情報を含み得る。
 欠陥候補特定情報の例として、欠陥候補の位置及び欠陥候補の識別情報等が挙げられる。欠陥候補の成長度合いを表す情報の例として、粒状欠陥の広がり具合、シミ状欠陥の広がり具合、肉厚の減少具合、ひび割れの伸び具合及びひび割れの深さ等が挙げられる。
 シミュレーション結果データは、将来の複数の時点における欠陥候補の成長予測のシミュレーション結果を含み得る。将来の複数の時点は、検査対象物OBJの工業製品としての種類及び用途ごとに予め定め得る。
 [X線透過画像等を利用した工業製品の非破壊検査における課題]
 X線透過画像等を利用した工業製品の非破壊検査では、検査対象物である工業製品を透過撮影して生成された透過画像を目視して、工業製品に発生した気泡、異物及びひび割れ等の欠陥を検出し、欠陥検出の結果に基づき工業製品が良品であるか不良品であるかを判定している。
 図6は透過画像の一例を示す模式図である。図6には、鋳造又は鍛造を適用して成型された金属部品50が映された透過画像IMG1を示す。金属部品50は、肉厚が相対的に薄い第1部品部分51及び第1部品部分51よりも肉厚が厚い第2部品部分52を有する。透過画像IMG1において金属部品50以外の外側領域は背景54の領域である。
 図7は透過画像の他の例を示す模式図である。図7には溶接を適用して製造された金属部品60が映された透過画像IMG2を示す。金属部品60は、肉厚が相対的に薄い第1部品部分61及び第1部品部分61よりも肉厚が厚い第2部品部分62を有する。透過画像IMG2において金属部品60以外の外側領域は背景64の領域である。
 図8は透過画像における欠陥を示す模式図である。図8には、図6に示す透過画像IMG1を拡大した透過画像IMG3が表示されたディスプレイ装置34の表示画面を図示する。図8に示す透過画像IMG3は、第2部品部分52に欠陥DEが存在している。
 鋳造又は鍛造された金属部品、若しくは溶接された金属部品における欠陥DEの例として、気泡、ポロシティ(Porosity)、FMLD(Foreign material less dense)及びFMLD(Foreign material more dense)のうち少なくとも1つが含まれる。FMLDは、X線透過画像において黒く映る異物(低密度)の欠陥の混入である。FMMDは、X線透過画像において白く映る異物(高密度)の欠陥の混入である。
 透過画像IMGに映る欠陥DEは、信号強度が微弱であること、境界が曖昧であること及び大きさが微小であること等に起因して、目視した際に背景との区別が困難である場合が多い。これにより、検査業務が非効率になっている。
 かかる状況を考慮して、検査業務を支援する装置が提案されている。検査業務を支援する装置は、以下に示す機能を用いて検査業務の効率化を図る。
 透過画像IMG1等に対して周波数選択処理を施して周波数選択画像を生成し、表示する機能を具備し、微弱な信号強度を有し、かつ、曖昧な境界を有する欠陥を目視しやすくする。周波数選択処理は、入力画像に対して、階調処理、周波数処理及びダイナミックレンジの圧縮処理等を施して、入力画像の良好な視認性を得る一連の画像処理を示す。
 階調処理は、適切な輝度又は適切な濃度と、適切なコントラストとを得る画像処理であり、輝度値の入出力対応表等を適用して実現される。周波数処理は、フーリエ変換、粒度の異なるボケ画像の差分等を適用して実現される。ダイナミックレンジの圧縮処理は、白飛び及び黒潰れなどに起因して視認が困難な領域を、輝度及びコントラストを損なわずに、視認が容易に変換する画像処理であり、暗い領域等の特定の領域に対する規定の輝度の加算等を適用して実現される。
 透過画像IMG1等又は周波数選択画像を拡大して表示する機能、透過画像IMG1等又は周波数選択画像の変倍率を受け付ける機能及び位置の変更を受け付ける機能を具備し、微小な欠陥を目視しやすくする。
 透過画像IMG1等又は周波数選択画像に対して線分等のマーカーを付加する操作を提供し、マーカーのサイズに基づき実際のサイズを算出し、実際のサイズを表示する機能を具備し、マーカーを用いて欠陥の実際のサイズを測定する。
 また、予め欠陥の候補となる欠陥候補領域を自動検出する機能を具備して、検査業務の更なる効率化が図られている。検査作業者は自動検出された欠陥候補領域を参照し、更に効率的に欠陥の有無を判定すべき領域へのアクセスが可能となり、検査業務が効率化される。
 〔透過画像における欠陥の表示例〕
 図9は透過画像における欠陥領域の第1表示例を示す模式図である。図9には、欠陥DEを囲む枠56を透過画像IMG3に重畳表示させて、矩形の欠陥領域DA1を表示する例を示す。
 図10は透過画像における欠陥領域の第2表示例を示す模式図である。図10には、欠陥DEの適応形状を塗りつぶして、欠陥DEと同一形状及び同一サイズを有する欠陥領域DA2を、透過画像IMG3に重畳表示する例を示す。
 図11は透過画像における欠陥領域の第3表示例を示す模式図である。図11には、欠陥DEの適応形状の輪郭線58を透過画像IMG3に重畳表示させて、欠陥DEとの輪郭と同一形状の欠陥領域DA3を表示する例を示す。
 金属部品50が良品であるか又は不良品であるかを判定するには、欠陥DEの重篤度を評価する必要がある。欠陥DEの重篤度は、欠陥DEの形状に依存する。欠陥領域として欠陥DEの形状を表示する場合は、欠陥領域として欠陥DEを囲む矩形を表示する場合と比較して、欠陥DEの重篤度を評価する際の効果が高い。
 〔課題の明確化〕
 図8等に示す信号強度が微弱な欠陥DEを目視して評価する際に使用されるディスプレイ装置34は、16ビット深度等の高階調表示が可能である場合が多い。また、輝度のみを用いてグレースケールの階調表現がされる透過画像IMGの表示は、モノクロのディスプレイ装置が使用される場合が多い。なお、透過画像IMGは、図6に示す透過画像IMG1、図7に示す透過画像IMG2及び図8から図11に示す透過画像IMG3の総称である。
 コンピュータグラフィックを用いて描画される正確な矩形パターンが透過画像等に出現する可能性は相対的に低く、図9に示す矩形の枠56を適用する欠陥領域DA1は、モノクロのディスプレイ装置が用いられる場合であっても、容易に視認することが可能である。
 一方、図10及び図11に示す欠陥DEの適応形状が適用される欠陥領域DA2及び欠陥領域DA3は、モノクロのディスプレイ装置が用いられる場合では視認性が悪いという課題が存在する。
 具体的には、図10に示す欠陥DEの塗りつぶしは、塗りつぶしを半透明にしたとしても、透過画像IMGと欠陥領域DA1との輝度がカラーのディスプレイ装置と同様に分離できず、両者が混合してしまう。結果として、透過画像IMGの欠陥領域DA1を正確に視認し、評価することが困難である。
 また、図11に示す欠陥DEの輪郭線58の表示は、輪郭線58が欠陥DEと混合してしまう。更に、輪郭線58は必ずしも直線ではなく、透過画像IMGの構成要素であるか、又は欠陥DEの構成要素であるかの判別が困難である。そうすると、欠陥領域DA3の視認性が悪く、検査作業者の欠陥DEの見逃し及び欠陥DEの過剰検出の原因となり得る。
 視認性の悪さは、自動検出された欠陥領域DA2等の効果的な利用を妨げ、かつ、不要な検査作業者の混乱の原因となり、検査業務の効率の低下を招くおそれがある深刻な課題である。
 [第1実施形態]
 〔画像表示方法の構成例〕
 図12は第1実施形態に係る画像表示方法が適用される画面の模式図である。上記の課題に対して、第1実施形態に係る画像表示方法は、透過画像IMGと、欠陥領域DA2のみを表す欠陥領域画像IMGDとのそれぞれを、個別の第1表示窓70及び第2表示窓72へ表示し、第1表示窓70及び第2表示窓72の表示と、透過画像IMG及び欠陥領域画像IMGDの一方の操作とを表示窓同士で連動させる。これにより、透過画像IMGと欠陥領域画像IMGDとの良好な視認性が確保される。
 すなわち、図12に示すディスプレイ装置34は、透過画像IMGが表示される第1表示窓70及び欠陥領域画像IMGDが表示される第2表示窓72が表示される。第1表示窓70及び第2表示窓72は、位置の変更操作及び変倍率の変更操作等の変更操作の受け付けに応じて、常に変更が連動する。位置の変更操作及び変倍率の変更操作は、検査作業者が実施する操作でもよいし、予め規定される規定値を適用する操作でもよい。
 第1表示窓70及び第2表示窓72は、1つのアプリケーションにおいて設定される表示領域を適用してもよいし、1つのオペレーティングシステムにおいて設定される表示領域を適用してもよい。第1表示窓70及び第2表示窓72は、それぞれ個別のディスプレイ装置に表示されてもよい。
 図12に示す欠陥領域画像IMGDは、透過画像IMGと同一形状及び同一サイズを有する。欠陥領域画像IMGDは、透過画像IMGにおける欠陥領域DA1の位置と同一位置に欠陥領域DA2が配置される。欠陥領域画像IMGDに配置される欠陥領域DA2は、透過画像IMGにおける欠陥領域DA1と同一形状及び同一サイズを有する。
 欠陥領域画像IMGDは、単一色の背景を適用し得る。図12には、単一色の背景が適用され、かつ、透過画像IMGと同一のグリッドが重畳される欠陥領域画像IMGDを示す。
 〔画像処理部の構成例〕
 図13は第1実施形態に係る検査装置に適用される画像処理部の電気的構成を示す機能ブロック図である。同図に示す画像処理部22は、図1に示す検査装置20に具備される。画像処理部22は、透過画像受付部400及び第1表示窓生成部402を備える。
 透過画像受付部400は、図1に示す撮影システム100から送信される透過画像IMGを受け付ける。透過画像IMGは、図3に示す撮影データD100の撮影画像データD104に対応する。なお、透過画像IMGの受付は、透過画像IMGの取得と同義である。以下に示す画像、データ及び信号等の受付は、画像、データ及び信号等の取得と同義である。透過画像受付部400は、透過画像IMGを第1表示窓生成部402へ送信する。
 第1表示窓生成部402は、透過画像受付部400を介して取得した透過画像IMGを、図12に示す第1表示窓70へ表示させる形式へ変更し、第1表示窓画像IMGW1として出力する。
 画像処理部22は、欠陥領域受付部410、欠陥領域画像生成部412及び第2表示窓生成部414を備える。欠陥領域受付部410は、透過画像IMGから予め検出された欠陥領域DAの情報を受け付ける。欠陥領域DAの情報は、図5に示す検査データD10に含まれる欠陥候補データD16に含まれ得る。
 欠陥領域画像生成部412は、欠陥領域受付部410から送信される欠陥領域DAの情報を用いて、欠陥領域画像IMGDを生成する。欠陥領域画像生成部412は、欠陥領域画像IMGDを出力する。
 欠陥領域受付部410は、予め検出された欠陥領域DAに基づき、予め生成された欠陥領域画像IMGDを取得してもよい。すなわち、欠陥領域受付部410は、予め生成された欠陥領域画像IMGDを受け付ける欠陥領域画像受付部として機能してもよい。
 第2表示窓生成部414は、欠陥領域画像生成部412において生成された欠陥領域画像IMGDを、図12に示す第2表示窓72へ表示させる形式へ変更し、第2表示窓画像IMGW2として出力する。
 画像処理部22は、表示制御部430を備える。表示制御部430は、第1表示窓画像IMGW1及び第2表示窓画像IMGW2を取得し、ディスプレイ装置34の表示制御部430は、第1表示窓画像IMGW1及び第2表示窓画像IMGW2を含む表示画像IMGDISをディスプレイ装置34へ送信する。ディスプレイ装置34は、第1表示窓70へ第1表示窓画像IMGW1を表示し、かつ、第2表示窓72へ第2表示窓画像IMGW2を表示する。
 画像処理部22は、表示変更操作受付部420及び画像変更パラメータ生成部422を備える。表示変更操作受付部420は、図1に示す入力装置32等を用いて入力される表示変更操作を受け付ける。表示変更操作受付部420は、表示変更の内容を表す変更パラメータPARを出力する。
 画像変更パラメータ生成部422は、表示変更操作受付部420から出力された変更パラメータPARを取得し、変更パラメータPARから第1表示窓画像IMGW1の変更に適用される第1画像変更パラメータPAR1を生成する。また、画像変更パラメータ生成部422は、変更パラメータPARから第2表示窓画像IMGW2の変更に適用される第2画像変更パラメータPAR2を生成する。
 第1画像変更パラメータPAR1は、第1表示窓画像IMGW1を変倍させる際の変倍率を適用し得る。変倍率は、拡大の際の拡大率であってもよいし、縮小の際の縮小率であってもよい。
 第1画像変更パラメータPAR1は、第1表示窓画像IMGW1の位置を移動させる位置変更の際の移動距離であってもよいし、移動後の第1表示窓画像IMGW1の位置を表す座標値であってもよい。
 同様に、第2画像変更パラメータPAR2は、第2表示窓画像IMGW2を変倍させる際の変倍率を適用し得る。第2画像変更パラメータPAR2は、第2表示窓画像IMGW2の位置を移動させる位置変更の際の移動距離であってもよいし、移動後の第2表示窓画像IMGW2の位置を表す座標値であってもよい。
 第1画像変更パラメータPAR1として、第1表示窓画像IMGW1を変倍させる際の変倍率が適用される場合、第2画像変更パラメータPAR2は、第2表示窓画像IMGW2を変倍させる際の変倍率であり、第1画像変更パラメータPAR1と同じ変倍率が適用される。位置の変更についても同様である。
 すなわち、画像変更パラメータ生成部422は、第1表示窓画像IMGW1への操作に連動して第2表示窓画像IMGW2が操作される第1画像変更パラメータPAR1及び第2画像変更パラメータPAR2を生成する。
 また、画像変更パラメータ生成部422は、第2表示窓画像IMGW2への操作に連動して第1表示窓画像IMGW1が操作される第1画像変更パラメータPAR1及び第2画像変更パラメータPAR2を生成する。
 [第1実施形態の作用効果]
 第1実施形態に係る検査装置及び画像表示方法によれば、透過画像IMGと欠陥領域DAの情報とが混合することがなく、かつ、両者の対応が容易に確認できる。これにより、両者の良好な視認性に基づき、モノクロのディスプレイ装置34において、欠陥領域DAの適応形状を活用することができ、検査業務が効率化される。
 図13に示す画像処理部22は、各部の機能に対応する工程が含まれる画像表示方法を実行し得る。例えば、画像処理部22は、透過画像IMGを受け付ける工程、欠陥領域DAを受け付ける工程、欠陥領域DAに基づき欠陥領域画像IMGDを生成する工程、透過画像IMGに基づく第1表示窓画像IMGW1を第1表示窓70へ表示させる工程、欠陥領域画像IMGDに基づく第2表示窓画像IMGW2を第2表示窓72へ表示させる工程及び第1表示窓画像IMGW1と第2表示窓画像IMGW2とを連動させる工程を含む画像表示方法を実行し得る。以下に示す第2実施形態から第10実施形態における各部の機能に対応する各工程は、上記した画像表示方法に含み得る。
 なお、実施形態に記載の検査対象物OBJは処理対象物の一例である。実施形態に記載の透過画像IMGは処理対象画像の一例である。実施形態に記載のディスプレイ装置34は第1表示装置の一例である。実施形態に記載の第1表示窓70は第1領域の一例である。第2表示窓72は第2領域の一例である。
 実施形態に記載の欠陥領域DAは注目領域の一例である。実施形態に記載の欠陥領域画像IMGDは、処理対象画像における注目領域の位置及び注目領域の形態が再現された注目領域画像の一例である。
 実施形態に記載の入力装置32等を用いて入力される表示変更操作は、処理対象画像操作指令の一例であり、注目領域画像操作指令の一例である。実施形態に記載の第1画像変更パラメータPAR1は処理対象画像変更指令の一例である。実施形態に記載の第2画像変更パラメータPAR2は注目領域画像変更指令の一例である。
 [第2実施形態]
 第2実施形態では、主として、第1実施形態との相違点について説明し、第1実施形態との共通点の説明は適宜省略する。図14は第2実施形態に係る画像表示方法が適用される画面の模式図である。第2実施形態に係る画像表示方法では、透過画像IMGに代わり周波数選択画像IMGFを第1表示窓70へ表示させる。
 図15は第2実施形態に係る検査装置に適用される画像処理部の電気的構成を示す機能ブロック図である。同図に示す画像処理部22Aは、周波数選択処理部440を備える。周波数選択処理部440は、透過画像受付部400を介して取得した透過画像IMGに周波数選択処理を施して、周波数選択画像IMGFを生成する。
 第1表示窓生成部402は、周波数選択画像IMGFを図12に示す第1表示窓70へ表示させる形式へ変更し、第1表示窓画像IMGW1として出力する。ディスプレイ装置34は、第1表示窓70へ第1表示窓画像IMGW1として周波数選択画像IMGFを表示する。
 図15に示す透過画像受付部400及び周波数選択処理部440に代わり、周波数選択画像IMGFを受け付ける周波数選択画像受付部を備え、検査装置20の外部において生成された周波数選択画像IMGFを取得してもよい。
 [第2実施形態の作用効果]
 第2実施形態に係る検査装置及び画像表示方法によれば、透過画像IMGに代わり、透過画像IMGと比較して良好な視認性が得られる周波数選択画像を、第1表示窓70へ表示する。これにより、第1表示窓70へ表示される欠陥領域DA1の視認性が向上し得る。
 [第3実施形態]
 第3実施形態では、主として、第2実施形態との相違点について説明し、第2実施形態との共通点の説明は適宜省略する。図16は第3実施形態に係る検査装置に適用される画像処理部の電気的構成を示す機能ブロック図である。同図に示す画像処理部22Bは、図15に示す欠陥領域受付部410に代わり、欠陥領域検出部450を備える。
 欠陥領域検出部450は、透過画像受付部400を介して取得した透過画像IMGに対して欠陥検出処理を施し、欠陥領域DAを自動検出する。欠陥領域検出部450は、セグメンテーション等の領域検出処理を適用して欠陥検出処理を実施し得る。
 また、欠陥領域検出部450は、学習済み学習モデルを適用し得る。欠陥領域検出部450に適用される学習モデルは、欠陥領域検出部450の入力画像と欠陥領域DAの検出結果との組を学習データとして学習を実施する。学習モデルの例として、CNN(Convolutional Neural Network)と称される畳み込みニューラルネットワーク等の深層学習モデルが挙げられる。
 なお、実施形態に記載の欠陥領域検出部450に適用される学習モデルは、第1学習モデルの一例である。実施形態に記載の欠陥領域DAの自動検出の結果は、注目領域の自動検出結果の一例である。
 [第3実施形態の作用効果]
 第3実施形態に係る検査装置及び画像表示方法によれば、透過画像IMGの欠陥領域DAの情報を予め取得する必要がなく、透過画像IMGのみを入力とし得る。なお、欠陥領域検出部450は、周波数選択画像IMGFから欠陥領域DAを自動検出してもよい。
 [第4実施形態]
 第4実施形態では、主として、第3実施形態との相違点について説明し、第2実施形態との共通点の説明は適宜省略する。図17は第4実施形態に係る検査装置に適用される画像処理部の電気的構成を示す機能ブロック図である。同図に示す画像処理部22Cは、図16に示す画像処理部22Bに対して、欠陥領域修正受付部460が追加される。
 欠陥領域修正受付部460は、図1に示す入力装置32を用いて検査作業者が入力した欠陥領域画像IMGDに対する修正を受け付ける。すなわち、欠陥領域修正受付部460は、欠陥領域修正情報INFRを欠陥領域画像生成部412へ送信する。
 欠陥領域画像生成部412は、欠陥領域修正情報INFRに基づいて、欠陥領域画像IMGDを修正する。ディスプレイ装置34の第2表示窓72には、手動修正された欠陥領域画像IMGDに対応する第2表示窓画像IMGW2が表示される。
 [第4実施形態の作用効果]
 第4実施形態に係る検査装置及び画像表示方法によれば、透過画像IMGから自動検出された欠陥領域DAの誤りを検査作業者が修正し得る。
 [第5実施形態]
 図18は第5実施形態に係る検査装置に適用される画像処理部の電気的構成を示す機能ブロック図である。同図に示す画像処理部22Dは、図17に示す画像処理部22Cに対して、欠陥領域検出学習部470が追加される。
 第5実施形態に係る検査装置に適用される画像処理部は、検査作業者が実施した欠陥領域DAの修正結果を、教師データとして機械学習に利用する。欠陥領域検出学習部470は、検査作業者が実施した欠陥領域DAの修正を表す欠陥領域修正情報INFRと、修正の結果として得られた欠陥領域画像IMGDとの組を学習データとして利用する。
 欠陥領域検出部450に適用される欠陥領域DAの自動検出は、“Long, Jonathan, Evan Shelhamer, and Trevor Darrell. "Fully convolutional networks for semantic segmentation." Proceedings of the IEEE conference on computer vision and pattern recognition. 2015”に示される、深層学習を適用したセグメンテーションモデルなどの機械学習型の方式などが想定される。
 欠陥領域検出学習部470に適用される深層学習の例として、畳み込みニューラルネットワークが挙げられる。なお、実施形態に記載の欠陥領域検出学習部470に適用される学習モデルは第2学習モデルの一例である。
 欠陥領域検出部450は、欠陥領域検出学習部470において学習が実施された学習済みの欠陥領域検出モデルLMを適用して、欠陥領域DAの自動検出を実施し得る。本実施形態では、欠陥領域検出学習部470が具備される画像処理部22Dを例示したが、欠陥領域検出学習部470は、画像処理部22Dとは独立の構成要素としてもよい。
 [第5実施形態の作用効果]
 第5実施形態に係る検査装置及び画像表示方法によれば、通常の検査業務を通じて、欠陥領域の自動検出の精度を改善し得る。
 [第6実施形態]
 図19は第6実施形態に係る画像表示方法が適用される画面の模式図である。同図に示す第1表示窓70に位置を示すグリッド74が表示され、第1表示窓70のグリッド74の表示に連動して、第2表示窓72に位置を示すグリッド76が表示される。
 すなわち、第1表示窓70において周波数選択画像IMGFに重畳表示されるグリッド74と、第2表示窓72において欠陥領域画像IMGDに重畳表示されるグリッド76とは、同一のピッチ及び同一の線の種類が適用される。線の種類には、線種及び線幅が含まれ得る。
 [第6実施形態の作用効果]
 第6実施形態に係る検査装置及び画像表示方法によれば、周波数選択画像IMGFに重畳表示されるグリッド74及び欠陥領域画像IMGDに重畳表示されるグリッド76を利用して、検査作業者は効率的に周波数選択画像IMGFと欠陥領域画像IMGDとの対応位置を確認し得る。
 [第7実施形態]
 図20は第7実施形態に係る画像表示方法が適用される画面の模式図である。第7実施形態に係る画像表示方法では、第1表示窓70又は第2表示窓72のいずれか一方の表示窓に対するマウスホバーを受け付け、マウスホバーの位置を検出し、他方の表示窓に対する対応位置へマーカーを表示させる。マウスホバーの受付は、第1表示窓でもよし、第2表示窓72でもよい。
 図20には、第2表示窓72の欠陥領域DA2へマウスカーソル80を重ねるマウスホバーが受け付けられ、第2表示窓72におけるマウスホバーの位置に対する第1表示窓70における対応位置へマーカー82が表示されるディスプレイ装置34を図示する。
 すなわち、図15に示す表示変更操作受付部420はマウスホバーを受け付け、画像変更パラメータ生成部422は、第2表示窓72に対するマウスホバーの位置を検出してマウスホバーの位置情報を取得する。
 第2表示窓生成部414は、マウスホバーの位置情報に基づき欠陥領域画像IMGDへマウスカーソル80を重畳表示させた第2表示窓画像IMGW2を生成する。また、第1表示窓生成部402は、第2表示窓72に対するマウスホバーの位置を複製し、周波数選択画像IMGFへマーカー82を重畳表示させた第1表示窓画像IMGW1を生成する。マウスホバーの位置は、画素単位の位置を適用し得る。
 図20には、互いに直交する線分84と線分86との交点をマーカー82とする態様を例示したが、マーカー82は図20に示す形態に限定されず、様々な形態を適用してもよい。
 なお、マウスホバーは、マウスカーソルを対象物へ重ねる操作であり、マウスオン及びロールオーバと称される場合がある。また、マウスカーソルはマウスポインタ等と称される場合がある。
 [第7実施形態の変形例]
 図21は第7実施形態の変形例に係る画像表示方法が適用される画面の模式図である。図21には図20に示すマーカー82の表示に代わり、第2表示窓72におけるマウスカーソル80の画素位置に対応する第1表示窓70における画素88をハイライトさせる。
 具体的には、画素88以外の画素の画素値を下げて暗くし、画素88をハイライトさせる。画素88以外の全画素の画素値を下げてもよいし、画素88の周囲の画素の輝度を下げてもよい。一般に、周波数選択画像IMGFの表示はモノクロのディスプレイ装置34が使用される。そうすると、対応位置の画素88における画素値を変更すると、画素88の元の情報が失われるおそれがある。そこで、画素88以外の画素の画素値を下げ、画素88の元の情報を失うことがなく、検査作業者が対応位置である画素88を確認し得る。
 [第7実施形態の作用効果]
 第7実施形態に係る検査装置及び画像表示方法によれば、グリッド表示等の情報の煩雑さが回避され、検査作業が効率的に第1表示窓70と第2表示窓72との相互の対応位置を確認し得る。
 なお、実施形態に記載の第2表示窓72におけるマウスカーソル80の画素位置に対応する第1表示窓70における画素88をハイライトさせる処理は、一方において指定された位置に対応する他方における位置を強調する強調処理の一例である。
 実施形態に記載の第2表示窓72の欠陥領域DA2へマウスカーソル80を重ねるマウスホバーは、処理対象画像又は注目領域画像の一方に対する位置を指定する位置指定操作の一例である。
 [第8実施形態]
 図22は第8実施形態に係る画像表示方法が適用される画面の模式図である。第8実施形態に係る画像表示方法では、第1表示窓70又は第2表示窓72の一方の表示窓に対するルーラ操作を検出し、一方の表示窓に対するルーラ操作を他方の表示窓へ複製する。ルーラ操作の検出は、第1表示窓70でもよいし、第2表示窓72でもよい。
 図22には、第2表示窓72の欠陥領域DA2の最大長さを測定するルーラ操作が検出され、第2表示窓72に対するルーラ操作が第1表示窓70へ複製されるディスプレイ装置34を図示する。
 すなわち、図15に示す表示変更操作受付部420は、第2表示窓72の欠陥領域DA2に対するルーラ操作を受け付け、画像変更パラメータ生成部422は、第2表示窓72に対するルーラ操作の結果として得られた線分90の位置情報を取得する。
 第2表示窓生成部414は、線分90の位置情報に基づき欠陥領域画像IMGDへ線分90を重畳表示させた第2表示窓画像IMGW2を生成する。また、第1表示窓生成部402は、第2表示窓72に対する線分90を複製し、周波数選択画像IMGFへ線分92を重畳表示させた第1表示窓画像IMGW1を生成する。
 図22には、欠陥領域DA2の最大長さを測定するルーラ操作の例として、欠陥領域DA2に対して線分90を引く操作を例示する。破線を用いて図示されるマウスカーソル80は、線分90の起点に置かれた状態を示す。実線を用いて図示されるマウスカーソル80は、線分90の終点に置かれた状態を示す。
 [第8実施形態の変形例]
 図23は第8実施形態の変形例に係る画像表示方法が適用される画面の模式図である。第1表示窓70又は第2表示窓72の一方の表示窓に対するルーラ操作が中断された場合に、一方の表示窓においてルーラ操作を引き継いでもよい。
 図24に示す符号34Aは、第2表示窓72に対するルーラ操作が中断された状態を示す。符号34Bは、第2表示窓72に対するルーラ操作が第1表示窓70に対するルーラ操作へ引き継がれた状態を示す。
 第2表示窓72に対するルーラ操作が第1表示窓70に対するルーラ操作へ引き継がれた際に、第1表示窓70にはマウスカーソル81が表示され、第2表示窓72のマウスカーソル80は非表示とされる。なお、破線を用いて図示されるマウスカーソル81は、ルーラ操作が引き継がれた時点のマウスカーソル81を示す。
 すなわち、図15に示す表示変更操作受付部420は、第2表示窓72に対するルーラ操作の中断を受け付ける。画像変更パラメータ生成部422は、第2表示窓72において途中まで引かれた線分90の位置情報を取得する。
 第2表示窓生成部414は、線分90の位置情報に基づき欠陥領域画像IMGDへ線分90を重畳表示させた第2表示窓画像IMGW2を生成する。また、第1表示窓生成部402は、第2表示窓72における線分90を複製し、周波数選択画像IMGFへ線分92を重畳表示させた第1表示窓画像IMGW1を生成する。
 また、表示変更操作受付部420は、引き継がれた第1表示窓70に対するルーラ操作を受け付ける。画像変更パラメータ生成部422は、線分92の位置情報を取得する。第1表示窓生成部402は、線分92の位置情報に基づき周波数選択画像IMGFへ線分92を重畳表示させた第1表示窓画像IMGW1を生成する。また、第2表示窓生成部414は、第1表示窓70における線分92を複製し、欠陥領域画像IMGDへ線分90を重畳表示させた第2表示窓画像IMGW2を生成する。
 [第8実施形態の作用効果]
 第8実施形態に係る検査装置及び画像表示方法によれば、良好な視認性に基づき、欠陥DEの実際のサイズ及び形状特性等の、更に正確な評価を実施し得る。
 [第9実施形態]
 図24は第9実施形態に係る検査装置に適用される画像処理部の電気的構成を示す機能ブロック図である。第9実施形態に係る検査装置は、欠陥領域画像IMGDをカラー表示させる。欠陥領域DAに基づき、カラー情報を活用したカラーの欠陥領域画像IMGDCを生成する。カラーの欠陥領域画像IMGDCとして、欠陥の種類及び欠陥の重篤度等が色分けされる態様を採用し得る。
 図24に示す画像処理部22Eは、図13に示す画像処理部22に対して、欠陥領域画像生成部412に代わりカラー欠陥領域画像生成部412Aを備え、第2表示窓生成部414に代わりカラー第2表示窓生成部414Aを備え、カラー表示制御部431が追加される。
 カラー欠陥領域画像生成部412Aは、カラーの欠陥領域画像IMGDCを生成する。カラーの色表現はRGBを適用し得る。なお、RGBのRはレッドを表し、Gはグリーンを表し、Bはブルーを表す。
 カラー第2表示窓生成部414Aは、カラーの第2表示窓画像IMGWCを生成する。カラー表示制御部431は、カラーの第2表示窓画像IMGWCに基づき、カラー表示画像IMGCを表す表示信号を生成し、カラー表示画像IMGCを表す表示信号をカラーディスプレイ装置35へ送信する。カラーディスプレイ装置35はカラー表示画像IMGCを表示する。
 透過画像IMG又は周波数選択画像IMGFは、モノクロのグレースケール画像として生成され、モノクロのディスプレイ装置34へ表示され、カラーの欠陥領域画像IMGDCのみがカラーディスプレイ装置35へ表示される。
 換言すると、第1表示窓70はモノクロのグレースケールが適用され、ディスプレイ装置34へ表示される。第2表示窓72はカラーが適用され、カラーディスプレイ装置35へ表示される。上記した第1実施形態から第8実施形態と同様に、第1表示窓70と第2表示窓72とは連動する。
 [第9実施形態の作用効果]
 第9実施形態に係る検査装置及び画像表示方法によれば、欠陥領域画像において、色情報を用いて欠陥種類及び欠陥重篤等を確認でき、検査業務が効率化される。また、カラーディスプレイ装置が報告書作成などの通常業務に利用されている場合、報告書作成などの通常業務と検査業務との円滑な業務連携が実現される。
 なお、実施形態に記載のカラーディスプレイ装置35は第2表示装置の一例である。実施形態に記載のモノクロのディスプレイ装置34へ表示されるモノクロのグレースケール画像は、グレースケール表示の一例である。
 [第10実施形態]
 図25は第10実施形態に係る画像表示方法が適用される画面の模式図である。第10実施形態に係る画像表示方法では、欠陥DEの種類ごとに欠陥領域画像IMGDが生成され、欠陥領域画像IMGDが表示される第2表示窓72は、欠陥DEの種類を表す情報が表示される。
 図25に示す第2表示窓72は、欠陥DEの種類を表す情報を表示する欠陥種類情報表示領域96が設定される。欠陥DEの種類を表す情報の表示形態は、文字、記号及び画像等を適用し得る。欠陥DEの種類を表す文字の例として、欠陥DEの種類の名称を表す文字情報及び欠陥DEの種類の略称を表す文字情報等が挙げられる。
 カラーの欠陥領域画像IMGDCがカラーディスプレイ装置35へ表示される場合、欠陥DEの種類を表す情報として色情報を適用し得る。
 図25には、第2表示窓72の欠陥種類情報表示領域96に対応して、第1表示窓70にも欠陥種類情報表示領域94が設定される態様を例示する。欠陥種類情報表示領域94は、欠陥種類情報表示領域96と同一の欠陥DEの種類を表す情報を表示し得る。
 第1表示窓70及び第2表示窓72の少なくともいずれかに欠陥の種類を選択するボタン等を表示させ、ボタン等の操作に応じて選択された種類の欠陥をディスプレイ装置34へ表示させてもよい。
 [第10実施形態の作用効果]
 第10実施形態に係る検査装置及び画像表示方法によれば、検査作業者は、欠陥種類情報表示領域96を一見して欠陥DEの種類を把握し得る。
 [検査装置のハードウェア構成]
 図26は実施形態に係る検査装置のハードウェアの構成例を示すブロック図である。検査装置20は、プロセッサ202、非一時的な有体物であるコンピュータ可読媒体204、通信インターフェース206及び入出力インターフェース208を備える。
 プロセッサ202は、汎用的な処理デバイスであるCPUを備える。プロセッサ202は、画像処理に特化した処理デバイスであるGPU(Graphics Processing Unit)を備えてもよい。
 プロセッサ202は、バス210を介してコンピュータ可読媒体204、通信インターフェース206及び入出力インターフェース208と接続される。入力装置32及びディスプレイ装置34は入出力インターフェース208を介してバス210に接続される。
 コンピュータ可読媒体204は、主記憶装置であるメモリ及び補助記憶装置であるストレージを備える。コンピュータ可読媒体204は、半導体メモリ、ハードディスク装置及びソリッドステートドライブ装置等を使用し得る。コンピュータ可読媒体204は、複数のデバイスの任意の組み合わせを使用し得る。
 なお、ハードディスク装置は、英語表記のHard Disk Driveの省略語であるHDDと称され得る。ソリッドステートドライブ装置は、英語表記のSolid State Driveの省略語であるSSDと称され得る。
 検査装置20は、通信インターフェース206を介してネットワークへ接続され、外部装置と通信可能に接続される。ネットワークは、LAN(Local Area Network)等を使用し得る。なお、図26ではネットワークの図示を省略する。
 コンピュータ可読媒体204は、画像処理プログラム220、表示プログラム222及び検査プログラム224が記憶される。コンピュータ可読媒体204は、各種のデータの記憶に関する記憶処理プログラム等が記憶されてもよい。
 画像処理プログラム220は、図13に示す画像処理部22等における各種の画像処理に適用され、画像処理部22等の各種の機能を実現させるプログラムである。画像処理プログラム220は、透過画像処理プログラム230、連動処理プログラム232、欠陥領域画像処理プログラム234が含まれる。
 透過画像処理プログラム230は、透過画像IMG又は周波数選択画像IMGFから第1表示窓画像IMGW1を生成する処理に適用され、主として、第1表示窓生成部402の機能を実現させる。透過画像処理プログラム230は、周波数選択画像IMGFを生成する処理に適用され、周波数選択処理部440の機能を実現させてもよい。
 連動処理プログラム232は、第1表示窓画像IMGW1と第2表示窓画像IMGW2とを連動させる処理に適用され、主として、画像変更パラメータ生成部422の機能を実現させる。
 欠陥領域画像処理プログラム234は、欠陥領域画像IMGDから第2表示窓画像IMGW2を生成する処理に適用され、主として、第2表示窓生成部414の機能を実現させる。
 表示プログラム222は、ディスプレイ装置34への表示に関する処理に適用され、表示制御部430の機能を実現させる。また、表示プログラム222は、図24に示すカラーディスプレイ装置35の表示に関する処理に適用され、カラー表示制御部431の機能を実現させる。
 検査プログラム224は、図1に示す検査処理部24に関する処理に適用され、検査処理部24の機能を実現させる。
 コンピュータ可読媒体204へ記憶される各種のプログラムは、1つ以上の命令が含まれる。コンピュータ可読媒体204は、各種のデータ及び各種のパラメータ等が記憶される。
 検査装置20は、プロセッサ202がコンピュータ可読媒体204へ記憶される各種のプログラムを実行し、検査装置20における各種の機能を実現する。なお、プログラムという用語はソフトウェアという用語と同義である。
 検査装置20は、通信インターフェース206を介して外部装置とのデータ通信を実施する。通信インターフェース206は、USB(Universal Serial Bus)などの各種の規格を適用し得る。通信インターフェース206の通信形態は、有線通信及び無線通信のいずれを適用してもよい。
 検査装置20は、入出力インターフェース208を介して、入力装置32及びディスプレイ装置34が接続される。入力装置32はキーボード及びマウス等の入力デバイスが適用される。ディスプレイ装置34は、検査装置20に適用される各種の情報が表示される。
 ディスプレイ装置34は、液晶ディスプレイ、有機ELディスプレイ及びプロジェクタ等を適用し得る。ディスプレイ装置34は、複数のデバイスの任意の組み合わせを適用し得る。なお、有機ELディスプレイのELは、Electro-Luminescenceの省略語である。
 ここで、プロセッサ202のハードウェア的な構造例として、CPU、GPU、PLD(Programmable Logic Device)及びASIC(Application Specific Integrated Circuit)が挙げられる。CPUは、プログラムを実行して各種の機能部として作用する汎用的なプロセッサである。GPUは、画像処理に特化したプロセッサである。
 PLDは、デバイスを製造した後に電気回路の構成を変更可能なプロセッサである。PLDの例として、FPGA(Field Programmable Gate Array)が挙げられる。ASICは、特定の処理を実行させるために専用に設計された専用電気回路を備えるプロセッサである。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサで構成されてもよい。各種のプロセッサの組み合わせの例として、1つ以上のFPGAと1つ以上のCPUとの組み合わせ、1つ以上のFPGAと1つ以上のGPUとの組み合わせが挙げられる。各種のプロセッサの組み合わせの他の例として、1つ以上のCPUと1つ以上のGPUとの組み合わせが挙げられる。
 1つのプロセッサを用いて、複数の機能部を構成してもよい。1つのプロセッサを用いて、複数の機能部を構成する例として、クライアント又はサーバ等のコンピュータに代表される、SoC(System On a Chip)などの1つ以上のCPUとソフトウェアの組合せを適用して1つのプロセッサを構成し、このプロセッサを複数の機能部として作用させる態様が挙げられる。
 1つのプロセッサを用いて、複数の機能部を構成する他の例として、1つのICチップを用いて、複数の機能部を含むシステム全体の機能を実現するプロセッサを使用する態様が挙げられる。
 このように、各種の機能部は、ハードウェア的な構造として、上記した各種のプロセッサを1つ以上用いて構成される。更に、上記した各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)である。
 コンピュータ可読媒体204は、ROM(Read Only Memory)及びRAM(Random Access Memory)等の半導体素子を含み得る。コンピュータ可読媒体204は、ハードディスク等の磁気記憶媒体を含み得る。コンピュータ可読媒体204は、複数の種類の記憶媒体を具備し得る。
 第1実施形態から第10実施形態に示す検査装置は、通常表示モードとマルチ表示モードとを切り替える態様を適用し得る。例えば、図1に示す入力装置32を用いて入力された表示モード切替信号に応じて、表示モードを切り替えてもよい。
 例えば、通常表示モードは透過画像IMG又は周波数選択画像IMGFのみを表示させ、マルチ表示モードは第1表示窓70へ透過画像IMG又は周波数選択画像IMGFを表示させ、かつ、第2表示窓72へ欠陥領域画像IMGDを表示させる。
 なお、実施形態に記載の通常表示モードは第1表示モードの一例であり、マルチ表示モードは第2表示モードの一例である。
 第1実施形態から第10実施形態では、工業製品の欠陥検査を実施する欠陥検査装置を例示したが、工業製品の分析、分類及び評価等を実施する分析装置等の処理装置に対して、第1実施形態から第10実施形態までの任意の実施形態を適用し得る。
 また、第1実施形態から第10実施形態に示す画像処理部22等は、図26に示すハードウェア構成を有し、画像処理に関するプログラム及び表示に関するプログラムを実行する画像処理装置として構成し得る。
 本発明の技術的範囲は、上記の実施形態に記載の範囲には限定されない。各実施形態における構成等は、本発明の趣旨を逸脱しない範囲で、各実施形態の間で適宜組み合わせることができる。
10 欠陥検査システム
20 検査装置
22 画像処理部
22A 画像処理部
22B 画像処理部
22C 画像処理部
22D 画像処理部
22E 画像処理部
32 入力装置
34 ディスプレイ装置
34A ルーラ操作が中断された状態
34B ルーラ操作が引き継がれた状態
35 カラーディスプレイ装置
50 金属部品
51 第1部品部分
52 第2部品部分
54 背景
56 枠
58 輪郭線
60 金属部品
61 第1部品部分
62 第2部品部分
64 背景
70 第1表示窓
72 第2表示窓
74 グリッド
76 グリッド
80 マウスカーソル
82 マーカー
84 線分
86 線分
88 画素
90 線分
92 線分
94 欠陥種類情報表示領域
96 欠陥種類情報表示領域
100 撮影システム
102 撮影制御部
104 撮影操作部
106 画像記録部
108 カメラ
110 第1放射線源
112 第2放射線源
113 放射線源
114 撮影室
120 製品データベース
202 プロセッサ
204 コンピュータ可読媒体
206 通信インターフェース
208 入出力インターフェース
210 バス
220 画像処理プログラム
222 表示プログラム
224 検査プログラム
230 透過画像処理プログラム
232 連動処理プログラム
234 欠陥領域画像処理プログラム
400 透過画像受付部
402 第1表示窓生成部
410 欠陥領域受付部
412 欠陥領域画像生成部
412A カラー欠陥領域画像生成部
414 第2表示窓生成部
414A カラー第2表示窓生成部
420 表示変更操作受付部
422 画像変更パラメータ生成部
430 表示制御部
431 カラー表示制御部
440 周波数選択処理部
450 欠陥領域検出部
460 欠陥領域修正受付部
470 欠陥領域検出学習部
D10 検査データ
D12 検査対象物特定情報
D14 検査対象物測定データ
D16 欠陥候補データ
D18 診断結果データ
D100 撮影データ
D102 検査対象物特定情報
D104 撮影画像データ
D106 撮影条件データ
D108 照明条件データ
D120 製品データ
D122 製品特定情報
D124 製品属性情報
D126 検査領域指定情報
DA 欠陥領域
DA1 欠陥領域
DA2 欠陥領域
DA3 欠陥領域
DE 欠陥
IMG 透過画像
IMG1 透過画像
IMG2 透過画像
IMG3 透過画像
IMGC カラー表示画像
IMGD 欠陥領域画像
IMGDC 欠陥領域画像
IMGDIS 表示画像
IMGF 周波数選択画像
IMGW1 第1表示窓画像
IMGW2 第2表示窓画像
IMGWC 第2表示窓画像
INFR 欠陥領域修正情報
LM 欠陥領域検出モデル
NW ネットワーク
OBJ 検査対象物
PAR 変更パラメータ
PAR1 第1画像変更パラメータ
PAR2 第2画像変更パラメータ

Claims (25)

  1.  1つ以上のプロセッサを備え、
     前記1つ以上のプロセッサは、
     処理対象物を撮影して生成される処理対象画像を取得し、
     前記処理対象画像を第1表示装置の第1領域へ表示させ、
     前記処理対象物における注目領域が再現された注目領域画像を取得し、
     前記第1表示装置の前記第1領域と異なる第2領域へ前記注目領域画像を表示させるか、又は前記第1表示装置と異なる第2表示装置へ前記注目領域画像を表示させ、
     前記処理対象画像又は前記注目領域画像の一方への操作に連動して他方を操作する画像処理装置。
  2.  前記1つ以上のプロセッサは、
     前記処理対象画像として、前記処理対象物を透過した光線又は放射線に基づいて生成される透過画像を取得し、
     前記処理対象画像として前記透過画像を表示させる請求項1に記載の画像処理装置。
  3.  前記1つ以上のプロセッサは、
     前記処理対象画像として前記処理対象物を透過した光線又は放射線に基づいて生成される透過画像を取得し、
     前記透過画像に対して周波数選択処理を施して周波数選択画像を生成し、
     前記処理対象画像として前記周波数選択画像を表示させる請求項1に記載の画像処理装置。
  4.  前記1つ以上のプロセッサは、
     前記処理対象画像に対する操作を表す処理対象画像操作指令を取得し、
     前記処理対象画像操作指令に応じて前記処理対象画像を操作し、前記処理対象画像の操作に連動して前記注目領域画像を操作する請求項1から3のいずれか一項に記載の画像処理装置。
  5.  前記1つ以上のプロセッサは、
     前記処理対象画像操作指令として、前記処理対象画像に対する位置を変更する処理対象画像変更指令を取得し、
     前記処理対象画像変更指令に応じて、前記処理対象画像の位置変更を実施する請求項4に記載の画像処理装置。
  6.  前記1つ以上のプロセッサは、
     前記処理対象画像操作指令として、前記処理対象画像に対する変倍率を変更する処理対象画像変更指令を取得し、
     前記処理対象画像変更指令に応じて、前記処理対象画像の変倍を実施する請求項4又は5に記載の画像処理装置。
  7.  前記1つ以上のプロセッサは、
     前記注目領域画像に対する操作を表す注目領域画像操作指令を取得し、
     前記注目領域画像操作指令に応じて前記注目領域画像を操作し、前記注目領域画像の操作に連動して前記処理対象画像を操作する請求項1から3のいずれか一項に記載の画像処理装置。
  8.  前記1つ以上のプロセッサは、
     前記注目領域画像操作指令として、前記注目領域画像に対する位置を変更する注目領域画像変更指令を取得し、
     前記注目領域画像変更指令に応じて、前記注目領域画像の位置変更を実施する請求項7に記載の画像処理装置。
  9.  前記1つ以上のプロセッサは、
     前記注目領域画像操作指令として、前記注目領域画像に対する変倍率を変更する注目領域画像変更指令を取得し、
     前記注目領域画像変更指令に応じて、前記注目領域画像の変倍を実施する請求項7又は8に記載の画像処理装置。
  10.  前記1つ以上のプロセッサは、
     前記処理対象画像から注目領域を自動検出し、
     前記自動検出された処理対象画像における注目領域に基づいて前記注目領域画像を生成し、
     前記生成された前記注目領域画像を取得する請求項1から9のいずれか一項に記載の画像処理装置。
  11.  前記1つ以上のプロセッサは、
     前記処理対象画像と前記注目領域の自動検出結果とを対応付けして記憶し、
     前記処理対象画像と前記注目領域の自動検出結果との組を学習データとして学習した第1学習モデルを生成し、
     前記第1学習モデルを前記注目領域の自動検出に適用する請求項10に記載の画像処理装置。
  12.  前記1つ以上のプロセッサは、
     前記処理対象画像から予め検出された前記注目領域に基づいて、予め生成された前記注目領域画像を取得する請求項1から9のいずれか一項に記載の画像処理装置。
  13.  前記1つ以上のプロセッサは、
     前記注目領域に対する修正を受け付け、
     前記修正に基づいて前記注目領域画像を修正する請求項1から12のいずれか一項に記載の画像処理装置。
  14.  前記1つ以上のプロセッサは、
     前記注目領域画像と前記注目領域画像の修正結果とを対応付けして記憶し、
     前記注目領域画像と前記注目領域画像の修正結果との組を学習データとして学習した第2学習モデルを生成し、
     前記第2学習モデルを前記注目領域の自動検出に適用する請求項13に記載の画像処理装置。
  15.  前記1つ以上のプロセッサは、
     前記処理対象画像及び前記注目領域画像に対して、互いに連動するグリッドを重畳表示させる請求項1から14のいずれか一項に記載の画像処理装置。
  16.  前記1つ以上のプロセッサは、
     前記処理対象画像又は前記注目領域画像の一方に対する位置を指定する位置指定操作を受け付け、
     前記一方に対する前記位置指定操作に応じて、前記一方において指定された位置に対応する他方における位置を強調する強調処理を施す請求項1から15のいずれか一項に記載の画像処理装置。
  17.  前記1つ以上のプロセッサは、
     前記処理対象画像又は前記注目領域画像の一方に対する位置を指定する位置指定操作を受け付け、
     前記一方に対する前記位置指定操作に応じて、前記一方において指定された位置に対応する他方における位置へポインタを表示させる請求項1から16のいずれか一項に記載の画像処理装置。
  18.  前記1つ以上のプロセッサは、
     前記処理対象画像又は前記注目領域画像の一方に対するルーラ操作を受け付け、
     前記一方に対するルーラ操作に応じて、前記一方に対するルーラ操作に対応する他方へのルーラ操作を表示させる請求項1から17のいずれか一項に記載の画像処理装置。
  19.  前記1つ以上のプロセッサは、
     前記注目領域の種類を取得し、
     前記注目領域の種類を前記第1領域へ表示させ、
     前記第1領域へ表示させる前記注目領域の種類に対応付けして、前記第2領域又は前記第2表示装置へ前記注目領域の種類を表示させる請求項1から18のいずれか一項に記載の画像処理装置。
  20.  前記1つ以上の前記プロセッサは、
     前記処理対象画像をグレースケール表示させ、
     前記注目領域画像をカラー表示させる請求項1から19のいずれか一項に記載の画像処理装置。
  21.  前記1つ以上の前記プロセッサは、
     前記処理対象画像のみを表記させる第1表示モードと、前記処理対象画像及び前記注目領域画像を表示させる第2表示モードとを切り替える請求項1から20のいずれか一項に記載の画像処理装置。
  22.  前記処理対象物を撮影する撮影装置と、
     1つ以上のプロセッサと、
     を備え、
     前記1つ以上のプロセッサは、
     前記処理対象物を撮影して生成される処理対象画像を取得し、
     前記処理対象画像を第1表示装置の第1領域へ表示させ、
     前記処理対象物における注目領域が再現された注目領域画像を取得し、
     前記第1表示装置の前記第1領域と異なる第2領域へ前記注目領域画像を表示させるか、又は前記第1表示装置と異なる第2表示装置へ前記注目領域画像を表示させ、
     前記処理対象画像又は前記注目領域画像の一方への操作に連動して他方を操作する処理システム。
  23.  コンピュータが、
     処理対象物を撮影して生成される処理対象画像を取得し、
     前記処理対象画像を第1表示装置の第1領域へ表示させ、
     前記処理対象物における注目領域が再現された注目領域画像を取得し、
     前記第1表示装置の前記第1領域と異なる第2領域へ前記注目領域画像を表示させるか、又は前記第1表示装置と異なる第2表示装置へ前記注目領域画像を表示させ、
     前記処理対象画像又は前記注目領域画像の一方への操作に連動して他方を操作する画像表示方法。
  24.  コンピュータに、
     処理対象物を撮影して生成される処理対象画像を取得する機能、
     前記処理対象画像を第1表示装置の第1領域へ表示させる機能、
     前記処理対象物における注目領域が再現された注目領域画像を取得する機能、
     前記第1表示装置の前記第1領域と異なる第2領域へ前記注目領域画像を表示させるか、又は前記第1表示装置と異なる第2表示装置へ前記注目領域画像を表示させる機能、及び
     前記処理対象画像又は前記注目領域画像の一方への操作に連動して他方を操作する機能を実現させるプログラム。
  25.  非一時的かつコンピュータ読取可能な記録媒体であって、請求項24に記載のプログラムが記録された記録媒体。
PCT/JP2022/030413 2021-09-30 2022-08-09 画像処理装置、処理システム、画像表示方法及びプログラム WO2023053727A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202280064408.8A CN118043651A (zh) 2021-09-30 2022-08-09 图像处理装置、处理***、图像显示方法及程序
JP2023550427A JPWO2023053727A1 (ja) 2021-09-30 2022-08-09

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-161061 2021-09-30
JP2021161061 2021-09-30

Publications (1)

Publication Number Publication Date
WO2023053727A1 true WO2023053727A1 (ja) 2023-04-06

Family

ID=85782296

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/030413 WO2023053727A1 (ja) 2021-09-30 2022-08-09 画像処理装置、処理システム、画像表示方法及びプログラム

Country Status (3)

Country Link
JP (1) JPWO2023053727A1 (ja)
CN (1) CN118043651A (ja)
WO (1) WO2023053727A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007225351A (ja) 2006-02-22 2007-09-06 Hitachi High-Technologies Corp 欠陥表示方法およびその装置
WO2016174926A1 (ja) * 2015-04-30 2016-11-03 富士フイルム株式会社 画像処理装置及び画像処理方法及びプログラム
WO2017130550A1 (ja) 2016-01-29 2017-08-03 富士フイルム株式会社 欠陥検査装置、方法およびプログラム
WO2017130477A1 (ja) * 2016-01-29 2017-08-03 富士フイルム株式会社 欠陥検査装置、方法およびプログラム
JP2018075229A (ja) * 2016-11-10 2018-05-17 キヤノン株式会社 画像処理方法、画像処理装置およびプログラム
WO2019059011A1 (ja) * 2017-09-19 2019-03-28 富士フイルム株式会社 教師データ作成方法及び装置並びに欠陥検査方法及び装置
WO2020003917A1 (ja) * 2018-06-29 2020-01-02 富士フイルム株式会社 欠陥表示装置及び方法
JP2021056136A (ja) * 2019-09-30 2021-04-08 本田技研工業株式会社 電極構造体検査方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007225351A (ja) 2006-02-22 2007-09-06 Hitachi High-Technologies Corp 欠陥表示方法およびその装置
WO2016174926A1 (ja) * 2015-04-30 2016-11-03 富士フイルム株式会社 画像処理装置及び画像処理方法及びプログラム
WO2017130550A1 (ja) 2016-01-29 2017-08-03 富士フイルム株式会社 欠陥検査装置、方法およびプログラム
WO2017130477A1 (ja) * 2016-01-29 2017-08-03 富士フイルム株式会社 欠陥検査装置、方法およびプログラム
JP2018075229A (ja) * 2016-11-10 2018-05-17 キヤノン株式会社 画像処理方法、画像処理装置およびプログラム
WO2019059011A1 (ja) * 2017-09-19 2019-03-28 富士フイルム株式会社 教師データ作成方法及び装置並びに欠陥検査方法及び装置
WO2020003917A1 (ja) * 2018-06-29 2020-01-02 富士フイルム株式会社 欠陥表示装置及び方法
JP2021056136A (ja) * 2019-09-30 2021-04-08 本田技研工業株式会社 電極構造体検査方法

Also Published As

Publication number Publication date
CN118043651A (zh) 2024-05-14
JPWO2023053727A1 (ja) 2023-04-06

Similar Documents

Publication Publication Date Title
US11386542B2 (en) Training data creation method and device, and defect inspection method and device
US11029255B2 (en) Defect inspection device, defect inspection method, and program
JP6078234B2 (ja) 荷電粒子線装置
JP2019091249A (ja) 欠陥検査装置、欠陥検査方法、及びそのプログラム
JP6422573B2 (ja) 画像処理装置及び画像処理方法及びプログラム
US20210072165A1 (en) Defect display device and method
US20090202137A1 (en) Method and apparatus for image generation
JP2016130663A (ja) 検査装置及び検査装置の制御方法
CN111025701B (zh) 一种曲面液晶屏幕检测方法
JPH07306165A (ja) X線検査装置およびx線検査補修装置
US10133256B2 (en) Information processing apparatus and method for calculating inspection ranges
JP2006284215A (ja) 検査装置
WO2014208193A1 (ja) ウエハ外観検査装置
WO2023053727A1 (ja) 画像処理装置、処理システム、画像表示方法及びプログラム
KR20220111214A (ko) 인공지능 기반 제품 결함 검사 방법, 장치 및 컴퓨터 프로그램
JP5341801B2 (ja) 半導体ウェーハの外観検査方法及びその装置
JP7198360B2 (ja) 荷電粒子線装置
WO2023053768A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2006133055A (ja) ムラ欠陥検出方法及び装置、空間フィルタ、ムラ欠陥検査システム並びにムラ欠陥検出方法のプログラム
JP2006145228A (ja) ムラ欠陥検出方法及び装置
JP2020064333A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2019161526A (ja) 画像処理システム、画像処理装置、画像処理プログラム
JP5907659B2 (ja) 検査方法
US20230046611A1 (en) X-ray inspection apparatus, x-ray inspection system, image management method and program
US20240068962A1 (en) X-ray imaging system and learned model production method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22875602

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023550427

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022875602

Country of ref document: EP

Effective date: 20240430