WO2020158340A1 - 検査装置、及び、検査方法 - Google Patents

検査装置、及び、検査方法 Download PDF

Info

Publication number
WO2020158340A1
WO2020158340A1 PCT/JP2020/000568 JP2020000568W WO2020158340A1 WO 2020158340 A1 WO2020158340 A1 WO 2020158340A1 JP 2020000568 W JP2020000568 W JP 2020000568W WO 2020158340 A1 WO2020158340 A1 WO 2020158340A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
frame
subject
controller
inspection device
Prior art date
Application number
PCT/JP2020/000568
Other languages
English (en)
French (fr)
Inventor
康平 是澤
啓介 岡田
嘉彦 松浦
遼河 坂口
哲生 阪田
武史 島本
大志 磯崎
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2020569479A priority Critical patent/JPWO2020158340A1/ja
Publication of WO2020158340A1 publication Critical patent/WO2020158340A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination

Definitions

  • the present disclosure relates to an inspection device and an inspection method for inspecting a surface state of an object.
  • Patent Document 1 discloses a surface inspection device that allows an operator to easily recognize a change in the unevenness of the surface of an inspection object.
  • the present disclosure provides an inspection device and an interior material inspection method capable of accurately specifying a characteristic portion on the surface of a subject.
  • An inspection apparatus includes: a first light that irradiates a subject with a first light; and a first light that irradiates the subject with a second light having a wavelength region different from that of the first light.
  • a second light disposed at a position different from that of the first light, a camera that outputs imaging data obtained by imaging the subject irradiated with the first light and the second light, and A first frame showing the luminance distribution of the first light and a second frame showing the luminance distribution of the second light are acquired from one frame included in the imaged data, and the first frame and the And a controller that specifies a characteristic portion on the surface of the subject using a second frame.
  • the first light is irradiated with the first light
  • the second light arranged at a position different from the first light causes the first light and the wavelength to be different.
  • the first frame showing the luminance distribution of the first light from one frame included in the imaging data obtained by imaging the subject irradiated with the second light having a different area, and the second light A second frame showing a luminance distribution is acquired, and a characteristic portion on the surface of the subject is specified using the first frame and the second frame.
  • the inspection device and the inspection method according to the present disclosure can accurately specify the characteristic portion of the surface of the subject.
  • FIG. 1 is an external view of the inspection device according to the embodiment.
  • FIG. 2 is a diagram for explaining a method of using the inspection device according to the embodiment.
  • FIG. 3 is a block diagram showing a functional configuration of the inspection device according to the embodiment.
  • FIG. 4 is an external perspective view of the lighting unit according to the embodiment.
  • FIG. 5 is a diagram showing an example of the emission spectrum of the first light.
  • FIG. 6 is a diagram showing an example of the emission spectrum of the second light.
  • FIG. 7 is a diagram showing an example of an emission spectrum of the third light.
  • FIG. 8 is a diagram showing an example of sensitivity characteristics of the image sensor included in the camera.
  • FIG. 9 is a diagram showing the arrangement of the first light, the second light, the third light, and the camera in a plan view.
  • FIG. 9 is a diagram showing the arrangement of the first light, the second light, the third light, and the camera in a plan view.
  • FIG. 10 is a flowchart of Operation Example 1 of the inspection device according to the embodiment.
  • FIG. 11 is a diagram showing an example of the first frame.
  • FIG. 12 is a diagram showing an example of the second frame.
  • FIG. 13 is a diagram showing an example of the first frame in which the gradation removal processing has been performed.
  • FIG. 14 is a diagram showing a method of identifying a characteristic portion on the surface of the interior material.
  • FIG. 15 is a diagram illustrating an example of the identification result displayed on the display unit.
  • FIG. 16 is a flowchart of Operation Example 2 of the inspection device according to the embodiment.
  • FIG. 17 is a flowchart of Operation Example 3 of the inspection apparatus according to the embodiment.
  • FIG. 18 is a diagram showing another example of the identification result displayed on the display unit.
  • FIG. 19 is a flowchart of the switching operation of the display mode of the specific result.
  • FIG. 20 is a diagram showing an example of the shooting condition information displayed on the display unit
  • each diagram is a schematic diagram and is not necessarily an exact illustration. Further, in each drawing, the same reference numerals are given to substantially the same configurations, and overlapping description may be omitted or simplified.
  • the Z-axis direction is described as the height direction of the inspection device.
  • the Z-axis positive side may be expressed as an upper side (upper side), and the Z-axis negative side may be expressed as a lower side (lower side).
  • the X-axis direction and the Y-axis direction are directions orthogonal to each other on a plane perpendicular to the Z-axis direction.
  • the X-axis direction may be expressed as the left-right direction or the horizontal direction
  • the X-axis positive side may be expressed as the right side
  • the X-axis negative side may be expressed as the left side.
  • the Y-axis direction may be expressed as the front-back direction.
  • the plan view means viewing from the Z-axis direction.
  • FIG. 1 is an external view of the inspection device according to the embodiment.
  • FIG. 2 is a diagram for explaining a method of using the inspection device according to the embodiment.
  • the inspection apparatus 10 inspects an interior material 61 that is attached to a structure 60 such as a floor, a wall, and a ceiling that constitutes an indoor space. It is a portable device for performing.
  • the inspection of the interior material 61 means an inspection of whether the interior material 61 is properly attached (whether there is unevenness or dirt due to an attachment error), and such an inspection is performed by, for example, a resident. It takes place before moving in.
  • the interior material 61 attached to the structure 60 is an example of a subject.
  • the user 50 uses the inspection device 10 to capture an image of the wall cloth. Then, the inspection device 10 identifies by image processing whether the wall cloth has a characteristic portion such as unevenness or dirt, and presents it to the user 50.
  • the interior material is a general term for finishing materials and base materials used for floors, walls, and ceilings.
  • the interior materials include not only finishing materials such as flooring, carpet, tiles, wall cloth, plywood, and coating materials that directly face the interior, but also underlying materials thereunder.
  • FIG. 3 is a block diagram showing a functional configuration of the inspection device 10.
  • the inspection device 10 includes a lighting unit 20, a mobile terminal 30, and a mobile battery 40.
  • the inspection apparatus 10 is specifically realized by electrically and structurally connecting the lighting unit 20 to a general-purpose mobile terminal 30. First, the lighting unit 20 will be described.
  • FIG. 4 is an external perspective view of the lighting unit 20.
  • the lighting unit 20 is a long unit, and is attached to the upper part of the mobile terminal 30 along the long side.
  • the lighting unit 20 operates using, for example, electric power supplied from the mobile battery 40, but may operate using electric power supplied from a built-in battery (not shown) of the mobile terminal 30.
  • the mobile battery 40 and the built-in battery are realized by, for example, a lithium ion battery or the like.
  • the illumination unit 20 specifically, a first light 21, a second light 22, a third light 23, a camera 24, a controller 25, a storage unit 26, a distance measuring sensor 27a, A distance measuring sensor 27b, a 6-axis sensor 28, and an illuminance sensor 29 are provided.
  • the first light 21 is arranged at one end of the elongated illumination unit 20 (end on the X-axis negative side in the drawing), and is a monochromatic blue light (hereinafter, simply referred to as blue light). ) Is a light that emits.
  • FIG. 5 is a diagram showing an example of the emission spectrum of the first light 21. As shown in FIG. 5, the peak wavelength of the emission spectrum of the first light 21 is, for example, 450.5 nm.
  • the first light 21 is, specifically, a light emitting module in which a plurality of LED (Light Emitting Diode) light emitting elements that emit blue light are mounted on a substrate. The light emission of the first light 21 is controlled by the controller 25, and the interior material 61 is irradiated with blue light.
  • LED Light Emitting Diode
  • the second light 22 is arranged at the other end (the end on the X-axis plus side in the drawing) of the elongated lighting unit 20 and is a single color of red light (hereinafter, simply referred to as red light). ) Is a light that emits.
  • FIG. 6 is a diagram showing an example of the emission spectrum of the second light 22. As shown in FIG. 6, the peak wavelength of the emission spectrum of the second light 22 is, for example, 650 nm.
  • the second light 22 is specifically a light emitting module in which a plurality of LED light emitting elements that emit red light are mounted on a substrate. The light emission of the second light 22 is controlled by the controller 25, and the interior material 61 is irradiated with red light.
  • the third light 23 is a light that emits green monochromatic light (hereinafter, simply referred to as green light), which is arranged in a region between the first light 21 and the second light 22.
  • FIG. 7 is a diagram showing an example of an emission spectrum of the third light 23. As shown in FIG. 7, the peak wavelength of the emission spectrum of the third light 23 is, for example, 514 nm.
  • the third light 23 is specifically a light emitting module in which a plurality of LED light emitting elements that emit green light are mounted on a substrate. The light emission of the third light 23 is controlled by the controller 25, and the interior material 61 is irradiated with green light. Note that when the lighting unit 20 is viewed from the front, the plurality of LED light emitting elements that emit green light are arranged so as to surround the camera 24.
  • the camera 24 images the interior material to be inspected and outputs the imaging data obtained by imaging.
  • the imaged data includes a plurality of frames (in other words, color images).
  • the camera 24 is realized by, for example, an image sensor and a lens that guides light to the image sensor.
  • FIG. 8 is a diagram showing an example of sensitivity characteristics of the image sensor included in the camera 24.
  • the image sensor included in the camera 24 includes a pixel array having a minimum unit of pixels including a sub-pixel for detecting blue light, a sub-pixel for detecting red light, and a sub-pixel for detecting green light. Have.
  • FIG. 8 shows the respective sensitivity characteristics of the sub-pixel for detecting blue light, the sub-pixel for detecting red light, and the sub-pixel for detecting green light.
  • FIG. 9 is a diagram showing the arrangement of the first light 21, the second light 22, the third light 23, and the camera 24 in a plan view.
  • the first light 21, the second light 22, and the third light 23 are arranged side by side in the X-axis direction.
  • the first light 21, the second light 22, and the third light 23 are arranged on a straight line along the X-axis direction.
  • the optical axis of the third light 23 is along the optical axis of the camera 24.
  • the angle ⁇ 1 formed by the optical axis of the first light 21 and the optical axis of the camera 24 is equal to the optical axis of the second light 22 and the optical axis of the camera 24. It is equal to the angle ⁇ 2 formed by and.
  • the first light 21 and the second light 22 are arranged in line symmetry with respect to the optical axis of the third light 23. If the first light 21 and the second light 22 are symmetrically arranged, the information processing for specifying the characteristic portion is simplified. In addition, it is not essential that the first light 21 and the second light 22 are arranged symmetrically, and the first light 21 and the second light 22 may be arranged asymmetrically.
  • the components of the lighting unit 20 other than the first light 21, the second light 22, the third light 23, and the camera 24 will be described.
  • the controller 25 performs information processing (more specifically, image processing) for identifying characteristic points such as irregularities or stains on the surface of the interior material 61.
  • the controller 25 is realized by, for example, a microcomputer, but may be realized by a processor.
  • the storage unit 26 is a storage device that stores a program executed by the controller 25 to perform the above information processing, and various information necessary for the above information.
  • the storage unit 26 is realized by, for example, a semiconductor memory.
  • the distance measuring sensor 27a and the distance measuring sensor 27b are sensors that measure the distance from the inspection device 10 to the interior material 61.
  • the distance measuring sensor 27a is arranged near the upper side of the first light 21, and the distance measuring sensor 27b is arranged near the upper side of the second light 22.
  • Each of the distance measuring sensor 27a and the distance measuring sensor 27b is, for example, a TOF (Time Of Flight) type laser distance measuring sensor that emits an infrared laser beam and detects the reflected infrared laser beam. It may be a sensor.
  • TOF Time Of Flight
  • the 6-axis sensor 28 is a sensor that measures the moving direction of the inspection device 10, the orientation of the inspection device 10, and the rotation angle (tilt) of the inspection device 10.
  • the 6-axis sensor 28 is realized by, for example, a combination of an acceleration sensor and a gyro sensor, but may be realized by a combination of an acceleration sensor and a geomagnetic sensor.
  • the inspection device 10 may include a 9-axis sensor instead of the 6-axis sensor 28.
  • the illuminance sensor 29 is a sensor that measures the illuminance around the inspection device 10.
  • the illuminance sensor 29 is realized by a photodetector (in other words, a light receiving device) such as a photodiode or a phototransistor.
  • the mobile terminal 30 is a general-purpose information terminal that functions as a user interface device.
  • the mobile terminal 30 is, for example, a tablet terminal.
  • the mobile terminal 30 specifically includes an operation receiving unit 31, a display unit 32, a display controller 33, and a storage unit 34.
  • the operation receiving unit 31 receives the operation of the user 50.
  • the operation reception unit 31 is realized by a touch panel, a hardware button, and the like.
  • the display unit 32 displays an image under the control of the display controller 33.
  • the display unit 32 displays, for example, an image being captured by the camera 24.
  • the display unit 32 displays an image showing a characteristic portion on the surface of the interior material 61.
  • the display unit 32 is, for example, a display including a liquid crystal panel or an organic EL (Electro Luminescence) panel as a display device.
  • the display controller 33 cooperates with the controller 25 by communication to control the display unit 32.
  • the display controller 33 controls the display unit 32 to display, for example, an image being captured by the camera 24.
  • the display controller 33 is realized by, for example, a microcomputer, but may be realized by a processor.
  • the storage unit 34 is a storage device in which a program executed by the display controller 33 to control the display unit 32 is stored.
  • the storage unit 34 is realized by, for example, a semiconductor memory.
  • FIG. 10 is a flowchart of an operation example 1 of the inspection device 10.
  • the operation example 1 shows an operation in which the convex portion on the surface of the interior material 61 is specified as the characteristic portion.
  • the controller 25 causes the three lights of the first light 21, the second light 22, and the third light 23 to emit light (S11).
  • the first light illuminates the interior material 61 with blue light from the left side
  • the second light illuminates the interior material 61 with red light from the right side
  • the third light 23 illuminates the interior material 61 with green light from the front.
  • the blue light irradiation, the red light irradiation, and the green light irradiation are simultaneously performed in parallel.
  • at least the first light 21 and the second light 22 may be emitted.
  • the controller 25 activates the camera 24 and images the interior material 61 illuminated with blue light, red light, and green light (S12).
  • the camera 24 outputs image pickup data of the interior material 61 as a subject.
  • the imaging data includes a plurality of frames whose imaging timings are different from each other.
  • the image sensor included in the camera 24 has a minimum unit of a pixel including a sub-pixel for detecting blue light, a sub-pixel for detecting red light, and a sub-pixel for detecting green light. It has a pixel array.
  • the frame output by the camera 24 as the imaging data is a color image using all of these sub-pixels, but the controller 25 selectively uses the output signal of the sub-pixel for detecting the blue light to output the blue light.
  • the first frame indicating the luminance distribution of the can be acquired from the camera 24.
  • the controller 25 can also obtain the second frame indicating the luminance distribution of red light by selectively using the output signal of the sub-pixel for detecting red light, and the sub-frame for detecting green light can be obtained.
  • the output signal of the pixel can be selectively used to acquire the third frame indicating the luminance distribution of green light.
  • the controller 25 can separate one frame into a first frame, a second frame, and a third frame.
  • Each of the first frame, the second frame, and the third frame separated from one frame is a still image captured at the same timing.
  • the controller 25 obtains the first frame showing the luminance distribution of blue light and the second frame showing the luminance distribution of red light from one frame included in the output imaging data ( S13).
  • FIG. 11 is a diagram showing an example of the first frame.
  • FIG. 12 is a diagram showing an example of the second frame.
  • Each of the first frame and the second frame is, for example, a grayscale image in which a high luminance part is expressed in white and a low luminance part is expressed in black.
  • the controller 25 performs gradation removal processing on each of the first frame and the second frame (S14).
  • the gradation removal process is a process of removing light and dark in the frame (for example, light and dark due to the distance from the light to the interior material 61) that is not caused by unevenness and stains on the interior material 61.
  • FIG. 13 is a diagram showing an example of the first frame in which the gradation removal processing has been performed.
  • the pixel value of a certain pixel is calculated by calculating the average value of the pixel values of the pixel value and the pixels surrounding the pixel (for example, eight pixels), and averaging from the pixel value of the certain pixel. This is a process of subtracting the value (gradation component). Any existing method may be used for gradation removal. Further, the gradation removal processing may be performed as needed and is not essential.
  • FIG. 14 is a diagram showing a method for identifying a characteristic portion on the surface of the interior material 61
  • FIG. 14A shows a method for identifying a convex portion on the surface of the interior material 61.
  • ⁇ B> in FIG. 14A shows the first luminance signal obtained from the first frame
  • ⁇ R> in FIG. 14A shows the second luminance signal obtained from the second frame.
  • the vertical axis of the luminance signal indicates the luminance within the frame
  • the horizontal axis indicates the horizontal position (horizontal pixel position) within the frame.
  • the convex portion is reflected in the frame, in the first frame acquired from this frame, the convex portion is reflected so that a shadow remains on the right side. This is because the first light 21 illuminates the interior material 61 from the left side.
  • the convex portion is reflected so that a shadow remains on the left side. This is because the second light 22 illuminates the interior material 61 from the right side.
  • the luminance amplitude corresponding to the convex portion of the first luminance signal and the luminance amplitude corresponding to the convex portion of the second luminance signal have a phase-inverted relationship. Since the third light 23 illuminates the convex portion from the front, the light and darkness corresponding to the convex portion does not appear in the third luminance signal ( ⁇ G> in FIG. 14A) obtained from the third frame. ..
  • the controller 25 obtains a difference signal having a large luminance amplitude ( ⁇ RB> in FIG. 14A) by calculating the difference between the first luminance signal and the second luminance signal, and the difference signal amplitude. And the threshold value X1 are compared.
  • the threshold value X1 is empirically or experimentally determined in advance and stored in the storage unit 26.
  • the threshold value X1 may be adaptively determined according to the peripheral brightness of the inspection area.
  • a difference frame indicating the difference between the first frame after gradation removal and the second frame after gradation removal is divided into a matrix, and a plurality of inspection areas (for example, In each of the (5 pixels ⁇ 5 pixels area), it is determined whether the amplitude from the maximum brightness to the minimum brightness in the inspection area is equal to or more than the threshold value X1.
  • the difference frame is a frame obtained by taking a difference in luminance value between corresponding pixels in the first frame and the second frame.
  • the brightness value c dif (i,j) of the pixel included in the difference frame is the brightness value c1(i,j) of the pixel included in the first frame and the brightness value c2(i,j) of the pixel included in the second frame.
  • (i, j) means the coordinates (position) of the pixel.
  • the controller 25 determines that the convex portion is reflected in the inspection area whose amplitude is equal to or larger than the threshold value X1, and determines that the convex portion is not reflected in the inspection area whose amplitude is smaller than the threshold value X1. In this way, the controller 25 can identify the convex portion on the surface of the interior material 61 based on the difference frame between the first frame and the second frame.
  • the controller 25 displays the identification result of the convex portion (S16). For example, the controller 25 superimposes information indicating the convex portion specified on the frame that is the processing target in step S13 and displays the superimposed information on the display unit 32. In other words, the controller 25 displays the image pickup data on which the information indicating the identified convex portion is superimposed on the display unit 32. The controller 25 cooperates with the display controller 33 when displaying the specific result.
  • FIG. 15 is a diagram showing an example of the identification result displayed on the display unit 32. In the example of FIG. 15, a square frame surrounding the inspection area in which the convex portion is determined to be reflected is superimposed as the information indicating the specified convex portion, but the information indicating the specified convex portion is different from other information. It may be a polygonal frame, a circular frame, an arrow, or the like, and is not particularly limited.
  • the inspection device 10 can identify the convex portion on the surface of the interior material 61 using the first frame and the second frame.
  • FIG. 16 is a flowchart of an operation example 2 of the inspection device 10.
  • Operation example 2 shows an operation in which a soiled portion (hereinafter, also simply referred to as soiled) on the surface of the interior material 61 is specified as a characteristic portion.
  • the controller 25 causes the three lights of the first light 21, the second light 22, and the third light 23 to emit light (S21), and activates the camera 24 to start blue light, red light, and An image of the interior material 61 illuminated with green light is captured (S22). As a result, the camera 24 outputs the imaging data.
  • the controller 25 acquires the third frame indicating the luminance distribution of green light from one frame included in the output image pickup data (S23).
  • the controller 25 performs gradation removal processing on the third frame (S24) and identifies stains on the surface of the interior material 61 based on the third frame after gradation removal (S25).
  • the controller 25 divides the third frame after gradation removal into a matrix shape, and in each of a plurality of inspection areas (for example, 5 pixel ⁇ 5 pixel area) obtained by the division, the minimum luminance in the inspection area is determined. It is determined whether the luminance is lower than the base luminance (for example, the average luminance of the peripheral pixels of the inspection area) by the threshold value X2 or more.
  • the threshold value X2 is empirically or experimentally determined in advance and is stored in the storage unit 26.
  • the threshold value X2 may be adaptively determined according to the peripheral brightness of the inspection area.
  • the controller 25 determines that stain is present in the inspection area in which the decrease amount from the base brightness to the minimum brightness is equal to or more than the threshold value X2, and determines that the decrease amount from the base brightness to the minimum brightness is less than the threshold value X2. Judges that the dirt is not reflected. In this way, the controller 25 can identify the stain on the surface of the interior material 61 based on the third frame.
  • the first frame ( ⁇ B> in FIG. 14B) acquired from this frame, and Also in each of the second frames ( ⁇ R> in FIG. 14B), it is considered that the luminance of the portion corresponding to the stain is locally reduced. Therefore, the presence/absence of the stain as described above may be performed on the added frame obtained by adding the first frame, the second frame, and the third frame ( ⁇ R+B+G> in FIG. 14B). ). However, by using only the third frame, it is possible to obtain the effect of easily distinguishing the difference between the concave portion and the stain (that is, the effect of increasing the determination accuracy) described later.
  • the controller 25 displays the dirt identification result (S26). For example, the controller 25 superimposes the information indicating the dirty portion specified on the frame that is the processing target in step S23 and displays the superimposed information on the display unit 32. In other words, the controller 25 displays the image pickup data on which the information indicating the identified dirty portion is superimposed on the display unit 32.
  • the specified information indicating the dirty portion is, for example, a polygonal frame surrounding the inspection area determined to be dirty, but may be a circular frame or an arrow, and is not particularly limited. ..
  • the inspection device 10 can identify the dirty portion on the surface of the interior material 61 by using the third frame.
  • FIG. 17 is a flowchart of Operation Example 3 of the inspection device 10.
  • the operation example 3 shows an operation in which the concave portion on the surface of the interior material 61 is specified as the characteristic portion.
  • the controller 25 causes the three lights of the first light 21, the second light 22, and the third light 23 to emit light (S31), and activates the camera 24 to start blue light, red light, and An image of the interior material 61 illuminated with green light is captured (S32). As a result, the camera 24 outputs the imaging data.
  • the controller 25 acquires a first frame indicating the luminance distribution of blue light and a second frame indicating the luminance distribution of red light from one frame included in the output imaging data (S33).
  • the third frame indicating the brightness distribution of the green light may be acquired from the one frame.
  • the controller 25 performs gradation removal processing on each of the first frame and the second frame (S34), and based on the first frame and the second frame after the gradation removal, the interior material 61 The concave portion on the surface of is identified (S35).
  • the gradation removal process is also performed on the third frame in step S34.
  • the controller 25 divides the addition frame obtained by adding the first frame after the gradation removal and the second frame after the gradation removal into a matrix, and a plurality of inspection regions (for example, 5 pixels ⁇ 5 pixels) obtained by the division. It is determined whether or not the minimum brightness in the inspection area is lower than the base brightness (for example, the average brightness of the peripheral pixels of the inspection area) by the threshold value X3 or more in each of the areas.
  • the threshold value X3 is empirically or experimentally determined in advance and stored in the storage unit 26.
  • the threshold value X3 may be adaptively determined according to the peripheral brightness of the inspection area.
  • the addition frame is a frame obtained by taking the sum of the luminance values between the corresponding pixels in the first frame and the second frame.
  • the luminance value c add (i,j) of the pixel included in the addition frame is the luminance value c1(i,j) of the pixel included in the first frame and the luminance value c2(i,j) of the pixel included in the second frame.
  • Can be used to express as c add (i,j) c1(i,j)+c2(i,j).
  • (i, j) means the coordinates (position) of the pixel.
  • the shade of the pattern may be determined to be a recess. Therefore, determination using the threshold value X3 may be performed for the difference frame between the addition frame and the third frame after gradation removal ( ⁇ R+BG> in (c) of FIG. 14). As a result, the effect of the shade of the pattern is reduced, and the effect of increasing the determination accuracy is obtained.
  • the controller 25 displays the result of identifying the recess (S36). For example, the controller 25 superimposes and displays the information indicating the recessed portion specified on the frame that is the processing target in step S23 on the display unit 32. In other words, the controller 25 displays the image pickup data on which the information indicating the specified concave portion is superimposed on the display unit 32.
  • the information indicating the specified recess is, for example, a polygonal frame surrounding the inspection region in which the recess is determined to be reflected, but may be a circular frame or an arrow, and is not particularly limited.
  • the inspection device 10 can identify the concave portion on the surface of the interior material 61 using the first frame and the second frame.
  • the operation examples 1 to 3 may be arbitrarily combined.
  • one frame included in the imaging data output from the camera 24 may be used to identify each of the convex portion, the stain, and the concave portion as a characteristic portion, and the identification result may be displayed on the display unit 32.
  • the controller 25 displays the information indicating the characteristic portion on the display unit 32 in a different mode for each type of the characteristic portion.
  • FIG. 18 is a diagram showing another example of the identification result displayed on the display unit 32. Note that, in the example of FIG.
  • the convex portion, the stain, and the concave portion are distinguished by the shape of the frame surrounding the characteristic portion, but the convex portion, the stain, and the concave portion are distinguished by the color of the frame surrounding the characteristic portion. May be distinguished. There is no particular limitation on the specific mode for distinguishing the characteristic points.
  • step S16, step S26, and step S36 may be a still image, or may be displayed as a moving image by being updated in real time. In this way, whether to display the specific result as a still image or a moving image may be switched according to the operation of the user 50.
  • FIG. 19 is a flowchart of the switching operation of the display mode of the specific result.
  • the operation receiving unit 31 receives the display mode specifying operation of the user 50 (S41).
  • the controller 25 displays the identification result as a still image (S42).
  • the controller 25 displays the identification result as a moving image (S43). ..
  • the specific result (still image or moving image) displayed in step S16, step S26, and step S36 may be a binary image (in other words, a monochrome image).
  • the characteristic points are white and black. It is an image displayed by one side and a part other than the characteristic part displayed by the other of white and black. That is, the controller 25 binarizes the imaged data so as to distinguish the specified characteristic portion from other portions and displays the binarized imaged data on the display unit 32. As a result, the user 50 can easily visually recognize the characteristic portion.
  • the controller 25 displays at least two of the first frame after gradation removal, the second frame after gradation removal, and the third frame after gradation removal in a time-divisional manner, so that the user 50 Alternatively, the characteristic points may be visually recognized.
  • the controller 25 alternately displays, for example, the first frame after gradation removal and the second frame after gradation removal. In this case, the display of the first frame after the gradation removal and the display of the second frame after the gradation removal are switched, for example, every predetermined period of about 0.5 seconds.
  • the first frame after gradation removal, the second frame after gradation removal, and the third frame after gradation removal are periodically displayed in a time-division manner, the user 50 can more easily recognize the characteristic portion. ..
  • the controller 25 may specify the characteristic point on the surface of the interior material 61 by using the distance from the inspection device 10 to the interior material 61 measured by the distance measurement sensor 27a (or the distance measurement sensor 27b). For example, since the size of the interior material 61 reflected in the frame changes according to the distance from the inspection device 10 to the interior material 61, the controller 25 determines the size of the inspection range (the number of pixels included in the inspection range) by the inspection device. You may change according to the distance from 10 to the interior material 61. As a result, the number of corresponding pixels changes depending on the distance even at the same specific location. Therefore, by changing the size of the number of pixels to be determined depending on the distance, the accuracy of identifying the characteristic location can be improved.
  • the controller 25 uses the distance from the inspection device 10 to the interior material 61 measured by the distance measuring sensor 27a (or the distance measuring sensor 27b) to use the first light 21, the second light 22, and the third light.
  • the brightness of the light 23 may be controlled.
  • the controller 25 has the first light 21, the second light 22, and the second light.
  • the light 23 of 3 is made to emit light brightly.
  • controller 25 may specify the characteristic portion on the surface of the subject by using the distances measured by the plurality of distance measuring sensors (that is, the distance measuring sensors 27a and 27b).
  • the controller 25 determines the distance measured by the distance measuring sensor 27a and the distance measured by the distance measuring sensor 27b.
  • the pan angle of the inspection device 10 can be calculated using the interior material 61 as a reference. When the pan angle is large, there may be a difference in the balance of the luminance distribution between the first frame and the second frame. The controller 25 corrects such a balance of the brightness distribution based on the calculated pan angle, and thereby can improve the accuracy of identifying the characteristic portion.
  • the distance measuring sensor 27a and the distance measuring sensor 27b may be arranged separately in the vertical direction, and in this case, the controller 25 measures the distance measured by the distance measuring sensor 27a and the distance measuring sensor 27b.
  • the tilt angle of the inspection device 10 based on the interior material 61 can be calculated using the distance thus obtained.
  • controller 25 may specify the characteristic portion on the surface of the subject by using the tilt angle with respect to the horizontal plane measured by the 6-axis sensor 28.
  • the vertical luminance distribution may be biased in each of the first frame and the second frame.
  • the controller 25 corrects such a brightness distribution based on the calculated tilt angle, and thereby can improve the accuracy of identifying the characteristic portion.
  • the controller 25 may display the imaging condition information on the display unit 32.
  • the photographing condition information includes, for example, the tilt angle measured by the 6-axis sensor 28, the pan angle of the inspection device 10 with the interior material 61 as a reference, and the inspection device 10 measured by the distance measuring sensor 27a to the interior material 61. Including the distance. As described above, the pan angle is calculated, for example, based on the distance measured by the distance measuring sensor 27a and the distance measured by the distance measuring sensor 27b.
  • FIG. 20 is a diagram showing an example of the shooting condition information displayed on the display unit 32.
  • each of the tilt angle and the pan angle and a predetermined angle range (for example, ⁇ 10 deg) that these angles should satisfy are displayed. Further, each of the tilt angle and the pan angle and a predetermined distance range (for example, within 1 m) that the distance should satisfy are displayed.
  • the shooting condition information is updated in real time.
  • the shooting condition information may include at least one of the tilt angle, the pan angle, and the distance.
  • the user 50 can image the interior material 61 while maintaining the posture of the inspection apparatus 10 and the distance from the inspection apparatus 10 to the interior material 61 in a predetermined state. Therefore, it is possible to suppress a decrease in the accuracy of identifying the characteristic portion due to the variation in the imaging conditions of the inspection device 10.
  • the inspection device 10 is configured so that imaging can be performed only when the tilt angle and the pan angle are each within a predetermined angle range and the distance from the inspection device 10 to the interior material 61 is within a predetermined distance range. May be
  • the controller 25 may control the brightness of the first light 21, the second light 22, and the third light 23 based on the illuminance measured by the illuminance sensor 29. For example, the controller 25 causes the first light 21, the second light 22, and the third light 23 to emit light brighter as the illuminance around the inspection device 10 measured by the illuminance sensor 29 is higher. Thereby, the inspection device 10 can image the interior material 61 with appropriate brightness.
  • the controller 25 may also control the gain, aperture, and shutter speed of the camera 24 based on the illuminance measured by the illuminance sensor 29. For example, the controller 25 lowers the gain of the camera 24 and raises the brightness of the light when the illuminance measured by the illuminance sensor 29 is higher than a predetermined illuminance. This makes it possible to reduce the influence of the ambient illuminance on the image even when the ambient illuminance is high.
  • the inspection device 10 can be used for general inspection of the surface state of an object, and the subject is not particularly limited.
  • the inspection device 10 may be used for inspecting the surface of the structure 60 with the structure 60 before the interior material 61 is attached as a subject. In this way, the structure 60 is inspected before the interior material 61 is attached, so that rework (that is, reattachment of the interior material 61) can be suppressed.
  • the emission colors of the first light 21, the second light 22, and the third light described in the above embodiment are also not particularly limited.
  • the first light emitted by the first light 21, the second light emitted by the second light 22, and the third light emitted by the third light 23 have different wavelength regions (in other words, emission color).
  • the light is different from each other).
  • the arrangement of the first light 21, the second light 22, and the third light is not particularly limited, and the first light 21, the second light 22, and the third light are mutually It may be arranged at a different position.
  • the inspection device 10 includes the first light 21 for irradiating the subject with the first light and the first light for irradiating the subject with the second light having a wavelength region different from that of the first light. 21, a second light 22 arranged at a position different from that of 21, a camera 24 for outputting image pickup data obtained by picking up an image of a subject irradiated with the first light and the second light, and output image pickup A first frame showing the luminance distribution of the first light and a second frame showing the luminance distribution of the second light are acquired from one frame included in the data, and the subject is obtained using the first frame and the second frame. And a controller 25 for identifying characteristic points on the surface of the.
  • the inspection apparatus 10 as described above can accurately specify the characteristic points on the surface of the subject by specifying the characteristic points on the surface of the subject using the first frame and the second frame acquired from the same frame. it can. Specifically, in the first frame and the second frame, the displacement of the subject due to camera shake or the like does not occur, so that the inspection device 10 can accurately identify the characteristic portion on the surface of the subject.
  • the inspection apparatus 10 is different from both the first light 21 and the second light 22 that irradiates the subject with the third light having a wavelength region different from that of the first light and the second light. It comprises a third light 23 arranged in position.
  • the controller 25 further obtains a third frame indicating the luminance distribution of the third light from one frame, and uses the first frame, the second frame, and the third frame to identify the characteristic portion on the surface of the subject. To do.
  • the inspection apparatus 10 as described above can accurately specify the characteristic points on the surface of the subject by specifying the characteristic points on the surface of the subject using the third frame.
  • the first light is blue light
  • the second light is red light
  • the third light is green light
  • the third light 23 is the first light 21 and It is arranged in the area between the second lights 22.
  • the inspection apparatus 10 as described above uses the blue light and the red light whose wavelength regions are distant as the first light and the second light so that the second light affects the first frame and the second light. It is possible to suppress the influence of the first light on the frame.
  • the controller 25 displays the image pickup data on which the information indicating the specified characteristic portion is superimposed on the display unit 32.
  • the inspection device 10 as described above can present the specified characteristic portion to the user 50.
  • the controller 25 displays the information indicating the characteristic portion on the display unit 32 in a different mode for each type of the characteristic portion.
  • the inspection device 10 as described above can present the specified characteristic part to the user 50 by distinguishing the type of the specific part.
  • the controller 25 displays the first frame and the second frame on the display unit 32 in a time division manner.
  • the inspection device 10 as described above allows the user 50 to visually recognize the characteristic portion.
  • the controller 25 time-divisionally displays the third frame on the display unit 32 in addition to the first frame and the second frame.
  • the user 50 can easily recognize the characteristic part.
  • the controller 25 switches whether to display the result of identifying the characteristic portion of the surface of the subject as a still image on the display unit or as a moving image on the display unit based on the operation of the user 50.
  • Such an inspection device 10 can present the specific result to the user 50 as either a still image or a moving image.
  • the user 50 can selectively use whether to display the specific result as a still image or a moving image.
  • the controller 25 binarizes the imaged data so as to distinguish the specified characteristic portion from other portions and displays the binarized imaged data on the display unit 32.
  • the user 50 can easily recognize the characteristic part.
  • the inspection device 10 further includes a distance measuring sensor 27a that measures the distance from the inspection device 10 to the subject.
  • the controller 25 further identifies the characteristic portion on the surface of the subject by further using the distance measured by the distance measuring sensor 27a.
  • Such an inspection device 10 can specify a characteristic portion on the surface of the subject in consideration of the distance from the inspection device 10 to the subject.
  • the inspection device 10 includes a plurality of distance measuring sensors (specifically, the distance measuring sensor 27a and the distance measuring sensor 27b).
  • the controller 25 further specifies the characteristic points on the surface of the subject by further using the distances measured by the plurality of distance measuring sensors.
  • the controller 25 can calculate the tilt angle of the inspection device 10 based on the subject determined based on the distances measured by the plurality of distance measuring sensors.
  • the inspection apparatus 10 as described above can specify a characteristic portion on the surface of the subject in consideration of the inclination angle of the inspection apparatus 10 with respect to the subject.
  • the inspection device 10 further includes an illuminance sensor 29 that measures the illuminance around the inspection device 10.
  • the controller 25 controls the brightness of the first light 21 and the second light 22 based on the illuminance measured by the illuminance sensor 29.
  • Such an inspection device 10 can image a subject with appropriate brightness.
  • the size of the angle formed by the optical axis of the first light 21 and the optical axis of the camera 24 is equal to the size of the angle formed by the optical axis of the second light 22 and the optical axis of the camera 24.
  • the inspection device 10 can reduce the load (that is, the information processing amount) of the correction processing of the first frame and the second frame.
  • the controller 25 identifies the convex portion on the surface of the subject based on the difference frame between the first frame and the second frame.
  • Such an inspection device 10 can identify a convex portion on the surface of the subject as a characteristic portion.
  • the controller 25 identifies a dirty part on the surface of the subject based on the third frame.
  • Such an inspection device 10 can identify a dirty part on the surface of the subject as a characteristic part.
  • the controller 25 identifies the concave portion on the surface of the subject based on the added frame of the first frame and the second frame.
  • Such an inspection device 10 can identify a concave portion on the surface of the subject as a characteristic portion.
  • the subject is the interior material 61 attached to the structure 60.
  • Such an inspection device 10 can identify a characteristic portion on the surface of the interior material 61.
  • the subject is the structure 60 to which the interior material 61 is attached.
  • the inspection device 10 as described above can suppress the occurrence of rework (that is, reattachment of the interior material 61) by identifying the characteristic portion on the surface of the structure before the interior material 61 is attached.
  • the inspection method executed by the computer such as the inspection device 10 is performed by the first light 21 emitting the first light and the second light 22 arranged at a position different from the first light 21.
  • the second frame indicating the luminance distribution of the second light is acquired, and the characteristic portion on the surface of the subject is specified using the first frame and the second frame.
  • the characteristic points on the surface of the subject can be accurately specified by specifying the characteristic points on the surface of the subject using the first frame and the second frame acquired from the same frame. .. Specifically, in the first frame and the second frame, since the position shift of the subject due to camera shake or the like does not occur, the inspection method can accurately specify the characteristic portion on the surface of the subject.
  • the inspection device is a portable device, but it may be a stationary device.
  • the inspection device is realized by a plurality of devices (lighting unit and mobile terminal), but may be realized as a single device.
  • the inspection device may be realized as a robot type device that moves in a building.
  • the present disclosure may be realized as an inspection system that performs an operation corresponding to the inspection device of the above-described embodiment.
  • the inspection system may be implemented as a client server system. In this case, a part or all of the processing performed by the inspection device in the above-described embodiment is performed by the server device.
  • the processing executed by a specific processing unit may be executed by another processing unit. Further, the order of the plurality of processes may be changed, or the plurality of processes may be executed in parallel. For example, part or all of the processing executed by the controller included in the lighting unit in the above-described embodiment may be executed by the display controller included in the mobile terminal. That is, the display controller included in the mobile terminal may be the controller that specifies the characteristic portion on the surface of the subject described in the above embodiment.
  • each component may be realized by executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory.
  • each component may be realized by hardware.
  • Each component may be a circuit (or integrated circuit). These circuits may constitute one circuit as a whole or may be separate circuits. Further, each of these circuits may be a general-purpose circuit or a dedicated circuit.
  • the general or specific aspects of the present invention may be realized by a recording medium such as a system, a device, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM.
  • a recording medium such as a system, a device, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM.
  • the system, the device, the method, the integrated circuit, the computer program, and the recording medium may be implemented in any combination.
  • the present disclosure may be realized as an inspection method executed by a computer such as an inspection device. Further, the present disclosure may be realized as a program for causing a computer to execute the inspection method, or may be realized as a computer-readable non-transitory recording medium in which such a program is recorded. Further, the present disclosure may be realized as an application program installed in a mobile terminal to interlock the lighting unit and the mobile terminal.

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

検査装置(10)は、被写体に第1の光を照射する第1のライト(21)と、被写体に第1の光と波長領域が異なる第2の光を照射する、第1のライト(21)と異なる位置に配置された第2のライト(22)と、第1の光及び第2の光が照射された被写体を撮像することにより得られる、撮像データを出力するカメラ(24)と、出力された撮像データに含まれる一つのフレームから第1の光の輝度分布を示す第1フレーム、及び、第2の光の輝度分布を示す第2フレームを取得し、第1フレーム及び第2フレームを用いて被写体の表面の特徴箇所を特定するコントローラ(25)とを備える。

Description

検査装置、及び、検査方法
 本開示は、物体の表面の状態を検査するための検査装置及び検査方法に関する。
 物体を撮影することによって得られる画像を検査等に用いる技術が知られている。このような技術に関連して、特許文献1には、検査対象物の表面の凹凸変化を作業者に対して容易に認識させることができる表面検査装置が開示されている。
特開2016-217721号公報
 本開示は、被写体の表面の特徴箇所を精度よく特定することができる検査装置、及び、内装材検査方法を提供する。
 本開示の一態様に係る検査装置は、被写体に第1の光を照射する第1のライトと、前記被写体に前記第1の光と波長領域が異なる第2の光を照射する、前記第1のライトと異なる位置に配置された第2のライトと、前記第1の光及び前記第2の光が照射された前記被写体を撮像することにより得られる、撮像データを出力するカメラと、出力された前記撮像データに含まれる一つのフレームから前記第1の光の輝度分布を示す第1フレーム、及び、前記第2の光の輝度分布を示す第2フレームを取得し、前記第1フレーム及び前記第2フレームを用いて前記被写体の表面の特徴箇所を特定するコントローラとを備える。
 本開示の一態様に係る検査方法は、第1のライトにより第1の光が照射され、かつ、前記第1のライトと異なる位置に配置された第2のライトにより前記第1の光と波長領域が異なる第2の光が照射された被写体を撮像することにより得られる撮像データに含まれる一つのフレームから前記第1の光の輝度分布を示す第1フレーム、及び、前記第2の光の輝度分布を示す第2フレームを取得し、前記第1フレーム及び前記第2フレームを用いて前記被写体の表面の特徴箇所を特定する。
 本開示の検査装置、及び、検査方法は、被写体の表面の特徴箇所を精度よく特定することができる。
図1は、実施の形態に係る検査装置の外観図である。 図2は、実施の形態に係る検査装置の使用方法を説明するための図である。 図3は、実施の形態に係る検査装置の機能構成を示すブロック図である。 図4は、実施の形態に係る照明ユニットの外観斜視図である。 図5は、第1のライトの発光スペクトルの一例を示す図である。 図6は、第2のライトの発光スペクトルの一例を示す図である。 図7は、第3のライトの発光スペクトルの一例を示す図である。 図8は、カメラが備えるイメージセンサの感度特性の一例を示す図である。 図9は、第1のライト、第2のライト、第3のライト、及び、カメラの平面視における配置を示す図である。 図10は、実施の形態に係る検査装置の動作例1のフローチャートである。 図11は、第1フレームの一例を示す図である。 図12は、第2フレームの一例を示す図である。 図13は、グラデーション除去処理が行われた第1フレームの一例を示す図である。 図14は、内装材の表面の特徴箇所の特定方法を示す図である。 図15は、表示部に表示される特定結果の一例を示す図である。 図16は、実施の形態に係る検査装置の動作例2のフローチャートである。 図17は、実施の形態に係る検査装置の動作例3のフローチャートである。 図18は、表示部に表示される特定結果の別の一例を示す図である。 図19は、特定結果の表示モードの切り替え動作のフローチャートである。 図20は、表示部に表示される撮影条件情報の一例を示す図である。
 以下、実施の形態について、図面を参照しながら説明する。なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 なお、各図は模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付し、重複する説明は省略または簡略化される場合がある。
 また、以下の実施の形態で説明に用いられる図面においては座標軸が示される場合がある。Z軸方向は、検査装置の高さ方向として説明される。Z軸プラス側は、上側(上方)と表現され、Z軸マイナス側は、下側(下方)と表現される場合がある。また、X軸方向及びY軸方向は、Z軸方向に垂直な平面上において、互いに直交する方向である。X軸方向は、左右方向または水平方向と表現され、X軸プラス側は、右側と表現され、X軸マイナス側は、左側と表現される場合がある。Y軸方向は、前後方向と表現される場合がある。以下の実施の形態において、平面視とは、Z軸方向から見ることを意味する。
 (実施の形態)
 [概要]
 まず、実施の形態に係る検査装置の概要について説明する。図1は、実施の形態に係る検査装置の外観図である。図2は、実施の形態に係る検査装置の使用方法を説明するための図である。
 図1及び図2に示される実施の形態1に係る検査装置10は、例えば、室内空間を構成する、床、壁、及び、天井などの構造物60に取り付けられた状態の内装材61の検査を行うための携帯型の装置である。内装材61の検査とは、内装材61が適切に貼り付けられているか(貼り付けミスに起因する凹凸または汚れがないか)の検査を意味し、このような検査は、例えば、入居者の入居前に行われる。構造物60に取り付けられた状態の内装材61は、被写体の一例である。
 例えば、壁に壁クロスが貼り付けられた後、ユーザ50は、検査装置10を用いて壁クロスの画像を撮像する。そうすると、検査装置10は、壁クロスに凹凸または汚れなどの特徴箇所があるかを画像処理により特定し、ユーザ50に提示する。
 なお、内装材は、床、壁、及び、天井などに使う仕上げ材及び下地材の総称である。内装材には、室内に直接面したフローリング、カーペット、タイル、壁クロス、合板、塗装材などの仕上げ材だけでなく、その下の下地材も含まれる。
 [構成]
 以下、このような検査装置10の構成について図1及び図2に加えて図3を参照しながら説明する。図3は、検査装置10の機能構成を示すブロック図である。
 図1及び図3に示されるように、検査装置10は、照明ユニット20と、携帯端末30と、モバイルバッテリ40とを備える。検査装置10は、具体的には、汎用の携帯端末30に照明ユニット20が電気的及び構造的に接続されることにより実現される。まず、照明ユニット20について説明する。図4は、照明ユニット20の外観斜視図である。
 照明ユニット20は、長尺状のユニットであり、携帯端末30の上部に長辺に沿って取り付けられる。照明ユニット20は、例えば、モバイルバッテリ40から供給される電力を用いて動作するが、携帯端末30の内蔵バッテリ(図示せず)から供給される電力を用いて動作してもよい。モバイルバッテリ40及び内蔵バッテリは、例えば、リチウムイオン電池などによって実現される。
 照明ユニット20は、具体的には、第1のライト21と、第2のライト22と、第3のライト23と、カメラ24と、コントローラ25と、記憶部26と、測距センサ27aと、測距センサ27bと、6軸センサ28と、照度センサ29とを備える。
 第1のライト21は、長尺状の照明ユニット20の一方の端部(図中のX軸マイナス側の端部)に配置される、青色の単色光(以下、単に青色光と記載される)を発するライトである。図5は、第1のライト21の発光スペクトルの一例を示す図である。図5に示されるように、第1のライト21の発光スペクトルのピーク波長は、例えば、450.5nmである。第1のライト21は、具体的には、基板に青色光を発するLED(Light Emitting Diode)発光素子が複数実装された発光モジュールである。第1のライト21は、コントローラ25によって発光制御され、内装材61に青色光を照射する。
 第2のライト22は、長尺状の照明ユニット20の他方の端部(図中のX軸プラス側の端部)に配置される、赤色の単色光(以下、単に赤色光と記載される)を発するライトである。図6は、第2のライト22の発光スペクトルの一例を示す図である。図6に示されるように、第2のライト22の発光スペクトルのピーク波長は、例えば、650nmである。第2のライト22は、具体的には、基板に赤色光を発するLED発光素子が複数実装された発光モジュールである。第2のライト22は、コントローラ25によって発光制御され、内装材61に赤色光を照射する。
 第3のライト23は、第1のライト21及び第2のライト22の間の領域に配置される、緑色の単色光(以下、単に緑色光と記載される)を発するライトである。図7は、第3のライト23の発光スペクトルの一例を示す図である。図7に示されるように、第3のライト23の発光スペクトルのピーク波長は、例えば、514nmである。第3のライト23は、具体的には、基板に緑色光を発するLED発光素子が複数実装された発光モジュールである。第3のライト23は、コントローラ25によって発光制御され、内装材61に緑色光を照射する。なお、照明ユニット20を正面から見た場合に、緑色光を発する複数のLED発光素子は、カメラ24を囲むように配置されている。
 カメラ24は、検査対象の内装材を撮像し、撮像することによって得られる撮像データを出力する。撮像データには、複数のフレーム(言い換えれば、カラー画像)が含まれる。カメラ24は、例えば、イメージセンサ、及び、イメージセンサに光を導くレンズなどによって実現される。図8は、カメラ24が備えるイメージセンサの感度特性の一例を示す図である。カメラ24が備えるイメージセンサは、青色光を検出するためのサブ画素、赤色光を検出するためのサブ画素、及び、緑色光を検出するためのサブ画素を含む画素を最小単位とした画素アレイを有する。図8は、青色光を検出するためのサブ画素、赤色光を検出するためのサブ画素、及び、緑色光を検出するためのサブ画素のそれぞれの感度特性を示す。
 ここで、第1のライト21、第2のライト22、第3のライト23、及び、カメラ24の配置について説明する。図9は、第1のライト21、第2のライト22、第3のライト23、及び、カメラ24の平面視における配置を示す図である。
 図9に示されるように、第1のライト21、第2のライト22、及び、第3のライト23は、X軸方向に並んで配置される。第1のライト21、第2のライト22、及び、第3のライト23、は、X軸方向に沿う直線上に配置される。
 また、第3のライト23の光軸は、カメラ24の光軸に沿う。第1のライト21の光軸とカメラ24の光軸(言い換えれば、第3のライト23の光軸)がなす角度θ1の大きさは、第2のライト22の光軸とカメラ24の光軸とがなす角θ2の大きさと等しい。
 このように第1のライト21及び第2のライト22は、第3のライト23の光軸に関して線対称に配置されている。第1のライト21及び第2のライト22が対称的に配置されれば、特徴箇所を特定するための情報処理が簡素化される。なお、第1のライト21及び第2のライト22が対称的に配置されることは必須ではなく、第1のライト21及び第2のライト22が非対称に配置されてもよい。
 次に、照明ユニット20が備える、第1のライト21、第2のライト22、第3のライト23、及び、カメラ24以外の構成要素について説明する。
 コントローラ25は、内装材61の表面における凹凸または汚れなどの特徴箇所を特定するための情報処理(より詳細には、画像処理)を行う。コントローラ25は、例えば、マイクロコンピュータによって実現されるが、プロセッサによって実現されてもよい。
 記憶部26は、コントローラ25が上記情報処理を行うために実行するプログラム、上記情報に必要な各種情報が記憶される記憶装置である。記憶部26は、例えば、半導体メモリによって実現される。
 測距センサ27a及び測距センサ27bは、検査装置10から内装材61までの距離を計測するセンサである。測距センサ27aは、第1のライト21の上側近傍に配置され、測距センサ27bは、第2のライト22の上側近傍に配置される。測距センサ27a及び測距センサ27bのそれぞれは、例えば、赤外線レーザ光を発し、反射された赤外線レーザ光を検知するTOF(Time Of Flight)方式のレーザ測距センサであるが、その他の測距センサであってもよい。
 6軸センサ28は、検査装置10の移動方向、検査装置10の向き、及び、検査装置10の回転角(傾き)を計測するセンサである。6軸センサ28は、例えば、加速度センサ及びジャイロセンサの組み合わせにより実現されるが、加速度センサ及び地磁気センサの組み合わせによって実現されてもよい。また、検査装置10は、6軸センサ28に代えて、9軸センサを備えてもよい。
 照度センサ29は、検査装置10の周辺の照度を計測するセンサである。照度センサ29は、フォトダイオードまたはフォトトランジスタなどの光検出器(言い換えれば、受光デバイス)によって実現される。
 次に、携帯端末30について説明する。携帯端末30は、ユーザインターフェース装置として機能する汎用の情報端末である。携帯端末30は、例えば、タブレット端末である。携帯端末30は、具体的には、操作受付部31と、表示部32と、表示コントローラ33と、記憶部34とを備える。
 操作受付部31は、ユーザ50の操作を受け付ける。操作受付部31は、タッチパネル、及び、ハードウェアボタンなどによって実現される。
 表示部32は、表示コントローラ33の制御に基づいて画像を表示する。表示部32は、例えば、カメラ24によって撮像中の画像を表示する。また、表示部32は、内装材61の表面の特徴箇所を示す画像を表示する。表示部32は、例えば、液晶パネルまたは有機EL(Electro Luminescence)パネルなどを表示デバイスとして含むディスプレイである。
 表示コントローラ33は、通信によりコントローラ25と連携し、表示部32を制御する。表示コントローラ33は、例えば、カメラ24によって撮像中の画像などを表示部32に表示させる制御を行う。表示コントローラ33は、例えば、マイクロコンピュータによって実現されるが、プロセッサによって実現されてもよい。
 記憶部34は、表示コントローラ33が表示部32を制御するために実行するプログラムなどが記憶される記憶装置である。記憶部34は、例えば、半導体メモリによって実現される。
 [動作例1]
 次に、検査装置10の動作例1について説明する。図10は、検査装置10の動作例1のフローチャートである。動作例1は、内装材61の表面の凸部が特徴箇所として特定される動作を示す。
 まず、コントローラ25は、第1のライト21、第2のライト22、及び、第3のライト23の3つのライトを発光させる(S11)。この結果、上記図9に示されるように、第1のライトは内装材61に左側から青色光を照射し、第2のライトは内装材61に右側から赤色光を照射し、第3のライト23は内装材61に正面から緑色光を照射する。青色光の照射、赤色光の照射、及び、緑色光の照射は、同時に並行して行われる。なお、動作例1では、少なくとも第1のライト21、及び、第2のライト22が発光されればよい。
 次に、コントローラ25は、カメラ24を起動し、青色光、赤色光、及び、緑色光が照射された内装材61を撮像する(S12)。この結果、カメラ24は、内装材61を被写体とする撮像データを出力する。撮像データは、撮像タイミングが互いに異なる複数のフレームを含む。
 ここで、カメラ24が備えるイメージセンサは、青色光を検出するためのサブ画素、赤色光を検出するためのサブ画素、及び、緑色光を検出するためのサブ画素を含む画素を最小単位とした画素アレイを有する。カメラ24が撮像データとして出力するフレームは、これらのサブ画素を全て用いたカラー画像であるが、コントローラ25は、青色光を検出するためのサブ画素の出力信号を選択的に用いて、青色光の輝度分布を示す第1フレームをカメラ24から取得することができる。同様に、コントローラ25は、赤色光を検出するためのサブ画素の出力信号を選択的に用いて赤色光の輝度分布を示す第2フレームを取得することもでき、緑色光を検出するためのサブ画素の出力信号を選択的に用いて、緑色光の輝度分布を示す第3フレームを取得することもできる。
 このように、コントローラ25は、1つのフレームを、第1フレーム、第2フレーム、及び、第3フレームに分離することができる。1つのフレームから分離された、第1フレーム、第2フレーム、及び、第3フレームのそれぞれは、同一タイミングで撮像された静止画像である。
 そこで、動作例1では、コントローラ25は、出力された撮像データに含まれる一つのフレームから青色光の輝度分布を示す第1フレーム、及び、赤色光の輝度分布を示す第2フレームを取得する(S13)。図11は、第1フレームの一例を示す図である。図12は、第2フレームの一例を示す図である。第1フレーム及び第2フレームのそれぞれは、例えば、輝度の高いところが白色で表現され、輝度値が低い部分が黒色で表現されるグレースケール画像である。
 次に、コントローラ25は、第1フレーム及び第2フレームのそれぞれに対してグラデーション除去処理を行う(S14)。グラデーション除去処理は、内装材61の凹凸及び汚れに起因しないフレーム内の明暗(例えば、ライトから内装材61までの距離に起因する明暗)を除去する処理である。図13は、グラデーション除去処理が行われた第1フレームの一例を示す図である。グラデーション除去処理は、例えば、ある画素の画素値を、当該画素値、及び、当該画素を囲む画素(例えば、8個の画素)の画素値の平均値を算出し、ある画素の画素値から平均値(グラデーション成分)を差し引く処理である。グラデーション除去には、既存のどのような方法が用いられてもよい。また、グラデーション除去処理は、必要に応じて行われればよく、必須ではない。
 次に、コントローラ25は、グラデーション除去後の第1フレーム及びグラデーション除去後の第2フレームの差分フレームに基づいて、内装材61の表面の凸部を特定する(S15)。図14は、内装材61の表面の特徴箇所の特定方法を示す図であり、図14の(a)は、内装材61の表面の凸部の特定方法を示す。
 図14の(a)の<B>は第1フレームから得られる第1輝度信号を示し、図14の(a)の<R>は第2フレームから得られる第2輝度信号を示す。輝度信号の縦軸はフレーム内の輝度を示し、横軸はフレーム内の水平方向の位置(水平方向の画素の位置)を示す。
 フレームに凸部が映っている場合、このフレームから取得された第1フレームにおいては、凸部は右側に影が残るように映っている。なぜなら、第1のライト21は内装材61を左側から照らすからである。同様に、上記フレームから取得された第2フレームにおいては、凸部は左側に影が残るように映っている。なぜなら、第2のライト22は内装材61を右側から照らすからである。そうすると、第1輝度信号の凸部に対応する輝度振幅と、第2輝度信号の凸部に対応する輝度振幅とは位相が反転した関係となる。なお、第3のライト23は凸部を正面から照らすため、第3フレームから得られる第3輝度信号(図14の(a)の<G>)においては、凸部に対応する明暗が現われない。
 そこで、コントローラ25は、第1輝度信号及び第2輝度信号の差をとることにより、輝度振幅の大きい差信号(図14の(a)の<R-B>)を取得し、差信号の振幅と閾値X1とを比較する。閾値X1は、経験的または実験的にあらかじめ定められ、記憶部26に記憶される。閾値X1は、検査領域の周辺輝度に応じて適応的に定められてもよい。
 コントローラ25が行う具体的な処理としては、グラデーション除去後の第1フレームとグラデーション除去後の第2フレームとの差分を示す差分フレームをマトリクス状に分割し、分割により得られる複数の検査領域(例えば、5画素×5画素の領域)のそれぞれにおいて、当該検査領域における最大輝度から最小輝度までの振幅が閾値X1以上であるか否かを判定する。
 なお、差分フレームは、第1フレーム及び第2フレームにおいて対応する画素間の輝度値の差を取ることによって得られるフレームである。差分フレームに含まれる画素の輝度値cdif(i,j)は、第1フレームに含まれる画素の輝度値c1(i,j)、第2フレームに含まれる画素の輝度値c2(i,j)を用いて、cdif(i,j)=c1(i,j)-c2(i,j)(あるいは、cdif(i,j)=c2(i,j)-c1(i,j))と表現できる。なお、(i、j)は、画素の座標(位置)を意味する。
 コントローラ25は、振幅が閾値X1以上である検査領域には凸部が映っていると判定し、振幅が閾値X1未満である検査領域には凸部が映っていないと判定する。このように、コントローラ25は、第1フレームと第2フレームとの差分フレームに基づいて、内装材61の表面の凸部を特定することができる。
 次に、コントローラ25は、凸部の特定結果を表示する(S16)。例えば、コントローラ25は、ステップS13で処理対象となったフレームに特定した凸部を示す情報を重畳して表示部32に表示する。言い換えれば、コントローラ25は、特定した凸部を示す情報が重畳された撮像データを表示部32に表示する。なお、コントローラ25は、特定結果の表示に際して表示コントローラ33と連携する。図15は、表示部32に表示される特定結果の一例を示す図である。なお、図15の例では、特定した凸部を示す情報として凸部が映っていると判断された検査領域を囲む四角枠が重畳されているが、特定した凸部を示す情報は、他の多角形の枠、円形の枠、または、矢印などであってもよく、特に限定されない。
 以上説明したように、検査装置10は、第1フレーム及び第2フレームを用いて内装材61の表面の凸部を特定することができる。
 [動作例2]
 次に、検査装置10の動作例2について説明する。図16は、検査装置10の動作例2のフローチャートである。動作例2は、内装材61の表面の汚れた箇所(以下、単に汚れなどとも記載される)が特徴箇所として特定される動作を示す。
 まず、コントローラ25は、第1のライト21、第2のライト22、及び、第3のライト23の3つのライトを発光させ(S21)、カメラ24を起動して青色光、赤色光、及び、緑色光が照射された内装材61を撮像する(S22)。この結果、カメラ24は、撮像データを出力する。
 次に、コントローラ25は、出力された撮像データに含まれる一つのフレームから緑色光の輝度分布を示す第3フレームを取得する(S23)。
 次に、コントローラ25は、第3フレームに対してグラデーション除去処理を行い(S24)グラデーション除去後の第3フレームに基づいて、内装材61の表面の汚れを特定する(S25)。
 図14の(b)に示されるように、フレームに内装材61の汚れが映っている場合、このフレームから取得された第3フレーム(図14の(b)の<G>)においては、汚れに対応する部分の輝度が局所的に低下する。
 そこで、コントローラ25は、グラデーション除去後の第3フレームをマトリクス状に分割し、分割により得られる複数の検査領域(例えば、5画素×5画素の領域)のそれぞれにおいて、当該検査領域における最小輝度がベース輝度(例えば、当該検査領域の周辺画素の平均輝度)よりも閾値X2以上低いか否かを判定する。閾値X2は、経験的または実験的にあらかじめ定められ、記憶部26に記憶される。閾値X2は、検査領域の周辺輝度に応じて適応的に定められてもよい。
 コントローラ25は、ベース輝度から最小輝度までの低下量が閾値X2以上である検査領域には汚れが映っていると判定し、ベース輝度から最小輝度までの低下量が閾値X2未満である検査領域には汚れが映っていないと判定する。このように、コントローラ25は、第3フレームに基づいて、内装材61の表面の汚れを特定することができる。
 なお、図14の(b)に示されるように、フレームに内装材61の汚れが映っている場合、このフレームから取得された第1フレーム(図14の(b)の<B>)、及び、第2フレーム(図14の(b)の<R>)のそれぞれにおいても、汚れに対応する部分の輝度が局所的に低下すると考えられる。そこで、上記のような汚れの有無の判定は、第1フレーム、第2フレーム、及び、第3フレームを加算した加算フレームを対象として行われてもよい(図14の(b)の<R+B+G>)。しかしながら、第3フレームのみが用いられることで、後述の凹部と汚れとの違いを区別しやすい効果(つまり判定精度を高める効果)が得られる。
 次に、コントローラ25は、汚れの特定結果を表示する(S26)。例えば、コントローラ25は、ステップS23で処理対象となったフレームに特定した汚れた部分を示す情報を重畳して表示部32に表示する。言い換えれば、コントローラ25は、特定した汚れた部分を示す情報が重畳された撮像データを表示部32に表示する。なお、特定した汚れた部分を示す情報は、例えば、汚れが映っていると判断された検査領域を囲む多角形の枠であるが、円形の枠または矢印などであってもよく、特に限定されない。
 以上説明したように、検査装置10は、第3フレームを用いて内装材61の表面の汚れた部分を特定することができる。
 [動作例3]
 次に、検査装置10の動作例3について説明する。図17は、検査装置10の動作例3のフローチャートである。動作例3は、内装材61の表面の凹部が特徴箇所として特定される動作を示す。
 まず、コントローラ25は、第1のライト21、第2のライト22、及び、第3のライト23の3つのライトを発光させ(S31)、カメラ24を起動して青色光、赤色光、及び、緑色光が照射された内装材61を撮像する(S32)。この結果、カメラ24は、撮像データを出力する。
 次に、コントローラ25は、出力された撮像データに含まれる一つのフレームから、青色光の輝度分布を示す第1フレーム、及び、赤色光の輝度分布を示す第2フレームを取得する(S33)。ステップS33においては、上記一つのフレームから緑色光の輝度分布を示す第3フレームが取得されてもよい。
 次に、コントローラ25は、第1フレーム、及び、第2フレームのそれぞれに対してグラデーション除去処理を行い(S34)、グラデーション除去後の第1フレーム、及び、第2フレームに基づいて、内装材61の表面の凹部を特定する(S35)。なお、ステップS33において第3フレームが取得された場合、ステップS34においては、第3フレームに対してもグラデーション除去処理が行われる。
 図14の(c)に示されるように、フレームに内装材61の凹部が映っている場合、このフレームから取得された第1フレーム(図14の(c)の<B>)及び第2フレーム(図14の(c)の<R>)においては、凹部に対応する部分の輝度が局所的に低下する。一方、フレームに内装材61の凹部が映っている場合、このフレームから取得された第3フレームにおいては、凹部に対応する部分の輝度は低下しない。
 そこで、コントローラ25は、グラデーション除去後の第1フレームとグラデーション除去後の第2フレームとを加算した加算フレームをマトリクス状に分割し、分割により得られる複数の検査領域(例えば、5画素×5画素の領域)のそれぞれにおいて、当該検査領域における最小輝度がベース輝度(例えば、当該検査領域の周辺画素の平均輝度)よりも閾値X3以上低いか否かを判定する。閾値X3は、経験的または実験的にあらかじめ定められ、記憶部26に記憶される。閾値X3は、検査領域の周辺輝度に応じて適応的に定められてもよい。
 加算フレームは、第1フレーム及び第2フレームにおいて対応する画素間の輝度値の和を取ることによって得られるフレームである。加算フレームに含まれる画素の輝度値cadd(i,j)は、第1フレームに含まれる画素の輝度値c1(i,j)、第2フレームに含まれる画素の輝度値c2(i,j)を用いて、cadd(i,j)=c1(i,j)+c2(i,j)と表現できる。なお、(i、j)は、画素の座標(位置)を意味する。
 なお、内装材61自体に模様として濃淡が形成されている場合、模様の濃淡を凹部と判定してしまう場合がある。そこで、加算フレームとグラデーション除去後の第3フレームとの差分フレームを対象として閾値X3を用いた判定が行われてもよい(図14の(c)の<R+B-G>)。これにより、模様の濃淡の影響が低減され、判定精度を高める効果が得られる。
 次に、コントローラ25は、凹部の特定結果を表示する(S36)。例えば、コントローラ25は、ステップS23で処理対象となったフレームに特定した凹部を示す情報を重畳して表示部32に表示する。言い換えれば、コントローラ25は、特定した凹部を示す情報が重畳された撮像データを表示部32に表示する。なお、特定した凹部を示す情報は、例えば、凹部が映っていると判断された検査領域を囲む多角形の枠であるが、円形の枠または矢印などであってもよく、特に限定されない。
 以上説明したように、検査装置10は、第1フレーム及び第2フレームを用いて内装材61の表面の凹部を特定することができる。
 なお、動作例1~動作例3は、任意に組み合わされてもよい。例えば、カメラ24から出力された撮像データに含まれる一つのフレームを用いて、凸部、汚れ、及び、凹部のそれぞれが特徴箇所として特定され、特定結果が表示部32に表示されてもよい。この場合、コントローラ25は、特徴箇所を示す情報を、当該特徴箇所の種類ごとに異なる態様で表示部32に表示する。図18は、表示部32に表示される特定結果の別の一例を示す図である。なお、図18の例では、特徴箇所を囲む枠の形状により、凸部、汚れ、及び、凹部を区別しているが、特徴箇所を囲む枠の色などによって凸部、汚れ、及び、凹部を区別が区別されてもよい。特徴箇所を区別するための具体的態様については特に限定されない。
 [表示の変形例1]
 ステップS16、ステップS26、及び、ステップS36において表示される特定結果は、静止画であってもよいし、リアルタイムに更新されることで動画像として表示されてもよい。このように特定結果を静止画として表示するか動画として表示するかは、ユーザ50の操作に応じて切り替えられてもよい。図19は、特定結果の表示モードの切り替え動作のフローチャートである。
 まず、操作受付部31は、ユーザ50の表示モードの指定操作を受け付ける(S41)。操作受付部31によって受け付けられた指定操作が静止画モードを指定する操作である場合(S41で「静止画」)、コントローラ25(または表示コントローラ33)は、特定結果を静止画として表示する(S42)。一方、操作受付部31によって受け付けられた指定操作が動画モードを指定する操作である場合(S41で「動画」)、コントローラ25(または表示コントローラ33)は、特定結果を動画として表示する(S43)。
 [表示の変形例2]
 ステップS16、ステップS26、及び、ステップS36において表示される特定結果(静止画または動画像)は、二値画像(言い換えれば、白黒画像)であってもよい。二値画像は、具体的には、ステップS13で処理対象となったフレームにおいて、特徴箇所(より具体的には、特徴箇所であると判定された検査領域に含まれる画素)が白及び黒の一方によって表示され、特徴箇所以外の部分が白及び黒の他方によって表示される画像である。つまり、コントローラ25は、特定した特徴箇所が他の部分と区別されるように撮像データを二値化して表示部32に表示する。これにより、ユーザ50は、視覚的に容易に特徴箇所を認識することができる。
 [表示の変形例3]
 また、コントローラ25は、グラデーション除去後の第1フレーム、グラデーション除去後の第2フレーム、及び、グラデーション除去後の第3フレームのうち少なくとも2つを時分割で周期的に表示することにより、ユーザ50に特徴箇所を視覚的に認識させてもよい。コントローラ25は、例えば、グラデーション除去後の第1フレーム、及び、グラデーション除去後の第2フレームを交互に表示する。この場合、グラデーション除去後の第1フレームの表示、及び、グラデーション除去後の第2フレームの表示は、例えば、0.5秒程度の所定期間ごとに切り替えられる。また、グラデーション除去後の第1フレーム、グラデーション除去後の第2フレーム、及び、グラデーション除去後の第3フレームが時分割で周期的に表示されれば、ユーザ50は特徴箇所をより認識しやすくなる。
 [測距センサの使用例]
 コントローラ25は、測距センサ27a(または測距センサ27b)によって計測された検査装置10から内装材61までの距離を用いて内装材61の表面の特徴箇所を特定してもよい。例えば、検査装置10から内装材61までの距離に応じてフレームに映る内装材61の大きさが変わるため、コントローラ25は、上記検査範囲の大きさ(検査範囲に含まれる画素数)を検査装置10から内装材61までの距離に応じて変更してもよい。これにより、距離によって同一の特定箇所であっても対応する画素数が変わるので、判定する画素数のサイズを距離によって変更することで特徴箇所の特定精度が高められる。
 また、コントローラ25は、測距センサ27a(または測距センサ27b)によって計測された検査装置10から内装材61までの距離を用いて第1のライト21、第2のライト22、及び、第3のライト23の明るさを制御してもよい。コントローラ25は、例えば、測距センサ27a(または測距センサ27b)によって計測された検査装置10から内装材61までの距離が長いほど、第1のライト21、第2のライト22、及び、第3のライト23を明るく発光させる。これにより、検査装置10から内装材61までの距離によらず内装材61付近における照度を一定にたもつことができるため、特徴箇所の特定精度が高められる。
 また、コントローラ25は、複数の測距センサ(つまり、測距センサ27a及び測距センサ27b)によって計測された距離を用いて被写体の表面の特徴箇所を特定してもよい。
 例えば、測距センサ27a及び測距センサ27bは、左右方向に離れて位置しているため、コントローラ25は、測距センサ27aによって計測された距離、及び、測距センサ27bによって計測された距離を用いて、内装材61を基準とした検査装置10のパン角を算出することができる。パン角が大きい場合には、第1フレーム及び第2フレーム間における輝度分布のバランスに差が出てしまう場合がある。コントローラ25は、算出されたパン角度に基づいてこのような輝度分布のバランスを補正することにより、特徴箇所の特定精度を高めることができる。
 なお、測距センサ27a及び測距センサ27bは、上下方向に離れて配置されていてもよく、この場合、コントローラ25は、測距センサ27aによって計測された距離、及び、測距センサ27bによって計測された距離を用いて、内装材61を基準とした検査装置10のチルト角度を算出することができる。
 [6軸センサの使用例]
 また、コントローラ25は、6軸センサ28によって計測される、水平面に対するチルト角を用いて被写体の表面の特徴箇所を特定してもよい。
 チルト角が大きい場合には、第1フレーム及び第2フレームのそれぞれにおいて、上下方向における輝度分布が偏ってしまう場合がある。コントローラ25は、算出されたチルト角に基づいてこのような輝度分布を補正することにより、特徴箇所の特定精度を高めることができる。
 また、ステップS12、ステップS22、及び、ステップS32において内装材61が撮像される際に、コントローラ25は、撮影条件情報を表示部32に表示してもよい。撮影条件情報は、例えば、6軸センサ28によって計測されるチルト角、及び、内装材61を基準とした検査装置10のパン角、測距センサ27aによって計測される検査装置10から内装材61までの距離を含む。なお、上述のように、パン角は、例えば、測距センサ27aによって計測された距離、及び、測距センサ27bによって計測された距離に基づいて算出される。図20は、表示部32に表示される撮影条件情報の一例を示す図である。
 図20の例では、チルト角、及び、パン角のそれぞれと、これらの角度が満たすべき所定の角度範囲(例えば、±10deg)とが表示されている。また、チルト角、及び、パン角のそれぞれと、当該距離が満たすべき所定の距離範囲(例えば、1m以内)とが表示されている。なお、撮影条件情報は、リアルタイムに更新される。撮影条件情報は、チルト角、パン角、及び、距離の少なくとも一方を含めばよい。
 このような撮影条件情報によれば、ユーザ50は、検査装置10の姿勢及び検査装置10から内装材61までの距離を所定の状態に保った状態で内装材61を撮像することができる。したがって、検査装置10の撮影条件のばらつきに起因する、特徴箇所の特定精度の低下を抑制することができる。なお、検査装置10は、チルト角、及び、パン角のそれぞれが所定の角度範囲内であり、検査装置10から内装材61までの距離が所定の距離範囲内であるときのみ撮像が可能な構成であってもよい。
 [照度センサの使用例]
 コントローラ25は、照度センサ29によって計測された照度に基づいて、第1のライト21、第2のライト22、及び、第3のライト23の明るさを制御してもよい。コントローラ25は、例えば、照度センサ29によって計測された検査装置10の周辺の照度が高いほど、第1のライト21、第2のライト22、及び、第3のライト23を明るく発光させる。これにより、検査装置10は、適切な明るさで内装材61を撮像することができる。
 また、コントローラ25は、照度センサ29によって計測された照度に基づいて、カメラ24のゲイン、絞り、シャッタースピードを制御してもよい。例えば、コントローラ25は、照度センサ29によって計測された照度が所定の照度よりも高い場合に、カメラ24のゲインを下げて、ライトの明るさを上げる。これにより、周辺の照度が高い場合であっても画像への周辺の照度の影響を減らすことが可能である。
 [その他]
 上記実施の形態では、カメラ24の被写体として構造物60に取り付けられた状態の内装材61が例示された。しかしながら、検査装置10は、物体の表面状態の検査全般に使用可能であり、被写体については特に限定されない。例えば、検査装置10は、内装材61が取り付けられる前の構造物60を被写体として、構造物60の表面の検査に用いられてもよい。このように、内装材61が取り付けられる前に構造物60が検査対象とされることで、手戻り(つまり、内装材61の取り付け直し)の発生を抑制することができる。
 また、上記実施の形態で説明された、第1のライト21、第2のライト22、及び、第3のライトの発光色についても特に限定されない。第1のライト21が発する第1の光、第2のライト22が発する第2の光、及び、第3のライト23が発する第3の光は、波長領域が互いに異なる(言い換えれば、発光色が互いに異なる)光であればよい。また、第1のライト21、第2のライト22、及び、第3のライトの配置についても特に限定されず、第1のライト21、第2のライト22、及び、第3のライトは、互いに異なる位置に配置されていればよい。
 [効果等]
 以上説明したように、検査装置10は、被写体に第1の光を照射する第1のライト21と、被写体に第1の光と波長領域が異なる第2の光を照射する、第1のライト21と異なる位置に配置された第2のライト22と、第1の光及び第2の光が照射された被写体を撮像することにより得られる、撮像データを出力するカメラ24と、出力された撮像データに含まれる一つのフレームから第1の光の輝度分布を示す第1フレーム、及び、第2の光の輝度分布を示す第2フレームを取得し、第1フレーム及び第2フレームを用いて被写体の表面の特徴箇所を特定するコントローラ25とを備える。
 このような検査装置10は、同一のフレームから取得される第1フレーム及び第2フレームを用いて被写体の表面の特徴箇所を特定することで、被写体の表面の特徴箇所を精度よく特定することができる。具体的には、第1フレーム及び第2フレームにおいては、手振れなどによる被写体の位置ずれが発生しないため、検査装置10は、被写体の表面の特徴箇所を精度よく特定することができる。
 また、検査装置10は、さらに、第1の光及び第2の光のいずれとも波長領域が異なる第3の光を被写体に照射する、第1のライト21及び第2のライト22のいずれとも異なる位置に配置された第3のライト23を備える。コントローラ25は、さらに、一つのフレームから第3の光の輝度分布を示す第3フレームを取得し、第1フレーム、第2フレーム、及び、第3フレームを用いて被写体の表面の特徴箇所を特定する。
 このような検査装置10は、第3フレームを用いて被写体の表面の特徴箇所を特定することで、被写体の表面の特徴箇所を精度よく特定することができる。
 また、例えば、第1の光は、青色光であり、第2の光は、赤色光であり、第3の光は、緑色光であり、第3のライト23は、第1のライト21及び第2のライト22の間の領域に配置される。
 このような検査装置10は、波長領域の離れた青色光及び赤色光を第1の光及び第2の光として用いることにより、第1フレームに第2の光が影響すること、及び、第2フレームに第1の光が影響することを抑制することができる。
 また、例えば、コントローラ25は、特定した特徴箇所を示す情報が重畳された撮像データを表示部32に表示する。
 このような検査装置10は、特定された特徴箇所をユーザ50に提示することができる。
 また、例えば、コントローラ25は、特徴箇所を示す情報を、当該特徴箇所の種類ごとに異なる態様で表示部32に表示する。
 このような検査装置10は、特定された特徴箇所を、特定箇所の種類を区別してユーザ50に提示することができる。
 また、例えば、コントローラ25は、第1フレーム及び第2フレームを表示部32に時分割で表示する。
 このような検査装置10は、ユーザ50に特徴箇所を視覚的に認識させることができる。
 また、例えば、コントローラ25は、第1フレーム及び第2フレームに加えて、第3フレームを表示部32に時分割表示する。
 このような検査装置10は、ユーザ50に特徴箇所を容易に認識させることができる。
 また、例えば、コントローラ25は、ユーザ50の操作に基づいて被写体の表面の特徴箇所の特定結果を静止画として表示部に表示するか、動画として前記表示部に表示するかを切り替える。
 このような検査装置10は、特定結果を静止画及び動画のいずれかでユーザ50に提示することができる。ユーザ50は、特定結果を静止画及び動画のいずれで表示するかを使い分けることができる。
 また、例えば、コントローラ25は、特定した特徴箇所が他の部分と区別されるように撮像データを二値化して表示部32に表示する。
 このような検査装置10は、ユーザ50に特徴箇所を容易に認識させることができる。
 また、例えば、検査装置10は、さらに、検査装置10から被写体までの距離を計測する測距センサ27aを備える。コントローラ25は、測距センサ27aによって計測された距離をさらに用いて被写体の表面の特徴箇所を特定する。
 このような検査装置10は、検査装置10から被写体までの距離を考慮して被写体の表面の特徴箇所を特定することができる。
 また、例えば、検査装置10は、複数の測距センサ(具体的には、測距センサ27a及び測距センサ27b)を備える。コントローラ25は、複数の測距センサによって計測された距離をさらに用いて被写体の表面の特徴箇所を特定する。
 このような検査装置10は、コントローラ25は、複数の測距センサによって計測された距離に基づいて定められる被写体を基準とした検査装置10の傾斜角を算出することができる。このような検査装置10は、被写体を基準とした検査装置10の傾斜角を考慮して被写体の表面の特徴箇所を特定することができる。
 また、例えば、検査装置10は、さらに、検査装置10の周辺の照度を計測する照度センサ29を備える。コントローラ25は、照度センサ29によって計測された照度に基づいて、第1のライト21及び第2のライト22の明るさを制御する。
 このような検査装置10は、適切な明るさで被写体を撮像することができる。
 また、例えば、第1のライト21の光軸とカメラ24の光軸とがなす角の大きさは、第2のライト22の光軸とカメラ24の光軸とがなす角の大きさと等しい。
 このように第1のライト21及び第2のライト22が対称的に配置されれば、第1フレーム及び第2フレームを補正する必要性が低下する。したがって、検査装置10は、第1フレーム及び第2フレームの補正処理の負荷(つまり、情報処理量)を軽減することができる。
 また、例えば、コントローラ25は、第1フレーム及び第2フレームの差分フレームに基づいて、被写体の表面の凸部を特定する。
 このような検査装置10は、被写体の表面の凸部を特徴箇所として特定することができる。
 また、例えば、コントローラ25は、第3フレームに基づいて、被写体の表面の汚れた箇所を特定する。
 このような検査装置10は、被写体の表面の汚れた箇所を特徴箇所として特定することができる。
 また、例えば、コントローラ25は、第1フレーム及び第2フレームの加算フレームに基づいて、被写体の表面の凹部を特定する。
 このような検査装置10は、被写体の表面の凹部を特徴箇所として特定することができる。
 また、例えば、被写体は、構造物60に取り付けられた状態の内装材61である。
 このような検査装置10は、内装材61の表面の特徴箇所を特定することができる。
 また、例えば、被写体は、内装材61が取り付けられる構造物60である。
 このような検査装置10は、内装材61が取り付けられる前の構造物の表面の特徴箇所を特定することで、手戻り(つまり、内装材61の取り付け直し)の発生を抑制することができる。
 また、検査装置10などのコンピュータによって実行される検査方法は、第1のライト21により第1の光が照射され、かつ、第1のライト21と異なる位置に配置された第2のライト22により第1の光と波長領域が異なる第2の光が照射された被写体を撮像することにより得られる撮像データに含まれる一つのフレームから第1の光の輝度分布を示す第1フレーム、及び、第2の光の輝度分布を示す第2フレームを取得し、第1フレーム及び第2フレームを用いて被写体の表面の特徴箇所を特定する。
 このような検査方法は、同一のフレームから取得される第1フレーム及び第2フレームを用いて被写体の表面の特徴箇所を特定することで、被写体の表面の特徴箇所を精度よく特定することができる。具体的には、第1フレーム及び第2フレームにおいては、手振れなどによる被写体の位置ずれが発生しないため、検査方法は、被写体の表面の特徴箇所を精度よく特定することができる。
 (その他の実施の形態)
 以上、実施の形態について説明したが、本開示は、上記実施の形態に限定されるものではない。例えば、上記実施の形態では、検査装置は携帯型の装置であったが、据え置き型の装置であってもよい。
 また、上記実施の形態では、検査装置は、複数の装置(照明ユニット及び携帯端末)によって実現されたが、単一の装置として実現されてもよい。また、検査装置は、建築物内を移動するロボット型の装置として実現されてもよい。
 また、本開示は、上記実施の形態の検査装置に相当する動作を行う検査システムとして実現されてもよい。検査システムは、クライアントサーバシステムとして実現されてもよく。この場合、上記実施の形態で検査装置が行う処理の一部または全部は、サーバ装置によって行われる。
 また、上記実施の形態において、特定の処理部が実行する処理を別の処理部が実行してもよい。また、複数の処理の順序が変更されてもよいし、複数の処理が並行して実行されてもよい。例えば、上記実施の形態において照明ユニットが備えるコントローラが実行する処理の一部または全部は、携帯端末が備える表示コントローラによって実行されてもよい。つまり、携帯端末が備える表示コントローラが上記実施の形態で説明された被写体の表面の特徴箇所を特定するコントローラとされてもよい。
 また、上記実施の形態において、各構成要素は、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
 また、各構成要素は、ハードウェアによって実現されてもよい。各構成要素は、回路(または集積回路)でもよい。これらの回路は、全体として1つの回路を構成してもよいし、それぞれ別々の回路でもよい。また、これらの回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。
 また、本発明の全般的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
 例えば、本開示は、検査装置などのコンピュータによって実行される検査方法として実現されてもよい。また、本開示は、検査方法をコンピュータに実行させるためのプログラムとして実現されてもよいし、このようなプログラムが記録されたコンピュータ読み取り可能な非一時的な記録媒体として実現されてもよい。また、本開示は、照明ユニット及び携帯端末を連動させるために携帯端末にインストールされるアプリケーションプログラムとして実現されてもよい。
 その他、各実施の形態に対して当業者が思いつく各種変形を施して得られる形態、または、本開示の趣旨を逸脱しない範囲で各実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本開示に含まれる。
 10 検査装置
 21 第1のライト
 22 第2のライト
 23 第3のライト
 24 カメラ
 25 コントローラ
 27a、27b 測距センサ
 29 照度センサ
 32 表示部
 50 ユーザ
 60 構造物
 61 内装材

Claims (19)

  1.  被写体に第1の光を照射する第1のライトと、
     前記被写体に前記第1の光と波長領域が異なる第2の光を照射する、前記第1のライトと異なる位置に配置された第2のライトと、
     前記第1の光及び前記第2の光が照射された前記被写体を撮像することにより得られる、撮像データを出力するカメラと、
     出力された前記撮像データに含まれる一つのフレームから前記第1の光の輝度分布を示す第1フレーム、及び、前記第2の光の輝度分布を示す第2フレームを取得し、前記第1フレーム及び前記第2フレームを用いて前記被写体の表面の特徴箇所を特定するコントローラとを備える
     検査装置。
  2.  さらに、前記第1の光及び前記第2の光のいずれとも波長領域が異なる第3の光を前記被写体に照射する、前記第1のライト及び前記第2のライトのいずれとも異なる位置に配置された第3のライトを備え、
     前記コントローラは、さらに、前記一つのフレームから前記第3の光の輝度分布を示す第3フレームを取得し、前記第1フレーム、前記第2フレーム、及び、前記第3フレームを用いて前記被写体の表面の特徴箇所を特定する
     請求項1に記載の検査装置。
  3.  前記第1の光は、青色光であり、
     前記第2の光は、赤色光であり、
     前記第3の光は、緑色光であり、
     前記第3のライトは、前記第1のライト及び前記第2のライトの間の領域に配置される
     請求項2に記載の検査装置。
  4.  前記コントローラは、特定した前記特徴箇所を示す情報が重畳された前記撮像データを表示部に表示する
     請求項1~3のいずれか1項に記載の検査装置。
  5.  前記コントローラは、前記特徴箇所を示す情報を、当該特徴箇所の種類ごとに異なる態様で前記表示部に表示する
     請求項4に記載の検査装置。
  6.  前記コントローラは、前記第1フレーム及び前記第2フレームを表示部に時分割表示する
     請求項1~5のいずれか1項に記載の検査装置。
  7.  前記コントローラは、前記第1フレーム、前記第2フレーム、及び、前記第3フレームを表示部に時分割表示する
     請求項2または3に記載の検査装置。
  8.  前記コントローラは、ユーザの操作に基づいて前記被写体の表面の特徴箇所の特定結果を、静止画として表示部に表示するか、動画として前記表示部に表示するかを切り替える
     請求項1~7のいずれか1項に記載の検査装置。
  9.  前記コントローラは、特定した前記特徴箇所が他の部分と区別されるように前記撮像データを二値化して表示部に表示する
     請求項1~8のいずれか1項に記載の検査装置。
  10.  さらに、前記検査装置から前記被写体までの距離を計測する測距センサを備え、
     前記コントローラは、前記測距センサによって計測された距離をさらに用いて前記被写体の表面の特徴箇所を特定する
     請求項1~9のいずれか1項に記載の検査装置。
  11.  前記検査装置は、複数の前記測距センサを備え、
     前記コントローラは、複数の前記測距センサによって計測された距離をさらに用いて前記被写体の表面の特徴箇所を特定する
     請求項10に記載の検査装置。
  12.  さらに、前記検査装置の周辺の照度を計測する照度センサを備え、
     前記コントローラは、前記照度センサによって計測された照度に基づいて、前記第1のライト及び前記第2のライトの明るさを制御する
     請求項1~11のいずれか1項に記載の検査装置。
  13.  前記第1のライトの光軸と前記カメラの光軸とがなす角の大きさは、前記第2のライトの光軸と前記カメラの光軸とがなす角の大きさと等しい
     請求項1~12のいずれか1項に記載の検査装置。
  14.  前記コントローラは、前記第1フレーム及び前記第2フレームの差分フレームに基づいて、前記被写体の表面の凸部を特定する
     請求項1~13のいずれか1項に記載の検査装置。
  15.  前記コントローラは、前記第3フレームに基づいて、前記被写体の表面の汚れた箇所を特定する
     請求項2または3に記載の検査装置。
  16.  前記コントローラは、前記第1フレーム及び前記第2フレームの加算フレームに基づいて、前記被写体の表面の凹部を特定する
     請求項1~15のいずれか1項に記載の検査装置。
  17.  前記被写体は、構造物に取り付けられた状態の内装材である
     請求項1~16のいずれか1項に記載の検査装置。
  18.  前記被写体は、内装材が取り付けられる構造物である
     請求項1~16のいずれか1項に記載の検査装置。
  19.  第1のライトにより第1の光が照射され、かつ、前記第1のライトと異なる位置に配置された第2のライトにより前記第1の光と波長領域が異なる第2の光が照射された被写体を撮像することにより得られる撮像データに含まれる一つのフレームから前記第1の光の輝度分布を示す第1フレーム、及び、前記第2の光の輝度分布を示す第2フレームを取得し、
     前記第1フレーム及び前記第2フレームを用いて前記被写体の表面の特徴箇所を特定する
     検査方法。
PCT/JP2020/000568 2019-02-01 2020-01-10 検査装置、及び、検査方法 WO2020158340A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020569479A JPWO2020158340A1 (ja) 2019-02-01 2020-01-10 検査装置、及び、検査方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-017472 2019-02-01
JP2019017472 2019-02-01

Publications (1)

Publication Number Publication Date
WO2020158340A1 true WO2020158340A1 (ja) 2020-08-06

Family

ID=71842089

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/000568 WO2020158340A1 (ja) 2019-02-01 2020-01-10 検査装置、及び、検査方法

Country Status (3)

Country Link
JP (1) JPWO2020158340A1 (ja)
TW (1) TW202041851A (ja)
WO (1) WO2020158340A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11408833B2 (en) * 2020-06-02 2022-08-09 Hyundai Motor Company Vehicle and method of managing cleanliness of interior of the vehicle
WO2022249884A1 (ja) * 2021-05-28 2022-12-01 パナソニックIpマネジメント株式会社 判定装置、及び、判定方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05142161A (ja) * 1991-11-25 1993-06-08 Hitachi Ltd 外観検査方法およびその装置、磁気ヘツド検査方法およびその装置並びに磁気ヘツド製造設備
JPH11160245A (ja) * 1997-12-02 1999-06-18 Topcon Corp 表面検査装置
JP2001514386A (ja) * 1997-08-22 2001-09-11 スペクトラ−フィジックス・ビジョンテック・オイ 移動表面の自動的な検査のための方法及び装置
JP2001304835A (ja) * 2000-04-26 2001-10-31 Toshiba Eng Co Ltd 凹凸測定用照明装置、凹凸測定装置、欠陥検査用照明装置、欠陥検査装置およびその照明方法
JP2002168791A (ja) * 2000-12-01 2002-06-14 Rozefu Technol:Kk 多元照明を用いた検査装置
JP2002296192A (ja) * 2001-03-30 2002-10-09 Rozefu Technol:Kk カラー照明を用いた欠陥検査方法
WO2003010525A1 (fr) * 2001-07-27 2003-02-06 Nippon Sheet Glass Co., Ltd. Procede d'evaluation de la contamination superficielle d'un objet et dispositif imageur utilise a cet effet
US20040233421A1 (en) * 2001-05-08 2004-11-25 Wolfgang Weinhold Method and device for examining an object in a contactless manner, especially for examining the surface form of the same
WO2017169242A1 (ja) * 2016-03-28 2017-10-05 セーレン株式会社 欠陥検査装置、及び欠陥検査方法
US20180045505A1 (en) * 2016-08-12 2018-02-15 Symbol Technologies, Llc Arrangement for, and method of, remotely dimensioning generally planar, target surfaces of objects

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05142161A (ja) * 1991-11-25 1993-06-08 Hitachi Ltd 外観検査方法およびその装置、磁気ヘツド検査方法およびその装置並びに磁気ヘツド製造設備
JP2001514386A (ja) * 1997-08-22 2001-09-11 スペクトラ−フィジックス・ビジョンテック・オイ 移動表面の自動的な検査のための方法及び装置
JPH11160245A (ja) * 1997-12-02 1999-06-18 Topcon Corp 表面検査装置
JP2001304835A (ja) * 2000-04-26 2001-10-31 Toshiba Eng Co Ltd 凹凸測定用照明装置、凹凸測定装置、欠陥検査用照明装置、欠陥検査装置およびその照明方法
JP2002168791A (ja) * 2000-12-01 2002-06-14 Rozefu Technol:Kk 多元照明を用いた検査装置
JP2002296192A (ja) * 2001-03-30 2002-10-09 Rozefu Technol:Kk カラー照明を用いた欠陥検査方法
US20040233421A1 (en) * 2001-05-08 2004-11-25 Wolfgang Weinhold Method and device for examining an object in a contactless manner, especially for examining the surface form of the same
WO2003010525A1 (fr) * 2001-07-27 2003-02-06 Nippon Sheet Glass Co., Ltd. Procede d'evaluation de la contamination superficielle d'un objet et dispositif imageur utilise a cet effet
WO2017169242A1 (ja) * 2016-03-28 2017-10-05 セーレン株式会社 欠陥検査装置、及び欠陥検査方法
US20180045505A1 (en) * 2016-08-12 2018-02-15 Symbol Technologies, Llc Arrangement for, and method of, remotely dimensioning generally planar, target surfaces of objects

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11408833B2 (en) * 2020-06-02 2022-08-09 Hyundai Motor Company Vehicle and method of managing cleanliness of interior of the vehicle
WO2022249884A1 (ja) * 2021-05-28 2022-12-01 パナソニックIpマネジメント株式会社 判定装置、及び、判定方法

Also Published As

Publication number Publication date
TW202041851A (zh) 2020-11-16
JPWO2020158340A1 (ja) 2021-11-18

Similar Documents

Publication Publication Date Title
US10262431B2 (en) Three-dimensional measurement device
KR100917524B1 (ko) 위치 검출 장치
KR100648592B1 (ko) 화상 처리 시스템, 프로젝터 및 화상 처리 방법
WO2020158340A1 (ja) 検査装置、及び、検査方法
EP3054693B1 (en) Image display apparatus and pointing method for same
JP2008269616A (ja) 画像表示装置のカーソル制御装置及び制御方法、ならびに画像システム
JP4080514B2 (ja) 検査装置、検査方法、検査プログラムおよびコンピュータ読み取り可能な記録媒体
KR20070028231A (ko) 표시 장치의 신틸레이션 측정 방법 및 신틸레이션 측정장치
CN110596139A (zh) 一种屏缺陷检测方法和***
JP2012127934A (ja) 検査方法及び検査装置
JP5493702B2 (ja) 位置検出機能付き投射型表示装置
CN113632454A (zh) 投影***、投影装置以及投影方法
US20200232914A1 (en) Substance detection device and substance detection method
JP2013041714A (ja) 照明制御装置
JP2011041698A (ja) 赤外線ledおよび単点光センサを使用したカーソル相対位置検出方法および装置
JP2019174917A (ja) 検出装置、及び、検出装置の制御方法
JP6927294B2 (ja) 計測装置、計測方法及び計測プログラム
KR102122275B1 (ko) 배광 특성 측정 장치 및 배광 특성 측정 방법
JP2013015328A (ja) 表示パネル検査装置及び表示パネル検査方法
JP4308575B2 (ja) 平面表示パネルの検査装置
JP2012198306A (ja) 表示性能測定装置、表示性能測定方法、およびプロジェクター装置
JP2007047062A (ja) 表示パネルの検査方法および検査装置
JP2013160596A (ja) 3次元形状計測装置およびキャリブレーション方法
JP2012154684A (ja) 三次元形状計測装置及び三次元形状計測方法
CN113432528B (zh) 位置测定装置、位置测定方法以及记录介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20749444

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020569479

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20749444

Country of ref document: EP

Kind code of ref document: A1