WO2024070954A1 - 距離測定装置、距離測定方法、距離測定プログラム - Google Patents

距離測定装置、距離測定方法、距離測定プログラム Download PDF

Info

Publication number
WO2024070954A1
WO2024070954A1 PCT/JP2023/034528 JP2023034528W WO2024070954A1 WO 2024070954 A1 WO2024070954 A1 WO 2024070954A1 JP 2023034528 W JP2023034528 W JP 2023034528W WO 2024070954 A1 WO2024070954 A1 WO 2024070954A1
Authority
WO
WIPO (PCT)
Prior art keywords
range
light
narrow
wide
regions
Prior art date
Application number
PCT/JP2023/034528
Other languages
English (en)
French (fr)
Inventor
雅春 深草
眞由 田場
信三 香山
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Publication of WO2024070954A1 publication Critical patent/WO2024070954A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication

Definitions

  • the technology disclosed here relates to distance measurement technology.
  • Patent Document 1 discloses a three-dimensional measurement system.
  • the imaging unit has a first imaging unit and a second imaging unit arranged at a distance from each other.
  • a first calculation unit uses at least one of the images of the object captured by the first imaging unit and the second imaging unit, and calculates the parallax of the first feature point by using distance information of a three-dimensional measurement method different from the stereo camera method.
  • a second calculation unit uses both the images of the object captured by the first imaging unit and the second imaging unit, and calculates the parallax of the second feature point by the stereo camera method. Then, the second calculation unit identifies the three-dimensional shape of the object from the parallax of the first feature point and the parallax of the second feature point.
  • the measurement surface to which distance is to be measured includes a plain surface without texture, it is difficult to perform stereo matching (corresponding point search) on such a plain surface. This makes it difficult to accurately measure the distance to the measurement surface.
  • the technology disclosed herein relates to a distance measuring device, which includes a first imaging unit and a second imaging unit arranged side by side so that their respective fields of view overlap, a projection unit that projects pattern light into the area where the fields of view of the first imaging unit and the second imaging unit overlap, and a measurement unit that measures the distance to a measurement surface onto which the pattern light is projected based on the parallax between a first image obtained by the first imaging unit and a second image obtained by the second imaging unit, and the pattern light is composed of a plurality of light regions with different hues and a plurality of light regions with the same hue but different luminance, and the plurality of wide-range light regions are distributed in a predetermined pattern, and in each of the plurality of wide-range light regions, a plurality of narrow-range light regions are distributed in a predetermined pattern.
  • the technology disclosed herein relates to a distance measurement method using a first imaging unit and a second imaging unit arranged side by side so that their respective fields of view overlap, and a projection unit that projects pattern light into the area where the fields of view of the first imaging unit and the second imaging unit overlap
  • this distance measurement method includes a projection step of projecting the pattern light from the projection unit, an acquisition step of acquiring a first image obtained by the first imaging unit and a second image obtained by the second imaging unit, and a measurement step of measuring the distance to a measurement surface onto which the pattern light is projected based on the parallax between the first image and the second image, and the pattern light is composed of multiple light regions with different hues and multiple light regions with the same hue but different luminance, and multiple wide-range light regions are distributed in a predetermined pattern, and in each of the multiple wide-range light regions, multiple narrow-range light regions are distributed in a predetermined pattern.
  • the technology disclosed herein relates to a distance measurement program that causes a computer to execute the distance measurement method.
  • the technology disclosed herein makes it possible to accurately measure the distance to the measurement surface even if the measurement surface includes a plain surface.
  • FIG. 1 is a schematic diagram illustrating a schematic configuration of a distance measuring device according to an embodiment
  • 1 is a block diagram illustrating a configuration of a distance measuring device according to an embodiment
  • 4 is a block diagram illustrating an example of a functional configuration of a control unit.
  • FIG. FIG. 11 is a schematic diagram for explaining a first search process.
  • FIG. 11 is a schematic diagram for explaining a second search process.
  • 10A and 10B are schematic diagrams illustrating projected pattern light.
  • FIG. 2 is a schematic diagram illustrating a configuration of a filter.
  • 5 is a graph for explaining the output characteristics of a light source and the transmittance characteristics of a filter region in the embodiment.
  • 11 is a flowchart illustrating a brightness adjustment process.
  • FIG. 11 is a flowchart illustrating a distance measurement process.
  • FIG. 11 is a block diagram illustrating a configuration of a distance measuring device according to a first modified example of the embodiment.
  • 11 is a graph for explaining the output characteristics of a light source and the transmittance characteristics of a filter region in the first modified example of the embodiment.
  • 11A and 11B are schematic diagrams illustrating a part of a pattern light in a second modified example of the embodiment.
  • 11 is a schematic diagram illustrating a part of a filter according to a second modified example of the embodiment.
  • the distance measuring device 1 and 2 illustrate the configuration of a distance measurement device 1 according to an embodiment.
  • the distance measurement device 1 includes a first imaging unit 10, a second imaging unit 20, a projection unit 30, a control unit 40, a storage unit 41, and a communication interface 42.
  • the distance measurement device 1 measures a distance D0 to a measurement surface.
  • the measurement surface is a surface of an object OB (a surface facing the first imaging unit 10 and the second imaging unit 20).
  • the direction perpendicular to the X-axis direction is referred to as the "Y-axis direction,” and the direction perpendicular to both the X-axis direction and the Y-axis direction is referred to as the "Z-axis direction.”
  • the first imaging unit 10 images the range of a first field of view 10a.
  • the second imaging unit 20 images the range of a second field of view 20a.
  • the first imaging unit 10 and the second imaging unit 20 are arranged side by side so that their fields of view overlap.
  • the first field of view 10a and the second field of view 20a are oriented in the Z-axis direction, and the first imaging unit 10 and the second imaging unit 20 are arranged side by side in the X-axis direction.
  • the area where the first field of view 10a of the first imaging unit 10 and the second field of view 20a of the second imaging unit 20 overlap includes the measurement surface (the surface of the object OB in this example).
  • the first imaging unit 10 and the second imaging unit 20 are so-called stereo cameras, and simultaneously capture the field of view range (imaged range) from different viewpoints.
  • the first imaging unit 10 captures the first image P10 by capturing an image of the first field of view 10a at each predetermined time.
  • the first imaging unit 10 has a first imaging lens 11 and a first imaging element 12.
  • the first imaging lens 11 focuses light from the field of view 10a of the first imaging unit 10 onto the first imaging surface 12a of the first imaging element 12.
  • the first imaging lens 11 may be a single lens having a predetermined focal length, or may be a combination of multiple lenses.
  • the first imaging element 12 converts the light applied to the first imaging surface 12a into an electrical signal. This results in a first image P10.
  • the first imaging element 12 may be a monochrome image sensor.
  • the first imaging element 12 may be a CMOS image sensor, a CCD image sensor, etc.
  • the second imaging unit 20 acquires a second image P20 by imaging the range of the second field of view 20a at each predetermined time.
  • the configuration of the second imaging unit 20 is similar to that of the first imaging unit 10.
  • the second imaging unit 20 has a second imaging lens 21 and a second imaging element 22.
  • the configurations of the second imaging lens 21 and the second imaging element 22 are similar to the configurations of the first imaging lens 11 and the first imaging element 12, and the second imaging lens 21 has the same focal length as the first imaging lens 11.
  • the second imaging element 22 has a second imaging surface 22a.
  • the size of the second image P20 is the same as the size of the first image P10.
  • the size of the pixels of the second image P20 is the same as the size of the pixels of the first image P10.
  • the number of pixels contained in the second image P20 is the same as the number of pixels contained in the first image P10.
  • the imaging direction of the first imaging unit 10 may be slightly tilted from the Z-axis direction toward the second imaging unit 20 (direction toward the second imaging unit 20).
  • the imaging direction of the second imaging unit 20 may be slightly tilted from the Z-axis direction toward the first imaging unit 10 (direction toward the first imaging unit 10).
  • the positions of the first imaging unit 10 and the second imaging unit 20 in the Z-axis direction and the Y-axis direction are the same.
  • the projection unit 30 projects the pattern light 50 in a range where the first field of view 10a of the first imaging unit 10 and the second field of view 20a of the second imaging unit 20 overlap.
  • the projection direction of the pattern light 50 by the projection unit 30 is the Z-axis direction.
  • the pattern light 50 is projected onto the surface (an example of a measurement surface) of the object OB included in the range where the first field of view 10a of the first imaging unit 10 and the second field of view 20a of the second imaging unit 20 overlap.
  • the pattern light 50 will be described in detail later.
  • the projection unit 30 has a light source 31, an optical system 32, a filter 33, a projection lens 34, and a light source driver 35.
  • the light source 31 emits light used to generate the pattern light 50.
  • the light source 31 includes first to third light sources 311 to 313.
  • the first light source 311 emits light in a wavelength band corresponding to "red” (590 to 640 nm).
  • the second light source 312 emits light in a wavelength band corresponding to "green” (490 to 550 nm).
  • the third light source 313 emits light in a wavelength band corresponding to "blue” (430 to 490 nm).
  • the first to third light sources 311 to 313 may be light-emitting diodes or other types of light sources such as semiconductor lasers.
  • the optical system 32 guides the light emitted from the light source 31 to the filter 33.
  • the optical system 32 has first to third collimator lenses 321 to 323, a first dichroic mirror 324, and a second dichroic mirror 325.
  • the first to third collimator lenses 321 to 323 convert the light emitted from the first to third light sources 311 to 313 into approximately parallel light, respectively.
  • the first dichroic mirror 324 transmits the light incident from the first collimator lens 321 and reflects the light incident from the second collimator lens 322.
  • the second dichroic mirror 325 transmits the light incident from the first dichroic mirror 324 and reflects the light incident from the third collimator lens 323.
  • Filter 33 generates pattern light 50.
  • the configuration of filter 33 will be explained in detail later.
  • the projection lens 34 projects the pattern light 50 generated by the filter 33.
  • the projection lens 34 may be a single lens or a combination of multiple lenses.
  • the light source driving unit 35 drives the light sources 31 (in this example, the first to third light sources 311 to 313) in response to control by the control unit 40. Specifically, the light source driving unit 35 drives the light sources 31 based on the drive current value set by the control unit 40 so that light with a brightness according to the drive current value is emitted.
  • the control unit 40 performs various processes. Specifically, the control unit 40 acquires information and data from each unit of the distance measurement device 1, and performs various processes based on the information and data. The processes performed by the control unit 40 will be described in detail later.
  • control unit 40 includes a processor and a memory (storage medium) that stores a program for operating the processor.
  • the program is executed by the processor to realize various functions of the control unit 40.
  • control unit 40 has various functional blocks that realize various functions.
  • the control unit 40 is an example of a computer.
  • This program is an example of a distance measurement program.
  • the control unit 40 and the communication interface 42 may be configured with a semiconductor integrated circuit consisting of an FPGA (Field Programmable Gate Array). Alternatively, they may be configured with other semiconductor integrated circuits such as a DSP (Digital Signal Processor), a GPU (Graphics Processing Unit), or an ASIC (Application Specific Integrated Circuit).
  • FPGA Field Programmable Gate Array
  • DSP Digital Signal Processor
  • GPU Graphics Processing Unit
  • ASIC Application Specific Integrated Circuit
  • the storage unit 41 stores various types of information and data.
  • the storage unit 41 stores a first image P10 obtained by the first imaging unit 10, a second image P20 obtained by the second imaging unit 20, and the like.
  • control section 3 illustrates an example of a functional configuration of the control unit 40.
  • the control unit 40 includes a first imaging processing unit 401, a second imaging processing unit 402, a projection control unit 403, and a measurement unit 404.
  • the first imaging processing unit 401 controls the first imaging element 12 of the first imaging unit 10. In addition, the first imaging processing unit 401 performs pre-processing such as brightness correction and camera correction on the first image P10 (pixel signal) obtained by the first imaging element 12 of the first imaging unit 10. In this example, the first image P10 processed by the first imaging processing unit 401 is stored in the storage unit 41.
  • the second imaging processing unit 402 controls the second imaging element 22 of the second imaging unit 20.
  • the second imaging processing unit 402 also performs pre-processing such as brightness correction and camera correction on the second image P20 (pixel signal) obtained by the second imaging element 22 of the second imaging unit 20.
  • pre-processing such as brightness correction and camera correction on the second image P20 (pixel signal) obtained by the second imaging element 22 of the second imaging unit 20.
  • the second image P20 processed by the second imaging processing unit 402 is stored in the storage unit 41.
  • the projection control unit 403 controls the projection unit 30. Specifically, the projection control unit 403 controls the projection unit 30 to cause the projection unit 30 to project the pattern light 50.
  • the projection control unit 403 performs a brightness adjustment process.
  • the projection control unit 403 adjusts the brightness of the light emitted from the light source 31 (in this example, each of the first to third light sources 311 to 313) so that the brightness of the light emitted from the light source 31 does not become saturated.
  • the brightness adjustment process will be described in detail later.
  • the measurement unit 404 measures a distance D0 to the measurement surface onto which the pattern light 50 is projected, based on the parallax between the first image P10 obtained by the first imaging unit 10 and the second image P20 obtained by the second imaging unit 20.
  • the measurement unit 404 has a first search unit 411, a second search unit 412, and a distance derivation unit 413.
  • the first search unit 411 performs a first search process.
  • the first search unit 411 sequentially selects wide range reference blocks B11 from the first image P10, and searches for wide range corresponding blocks B21 corresponding to the wide range reference blocks B11 from the second image P20.
  • the first search unit 411 performs the following process in the first search process.
  • the first search unit 411 sequentially selects wide range reference blocks B11 from the first image P10 by shifting the pixel range for selecting the wide range reference blocks B11 in the first image P10 by a predetermined amount (first reference shift amount).
  • the wide range reference blocks B11 are pixel blocks (a collection of multiple pixels) that serve as reference points for the corresponding point search in the first search process.
  • the wide range reference block B11 includes 36 pixels arranged in a matrix of 6 rows and 6 columns. The first search unit 411 then performs the following process on each of the wide range reference blocks B11 selected sequentially from the first image P10.
  • the first search unit 411 sequentially selects wide range reference blocks BR1 from the second image P20 by shifting the pixel range for selecting the wide range reference block BR1 to be compared with the wide range reference block B11 by a predetermined amount (first reference shift amount) in the second image P20.
  • the wide range reference block BR1 is a pixel block that is a candidate for the wide range corresponding block B21 that corresponds to the wide range reference block B11.
  • the shape and size of the wide range reference block BR1 are the same as the shape and size of the wide range reference block B11.
  • the first search unit 411 derives the similarity between each of the wide range reference blocks BR1 selected in order from the second image P20 and the wide range reference block B11. Then, the first search unit 411 determines, among the wide range reference blocks BR1 selected in order from the second image P20, the "wide range reference block BR1 that has the greatest similarity to the wide range reference block B11" as the wide range corresponding block B21 that corresponds to the wide range reference block B11.
  • wide-range block combinations As described above, by performing the first search process on the first image P10 and the second image P20, multiple combinations of wide-range reference blocks B11 and wide-range corresponding blocks B21 (hereinafter referred to as “wide-range block combinations") are obtained.
  • the first search unit 411 sequentially selects wide range reference blocks BR1 within a search range R20 that starts from the same position in the second image P20 as the "position of the wide range reference block B11 in the first image P10" and extends in a direction (left-right direction in this example) corresponding to the "separation direction (X-axis direction) between the first imaging unit 10 and the second imaging unit 20."
  • the extension direction of the search range R20 is set in the direction in which the pixel block located at the starting point shifts from the starting point due to parallax.
  • the starting point of the search range R20 is not limited to being the same position (reference position) in the second image P20 as the "position of the wide-range reference block B11 in the first image P10."
  • the starting point of the search range R20 may be set to a position in the second image P20 that is shifted a predetermined amount (e.g., several blocks) to the right (the direction of shift due to parallax) from the reference position.
  • the second search unit 412 performs a second search process.
  • the second search unit 412 sequentially selects narrow range reference blocks B12 from the wide range reference blocks B11, and searches for a narrow range corresponding block B22 corresponding to the narrow range reference block B12 from among the wide range corresponding blocks B21 corresponding to the wide range reference block B11.
  • the second search unit 412 performs the following process in the second search process.
  • the second search unit 412 performs the following processing on each of the wide range reference blocks B11 selected in order from the first image P10 by the first search unit 411 and the wide range corresponding block B21 corresponding to that wide range reference block B11.
  • the second search unit 412 sequentially selects narrow-range reference blocks B12 from the wide-range reference block B11 by shifting the pixel range for selecting the narrow-range reference block B12 in the wide-range reference block B11 by a predetermined amount (second reference movement amount).
  • the narrow-range reference block B12 is a pixel block that serves as a reference point for the corresponding point search in the second search process.
  • the narrow-range reference block B12 is smaller than the wide-range reference block B11.
  • the narrow-range reference block B12 includes nine pixels arranged in a matrix of three rows and three columns.
  • the second search unit 412 then performs the following process on each of the narrow-range reference blocks B12 sequentially selected from the wide-range reference block B11.
  • the second search unit 412 sequentially selects narrow-range reference blocks BR2 from the wide-range corresponding blocks B21 by shifting the pixel range for selecting the narrow-range reference block BR2 to be compared with the narrow-range reference block B12 by a predetermined amount (second reference shift amount) in the wide-range corresponding block B21 corresponding to the wide-range reference block B11.
  • the narrow-range reference block BR2 is a pixel block that is a candidate for the narrow-range corresponding block B22 corresponding to the narrow-range reference block B12.
  • the second search unit 412 derives the similarity between each of the narrow-range reference blocks BR2 selected in order from the wide-range correspondence blocks B21 and the narrow-range reference block B12. The second search unit 412 then determines the narrow-range reference block BR2 that has the greatest similarity to the narrow-range reference block B12, among the narrow-range reference blocks BR2 selected in order from the wide-range correspondence blocks B21, as the narrow-range correspondence block B22 that corresponds to the narrow-range reference block B12.
  • narrow range block combinations As described above, a second search process is performed on each of the multiple wide range block combinations (combinations of wide range reference block B11 and wide range corresponding block B21), thereby obtaining multiple combinations of narrow range reference block B12 and narrow range corresponding block B22 (hereinafter referred to as “narrow range block combinations").
  • the distance derivation unit 413 performs a distance derivation process.
  • the distance derivation unit 413 derives the distance to the measurement surface in the narrow range reference block B12 based on the parallax between the narrow range reference block B12 and the narrow range corresponding block B22.
  • the distance derivation unit 413 performs the following process in the distance derivation process.
  • the distance derivation unit 413 performs the following processing for each of the narrow-range reference blocks B12 selected in order from the first image P10 by the second search unit 412.
  • the distance derivation unit 413 selects a narrow-range corresponding block B22 (the narrow-range corresponding block B22 detected by the second search unit 412) that corresponds to the narrow-range reference block B12 from within the second image P20, and derives the difference in position (amount of pixel shift) between the narrow-range reference block B12 and the narrow-range corresponding block B22.
  • the distance derivation unit 413 derives the distance D0 (distance D0 to the measurement surface) in the narrow range reference block B12 based on the derived position difference. Specifically, the distance derivation unit 413 derives the distance D0 to the measurement surface by triangulation from the derived position difference (pixel shift amount), the separation distance between the first imaging unit 10 and the second imaging unit 20, and the focal length of the first imaging lens 11. Note that the focal length of the second imaging lens 21 is equal to the focal length of the first imaging lens 11.
  • the above process obtains the distance D0 (distance D0 to the measurement surface) for each of the narrow-range reference blocks B12 selected in order from the first image P10 by the second search unit 412.
  • the distance derivation unit 413 outputs distance information indicating the distance D0 for each of the narrow-range reference blocks B12 selected in order from the first image P10. For example, the distance derivation unit 413 transmits the distance information to an external device via the communication interface 42.
  • the accuracy of the search by the first search unit 411 is lower than the accuracy of the search by the second search unit 412 .
  • the first reference movement amount which is the amount of movement of the pixel range for selecting the wide range reference block B11
  • the second reference movement amount which is the amount of movement of the pixel range for selecting the narrow range reference block B12.
  • the first reference movement amount is set to n pixels (n is an integer of 2 or more)
  • the second reference movement amount is set to m pixels (m is an integer of 1 or more and smaller than n). It is preferable that the second reference movement amount is 1 pixel.
  • the first reference movement amount which is the amount of movement of the pixel range for selecting the wide range reference block BR1
  • the second reference movement amount which is the amount of movement of the pixel range for selecting the narrow range reference block BR2.
  • the first reference movement amount is set to j pixels (j is an integer equal to or greater than 2)
  • the second reference movement amount is set to k pixels (k is an integer equal to or greater than 1 and smaller than j). It is preferable that the second reference movement amount is 1 pixel.
  • Fig. 6 illustrates the pattern light 50 projected onto the measurement surface.
  • the pattern light 50 includes a plurality of wide-range light regions 51.
  • the plurality of wide-range light regions 51 are arranged in a matrix.
  • 35 wide-range light regions 51 are arranged in a matrix of 5 rows and 7 columns.
  • the multiple wide-range light regions 51 are classified into multiple types based on hue.
  • the multiple wide-range light regions 51 include multiple (two or more) wide-range light regions 51 with different hues.
  • the multiple types of wide-range light regions 51 are distributed in a predetermined hue pattern.
  • the hue pattern is a random pattern.
  • the multiple wide range light regions 51 are classified into four types of wide range light regions 51 (specifically, first to fourth wide range light regions 511 to 514).
  • the first to fourth wide range light regions 511 to 514 each have a different hue (in other words, a wavelength band of light).
  • the hue of the first wide range light region 511 is “red”.
  • the hue of the second wide range light region 512 is “orange”.
  • the hue of the third wide range light region 513 is “green”.
  • the hue of the fourth wide range light region 514 is "blue”.
  • the wavelength band of light in the first wide range light region 511 is a wavelength band corresponding to red (e.g., 640 to 770 nm).
  • the wavelength band of light in the second wide range light region 512 is a wavelength band corresponding to orange (e.g., 590 to 640 nm).
  • the wavelength band of light in the third wide range light region 513 is a wavelength band corresponding to green (e.g., 490 to 550 nm).
  • the wavelength band of light in the fourth wide range light region 514 is a wavelength band corresponding to blue (e.g., 430 to 490 nm).
  • each wide-range light region 51 is labeled with a letter (R, O, G, B) indicating the hue. "R” indicates red, “O” indicates orange, “G” indicates green, and “B” indicates blue.
  • R indicates red
  • O indicates orange
  • G indicates green
  • B indicates blue
  • the hue of a wide-range light region 51 labeled with "R” is "red.”
  • Each of the wide range light regions 51 includes a plurality of narrow range light regions 52.
  • the narrow range light regions 52 are arranged in a matrix.
  • nine narrow range light regions 52 are arranged in a matrix of three rows and three columns.
  • the multiple narrow-range light regions 52 are classified into multiple types based on hue and luminance.
  • the multiple narrow-range light regions 52 included in each of the multiple wide-range light regions 51 include multiple (two or more) narrow-range light regions 52 that have the same hue but different luminance.
  • the multiple types of narrow-range light regions 52 are distributed in a predetermined luminance pattern.
  • the luminance pattern is a random pattern.
  • the multiple narrow-range light regions 52 included in each of the multiple wide-range light regions 51 are classified into four types of narrow-range light regions 52 (specifically, first to fourth narrow-range light regions 521 to 524).
  • the first to fourth narrow-range light regions 521 to 524 have different brightnesses.
  • the brightness of the first narrow range light region 521 is “Level 1”.
  • the brightness of the second narrow range light region 522 is “Level 2”.
  • the brightness of the third narrow range light region 523 is “Level 3”.
  • the brightness of the fourth narrow range light region 524 is "Level 4". Note that the brightness level gradually increases from “Level 1" to “Level 4".
  • each narrow-range light region 52 is labeled with a letter (R, O, G, B) indicating the hue and a number (1, 2, 3, 4) indicating the brightness level.
  • R, O, G, B the narrow-range light region 52 labeled “R1” has a hue of "red” and a brightness of "level 1.”
  • a pattern light 50 is projected onto a measurement surface (the surface of the object OB in this example), and the first imaging unit 10 captures an image of the range of the first field of view 10a including the measurement surface onto which the pattern light 50 is projected, thereby obtaining a first image P10 including the pattern light 50 projected onto the measurement surface. Furthermore, imaging by the second imaging unit 20 is performed (simultaneously) with imaging by the first imaging unit 10, thereby obtaining a second image P20 including the pattern light 50 projected onto the measurement surface.
  • the shape of the narrow-range light area 52 (dot light) in the pattern light 50 contained in the first image P10 corresponds to the shape of one pixel in the first image P10 (e.g., the same shape as the shape of one pixel).
  • the distance measurement range is the range of distances that can be measured by the distance measurement device 1.
  • the size of the narrow-range light area 52 (dot light) corresponds to the size of one pixel in the first image P10 (e.g., the same size as the size of one pixel).
  • the shape and size of the narrow-range light region 52 in the first image P10 are not limited to the above shape and size.
  • the shape of the narrow-range light region 52 in the first image P10 may be a shape different from the shape (rectangle) of one pixel in the first image P10.
  • the size of the narrow-range light region 52 in the first image P10 may be a size corresponding to the size of two or more (preferably two to four) pixels in the first image P10. In other words, in the first image P10, one narrow-range light region 52 may be included in two or more pixels in the first image P10.
  • the size of the narrow-range light region 52 in the first image P10 may be a size smaller than the size of one pixel in the first image P10.
  • the shape of the wide-range light region 51 corresponds to the shape of the narrow-range reference block B12 (e.g., the same shape as the narrow-range reference block B12).
  • the size of the wide-range light region 51 corresponds to the size of the narrow-range reference block B12 (e.g., the same size as the narrow-range reference block B12).
  • the shape and size of the wide-range light area 51 in the first image P10 are not limited to the above shape and size.
  • the shape of the wide-range light area 51 in the first image P10 may be a shape different from the shape (rectangle) of the narrow-range reference block B12.
  • the size of the wide-range light area 51 in the first image P10 may be larger than the size of the narrow-range reference block B12, or may be smaller than the size of the narrow-range reference block B12.
  • the hue pattern (distribution pattern of multiple types of wide-range light regions 51) in the pattern light 50 contained in the first image P10 is set so that multiple types of wide-range light regions 51 (multiple wide-range light regions 51 with different hues) are included in each of the wide-range reference blocks B11 selected in sequence from the first image P10 in the first search process, under the condition that the distance D0 to the measurement surface is the reference distance.
  • the hue pattern in the pattern light 50 contained in the first image P10 is set such that, under the above conditions, the distribution patterns of the multiple types of wide-range light regions 51 contained in each of the wide-range reference blocks B11 selected in sequence from the first image P10 in the first search process are different from one another.
  • the brightness pattern (distribution pattern of multiple types of narrow-range light regions 52) in each of the multiple wide-range light regions 51 included in the first image P10 is set such that multiple types of narrow-range light regions 52 (multiple narrow-range light regions 52 with the same hue but different brightness) are included in each of the narrow-range reference blocks B12 selected in sequence from the wide-range reference blocks B11 in the second search process under the condition that the distance D0 to the measurement surface is the reference distance.
  • the luminance pattern in each of the multiple wide-range light regions 51 included in the first image P10 is set such that, under the above conditions, the distribution patterns of the multiple types of narrow-range light regions 52 included in each of the narrow-range reference blocks B12 selected in sequence from the wide-range reference blocks B11 in the second search process are different from one another.
  • Fig. 7 illustrates the filter 33 as viewed from the light incident surface side.
  • the filter 33 is a transmission type filter.
  • the filter 33 includes a plurality of wide range filter regions 61.
  • the plurality of wide range filter regions 61 respectively correspond to the plurality of wide range light regions 51, and each generates a corresponding wide range light region 51.
  • the plurality of wide range filter regions 61 are arranged in a matrix.
  • 35 wide range filter regions 61 are arranged in a matrix of 5 rows and 7 columns.
  • the multiple wide range filter regions 61 are classified into multiple types according to the hue of the wide range light region 51 to be generated.
  • the multiple wide range filter regions 61 include multiple (two or more) wide range filter regions 61 with different hues of the wide range light region 51 to be generated.
  • multiple types of wide-range filter regions 61 correspond to multiple types of wide-range light regions 51, respectively, and are distributed in the same pattern as the hue pattern.
  • Each of the multiple wide-range filter regions 61 extracts light from the light emitted from the light source 31 in a wavelength band that corresponds to the hue of the wide-range light region 51 that corresponds to that wide-range filter region 61.
  • each of the multiple wide range filter regions 61 transmits light emitted from the light source 31 in a wavelength band corresponding to the hue of the wide range light region 51 corresponding to that wide range filter region 61.
  • the transmission wavelength band (wavelength band of light that can be transmitted) of each of the multiple wide range filter regions 61 is set to a wavelength band corresponding to the hue of the wide range light region 51 corresponding to that wide range filter region 61.
  • Each of the multiple wide range filter regions 61 has a high transmittance for the transmission wavelength band (i.e., the wavelength band corresponding to the hue of the wide range light region 51 corresponding to the wide range filter region 61) and a low transmittance for other wavelength bands.
  • the multiple wide range filter regions 61 are classified into four types of wide range filter regions 61 (specifically, first to fourth wide range filter regions 611 to 614) corresponding respectively to the four types of wide range light regions 51.
  • the first to fourth wide range filter regions 611 to 614 have different transmission wavelength bands.
  • the transmission wavelength band of the first wide range filter region 611 is set to a wavelength band corresponding to the hue of the first wide range light region 511, which is "red.”
  • the transmission wavelength band of the second wide range filter region 612 is set to a wavelength band corresponding to the hue of the second wide range light region 512, which is "orange.”
  • the transmission wavelength band of the third wide range filter region 613 is set to a wavelength band corresponding to the hue of the third wide range light region 513, which is "green.”
  • the transmission wavelength band of the fourth wide range filter region 614 is set to a wavelength band corresponding to the hue of the fourth wide range light region 514, which is "blue.”
  • each wide range filter region 61 is marked with a letter (r, o, g, b) indicating the hue corresponding to the transmission wavelength band of that wide range filter region 61.
  • “r” indicates that the transmission wavelength band is a wavelength band corresponding to "red”.
  • “o” indicates that the transmission wavelength band is a wavelength band corresponding to "orange”.
  • “g” indicates that the transmission wavelength band is a wavelength band corresponding to "green”.
  • “b” indicates that the transmission wavelength band is a wavelength band corresponding to "blue”.
  • the wide range filter region 61 marked with “r” has a transmission wavelength band set to a wavelength band corresponding to "red”.
  • Each of the wide range filter regions 61 includes a plurality of narrow range filter regions 62.
  • the narrow range filter regions 62 correspond to the narrow range light regions 52, respectively, and generate the corresponding narrow range light regions 52.
  • the narrow range filter regions 62 are arranged in a matrix. Specifically, in each of the 35 wide range filter regions 61, nine narrow range filter regions 62 are arranged in a matrix of three rows and three columns.
  • the multiple narrow-range filter regions 62 included in each of the multiple wide-range filter regions 61 are classified into multiple types based on the luminance of the narrow-range light region 52 to be generated.
  • the multiple narrow-range filter regions 62 included in each of the multiple wide-range filter regions 61 include multiple (two or more) narrow-range filter regions 62 that have the same hue of the narrow-range light region 52 to be generated but different luminances.
  • multiple types of narrow-range filter regions 62 correspond to multiple types of narrow-range light regions 52 contained in the wide-range light region 51 corresponding to that wide-range filter region 61, respectively, and are distributed in the same pattern as the brightness pattern in that wide-range light region 51.
  • Each of the multiple narrow range filter regions 62 extracts light in a wavelength band corresponding to the hue of the wide range light region 51 corresponding to the wide range filter region 61 that includes that narrow range filter region 62 from the light emitted from the light source 31, in an amount corresponding to the luminance of the narrow range light region 52 corresponding to that narrow range filter region 62.
  • each of the multiple narrow-range filter regions 62 transmits light emitted from the light source 31 in a wavelength band corresponding to the hue of the wide-range light region 51 corresponding to the wide-range filter region 61 that includes that narrow-range filter region 62, at a transmittance corresponding to the luminance of the narrow-range light region 52 corresponding to that narrow-range filter region 62.
  • the transmission wavelength band of each of the multiple narrow range filter regions 62 is set to a wavelength band according to the hue of the wide range light region 51 corresponding to the wide range filter region 61 that includes that narrow range filter region 62.
  • the transmittance for the transmission wavelength band in each of the multiple narrow range filter regions 62 is set to a transmittance according to the luminance of the narrow range light region 52 corresponding to that narrow range filter region 62. The higher the luminance of the narrow range light region 52, the higher the transmittance for the transmission wavelength band of the narrow range filter region 62. Note that the transmittance for wavelength bands other than the transmission wavelength band in each of the multiple narrow range filter regions 62 is lower than the transmittance for the transmission wavelength band.
  • the multiple narrow-range filter regions 62 included in each of the multiple wide-range filter regions 61 are classified into four types of narrow-range filter regions 62 (specifically, first to fourth narrow-range filter regions 621 to 624) corresponding respectively to the four types of narrow-range light regions 52.
  • the first to fourth narrow-range filter regions 621 to 624 each have a different level of transmittance for the transmitted wavelength band.
  • the transmittance level for the transmission wavelength band of the first narrow range filter region 621 is set to "Level 1" according to the luminance level (Level 1) of the first narrow range light region 521 corresponding to the first narrow range filter region 621.
  • the transmittance level for the transmission wavelength band of the second narrow range filter region 622 is set to "Level 2" according to the luminance level (Level 2) of the second narrow range light region 522 corresponding to the second narrow range filter region 622.
  • the transmittance level for the transmission wavelength band of the third narrow range filter region 623 is set to "Level 3" according to the luminance level (Level 3) of the third narrow range light region 523 corresponding to the third narrow range filter region 623.
  • the transmittance level for the transmission wavelength band of the fourth narrow range filter region 624 is set to "Level 4" according to the luminance level (Level 4) of the fourth narrow range light region 524 corresponding to the fourth narrow range filter region 624.
  • the transmittance gradually increases as the transmittance level goes from “Level 1" to "Level 4".
  • each narrow-range filter region 62 is given a letter (r, o, g, b) indicating the hue corresponding to the transmission wavelength band of the narrow-range filter region 62, and a number (1, 2, 3, 4) indicating the level of transmittance for that transmission wavelength band.
  • the narrow-range filter region 62 given "r1" has a transmission wavelength band set to a wavelength band corresponding to "red,” and the transmittance for that transmission wavelength band is set to "Level 1.”
  • ⁇ Light source output characteristics> 8A illustrates the output (spectral output) of each of the first light source 311, the second light source 312, and the third light source 313.
  • the first light source 311 emits light having a central wavelength of about 610 nm and an emission bandwidth of about 80 nm.
  • the second light source 312 emits light having a central wavelength of about 520 nm and an emission bandwidth of about 150 nm.
  • the third light source 313 emits light having a central wavelength of about 470 nm and an emission bandwidth of about 100 nm.
  • the maximum output of each of the first to third light sources 311 to 313 can be considered to be the same.
  • Fig. 8(b) illustrates the transmittance characteristics of the first narrow-range filter region 621.
  • "r1” indicates the transmittance characteristics of the first narrow-range filter region 621 in which the transmission wavelength band is set to a wavelength band corresponding to "red”.
  • "o1” indicates the transmittance characteristics of the first narrow-range filter region 621 in which the transmission wavelength band is set to a wavelength band corresponding to "orange”.
  • "g1” indicates the transmittance characteristics of the first narrow-range filter region 621 in which the transmission wavelength band is set to a wavelength band corresponding to "green”.
  • “b1” indicates the transmittance characteristics of the first narrow-range filter region 621 in which the transmission wavelength band is set to a wavelength band corresponding to "blue”.
  • the light transmittance (transmittance for the transmission wavelength band) in the first narrow-range filter region 621 is set to level 1 (approximately 0.3 times the maximum transmittance in the example of FIG. 8(b)) for all hues.
  • the luminance level of the first narrow-range light region 521 generated by the first narrow-range filter region 621 is the same level (level 1) for all hues.
  • FIG. 8(c) illustrates the transmittance characteristics of the second narrow-range filter region 622.
  • "r2” indicates the transmittance characteristics of the second narrow-range filter region 622 in which the transmission wavelength band is set to a wavelength band corresponding to "red”.
  • "o2” indicates the transmittance characteristics of the second narrow-range filter region 622 in which the transmission wavelength band is set to a wavelength band corresponding to "orange”.
  • "g2” indicates the transmittance characteristics of the second narrow-range filter region 622 in which the transmission wavelength band is set to a wavelength band corresponding to "green”.
  • “b2” indicates the transmittance characteristics of the second narrow-range filter region 622 in which the transmission wavelength band is set to a wavelength band corresponding to "blue”.
  • the light transmittance (transmittance for the transmission wavelength band) in the second narrow-range filter region 622 is set to level 2 (approximately 0.5 times the maximum transmittance in the example of FIG. 8(c)) for all hues.
  • the luminance level of the second narrow-range light region 522 generated by the second narrow-range filter region 622 is the same level (level 2) for all hues.
  • FIG. 8(d) illustrates the transmittance characteristics of the third narrow-range filter region 623.
  • "r3” indicates the transmittance characteristics of the third narrow-range filter region 623 in which the transmission wavelength band is set to a wavelength band corresponding to "red”.
  • "o3” indicates the transmittance characteristics of the third narrow-range filter region 623 in which the transmission wavelength band is set to a wavelength band corresponding to "orange”.
  • "g3” indicates the transmittance characteristics of the third narrow-range filter region 623 in which the transmission wavelength band is set to a wavelength band corresponding to "green”.
  • "b3” indicates the transmittance characteristics of the third narrow-range filter region 623 in which the transmission wavelength band is set to a wavelength band corresponding to "blue”.
  • the light transmittance (transmittance for the transmission wavelength band) in the third narrow-range filter region 623 is set to level 3 (approximately 0.7 times the maximum transmittance in the example of FIG. 8(d)) for all hues.
  • the luminance level of the third narrow-range light region 523 generated by the third narrow-range filter region 623 is the same level (level 3) for all hues.
  • FIG. 8(e) illustrates the transmittance characteristics of the fourth narrow-range filter region 624.
  • "r4" indicates the transmittance characteristics of the fourth narrow-range filter region 624 in which the transmission wavelength band is set to a wavelength band corresponding to "red”.
  • "o4" indicates the transmittance characteristics of the fourth narrow-range filter region 624 in which the transmission wavelength band is set to a wavelength band corresponding to "orange”.
  • "g4" indicates the transmittance characteristics of the fourth narrow-range filter region 624 in which the transmission wavelength band is set to a wavelength band corresponding to "green”.
  • "b4" indicates the transmittance characteristics of the fourth narrow-range filter region 624 in which the transmission wavelength band is set to a wavelength band corresponding to "blue”.
  • the light transmittance (transmittance for the transmission wavelength band) in the fourth narrow-range filter region 624 is set to level 4 (approximately the same as the maximum transmittance in the example of FIG. 8(e)) for all hues.
  • the luminance level of the fourth narrow-range light region 524 generated by the fourth narrow-range filter region 624 is the same level (level 4) for all hues.
  • the projection control unit 403 sets the drive current value in the light source 31 (specifically, each of the first to third light sources 311 to 313) to an initial value.
  • the initial drive current value is set so that the maximum luminance of the light emitted from the light source 31 properly falls within the "range of gradations that specifies the luminance in the control unit 40 (e.g., 0 to 255)" when the reflectance of the measurement surface is a predetermined value (expected standard reflectance).
  • the initial drive current value of the light source 31 is set so that the maximum luminance of the light source 31 is slightly smaller than the maximum gradation in the above-mentioned range of gradations (e.g., about 80 to 90% of the maximum gradation).
  • the projection control unit 403 selects a light source 31 to be processed from among the unprocessed light sources 31 among the first to third light sources 311 to 313, and causes the light source driving unit 35 to drive the selected light source 31.
  • the unprocessed light source 31 is a light source 31 for which the processes of steps S2 to S4 have not been performed after step S1 or step S7.
  • the projection control unit 403 transmits to the light source driving unit 35 a command to drive the light source 31 selected as the processing target, and a drive current value set for that light source 31.
  • the light source driving unit 35 drives the light source 31 selected by the projection control unit 403 based on the drive current value transmitted from the projection control unit 403. As a result, light is projected from the light source 31 selected by the projection control unit 403 onto the measurement surface (the surface of the object OB in this example).
  • the projection control unit 403 causes the first imaging unit 10 to capture an image while light is projected onto the measurement surface from the light source 31 selected in step S2. This results in a first image P10 including the light projected onto the measurement surface from the light source 31.
  • Step S4 the projection control unit 403 obtains the maximum luminance of a pixel from the first image P10 obtained in step S3.
  • the maximum luminance of this pixel corresponds to the maximum luminance of the light projected onto the measurement surface from the light source 31 selected in step S2.
  • Step S5> the projection control unit 403 determines whether or not there is an unprocessed light source 31 remaining among the first to third light sources 311 to 313. If there is an unprocessed light source 31 remaining, the process of step S2 is performed, and if not, the process of step S6 is performed.
  • Step S6> the projection control unit 403 judges whether or not the maximum luminance of the light emitted from the light source 31 (specifically, each of the first to third light sources 311 to 313) is appropriate. If the maximum luminance of the light emitted from the light source 31 is appropriate, the luminance adjustment process ends, and if not, the process of step S7 is performed.
  • the projection control unit 403 determines whether the balance of the maximum luminance of each of the first to third light sources 311 to 313 is appropriate.
  • the projection control unit 403 determines that the balance of the maximum luminance of each of the first to third light sources 311 to 313 is appropriate when the maximum luminance of each of the first to third light sources 311 to 313 is considered to be the same (for example, when the difference between the maximum luminance of each of the first to third light sources 311 to 313 is within an acceptable range).
  • the projection control unit 403 determines whether the maximum luminance of the light emitted from the light source 31 (specifically, each of the first to third light sources 311 to 313) is saturated. Specifically, the projection control unit 403 determines that the maximum luminance of the light source 31 is saturated when the maximum luminance of the light source 31 has reached the "maximum gradation in the range of gradations that defines the luminance in the control unit 40."
  • Step S7 If the maximum luminance of the light source 31 (specifically, each of the first to third light sources 311 to 313) is not appropriate, the projection control unit 403 resets the drive current value of the light source 31 so that the maximum luminance of the light source 31 becomes appropriate. Next, the process of step S2 is performed.
  • the projection control unit 403 resets the drive current value of each of the first to third light sources 311 to 313 so that the balance of the maximum brightness of each of the first to third light sources 311 to 313 is appropriate.
  • the projection control unit 403 selects the highest maximum luminance from among the maximum luminances of the first to third light sources 311 to 313 as the "reference luminance.” Next, the projection control unit 403 selects a "light source 31 whose maximum luminance is lower than the reference luminance" from among the first to third light sources 311 to 313, and increases the drive current value set for the selected light source 31.
  • the projection control unit 403 resets the drive current value of the light source 31 so that the brightness emitted from the light source 31 does not become saturated.
  • the projection control unit 403 reduces the drive current value set for the light source 31 whose maximum luminance is saturated among the first to third light sources 311 to 313. For example, the projection control unit 403 corrects the drive current value set for the light source 31 so that it is a predetermined gradation lower than the drive current value derived from the "relationship between the luminance of the light emitted from the light source 31 and the drive current value" and the "maximum gradation in the range of gradations that defines the luminance in the control unit 40."
  • the distance measurement process is an example of a distance measurement method.
  • the control unit 40 performs the following process.
  • control unit 40 controls the projection unit 30 so that pattern light 50 is projected into the range where the first field of view 10a of the first imaging unit 10 and the second field of view 20a of the second imaging unit 20 overlap.
  • the control unit 40 acquires the first image P10 acquired by the first imaging unit 10 and the second image P20 acquired by the second imaging unit 20.
  • the control unit 40 selects the first image P10 and the second image P20 to be processed from the first images P10 and the second images P20 stored in the storage unit 41, and acquires the selected first image P10 and second image P20.
  • Step S12> the control unit 40 (first search unit 411) performs a first search process on the first image P10 and the second image P20 obtained in step S11. This results in a plurality of wide range block combinations (combinations of wide range reference blocks B11 and wide range corresponding blocks B21).
  • control unit 40 performs a second search process on the wide range block combination (combination of the wide range reference block B11 and the wide range corresponding block B21) obtained in step S12, thereby obtaining a plurality of narrow range block combinations (combination of the narrow range reference block B12 and the narrow range corresponding block B22).
  • the control unit 40 performs a distance derivation process based on the narrow-range block combination (the combination of the narrow-range reference block B12 and the narrow-range corresponding block B22) obtained in step S13, thereby obtaining distance information (distance information indicating the distance D0 for each of the narrow-range reference blocks B12 selected in order from the first image P10).
  • Step S15 the control unit 40 determines whether or not to continue the distance measurement process. If the distance measurement process is to be continued, the process of step S11 is performed, and if not, the distance measurement process is terminated.
  • the projection unit 30 projects the pattern light 50 into a range where the first field of view 10a of the first imaging unit 10 and the second field of view 20a of the second imaging unit 20 overlap.
  • the pattern light 50 is pattern light in which a plurality of wide-range light regions 51 with different hues are distributed in a predetermined hue pattern, and in each of the plurality of wide-range light regions 51, a plurality of narrow-range light regions 52 with the same hue but different luminance are distributed in a predetermined luminance pattern.
  • the pattern light 50 is composed of multiple light regions with different hues and multiple light regions with the same hue but different brightness, and is a pattern light in which multiple wide-range light regions 51 are distributed in a predetermined pattern, and in each of the multiple wide-range light regions 51, multiple narrow-range light regions 52 are distributed in a predetermined pattern.
  • the multiple wide-range light regions 51 include multiple light regions with different hues and are distributed in a predetermined hue pattern.
  • the multiple narrow-range light regions 52 include multiple light regions with the same hue but different brightness and are distributed in a predetermined brightness pattern.
  • a unique pattern can be formed on the measurement surface by projecting the unique pattern light 50 onto the measurement surface.
  • the light absorption rate may be high or the light reflectance may be low in a specific wavelength band. Therefore, if the pattern light 50 were composed of light of a single wavelength band, it would be difficult to form a unique pattern on the measurement surface if the wavelength band of the pattern light 50 was included in the above-mentioned specific wavelength band.
  • multiple wide-range light regions 51 with different hues are distributed in a predetermined hue pattern in the pattern light 50.
  • the wavelength band corresponding to the hue of any of the multiple wide-range light regions 51 is included in the specific wavelength band (wavelength band with high light absorption or low light reflectance) mentioned above, the remaining wide-range light regions 51 are projected onto the measurement surface (the surface of the object OB in this example), so that a unique pattern can be formed on the measurement surface.
  • the projection unit 30 has a filter 33 for generating the pattern light 50.
  • the filter 33 includes a plurality of wide-range filter regions 61 that correspond to the plurality of wide-range light regions 51 and are distributed in the same pattern as the hue pattern.
  • Each of the plurality of wide-range filter regions 61 includes a plurality of narrow-range filter regions 62 that correspond to a plurality of narrow-range light regions 52 included in the wide-range light region 51 that corresponds to that wide-range filter region 61 among the plurality of wide-range light regions 51 and are distributed in the same pattern as the luminance pattern.
  • the filter 33 is composed of a plurality of filter regions for generating a plurality of light regions with different hues and a plurality of filter regions for generating a plurality of light regions with the same hue but different brightness, and includes a plurality of wide-range filter regions 61 that correspond to the plurality of wide-range light regions 51, respectively, and are distributed in the same pattern as a predetermined pattern (the predetermined pattern of the wide-range light regions 51).
  • Each of the plurality of wide-range filter regions 61 includes a plurality of narrow-range filter regions 62 that correspond to a plurality of narrow-range light regions 52 included in the wide-range light region 51 that corresponds to that wide-range filter region 61 among the plurality of wide-range light regions 51, and are distributed in the same pattern as a predetermined pattern (the predetermined pattern of the narrow-range light regions 52).
  • pattern light 50 having a desired pattern makes it easy to generate pattern light 50 having a desired pattern.
  • pattern light 50 having a desired pattern can be generated stably.
  • the projection unit 30 has a light source 31 and an optical system 32 that guides the light emitted from the light source 31 to the filter 33.
  • the light for generating the pattern light 50 can be easily irradiated onto the filter 33.
  • each of the multiple wide range filter regions 61 transmits light of a wavelength band corresponding to the hue of the wide range light region 51 corresponding to that wide range filter region 61, among the light emitted from the light source 31.
  • Each of the multiple narrow range filter regions 62 transmits light of a wavelength band corresponding to the hue of the wide range light region 51 corresponding to the wide range filter region 61 including that narrow range filter region 62, among the light emitted from the light source 31, at a transmittance corresponding to the luminance of the narrow range light region 52 corresponding to that narrow range filter region 62.
  • each of the multiple filter regions for generating multiple light regions with different hues extracts light in wavelength bands corresponding to the multiple light regions with different hues from the light emitted from light source 31.
  • Each of the multiple filter regions for generating multiple light regions with the same hue but different luminance extracts light in wavelength bands corresponding to the multiple light regions with the same hue but different luminance from the light emitted from light source 31 in an amount corresponding to the luminance.
  • each of the multiple wide range filter regions 61 can selectively extract light in a wavelength band corresponding to the hue of the wide range light region 51 corresponding to that wide range filter region 61.
  • Each of the multiple narrow range filter regions 62 can selectively extract light in a wavelength band corresponding to the hue of the wide range light region 51 corresponding to the wide range filter region 61 including that narrow range filter region 62, in an amount corresponding to the luminance of the narrow range light region 52 corresponding to that narrow range filter region 62. This makes it possible to efficiently generate pattern light 50.
  • the projection control unit 403 adjusts the brightness of the light emitted from the light source 31 so that the brightness of the light emitted from the light source 31 does not become saturated. With this configuration, the brightness of the light emitted from the light source 31 can be appropriately set.
  • the first search unit 411 sequentially selects wide range reference blocks B11 from the first image P10, and searches the second image P20 for wide range corresponding blocks B21 corresponding to the wide range reference blocks B11.
  • the second search unit 412 sequentially selects narrow range reference blocks B12 from the wide range reference blocks B11, and searches for narrow range corresponding blocks B22 corresponding to the narrow range reference blocks B12 from the wide range corresponding blocks B21 corresponding to the wide range reference blocks B11.
  • the distance derivation unit 413 derives the distance D0 to the measurement surface in the narrow range reference block B12 based on the difference in position between the narrow range reference block B12 and the narrow range corresponding block B22.
  • the second search unit 412 can perform a search (relatively fine search) on pixel blocks detected by a search (relatively coarse search) by the first search unit 411. This makes it possible to reduce the time required for the corresponding point search (specifically, the search for the narrow-range corresponding block B22) compared to the case where only the search by the second search unit 412 is performed (specifically, the case where the narrow-range reference blocks B12 are selected in sequence from the first image P10 and the narrow-range corresponding block B22 corresponding to the narrow-range reference block B12 is searched for from the second image P20). This makes it possible to speed up the measurement of the distance D0 by the distance measuring device 1.
  • the first reference movement amount which is the amount of movement of the pixel range for selecting the wide range reference block B11
  • the second reference movement amount which is the amount of movement of the pixel range for selecting the narrow range reference block B12.
  • the first reference movement amount which is the amount of movement of the pixel range for selecting the wide range reference block BR1
  • the second reference movement amount which is the amount of movement of the pixel range for selecting the narrow range reference block BR2.
  • (First Modification of the Embodiment) 11 illustrates a configuration of the distance measurement device 1 of the first modified example of the embodiment.
  • the distance measurement device 1 of the first modified example of the embodiment differs from the distance measurement device 1 of the embodiment in the configuration of the projection unit 30.
  • the other configurations and processes of the distance measurement device 1 of the first modified example of the embodiment are similar to those of the distance measurement device 1 of the embodiment.
  • the projection unit 30 has a single light source 31.
  • the light source 31 is a white laser diode.
  • the optical system 32 has a collimator lens 326.
  • the collimator lens 326 converts the light emitted from the light source 31 into parallel light.
  • the other configurations of the projection unit 30 in the first variation of the embodiment are similar to the configurations of the projection unit 30 in the embodiment.
  • ⁇ Light source output characteristics> 12A illustrates an example of the output (spectral output) of the light source 31 in the first modified example of the embodiment.
  • the output of the light output from the single light source 31 changes in response to a change in wavelength.
  • the light output gradually increases from the minimum level (zero) to the maximum level
  • the wavelength of the light increases from 470 nm to 510 nm
  • the light output gradually decreases from the maximum level to "about 0.2 times the maximum level.”
  • the wavelength of the light increases from 510 nm to 580 nm
  • the light output gradually increases from "about 0.2 times the maximum level” to "about 0.4 times the maximum level”
  • the wavelength of the light increases from 580 nm
  • the light output gradually decreases from "about 0.4 times the maximum level” to the minimum level.
  • ⁇ Transmittance characteristics of narrow range filter region> 12(b) to 12(e) illustrate the transmittance characteristics of the first to fourth narrow-range filter regions 621 to 624 in Modification 1 of the embodiment.
  • the levels of transmittance for the transmission wavelength bands of the first to fourth narrow-range filter regions 621 to 624 are set to "Levels 1 to 4," respectively, for each hue.
  • the transmittance for the transmission wavelength band of the first narrow-range filter region 621 is set for each hue according to the output characteristics of the single light source 31 (changes in output with changes in the wavelength of light emitted from the single light source 31).
  • the transmittance (transmittance for the transmission wavelength band) of the first narrow-range filter region 621 whose transmission wavelength band is set to a wavelength band corresponding to "red" is higher than the transmittance (transmittance for the transmission wavelength band) of the first narrow-range filter region 621 whose transmission wavelength band is set to a wavelength band corresponding to "other hues.”
  • the luminance level of the first narrow-range light region 521 generated by the first narrow-range filter region 621 can be made the same level (level 1) for all hues. The same can be said for the second to fourth narrow-range filter regions 622 to 624.
  • the distance measurement device 1 of the second modification of the embodiment is different from the distance measurement device 1 of the embodiment in the configurations of the pattern light 50 and the filter 33.
  • the other configurations and processes of the distance measurement device 1 of the second modification of the embodiment are similar to those of the distance measurement device 1 of the embodiment.
  • FIG. 13 illustrates a portion of the pattern light 50 in the second modified embodiment.
  • the shape of the wide-range light region 51 is different from the shape (rectangle) of the narrow-range reference block B12.
  • the arrangement (distribution pattern) of the wide-range light region 51 in the pattern light 50 is similar to the arrangement of the wide-range light region 51 in the pattern light 50 of the embodiment (see FIG. 6).
  • the configuration (shape) and arrangement (distribution pattern) of the narrow-range light region 52 included in each of the multiple wide-range light regions 51 are similar to the configuration and arrangement of the narrow-range light region 52 in the pattern light 50 of the embodiment (see FIG. 6).
  • FIG. 14 illustrates a portion of filter 33 in modified example 2 of the embodiment.
  • the shape of wide range filter region 61 corresponds to the shape of wide range light region 51 shown in FIG. 13, and is a different shape from the shape (rectangle) of narrow range reference block B12.
  • the arrangement (distribution pattern) of wide range filter region 61 in filter 33 is similar to the arrangement of wide range filter region 61 in the filter of the embodiment (see FIG. 7).
  • the configuration (shape) and arrangement (distribution pattern) of narrow range filter region 62 included in each of the multiple wide range filter regions 61 are similar to the configuration and arrangement of narrow range filter region 62 in filter 33 of the embodiment (see FIG. 7).
  • the distance measurement device 1 of the third modified example of the embodiment differs from the distance measurement device 1 of the embodiment in the first search process performed by the control unit 40 (first search unit 411).
  • the first search unit 411 performs a reduction process on the wide range reference block B11.
  • the reduction process is a process for reducing the amount of data.
  • the first search unit 411 also performs a reduction process on the wide range reference block BR1.
  • the first search unit 411 then derives the similarity between the wide range reference block B11 and the wide range reference block BR1 based on the wide range reference block B11 and the wide range reference block BR1 that have been subjected to the reduction process.
  • Examples of the reduction process include a thinning process and a binning process.
  • the first search unit 411 derives the similarity between the wide-range reference block B11 and the wide-range reference block BR1 based on the wide-range reference block B11 and the wide-range reference block BR1 that have been subjected to the reduction process.
  • This configuration can reduce the time required to derive the similarity between the wide-range standard block B11 and the wide-range reference block BR1, thereby speeding up the first search process (search by the first search unit 411). This can speed up the measurement of the distance D0 by the distance measuring device 1.
  • the above-described distance measurement device 1 is installed, for example, on an end effector (e.g., a gripping unit, not shown) of a robot arm performing a work operation in a factory.
  • the control unit 40 of the distance measurement device 1 receives an instruction to obtain a distance from a robot controller (not shown) via a communication interface 42 during the work process of the robot arm.
  • the control unit 40 measures the distance between the position of the end effector and the surface of the object OB to be worked on, and transmits the measurement result (distance information) to the robot controller via the communication interface.
  • the robot controller feedback controls the operation of the end effector based on the distance information received from the distance measurement device 1.
  • the distance measurement device 1 is installed on an end effector, it is desirable that the distance measurement device 1 is small and lightweight.
  • the wide range reference block B11 is an example of a pixel block including 36 pixels arranged in a matrix of 6 rows and 6 columns, but is not limited to this.
  • the wide range reference block B11 may have other shapes and sizes. The same can be said for the wide range reference block BR1, the narrow range reference block B12, and the narrow range reference block BR2.
  • the distance measurement device 1 may be equipped with three or more imaging units. In this case, these imaging units are arranged so that their respective fields of view overlap, and the pattern light 50 is projected into the range in which these fields of view overlap.
  • the wide-range light regions 51 included in the pattern light 50 have four types, but this is not limited to this.
  • the wide-range light regions 51 may have two, three, five or more types. The same can be said for the types of wide-range filter regions 61 included in the filter 33.
  • the filter 33 is a transmissive filter, but the present invention is not limited to this.
  • the filter 33 may be a reflective filter.
  • the multiple narrow-range light regions 52 included in the pattern light 50 may include narrow-range light regions 52 with zero brightness (no light dots).
  • the multiple narrow-range filter regions 62 included in the filter 33 may include narrow-range filter regions 62 that block light without transmitting it (narrow-range filter regions 62 for generating no light dots).
  • the distance measuring device 1 is installed on the end effector of a robot arm, but this is not limiting.
  • the distance measuring device 1 may be applied to other systems that perform predetermined control based on the distance D0 to a measurement surface (e.g., the surface of an object OB).
  • the configuration of the distance measurement device 1 is not limited to the configuration described above.
  • the first imaging element 12 and the second imaging element 22 may be a photosensor array in which a plurality of photosensors are arranged in a matrix.
  • the components of the distance measuring device 1 may be arranged together as a single device, or may be distributed across multiple devices (e.g., multiple devices that communicate via a communication network such as the Internet).
  • the control unit 40 may be realized by a single processor, or may be realized by multiple processors.
  • the control unit 40 may be realized by multiple arithmetic processing devices (e.g., multiple arithmetic processing devices that communicate via a communication network such as the Internet).
  • the technology disclosed here is useful as a distance measurement technology.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

投射部30は、第1撮像部10の視野と第2撮像部20の視野とが重なる範囲にパターン光50を投射する。計測部404は、第1撮像部10により得られた第1画像と第2撮像部20により得られた第2画像との視差に基づいて、パターン光50が投射された測定面までの距離を計測する。パターン光50は、色相が異なる複数の光領域と、色相が同じで輝度が異なる複数の光領域からなり、複数の広範囲光領域51が所定のパターンで分布し、且つ、複数の広範囲光領域51の各々において、狭範囲光領域52が所定のパターンで分布するパターン光である。

Description

距離測定装置、距離測定方法、距離測定プログラム
 ここに開示する技術は、距離測定技術に関する。
 特許文献1には、3次元計測システムが開示されている。このシステムにおいて、撮像部は、互いに離間配置された第1撮像部および第2撮像部を有する。第1算出部は、第1撮像部および第2撮像部により撮像した対象物の画像の少なくとも一方を用い、ステレオカメラ方式とは異なる3次元計測方式の距離情報を用いることにより、第1特徴点の視差を算出する。第2算出部は、第1撮像部および第2撮像部により撮像した対象物の画像の両方を用い、ステレオカメラ方式により、第2特徴点の視差を算出する。そして、第2算出部は、第1特徴点の視差および第2特徴点の視差から対象物の3次元形状を特定する。
特開2021-192064号公報
 特許文献1のようなシステムでは、距離を測定しようする測定面に、テクスチャのない無地の面が含まれている場合、そのような無地の面に対してステレオマッチング(対応点探索)を行うことが困難である。そのため、測定面までの距離を正確に測定することが困難となる。
 ここに開示する技術は、距離測定装置に関し、この距離測定装置は、それぞれの視野が重なるように並んで配置される第1撮像部および第2撮像部と、前記第1撮像部の視野と前記第2撮像部の視野とが重なる範囲にパターン光を投射する投射部と、前記第1撮像部により得られた第1画像と前記第2撮像部により得られた第2画像との視差に基づいて、前記パターン光が投射された測定面までの距離を計測する計測部とを備え、前記パターン光は、色相が異なる複数の光領域と、色相が同じで輝度が異なる複数の光領域からなり、複数の広範囲光領域が所定のパターンで分布し、且つ、前記複数の広範囲光領域の各々において、複数の狭範囲光領域が所定のパターンで分布するパターン光である。
 ここに開示する技術は、それぞれの視野が重なるように並んで配置される第1撮像部および第2撮像部と、前記第1撮像部の視野と前記第2撮像部の視野とが重なる範囲にパターン光を投射する投射部とを用いて行われる距離測定方法に関し、この距離測定方法は、前記投射部から前記パターン光を投射する投射ステップと、前記第1撮像部により得られた第1画像と前記第2撮像部により得られた第2画像とを取得する取得ステップと、前記第1画像と前記第2画像との視差に基づいて、前記パターン光が投射された測定面までの距離を計測する計測ステップとを備え、前記パターン光は、色相が異なる複数の光領域と、色相が同じで輝度が異なる複数の光領域からなり、複数の広範囲光領域が所定のパターンで分布し、且つ、前記複数の広範囲光領域の各々において、複数の狭範囲光領域が所定のパターンで分布するパターン光である。
 ここに開示する技術は、前記距離測定方法をコンピュータに実行させる距離測定プログラムに関する。
 ここに開示する技術によれば、測定面に無地の面が含まれる場合であっても、測定面までの距離を正確に測定することができる。
実施形態の距離測定装置の概略構成を例示する概略図である。 実施形態の距離測定装置の構成を例示するブロック図である。 制御部の機能的構成を例示するブロック図である。 第1探索処理について説明するための概略図である。 第2探索処理について説明するための概略図である。 投射されたパターン光を例示する概略図である。 フィルタの構成を例示する概略図である。 実施形態における光源の出力特性およびフィルタ領域の透過率特性について説明するためのグラフである。 輝度調整処理を例示するフローチャートである。 距離測定処理を例示するフローチャートである。 実施形態の変形例1の距離測定装置の構成を例示するブロック図である。 実施形態の変形例1における光源の出力特性およびフィルタ領域の透過率特性について説明するためのグラフである。 実施形態の変形例2におけるパターン光の一部を例示する概略図である。 実施形態の変形例2におけるフィルタの一部を例示する概略図である。
 以下、図面を参照して実施の形態を詳しく説明する。なお、図中同一または相当部分には同一の符号を付しその説明は繰り返さない。
 (距離測定装置)
 図1および図2は、実施形態の距離測定装置1の構成を例示する。距離測定装置1は、第1撮像部10と、第2撮像部20と、投射部30と、制御部40と、記憶部41と、通信インターフェース42とを備える。距離測定装置1は、測定面までの距離D0を測定する。この例では、測定面は、物体OBの表面(第1撮像部10および第2撮像部20と対向する面)である。
 以下の説明では、X軸方向と直交する方向を「Y軸方向」と記載し、X軸方向およびY軸方向の両方と直交する方向を「Z軸方向」と記載する。
  〔撮像部〕
 第1撮像部10は、第1視野10aの範囲を撮像する。第2撮像部20は、第2視野20aの範囲を撮像する。第1撮像部10および第2撮像部20は、それぞれの視野が重なるように並んで配置される。この例では、第1視野10aおよび第2視野20aは、Z軸方向に向けられ、第1撮像部10と第2撮像部20とが並ぶ方向は、X軸方向である。
 第1撮像部10の第1視野10aと第2撮像部20の第2視野20aとが重なる範囲には、測定面(この例では物体OBの表面)が含まれる。第1撮像部10および第2撮像部20は、いわゆるステレオカメラであり、それぞれ異なる視点で視野の範囲(被撮像範囲)を同時に撮像する。
 第1撮像部10は、所定時刻毎に第1視野10aの範囲を撮像することで第1画像P10を取得する。第1撮像部10は、第1撮像レンズ11と第1撮像素子12とを有する。
 第1撮像レンズ11は、第1撮像部10の視野10aからの光を第1撮像素子12の第1撮像面12aに集光する。第1撮像レンズ11は、所定の焦点距離を有する単一のレンズであってもよいし、複数のレンズの組合せであってもよい。
 第1撮像素子12は、第1撮像面12aに与えられた光を電気信号に変換する。これにより、第1画像P10が得られる。第1撮像素子12は、モノクロの画像センサであってもよい。例えば、第1撮像素子12は、CMOSイメージセンサ、CCDイメージセンサなどであってもよい。
 第2撮像部20は、所定時刻毎に第2視野20aの範囲を撮像することで第2画像P20を取得する。第2撮像部20の構成は、第1撮像部10の構成と同様である。第2撮像部20は、第2撮像レンズ21と第2撮像素子22とを有する。第2撮像レンズ21および第2撮像素子22の構成は、第1撮像レンズ11および第1撮像素子12の構成と同様であり、第2撮像レンズ21は、第1撮像レンズ11と同じ焦点距離を有している。第2撮像素子22は、第2撮像面22aを有する。
 第2画像P20のサイズは、第1画像P10のサイズと同じである。第2画像P20の画素のサイズは、第1画像P10の画素のサイズと同じである。第2画像P20に含まれる画素の数は、第1画像P10に含まれる画素の数と同じである。
 なお、第1撮像部10の撮像方向は、Z軸方向から第2撮像部20の方向(第2撮像部20に向かう方向)にやや傾いてもよい。第2撮像部20の撮像方向は、Z軸方向から第1撮像部10の方向(第1撮像部10に向かう方向)にやや傾いてもよい。第1撮像部10および第2撮像部20のZ軸方向の位置およびY軸方向の位置は、互いに同じである。
  〔投射部〕
 投射部30は、第1撮像部10の第1視野10aと第2撮像部20の第2視野20aとが重なる範囲にパターン光50を投射する。この例では、投射部30によるパターン光50の投射方向は、Z軸方向である。パターン光50は、第1撮像部10の第1視野10aと第2撮像部20の第2視野20aとが重なる範囲に含まれる物体OBの表面(測定面の一例)に投射される。なお、パターン光50については、後で詳しく説明する。
 投射部30は、光源31と、光学系32と、フィルタ33と、投射レンズ34と、光源駆動部35とを有する。
 光源31は、パターン光50を生成するために利用される光を出射する。この例では、光源31は、第1~第3光源311~313を含む。例えば、第1光源311は、「赤」に応じた波長帯(590~640nm)の光を出射する。第2光源312は、「緑」に応じた波長帯(490~550nm)の光を出射する。第3光源313は、「青」に応じた波長帯(430~490nm)の光を出射する。第1~第3光源311~313は、発光ダイオードであってもよいし、半導体レーザなどの他の種類の光源であってもよい。
 光学系32は、光源31から出射された光をフィルタ33に導く。この例では、光学系32は、第1~第3コリメータレンズ321~323と、第1ダイクロイックミラー324と、第2ダイクロイックミラー325とを有する。
 第1~第3コリメータレンズ321~323は、第1~第3光源311~313から出射された光を、それぞれ略平行光に変換する。第1ダイクロイックミラー324は、第1コリメータレンズ321から入射する光を透過させ、第2コリメータレンズ322から入射する光を反射させる。第2ダイクロイックミラー325は、第1ダイクロイックミラー324から入射する光を透過させ、第3コリメータレンズ323から入射する光を反射させる。このような構成により、第1~第3光源311~313の各々から出射された光が統合されてフィルタ33に導かれる。
 フィルタ33は、パターン光50を生成する。フィルタ33の構成については、後で詳しく説明する。
 投射レンズ34は、フィルタ33により生成されたパターン光50を投射する。投射レンズ34は、単一のレンズであってもよいし、複数のレンズの組合せであってもよい。
 光源駆動部35は、制御部40による制御に応答して、光源31(この例では第1~第3光源311~313)を駆動する。具体的には、光源駆動部35は、制御部40により設定された駆動電流値に基づいて、駆動電流値に応じた輝度の光が出射されるように光源31を駆動する。
  〔制御部〕
 制御部40は、各種の処理を行う。具体的には、制御部40は、距離測定装置1の各部から情報およびデータを取得し、それらの情報およびデータに基づいて、各種の処理を行う。制御部40による処理については、後で詳しく説明する。
 例えば、制御部40は、プロセッサと、プロセッサを動作させるためのプログラムを記憶するメモリ(記憶媒体)とを含む。プロセッサによりプログラムが実行されることで、制御部40の各種の機能が実現される。言い換えると、制御部40は、各種の機能を実現する各種の機能ブロックを有する。なお、制御部40は、コンピュータの一例である。このプログラムは、距離測定プログラムの一例である。
 なお、制御部40と通信インターフェース42は、FPGA(Field Programmable Gate Array)からなる半導体集積回路により構成されてもよい。または、これらは、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)などの他の半導体集積回路により構成されてもよい。
  〔記憶部〕
 記憶部41は、各種の情報およびデータを記憶する。この例では、記憶部41は、第1撮像部10により得られた第1画像P10、第2撮像部20により得られた第2画像P20などを記憶する。
  〔制御部の機能的構成〕
 図3は、制御部40の機能的構成を例示する。この例では、制御部40は、第1撮像処理部401、第2撮像処理部402、投射制御部403、計測部404を有する。
   〈撮像処理部〉
 第1撮像処理部401は、第1撮像部10の第1撮像素子12を制御する。また、第1撮像処理部401は、第1撮像部10の第1撮像素子12により得られた第1画像P10(画素信号)に対して、輝度補正やカメラ補正などの前処理を行う。この例では、第1撮像処理部401により処理された第1画像P10は、記憶部41に記憶される。
 第2撮像処理部402は、第2撮像部20の第2撮像素子22を制御する。また、第2撮像処理部402は、第2撮像部20の第2撮像素子22により得られた第2画像P20(画素信号)に対して、輝度補正やカメラ補正などの前処理を行う。この例では、第2撮像処理部402により処理された第2画像P20は、記憶部41に記憶される。
   〈投射制御部〉
 投射制御部403は、投射部30を制御する。具体的には、投射制御部403は、投射部30を制御することで、投射部30にパターン光50の投射を行わせる。
 この例では、投射制御部403は、輝度調整処理を行う。輝度調整処理において、投射制御部403は、光源31(この例では第1~第3光源311~313の各々)から出射される光の輝度が飽和しないように、光源31から出射される光の輝度を調整する。輝度調整処理については、後で詳しく説明する。
   〈計測部〉
 計測部404は、第1撮像部10により得られた第1画像P10と第2撮像部20により得られた第2画像P20との視差に基づいて、パターン光50が投射された測定面までの距離D0を計測する。この例では、計測部404は、第1探索部411と、第2探索部412と、距離導出部413とを有する。
    《第1探索部(第1探索処理)》
 第1探索部411は、第1探索処理を行う。第1探索処理において、第1探索部411は、第1画像P10の中から広範囲基準ブロックB11を順に選択し、その広範囲基準ブロックB11に対応する広範囲対応ブロックB21を第2画像P20の中から探索する。具体的には、第1探索部411は、第1探索処理において、以下の処理を行う。
 図4に示すように、第1探索部411は、広範囲基準ブロックB11を選択するための画素範囲を第1画像P10において所定量(第1基準移動量)ずつ移動させることで、第1画像P10の中から広範囲基準ブロックB11を順に選択する。広範囲基準ブロックB11は、第1探索処理における対応点探索の基準点となる画素ブロック(複数の画素の集合体)である。図4の例では、広範囲基準ブロックB11は、6行6列の行列状に配列された36個の画素を含む。そして、第1探索部411は、第1画像P10の中から順に選択された広範囲基準ブロックB11の各々に対して、以下の処理を行う。
 第1探索部411は、広範囲基準ブロックB11と比較される広範囲参照ブロックBR1を選択するための画素範囲を、第2画像P20において所定量(第1参照移動量)ずつ移動させることで、第2画像P20の中から広範囲参照ブロックBR1を順に選択する。広範囲参照ブロックBR1は、広範囲基準ブロックB11に対応する広範囲対応ブロックB21の候補となる画素ブロックである。広範囲参照ブロックBR1の形状およびサイズは、広範囲基準ブロックB11の形状およびサイズと同様である。
 第1探索部411は、第2画像P20の中から順に選択された広範囲参照ブロックBR1の各々と広範囲基準ブロックB11との類似度を導出する。そして、第1探索部411は、第2画像P20の中から順に選択された広範囲参照ブロックBR1のうち「広範囲基準ブロックB11との類似度が最大となる広範囲参照ブロックBR1」を、広範囲基準ブロックB11に対応する広範囲対応ブロックB21に決定する。
 なお、この類似度の導出には、周知の類似度導出処理(類似度の計算方法)を採用することができる。類似度の計算方法の例としては、ZNCC(Zero means Normalized Cross-Correlation)、NCC(Normalized Cross Correlation)、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)などが挙げられる。
 以上のように、第1画像P10および第2画像P20に対して第1探索処理が行われることにより、広範囲基準ブロックB11と広範囲対応ブロックB21との組合せ(以下では「広範囲ブロック組合せ」と記載)が複数組得られる。
 なお、この例では、第1探索部411は、第2画像P20のうち「第1画像P10における広範囲基準ブロックB11の位置」と同一の位置を起点として「第1撮像部10と第2撮像部20との離間方向(X軸方向)」に対応する方向(この例では左右方向)に延びる探索範囲R20内において、広範囲参照ブロックBR1を順に選択する。探索範囲R20の延びる方向は、上記の起点に位置する画素ブロックが視差により上記の起点からずれる方向に設定される。
 探索範囲R20の起点は、第2画像P20のうち「第1画像P10における広範囲基準ブロックB11の位置」と同一の位置(基準位置)に限定されない。例えば、探索範囲R20の起点は、第2画像P20において基準位置から右方向(視差によりずれる方向)に所定量(例えば数ブロック)だけずれた位置に設定されてもよい。
    《第2探索部(第2探索処理)》
 第2探索部412は、第2探索処理を行う。第2探索処理において、第2探索部412は、広範囲基準ブロックB11の中から狭範囲基準ブロックB12を順に選択し、その狭範囲基準ブロックB12に対応する狭範囲対応ブロックB22を、その広範囲基準ブロックB11に対応する広範囲対応ブロックB21の中から探索する。具体的には、第2探索部412は、第2探索処理において、以下の処理を行う。
 第2探索部412は、第1探索部411により第1画像P10の中から順に選択された広範囲基準ブロックB11の各々と、その広範囲基準ブロックB11に対応する広範囲対応ブロックB21とに対して、以下の処理を行う。
 図5に示すように、第2探索部412は、狭範囲基準ブロックB12を選択するための画素範囲を広範囲基準ブロックB11において所定量(第2基準移動量)ずつ移動させることで、広範囲基準ブロックB11の中から狭範囲基準ブロックB12を順に選択する。狭範囲基準ブロックB12は、第2探索処理における対応点探索の基準点となる画素ブロックである。狭範囲基準ブロックB12は、広範囲基準ブロックB11よりも小さい。図5の例では、狭範囲基準ブロックB12は、3行3列の行列状に配列された9個の画素を含む。そして、第2探索部412は、広範囲基準ブロックB11の中から順に選択された狭範囲基準ブロックB12の各々に対して、以下の処理を行う。
 第2探索部412は、狭範囲基準ブロックB12と比較される狭範囲参照ブロックBR2を選択するための画素範囲を、広範囲基準ブロックB11に対応する広範囲対応ブロックB21において所定量(第2参照移動量)ずつ移動させることで、広範囲対応ブロックB21の中から狭範囲参照ブロックBR2を順に選択する。狭範囲参照ブロックBR2は、狭範囲基準ブロックB12に対応する狭範囲対応ブロックB22の候補となる画素ブロックである。
 第2探索部412は、広範囲対応ブロックB21の中から順に選択された狭範囲参照ブロックBR2の各々と狭範囲基準ブロックB12との類似度を導出する。そして、第2探索部412は、広範囲対応ブロックB21の中から順に選択された狭範囲参照ブロックBR2のうち狭範囲基準ブロックB12との類似度が最大となる狭範囲参照ブロックBR2」を、狭範囲基準ブロックB12に対応する狭範囲対応ブロックB22に決定する。
 以上のように、複数の広範囲ブロック組合せ(広範囲基準ブロックB11と広範囲対応ブロックB21との組合せ)の各々に対して第2探索処理が行われることにより、狭範囲基準ブロックB12と狭範囲対応ブロックB22との組合せ(以下では「狭範囲ブロック組合せ」と記載)が複数組得られる。
    《距離導出部(距離導出処理)》
 距離導出部413は、距離導出処理を行う。距離導出処理において、距離導出部413は、狭範囲基準ブロックB12と狭範囲対応ブロックB22との視差に基づいて、その狭範囲基準ブロックB12における測定面までの距離を導出する。具体的には、距離導出部413は、距離導出処理において、以下の処理を行う。
 距離導出部413は、第2探索部412により第1画像P10の中から順に選択された狭範囲基準ブロックB12の各々に対して、以下の処理を行う。
 距離導出部413は、狭範囲基準ブロックB12に対応する狭範囲対応ブロックB22(第2探索部412により検出された狭範囲対応ブロックB22)を第2画像P20の中から選択し、狭範囲基準ブロックB12と狭範囲対応ブロックB22との位置の差(画素ずれ量)を導出する。
 そして、距離導出部413は、その導出された位置の差に基づいて、狭範囲基準ブロックB12における距離D0(測定面までの距離D0)を導出する。具体的には、距離導出部413は、その導出された位置の差(画素ずれ量)と、第1撮像部10と第2撮像部20との離間距離と第1撮像レンズ11の焦点距離とから、三角測量法により、測定面までの距離D0を導出する。なお、第2撮像レンズ21の焦点距離は、第1撮像レンズ11の焦点距離と等しい。
 以上の処理により、第2探索部412により第1画像P10の中から順に選択された狭範囲基準ブロックB12の各々における距離D0(測定面までの距離D0)が得られる。距離導出部413は、第1画像P10の中から順に選択された狭範囲基準ブロックB12の各々における距離D0を示す距離情報を出力する。例えば、距離導出部413は、通信インターフェース42を経由して、距離情報を外部装置に送信する。
    《探索精度》
 なお、この例では、第1探索部411による探索の精度は、第2探索部412による探索の精度よりも低い。
 具体的には、広範囲基準ブロックB11を選択するための画素範囲の移動量である第1基準移動量は、狭範囲基準ブロックB12を選択するための画素範囲の移動量である第2基準移動量よりも多い。具体的には、第1基準移動量は、n画素(nは2以上の整数)に設定され、第2基準移動量は、m画素(mは1以上の整数でnよりも小さい)に設定される。なお、第2基準移動量は、1画素であることが好ましい。
 また、広範囲参照ブロックBR1を選択するための画素範囲の移動量である第1参照移動量は、狭範囲参照ブロックBR2を選択するための画素範囲の移動量である第2参照移動量よりも多い。具体的には、第1参照移動量は、j画素(jは2以上の整数)に設定され、第2参照移動量は、k画素(kは1以上の整数でjよりも小さい)に設定される。なお、第2参照移動量は、1画素であることが好ましい。
  〔パターン光〕
 次に、図6を参照して、パターン光50について説明する。図6は、測定面に投射されたパターン光50を例示している。
   〈広範囲光領域〉
 パターン光50は、複数の広範囲光領域51を含む。図6の例では、複数の広範囲光領域51は、行列状に配列される。具体的には、パターン光50において、35個の広範囲光領域51が5行7列の行列状に配列されている。
 複数の広範囲光領域51は、色相別に複数の種類に分類される。言い換えると、複数の広範囲光領域51には、色相が異なる複数(2つ以上)の広範囲光領域51が含まれる。パターン光50において、複数種類の広範囲光領域51(色相が異なる複数の広範囲光領域51)は、所定の色相パターンで分布する。この例では、色相パターンは、ランダムパターンである。
 図6の例では、複数の広範囲光領域51は、4種類の広範囲光領域51(具体的には第1~第4広範囲光領域511~514)に分類される。第1~第4広範囲光領域511~514は、色相(言い換えると光の波長帯)がそれぞれ異なる。
 第1広範囲光領域511の色相は「赤」である。第2広範囲光領域512の色相は「橙」である。第3広範囲光領域513の色相は「緑」である。第4広範囲光領域514の色相は「青」である。言い換えると、第1広範囲光領域511における光の波長帯は、赤に応じた波長帯(例えば640~770nm)である。第2広範囲光領域512における光の波長帯は、橙に応じた波長帯(例えば590~640nm)である。第3広範囲光領域513における光の波長帯は、緑に応じた波長帯(例えば490~550nm)である。第4広範囲光領域514における光の波長帯は、青に応じた波長帯(例えば430~490nm)である。
 なお、図6の例では、広範囲光領域51の各々に、色相を示す文字(R,O,G,B)が付されている。「R」は赤を示し、「O」は橙を示し、「G」は緑を示し、「B」は青を示す。例えば、「R」が付された広範囲光領域51の色相は、「赤」である。
   〈狭範囲光領域〉
 複数の広範囲光領域51の各々は、複数の狭範囲光領域52を含む。図6の例では、複数の狭範囲光領域52は、行列状に配列される。具体的には、35個の広範囲光領域51の各々において、9個の狭範囲光領域52が3行3列の行列状に配列されている。
 複数の狭範囲光領域52は、色相別および輝度別に複数の種類に分類される。言い換えると、複数の広範囲光領域51の各々に含まれる複数の狭範囲光領域52には、色相が同一であるが輝度が異なる複数(2つ以上)の狭範囲光領域52が含まれる。複数の広範囲光領域51の各々において、複数種類の狭範囲光領域52(色相が同一であるが輝度が異なる複数の狭範囲光領域52)は、所定の輝度パターンで分布する。この例では、輝度パターンは、ランダムパターンである。
 図6の例では、複数の広範囲光領域51の各々に含まれる複数の狭範囲光領域52は、4種類の狭範囲光領域52(具体的には第1~第4狭範囲光領域521~524)に分類される。第1~第4狭範囲光領域521~524は、輝度がそれぞれ異なる。
 第1狭範囲光領域521の輝度は「レベル1」である。第2狭範囲光領域522の輝度は「レベル2」である。第3狭範囲光領域523の輝度は「レベル3」である。第4狭範囲光領域524の輝度は「レベル4」である。なお、輝度のレベルが「レベル1」から「レベル4」へ向かうに連れて、輝度が次第に高くなる。
 なお、図6の例では、狭範囲光領域52の各々に、色相を示す文字(R,O,G,B)と、輝度のレベルを示す数字(1,2,3,4)とが付されている。例えば、「R1」が付された狭範囲光領域52は、色相が「赤」であり、輝度が「レベル1」である。
  〔パターン光と画像との関係〕
 測定面(この例では物体OBの表面)にパターン光50が投射され、そのパターン光50が投射された測定面を含む第1視野10aの範囲を第1撮像部10が撮像することで、測定面に投射されたパターン光50を含む第1画像P10が得られる。また、第1撮像部10による撮像とともに(同時に)第2撮像部20による撮像が行われることで、測定面に投射されたパターン光50を含む第2画像P20が得られる。
 この例では、測定面までの距離D0が基準の距離(例えば測距レンジの中間距離)である場合、第1画像P10に含まれるパターン光50において、狭範囲光領域52(ドット光)の形状は、第1画像P10の1つの画素の形状に対応する形状(例えば1つの画素の形状と同じ形状)となる。なお、測距レンジは、距離測定装置1により測定することが可能な距離の範囲である。また、狭範囲光領域52(ドット光)のサイズは、第1画像P10の1つの画素のサイズに対応するサイズ(例えば1つの画素のサイズと同じサイズ)となる。
 なお、第1画像P10における狭範囲光領域52の形状およびサイズは、上記の形状および上記のサイズに限定されない。例えば、第1画像P10における狭範囲光領域52の形状は、第1画像P10の1つの画素の形状(矩形)とは異なる形状であってもよい。また、第1画像P10における狭範囲光領域52のサイズは、第1画像P10の2つ以上(好ましくは2~4つ)の画素のサイズに対応するサイズであってもよい。言い換えると、第1画像P10において、1つの狭範囲光領域52が第1画像P10の2つ以上の画素に含まれてもよい。または、第1画像P10における狭範囲光領域52のサイズは、第1画像P10の1つの画素のサイズよりも小さいサイズであってもよい。
 また、この例では、測定面までの距離D0が基準の距離である場合、第1画像P10に含まれるパターン光において、広範囲光領域51(ドット光の集合体)の形状は、狭範囲基準ブロックB12の形状に対応する形状(例えば狭範囲基準ブロックB12の形状と同じ形状)となる。また、広範囲光領域51(ドット光の集合体)のサイズは、狭範囲基準ブロックB12のサイズに対応するサイズ(例えば狭範囲基準ブロックB12のサイズと同じサイズ)となる。
 なお、第1画像P10における広範囲光領域51の形状およびサイズは、上記の形状および上記のサイズに限定されない。例えば、第1画像P10における広範囲光領域51の形状は、狭範囲基準ブロックB12の形状(矩形)とは異なる形状であってもよい。また、第1画像P10における広範囲光領域51のサイズは、狭範囲基準ブロックB12のサイズよりも大きいサイズであってもよいし、狭範囲基準ブロックB12のサイズよりも小さいサイズであってもよい。
 また、この例では、第1画像P10に含まれるパターン光50における色相パターン(複数種類の広範囲光領域51の分布パターン)は、測定面までの距離D0が基準の距離であるという条件下において、第1探索処理において第1画像P10から順に選択される広範囲基準ブロックB11の各々に複数種類の広範囲光領域51(色相が異なる複数の広範囲光領域51)が含まれるように設定される。
 なお、第1画像P10に含まれるパターン光50における色相パターンは、上記の条件下において、第1探索処理において第1画像P10から順に選択される広範囲基準ブロックB11の各々に含まれる複数種類の広範囲光領域51の分布パターンがそれぞれ異なるように設定されることが好ましい。
 また、この例では、第1画像P10に含まれる複数の広範囲光領域51の各々における輝度パターン(複数種類の狭範囲光領域52の分布パターン)は、測定面までの距離D0が基準の距離であるという条件下において、第2探索処理において広範囲基準ブロックB11の中から順に選択される狭範囲基準ブロックB12の各々に複数種類の狭範囲光領域52(色相が同一であるが輝度が異なる複数の狭範囲光領域52)が含まれるように設定される。
 なお、第1画像P10に含まれる複数の広範囲光領域51の各々における輝度パターンは、上記の条件下において、第2探索処理において広範囲基準ブロックB11の中から順に選択される狭範囲基準ブロックB12の各々に含まれる複数種類の狭範囲光領域52の分布パターンがそれぞれ異なるように設定されることが好ましい。
  〔フィルタ〕
 次に、図7を参照して、フィルタ33の構成について説明する。図7は、光の入射面側から見たフィルタ33を例示している。この例では、フィルタ33は、透過型のフィルタである。
   〈広範囲フィルタ領域〉
 フィルタ33は、複数の広範囲フィルタ領域61を含む。複数の広範囲フィルタ領域61は、複数の広範囲光領域51にそれぞれ対応し、それぞれが対応する広範囲光領域51を生成する。図7の例では、複数の広範囲フィルタ領域61は、行列状に配列される。具体的には、フィルタ33において、35個の広範囲フィルタ領域61が5行7列の行列状に配列されている。
 複数の広範囲フィルタ領域61は、生成しようとする広範囲光領域51の色相別に複数の種類に分類される。言い換えると、複数の広範囲フィルタ領域61には、生成しようとする広範囲光領域51の色相が異なる複数(2つ以上)の広範囲フィルタ領域61が含まれる。
 パターン光50において、複数種類の広範囲フィルタ領域61(生成しようとする広範囲光領域51の色相が異なる複数の広範囲フィルタ領域61)は、複数種類の広範囲光領域51にそれぞれ対応し、色相パターンと同一のパターンで分布する。
 複数の広範囲フィルタ領域61の各々は、光源31から出射された光のうちその広範囲フィルタ領域61に対応する広範囲光領域51の色相に応じた波長帯の光を抽出する。
 この例では、複数の広範囲フィルタ領域61の各々は、光源31から出射された光のうちその広範囲フィルタ領域61に対応する広範囲光領域51の色相に応じた波長帯の光を透過させる。具体的には、複数の広範囲フィルタ領域61の各々の透過波長帯(透過させることができる光の波長帯)は、その広範囲フィルタ領域61に対応する広範囲光領域51の色相に応じた波長帯に設定される。複数の広範囲フィルタ領域61の各々は、透過波長帯(すなわち広範囲フィルタ領域61に対応する広範囲光領域51の色相に応じた波長帯)に対する透過率が高く、且つ、その他の波長帯に対する透過率が低い。
 図7の例では、複数の広範囲フィルタ領域61は、4種類の広範囲光領域51にそれぞれ対応する4種類の広範囲フィルタ領域61(具体的には第1~第4広範囲フィルタ領域611~614)に分類される。第1~第4広範囲フィルタ領域611~614は、透過波長帯がそれぞれ異なる。
 第1広範囲フィルタ領域611の透過波長帯は、第1広範囲光領域511の色相である「赤」に応じた波長帯に設定される。第2広範囲フィルタ領域612の透過波長帯は、第2広範囲光領域512の色相である「橙」に応じた波長帯に設定される。第3広範囲フィルタ領域613の透過波長帯は、第3広範囲光領域513の色相である「緑」に応じた波長帯に設定される。第4広範囲フィルタ領域614の透過波長帯は、第4広範囲光領域514の色相である「青」に応じた波長帯に設定される。
 なお、図7の例では、広範囲フィルタ領域61の各々に、その広範囲フィルタ領域61の透過波長帯に応じた色相を示す文字(r,o,g,b)が付されている。「r」は、透過波長帯が「赤」に応じた波長帯であることを示す。「o」は、透過波長帯が「橙」に応じた波長帯であることを示す。「g」は、透過波長帯が「緑」に応じた波長帯であることを示す。「b」は、透過波長帯が「青」に応じた波長帯であることを示す。例えば、「r」が付された広範囲フィルタ領域61は、透過波長帯が「赤」に応じた波長帯に設定されている。
   〈狭範囲フィルタ領域〉
 複数の広範囲フィルタ領域61の各々は、複数の狭範囲フィルタ領域62を含む。複数の狭範囲フィルタ領域62は、複数の狭範囲光領域52にそれぞれ対応し、それぞれが対応する狭範囲光領域52を生成する。図7の例では、複数の狭範囲フィルタ領域62は、行列状に配列される。具体的には、35個の広範囲フィルタ領域61の各々において、9個の狭範囲フィルタ領域62が3行3列の行列状に配列されている。
 複数の広範囲フィルタ領域61の各々に含まれる複数の狭範囲フィルタ領域62は、生成しようとする狭範囲光領域52の輝度別に複数の種類に分類される。言い換えると、複数の広範囲フィルタ領域61の各々に含まれる複数の狭範囲フィルタ領域62には、生成しようとする狭範囲光領域52の色相が同一であるがその輝度が異なる複数(2つ以上)の狭範囲フィルタ領域62が含まれる。
 複数の広範囲フィルタ領域61の各々において、複数種類の狭範囲フィルタ領域62(生成しようとする狭範囲光領域52の色相が同一であるがその輝度が異なる複数の狭範囲フィルタ領域62)は、その広範囲フィルタ領域61に対応する広範囲光領域51に含まれる複数種類の狭範囲光領域52にそれぞれ対応し、その広範囲光領域51における輝度パターンと同一のパターンで分布する。
 複数の狭範囲フィルタ領域62の各々は、光源31から出射された光のうちその狭範囲フィルタ領域62を含む広範囲フィルタ領域61に対応する広範囲光領域51の色相に応じた波長帯の光を、その狭範囲フィルタ領域62に対応する狭範囲光領域52の輝度に応じた量だけ抽出する。
 この例では、複数の狭範囲フィルタ領域62の各々は、光源31から出射された光のうちその狭範囲フィルタ領域62を含む広範囲フィルタ領域61に対応する広範囲光領域51の色相に応じた波長帯の光を、その狭範囲フィルタ領域62に対応する狭範囲光領域52の輝度に応じた透過率で透過させる。
 具体的には、複数の狭範囲フィルタ領域62の各々の透過波長帯は、その狭範囲フィルタ領域62を含む広範囲フィルタ領域61に対応する広範囲光領域51の色相に応じた波長帯に設定される。複数の狭範囲フィルタ領域62の各々における透過波長帯に対する透過率は、その狭範囲フィルタ領域62に対応する狭範囲光領域52の輝度に応じた透過率に設定される。狭範囲光領域52の輝度が高くなるほど、狭範囲フィルタ領域62の透過波長帯に対する透過率が高くなる。なお、複数の狭範囲フィルタ領域62の各々における透過波長帯を除く他の波長帯に対する透過率は、透過波長帯に対する透過率よりも低い。
 図7の例では、複数の広範囲フィルタ領域61の各々に含まれる複数の狭範囲フィルタ領域62は、4種類の狭範囲光領域52にそれぞれ対応する4種類の狭範囲フィルタ領域62(具体的には第1~第4狭範囲フィルタ領域621~624)に分類される。第1~第4狭範囲フィルタ領域621~624は、透過波長帯に対する透過率のレベルがそれぞれ異なる。
 第1狭範囲フィルタ領域621の透過波長帯に対する透過率のレベルは、その第1狭範囲フィルタ領域621に対応する第1狭範囲光領域521の輝度のレベル(レベル1)に応じた「レベル1」に設定される。第2狭範囲フィルタ領域622の透過波長帯に対する透過率のレベルは、その第2狭範囲フィルタ領域622に対応する第2狭範囲光領域522の輝度のレベル(レベル2)に応じた「レベル2」に設定される。第3狭範囲フィルタ領域623の透過波長帯に対する透過率のレベルは、その第3狭範囲フィルタ領域623に対応する第3狭範囲光領域523の輝度のレベル(レベル3)に応じた「レベル3」に設定される。第4狭範囲フィルタ領域624の透過波長帯に対する透過率のレベルは、その第4狭範囲フィルタ領域624に対応する第4狭範囲光領域524の輝度のレベル(レベル4)に応じた「レベル4」に設定される。なお、透過率のレベルが「レベル1」から「レベル4」へ向かうに連れて、透過率が次第に高くなる。
 なお、図7の例では、狭範囲フィルタ領域62の各々に、その狭範囲フィルタ領域62の透過波長帯に応じた色相を示す文字(r,o,g,b)と、その透過波長帯に対する透過率のレベルを示す数字(1,2,3,4)とが付されている。例えば、「r1」が付された狭範囲フィルタ領域62は、透過波長帯が「赤」に応じた波長帯に設定され、その透過波長帯に対する透過率が「レベル1」に設定されている。
   〈光源の出力特性〉
 図8(a)は、第1光源311と第2光源312と第3光源313の各々の出力(分光出力)を例示する。第1光源311は、中心波長が610nm付近であり出射帯域幅が80nm程度である光を出射する。第2光源312は、中心波長が520nm付近であり出射帯域幅が150nm程度である光を出射する。第3光源313は、中心波長が470nm付近であり出射帯域幅が100nm程度である光を出射する。
 図8(a)に示すように、この例では、第1~第3光源311~313の各々の最大出力は、同一であるとみなすことができる。
   〈狭範囲フィルタ領域の透過率特性〉
 図8(b)は、第1狭範囲フィルタ領域621の透過率特性を例示する。図8(b)において、「r1」は、透過波長帯が「赤」に応じた波長帯に設定された第1狭範囲フィルタ領域621の透過率特性を示す。「o1」は、透過波長帯が「橙」に応じた波長帯に設定された第1狭範囲フィルタ領域621の透過率特性を示す。「g1」は、透過波長帯が「緑」に応じた波長帯に設定された第1狭範囲フィルタ領域621の透過率特性を示す。「b1」は、透過波長帯が「青」に応じた波長帯に設定された第1狭範囲フィルタ領域621の透過率特性を示す。
 図8(b)に示すように、この例では、第1狭範囲フィルタ領域621における光の透過率(透過波長帯に対する透過率)は、いずれの色相においても、レベル1(図8(b)の例では最大透過率の0.3倍程度)に設定されている。これにより、第1狭範囲フィルタ領域621により生成される第1狭範囲光領域521の輝度のレベルは、いずれの色相においても同一のレベル(レベル1)となる。
 図8(c)は、第2狭範囲フィルタ領域622の透過率特性を例示する。図8(c)において、「r2」は、透過波長帯が「赤」に応じた波長帯に設定された第2狭範囲フィルタ領域622の透過率特性を示す。「o2」は、透過波長帯が「橙」に応じた波長帯に設定された第2狭範囲フィルタ領域622の透過率特性を示す。「g2」は、透過波長帯が「緑」に応じた波長帯に設定された第2狭範囲フィルタ領域622の透過率特性を示す。「b2」は、透過波長帯が「青」に応じた波長帯に設定された第2狭範囲フィルタ領域622の透過率特性を示す。
 図8(c)に示すように、この例では、第2狭範囲フィルタ領域622における光の透過率(透過波長帯に対する透過率)は、いずれの色相においても、レベル2(図8(c)の例では最大透過率の0.5倍程度)に設定されている。これにより、第2狭範囲フィルタ領域622により生成される第2狭範囲光領域522の輝度のレベルは、いずれの色相においても同一のレベル(レベル2)となる。
 図8(d)は、第3狭範囲フィルタ領域623の透過率特性を例示する。図8(d)において、「r3」は、透過波長帯が「赤」に応じた波長帯に設定された第3狭範囲フィルタ領域623の透過率特性を示す。「o3」は、透過波長帯が「橙」に応じた波長帯に設定された第3狭範囲フィルタ領域623の透過率特性を示す。「g3」は、透過波長帯が「緑」に応じた波長帯に設定された第3狭範囲フィルタ領域623の透過率特性を示す。「b3」は、透過波長帯が「青」に応じた波長帯に設定された第3狭範囲フィルタ領域623の透過率特性を示す。
 図8(d)に示すように、この例では、第3狭範囲フィルタ領域623における光の透過率(透過波長帯に対する透過率)は、いずれの色相においても、レベル3(図8(d)の例では最大透過率の0.7倍程度)に設定されている。これにより、第3狭範囲フィルタ領域623により生成される第3狭範囲光領域523の輝度のレベルは、いずれの色相においても同一のレベル(レベル3)となる。
 図8(e)は、第4狭範囲フィルタ領域624の透過率特性を例示する。図8(e)において、「r4」は、透過波長帯が「赤」に応じた波長帯に設定された第4狭範囲フィルタ領域624の透過率特性を示す。「o4」は、透過波長帯が「橙」に応じた波長帯に設定された第4狭範囲フィルタ領域624の透過率特性を示す。「g4」は、透過波長帯が「緑」に応じた波長帯に設定された第4狭範囲フィルタ領域624の透過率特性を示す。「b4」は、透過波長帯が「青」に応じた波長帯に設定された第4狭範囲フィルタ領域624の透過率特性を示す。
 図8(e)に示すように、この例では、第4狭範囲フィルタ領域624における光の透過率(透過波長帯に対する透過率)は、いずれの色相においても、レベル4(図8(e)の例では最大透過率と同程度)に設定されている。これにより、第4狭範囲フィルタ領域624により生成される第4狭範囲光領域524の輝度のレベルは、いずれの色相においても同一のレベル(レベル4)となる。
  〔輝度調整処理〕
 次に、図9を参照して、投射制御部403による輝度調整処理について説明する。例えば、輝度調整処理は、距離測定処理の開始前に行われる。
   〈ステップS1〉
 投射制御部403は、光源31(具体的には第1~第3光源311~313の各々)における駆動電流値を初期値に設定する。駆動電流値の初期値は、測定面の反射率が所定値(想定される標準的な反射率)である場合に、光源31から出射される光の最大輝度が「制御部40において輝度を規定する階調の範囲(例えば0~255)」に適正に収まるように設定される。例えば、光源31の最大輝度が上記の階調の範囲における最大階調よりもやや小さくなる(例えば最大階調の80~90%程度になる)ように、光源31の駆動電流値の初期値が設定される。
   〈ステップS2〉
 次に、投射制御部403は、第1~第3光源311~313のうち未処理の光源31の中から処理対象となる光源31を選択し、その選択された光源31を光源駆動部35に駆動させる。未処理の光源31は、ステップS1またはステップS7の後にステップS2~S4の処理が行われていない光源31のことである。
 具体的には、投射制御部403は、処理対象として選択された光源31を駆動することを指示する指令と、その光源31に対して設定された駆動電流値とを、光源駆動部35に送信する。光源駆動部35は、投射制御部403から送信された駆動電流値に基づいて、投射制御部403により選択された光源31を駆動する。これにより、投射制御部403により選択された光源31から測定面(この例では物体OBの表面)に光が投射される。
   〈ステップS3〉
 次に、投射制御部403は、ステップS2において選択された光源31から測定面に光が投射されている状態で、第1撮像部10に撮像を行わせる。これにより、光源31から測定面に投射された光を含む第1画像P10が得られる。
   〈ステップS4〉
 次に、投射制御部403は、ステップS3において得られた第1画像P10の中から画素の最大輝度を取得する。この画素の最大輝度は、ステップS2において選択された光源31から測定面に投射された光の最大輝度に対応している。
   〈ステップS5〉
 次に、投射制御部403は、第1~第3光源311~313のうち未処理の光源31が残っているか否かを判定する。未処理の光源31が残っている場合には、ステップS2の処理が行われ、そうでない場合には、ステップS6の処理が行われる。
   〈ステップS6〉
 次に、投射制御部403は、光源31(具体的には第1~第3光源311~313の各々)から出射される光の最大輝度が適正であるか否かを判定する。光源31から出射される光の最大輝度が適正である場合には、輝度調整処理が終了し、そうでない場合には、ステップS7の処理が行われる。
 この例では、投射制御部403は、第1~第3光源311~313の各々の最大輝度のバランスが適正であるか否かを判定する。投射制御部403は、第1~第3光源311~313の各々の最大輝度が同一であるとみなされる場合(例えば第1~第3光源311~313の各々の最大輝度の差が許容範囲内である場合)に、第1~第3光源311~313の各々の最大輝度のバランスが適正であると判定する。
 また、この例では、投射制御部403は、光源31(具体的には第1~第3光源311~313の各々)から出射される光の最大輝度が飽和しているか否かを判定する。具体的には、投射制御部403は、光源31の最大輝度が「制御部40において輝度を規定する階調の範囲における最大階調」に到達している場合に、光源31の最大輝度が飽和していると判定する。
   〈ステップS7〉
 光源31(具体的には第1~第3光源311~313の各々)の最大輝度が適正ではない場合、投射制御部403は、光源31の最大輝度が適正になるように、光源31の駆動電流値を再設定する。次に、ステップS2の処理が行われる。
 例えば、この例では、第1~第3光源311~313の各々の最大輝度のバランスが適正ではない場合、投射制御部403は、第1~第3光源311~313の各々の最大輝度のバランスが適正になるように、第1~第3光源311~313の各々の駆動電流値を再設定する。
 具体的には、投射制御部403は、第1~第3光源311~313の各々の最大輝度の中から最も大きい最大輝度を「基準輝度」として選択する。次に、投射制御部403は、第1~第3光源311~313の中から「最大輝度が基準輝度よりも低い光源31」を選択し、その選択された光源31に対して設定された駆動電流値を増加させる。
 また、この例では、光源31(具体的には第1~第3光源311~313の各々)から出射される光の最大輝度が飽和している場合、投射制御部403は、光源31から出射される輝度が飽和しないように、光源31の駆動電流値を再設定する。
 具体的には、投射制御部403は、第1~第3光源311~313のうち最大輝度が飽和している光源31に対して設定された駆動電流値を減少させる。例えば、投射制御部403は、「光源31から出射される光の輝度と駆動電流値との関係」と「制御部40において輝度を規定する階調の範囲における最大階調」とから導出される駆動電流値よりも所定階調だけ低くなるように、光源31に対して設定された駆動電流値を補正する。
  〔距離測定処理〕
 次に、図10を参照して、距離測定処理について説明する。距離測定処理は、距離測定方法の一例である。例えば、距離測定装置1が起動すると、制御部40は、以下の処理を行う。
   〈ステップS10〉
 まず、制御部40(投射制御部403)は、第1撮像部10の第1視野10aと第2撮像部20の第2視野20aとが重なる範囲にパターン光50が投射されるように、投射部30を制御する。
   〈ステップS11〉
 次に、制御部40は、第1撮像部10により得られた第1画像P10と、第2撮像部20により得られた第2画像P20とを取得する。この例では、制御部40は、記憶部41に記憶されている第1画像P10および第2画像P20の中から処理対象となる第1画像P10および第2画像P20を選択し、その選択された第1画像P10および第2画像P20を取得する。
   〈ステップS12〉
 次に、制御部40(第1探索部411)は、ステップS11において得られた第1画像P10および第2画像P20に対して、第1探索処理を行う。これにより、複数の広範囲ブロック組合せ(広範囲基準ブロックB11と広範囲対応ブロックB21との組合せ)が得られる。
   〈ステップS13〉
 次に、制御部40(第2探索部412)は、ステップS12において得られた広範囲ブロック組合せ(広範囲基準ブロックB11と広範囲対応ブロックB21との組合せ)に対して、第2探索処理を行う。これにより、複数の狭範囲ブロック組合せ(狭範囲基準ブロックB12と狭範囲対応ブロックB22との組合せ)が得られる。
   〈ステップS14〉
 次に、制御部40(距離導出部413)は、ステップS13において得られた狭範囲ブロック組合せ(狭範囲基準ブロックB12と狭範囲対応ブロックB22との組合せ)に基づいて、距離導出処理を行う。これにより、距離情報(第1画像P10の中から順に選択された狭範囲基準ブロックB12の各々における距離D0を示す距離情報)が得られる。
   〈ステップS15〉
 次に、制御部40は、距離測定処理を継続するか否かを判定する。距離測定処理を継続する場合には、ステップS11の処理が行われ、そうでない場合には、距離測定処理が終了する。
  〔実施形態の効果〕
 以上のように、実施形態の距離測定装置1では、投射部30は、第1撮像部10の第1視野10aと第2撮像部20の第2視野20aとが重なる範囲にパターン光50を投射する。パターン光50は、色相が異なる複数の広範囲光領域51が所定の色相パターンで分布し、且つ、複数の広範囲光領域51の各々において、色相が同一であるが輝度が異なる複数の狭範囲光領域52が所定の輝度パターンで分布するパターン光である。
 換言すると、パターン光50は、色相が異なる複数の光領域と、色相が同じで輝度が異なる複数の光領域からなり、複数の広範囲光領域51が所定のパターンで分布し、且つ、複数の広範囲光領域51の各々において、複数の狭範囲光領域52が所定のパターンで分布するパターン光である。複数の広範囲光領域51は、色相が異なる複数の光領域を含み、所定の色相パターンで分布する。複数の狭範囲光領域52は、色相が同じで輝度が異なる複数の光領域を含み、所定の輝度パターンで分布する。
 上記の構成では、特異なパターン光50を測定面に投射することにより、測定面に特異なパターン(テクスチャ)を形成することができる。これにより、測定面に無地の面(例えば平坦な単色の面)が含まれる場合であっても、ステレオマッチング(対応点探索)を精度良く行うことができる。これにより、測定面までの距離D0を正確に測定することができる。
 なお、測定面によっては、特定の波長帯において、光の吸収率が高くなったり、光の反射率が低くなったりすることがある。そのため、仮に、パターン光50が単一の波長帯の光で構成されていたとすると、そのパターン光50の波長帯が上記の特定の波長帯に含まれる場合、測定面に特異なパターンを形成することが困難となる。
 一方、実施形態の距離測定装置1では、パターン光50において、色相(波長帯)が異なる複数の広範囲光領域51が所定の色相パターンで分布している。これにより、仮に、複数の広範囲光領域51のうち、いずれかの広範囲光領域51の色相に応じた波長帯が、上記の特定の波長帯(光の吸収率が高くなったり光の反射率が低くなったりする波長帯)に含まれていたとしても、残りの広範囲光領域51が測定面(この例では物体OBの表面)に投射されることで、測定面に特異なパターンを形成することができる。
 また、実施形態の距離測定装置1では、投射部30は、パターン光50を生成するためのフィルタ33を有する。フィルタ33は、複数の広範囲光領域51にそれぞれ対応して色相パターンと同一のパターンで分布する複数の広範囲フィルタ領域61を含む。複数の広範囲フィルタ領域61の各々は、複数の広範囲光領域51のうちその広範囲フィルタ領域61に対応する広範囲光領域51に含まれる複数の狭範囲光領域52にそれぞれ対応して輝度パターンと同一のパターンで分布する複数の狭範囲フィルタ領域62を含む。
 換言すると、フィルタ33は、色相が異なる複数の光領域を生成するための複数のフィルタ領域と、色相が同じで輝度が異なる複数の光領域を生成するための複数のフィルタ領域とからなり、複数の広範囲光領域51にそれぞれ対応して所定のパターン(広範囲光領域51の所定のパターン)と同一のパターンで分布する複数の広範囲フィルタ領域61を含む。複数の広範囲フィルタ領域61の各々は、複数の広範囲光領域51のうちその広範囲フィルタ領域61に対応する広範囲光領域51に含まれる複数の狭範囲光領域52にそれぞれ対応して所定のパターン(狭範囲光領域52の所定のパターン)と同一のパターンで分布する複数の狭範囲フィルタ領域62を含む。
 上記の構成では、所望のパターンを有するパターン光50を容易に生成することができる。また、回折光学素子のように製造誤差や組立誤差による回折効率のばらつき(輝度階調のばらつき)が生じないので、所望のパターンを有するパターン光50を安定的に生成することができる。
 また、実施形態の距離測定装置1では、投射部30は、光源31と、光源31から出射された光をフィルタ33に導く光学系32とを有する。このような構成により、パターン光50を生成するための光をフィルタ33に容易に照射することができる。
 また、実施形態の距離測定装置1では、複数の広範囲フィルタ領域61の各々は、光源31から出射された光のうちその広範囲フィルタ領域61に対応する広範囲光領域51の色相に応じた波長帯の光を透過させる。複数の狭範囲フィルタ領域62の各々は、光源31から出射された光のうちその狭範囲フィルタ領域62を含む広範囲フィルタ領域61に対応する広範囲光領域51の色相に応じた波長帯の光を、その狭範囲フィルタ領域62に対応する狭範囲光領域52の輝度に応じた透過率で透過させる。
 換言すると、フィルタ33において、色相が異なる複数の光領域を生成するための複数のフィルタ領域の各々は、光源31から出射された光のうち色相が異なる複数の光領域に応じた波長帯の光を抽出する。色相が同じで輝度が異なる複数の光領域を生成するための複数のフィルタ領域の各々は、光源31から出射された光のうち色相が同じで輝度が異なる複数の光領域に応じた波長帯の光を、輝度に応じた量だけ抽出する。
 上記の構成では、複数の広範囲フィルタ領域61の各々は、その広範囲フィルタ領域61に対応する広範囲光領域51の色相に応じた波長帯の光を選択的に抽出することができる。複数の狭範囲フィルタ領域62の各々は、その狭範囲フィルタ領域62を含む広範囲フィルタ領域61に対応する広範囲光領域51の色相に応じた波長帯の光を、その狭範囲フィルタ領域62に対応する狭範囲光領域52の輝度に応じた量だけ、選択的に抽出することができる。これにより、パターン光50を効率的に生成することができる。
 また、実施形態の距離測定装置1では、投射制御部403は、光源31から出射される光の輝度が飽和しないように、光源31から出射される光の輝度を調整する。このような構成により、光源31から出射される光の輝度を適切に設定することができる。
 また、実施形態の距離測定装置1では、第1探索部411は、第1画像P10の中から広範囲基準ブロックB11を順に選択し、その広範囲基準ブロックB11に対応する広範囲対応ブロックB21を、第2画像P20の中から探索する。第2探索部412は、広範囲基準ブロックB11の中から狭範囲基準ブロックB12を順に選択し、その狭範囲基準ブロックB12に対応する狭範囲対応ブロックB22を、その広範囲基準ブロックB11に対応する広範囲対応ブロックB21の中から探索する。距離導出部413は、狭範囲基準ブロックB12と狭範囲対応ブロックB22との位置の差に基づいて、狭範囲基準ブロックB12における測定面までの距離D0を導出する。
 上記の構成では、第1探索部411による探索(比較的に粗い探索)により検出された画素ブロックに対して、第2探索部412による探索(比較的に細かい探索)を行うことができる。これにより、第2探索部412による探索のみを行う場合(具体的には、第1画像P10の中から狭範囲基準ブロックB12を順に選択し、その狭範囲基準ブロックB12に対応する狭範囲対応ブロックB22を第2画像P20の中から探索する場合)よりも、対応点探索(具体的には狭範囲対応ブロックB22の探索)に要する時間を短縮することができる。これにより、距離測定装置1による距離D0の測定を高速化することができる。
 また、実施形態の距離測定装置1では、広範囲基準ブロックB11を選択するための画素範囲の移動量である第1基準移動量は、狭範囲基準ブロックB12を選択するための画素範囲の移動量である第2基準移動量よりも多い。このような構成により、広範囲基準ブロックB11の選択に要する時間を短縮することができるので、第1探索処理(第1探索部411による探索)を高速化することができる。これにより、距離測定装置1による距離D0の測定を高速化することができる。
 また、実施形態の距離測定装置1では、広範囲参照ブロックBR1を選択するための画素範囲の移動量である第1参照移動量は、狭範囲参照ブロックBR2を選択するための画素範囲の移動量である第2参照移動量よりも多い。このような構成により、広範囲参照ブロックBR1の選択に要する時間を短縮することができるので、第1探索処理(第1探索部411による探索)を高速化することができる。これにより、距離測定装置1による距離D0の測定を高速化することができる。
 (実施形態の変形例1)
 図11は、実施形態の変形例1の距離測定装置1の構成を例示する。実施形態の変形例1の距離測定装置1は、投射部30の構成が実施形態の距離測定装置1と異なる。実施形態の変形例1の距離測定装置1のその他の構成および処理は、実施形態の距離測定装置1の構成および処理と同様である。
 実施形態の変形例1では、投射部30は、単一の光源31を有する。例えば、光源31は、白色レーザダイオードである。光学系32は、コリメータレンズ326を有する。コリメータレンズ326は、光源31から出射された光を平行光に変換する。実施形態の変形例1の投射部30のその他の構成は、実施形態の投射部30の構成と同様である。
   〈光源の出力特性〉
 図12(a)は、実施形態の変形例1における光源31の出力(分光出力)を例示する。単一の光源31から出力される光は、波長の変化に応じて出力が変化する。
 具体的には、光の波長が430nmから470nmまで増加するに連れて、光の出力が最小レベル(ゼロ)から最大レベルまで次第に増加し、光の波長が470nmから510nmまで増加するに連れて、光の出力が最大レベルから「最大レベルの0.2倍程度」まで次第に減少していく。そして、光の波長が510nmから580nmまで増加するに連れて、光の出力が「最大レベルの0.2倍程度」から「最大レベルの0.4倍程度」まで次第に増加し、光の波長が580nmから増加するに連れて、光の出力が「最大レベルの0.4倍程度」から最小レベルへ向けて次第に減少していく。
   〈狭範囲フィルタ領域の透過率特性〉
 図12(b)~図12(e)は、実施形態の変形例1における第1~第4狭範囲フィルタ領域621~624の透過率特性を例示する。図12(b)~図12(e)に示すように、色相毎に比較すると、いずれの色相においても、第1~第4狭範囲フィルタ領域621~624の透過波長帯に対する透過率のレベルが「レベル1~4」にそれぞれ設定されているとみなすことができる。
 また、図12(b)に示すように、単一の光源31の出力特性(単一の光源31から出射される光の波長の変化に伴う出力の変化)に応じて、第1狭範囲フィルタ領域621の透過波長帯に対する透過率は、色相毎に設定されている。図12(b)の例では、透過波長帯が「赤」に応じた波長帯に設定された第1狭範囲フィルタ領域621の透過率(透過波長帯に対する透過率)は、透過波長帯が「他の色相」に応じた波長帯に設定された第1狭範囲フィルタ領域621の透過率(透過波長帯に対する透過率)よりも高くなっている。
 このように、単一の光源31の出力特性に応じて、第1狭範囲フィルタ領域621の透過波長帯に対する透過率を色相毎に設定することにより、第1狭範囲フィルタ領域621により生成される第1狭範囲光領域521の輝度のレベルは、いずれの色相においても同一のレベル(レベル1)にすることができる。なお、第2~第4狭範囲フィルタ領域622~624についても同様のことがいえる。
 (実施形態の変形例2)
 実施形態の変形例2の距離測定装置1は、パターン光50およびフィルタ33の構成が実施形態の距離測定装置1と異なる。実施形態の変形例2の距離測定装置1のその他の構成および処理は、実施形態の距離測定装置1の構成および処理と同様である。
 図13は、実施形態の変形例2におけるパターン光50の一部を例示する。実施形態の変形例2におけるパターン光50において、広範囲光領域51の形状は、狭範囲基準ブロックB12の形状(矩形)とは異なる形状である。なお、パターン光50における広範囲光領域51の配置(分布パターン)は、実施形態のパターン光50(図6参照)における広範囲光領域51の配置と同様である。また、複数の広範囲光領域51の各々に含まれる狭範囲光領域52の構成(形状)および配置(分布パターン)は、実施形態のパターン光50(図6参照)における狭範囲光領域52の構成および配置と同様である。
 図14は、実施形態の変形例2におけるフィルタ33の一部を例示する。実施形態の変形例2におけるフィルタ33において、広範囲フィルタ領域61の形状は、図13に示した広範囲光領域51の形状に対応する形状であり、狭範囲基準ブロックB12の形状(矩形)とは異なる形状である。なお、フィルタ33における広範囲フィルタ領域61の配置(分布パターン)は、実施形態のフィルタ(図7参照)における広範囲フィルタ領域61の配置と同様である。また、複数の広範囲フィルタ領域61の各々に含まれる狭範囲フィルタ領域62の構成(形状)および配置(分布パターン)は、実施形態のフィルタ33(図7参照)における狭範囲フィルタ領域62の構成および配置と同様である。
 (実施形態の変形例3)
 実施形態の変形例3の距離測定装置1は、制御部40(第1探索部411)による第1探索処理が実施形態の距離測定装置1と異なる。
 実施形態の変形例3では、第1探索部411は、広範囲基準ブロックB11に対して削減処理を行う。削減処理は、データ量を削減するための処理である。また、第1探索部411は、広範囲参照ブロックBR1に対して削減処理を行う。そして、第1探索部411は、削減処理が行われた広範囲基準ブロックB11および広範囲参照ブロックBR1に基づいて、その広範囲基準ブロックB11と広範囲参照ブロックBR1との類似度を導出する。なお、削減処理の例としては、間引き処理、ビニング処理などが挙げられる。
  〔実施形態の変形例3の効果〕
 以上のように、実施形態の変形例3の距離測定装置1では、第1探索部411は、削減処理が行われた広範囲基準ブロックB11および広範囲参照ブロックBR1に基づいて、その広範囲基準ブロックB11と広範囲参照ブロックBR1との類似度を導出する。
 このような構成により、広範囲基準ブロックB11と広範囲参照ブロックBR1との類似度の導出に要する時間を短縮することができるので、第1探索処理(第1探索部411による探索)を高速化することができる。これにより、距離測定装置1による距離D0の測定を高速化することができる。
 (距離測定装置の適用例)
 以上の距離測定装置1は、例えば、工場内において作業動作するロボットアームのエンドエフェクタ(例えば把持部など、図示省略)に設置される。この場合、距離測定装置1の制御部40は、ロボットアームの作業工程において、通信インターフェース42を経由して、ロボットコントローラ(図示省略)から距離取得の指示を受信する。この指示に応答して、制御部40(計測部404)は、エンドエフェクタの位置と作業対象の物体OBの表面との距離を計測し、その計測結果(距離情報)を、通信インターフェースを経由して、ロボットコントローラに送信する。ロボットコントローラは、距離測定装置1から受信した距離情報に基づいて、エンドエフェクタの動作をフィードバック制御する。なお、距離測定装置1がエンドエフェクタに設置される場合、距離測定装置1は、小型軽量であることが望ましい。
 (その他の実施形態)
 以上の説明では、広範囲基準ブロックB11が6行6列の行列状に配列された36個の画素を含む画素ブロックである場合を例に挙げたが、これに限定されない。広範囲基準ブロックB11の形状およびサイズは、その他の形状およびサイズであってもよい。広範囲参照ブロックBR1、狭範囲基準ブロックB12、狭範囲参照ブロックBR2についても同様のことがいえる。
 また、以上の説明では、撮像部の数が2つである場合(第1撮像部10と第2撮像部20とを備える場合)を例に挙げたが、これに限定されない。距離測定装置1は、3つ以上の撮像部を備えてもよい。この場合、これらの撮像部は、それぞれの視野が重なるように配置され、これらの視野が重なる範囲にパターン光50が投射される。
 また、以上の説明では、パターン光50に含まれる広範囲光領域51の種類が4種類である場合を例に挙げたが、これに限定されない。広範囲光領域51の種類は、2種類、3種類、5種類以上であってもよい。フィルタ33に含まれる広範囲フィルタ領域61の種類についても同様のことがいえる。
 また、以上の説明では、パターン光50において複数の広範囲光領域51の各々に含まれる狭範囲光領域52の種類が4種類である場合を例に挙げたが、これに限定されない。狭範囲光領域52の種類は、2種類、3種類、5種類以上であってもよい。フィルタ33において複数の広範囲フィルタ領域61の各々に含まれる狭範囲フィルタ領域62の種類についても同様のことがいえる。
 また、以上の説明では、フィルタ33が透過型のフィルタである場合を例に挙げたが、これに限定されない。例えば、フィルタ33は、反射型のフィルタであってもよい。
 また、以上の説明において、パターン光50に含まれる複数の狭範囲光領域52には、輝度がゼロである狭範囲光領域52(無光ドット)が含まれてもよい。フィルタ33に含まれる複数の狭範囲フィルタ領域62には、光を透過させずに遮断する狭範囲フィルタ領域62(無光ドットを生成するための狭範囲フィルタ領域62)が含まれてもよい。
 また、以上の説明では、距離測定装置1がロボットアームのエンドエフェクタに設置される場合を例に挙げたが、これに限定されない。例えば、距離測定装置1は、測定面(例えば物体OBの表面)までの距離D0に基づいて所定の制御を行う他のシステムに適用されてもよい。
 また、距離測定装置1の構成は、以上の説明における構成に限定されない。例えば、第1撮像素子12および第2撮像素子22は、複数のフォトセンサが行列状に配置されたフォトセンサアレイであってもよい。
 また、以上の説明において、距離測定装置1の構成要素は、1つの装置として纏めて配置されてもよいし、複数の装置(例えばインターネットなどの通信網を経由して通信する複数の装置など)に分散して配置されてもよい。制御部40は、1つのプロセッサにより実現されてもよいし、複数のプロセッサにより実現されてもよい。また、制御部40は、複数の演算処理装置(例えばインターネットなどの通信網を経由して通信する複数の演算処理装置など)により実現されてもよい。
 また、以上の実施形態および変形例を適宜組み合わせて実施してもよい。以上の実施形態および変形例は、本質的に好ましい例示であって、ここに開示する技術、その適用物、あるいはその用途の範囲を制限することを意図するものではない。
 以上説明したように、ここに開示する技術は、距離測定技術として有用である。
1     距離測定装置
10    第1撮像部
20    第2撮像部
30    投射部
31    光源
32    光学系
33    フィルタ
40    制御部
401   第1撮像処理部
402   第2撮像処理部
403   投射制御部
404   計測部
411   第1探索部
412   第2探索部
413   距離導出部
50    パターン光
51    広範囲光領域
52    狭範囲光領域
61    広範囲フィルタ領域
62    狭範囲フィルタ領域

Claims (12)

  1.  それぞれの視野が重なるように並んで配置される第1撮像部および第2撮像部と、
     前記第1撮像部の視野と前記第2撮像部の視野とが重なる範囲にパターン光を投射する投射部と、
     前記第1撮像部により得られた第1画像と前記第2撮像部により得られた第2画像との視差に基づいて、前記パターン光が投射された測定面までの距離を計測する計測部とを備え、
     前記パターン光は、色相が異なる複数の光領域と、色相が同じで輝度が異なる複数の光領域からなり、複数の広範囲光領域が所定のパターンで分布し、且つ、前記複数の広範囲光領域の各々において、複数の狭範囲光領域が所定のパターンで分布するパターン光である
    距離測定装置。
  2.  請求項1の距離測定装置において、
     前記投射部は、前記パターン光を生成するためのフィルタを有し、
     前記フィルタは、前記色相が異なる複数の光領域を生成するための複数のフィルタ領域と、前記色相が同じで輝度が異なる複数の光領域を生成するための複数のフィルタ領域とからなり、前記複数の広範囲光領域にそれぞれ対応して前記所定のパターンと同一のパターンで分布する複数の広範囲フィルタ領域を含み、
     前記複数の広範囲フィルタ領域の各々は、前記複数の広範囲光領域のうち該広範囲フィルタ領域に対応する前記広範囲光領域に含まれる前記複数の狭範囲光領域にそれぞれ対応して前記所定のパターンと同一のパターンで分布する複数の狭範囲フィルタ領域を含む
    距離測定装置。
  3.  請求項2の距離測定装置において、
     前記投射部は、
      光源と、
      前記光源から出射された光を前記フィルタに導く光学系とを有する
    距離測定装置。
  4.  請求項3の距離測定装置において、
     前記色相が異なる複数の光領域を生成するための前記複数のフィルタ領域の各々は、前記光源から出射された光のうち前記色相が異なる複数の光領域に応じた波長帯の光を抽出し、
     前記色相が同じで輝度が異なる複数の光領域を生成するための前記複数のフィルタ領域の各々は、前記光源から出射された光のうち前記色相が同じで輝度が異なる複数の光領域に応じた波長帯の光を、輝度に応じた量だけ抽出する
    距離測定装置。
  5.  請求項4の距離測定装置において、
     前記光源から出射される光の輝度が飽和しないように、前記光源から出射される光の輝度を調整する投射制御部を備える
    距離測定装置。
  6.  請求項1~5のいずれか1つの距離測定装置において、
     前記複数の広範囲光領域は、前記色相が異なる複数の光領域を含み、所定の色相パターンで分布し、
     前記複数の狭範囲光領域は、前記色相が同じで輝度が異なる複数の光領域を含み、所定の輝度パターンで分布する
    距離測定装置。
  7.  請求項1~6のいずれか1つの距離測定装置において、
     前記計測部は、
      前記第1画像の中から広範囲基準ブロックを順に選択し、該広範囲基準ブロックに対応する広範囲対応ブロックを、前記第2画像の中から探索する第1探索部と、
      前記広範囲基準ブロックの中から狭範囲基準ブロックを順に選択し、該狭範囲基準ブロックに対応する狭範囲対応ブロックを、該広範囲基準ブロックに対応する前記広範囲対応ブロックの中から探索する第2探索部と、
      前記狭範囲基準ブロックと前記狭範囲対応ブロックとの位置の差に基づいて、前記狭範囲基準ブロックにおける前記測定面までの距離を導出する距離導出部とを有する
    距離測定装置。
  8.  請求項7の距離測定装置において、
     前記第1探索部は、前記広範囲基準ブロックを選択するための画素範囲を前記第1画像において第1基準移動量ずつ移動させることで、前記第1画像の中から前記広範囲基準ブロックを順に選択し、
     前記第2探索部は、前記狭範囲基準ブロックを選択するための画素範囲を前記広範囲基準ブロックにおいて第2基準移動量ずつ移動させることで、前記広範囲基準ブロックの中から前記狭範囲基準ブロックを順に選択し、
     前記第1基準移動量は、前記第2基準移動量よりも多い
    距離測定装置。
  9.  請求項7の距離測定装置において、
     前記第1探索部は、前記広範囲対応ブロックの候補となる広範囲参照ブロックを選択するための画素範囲を前記第2画像において第1参照移動量ずつ移動させることで、前記第2画像の中から前記広範囲参照ブロックを順に選択し、
     前記第2探索部は、前記狭範囲対応ブロックの候補となる狭範囲参照ブロックを選択するための画素範囲を前記広範囲対応ブロックにおいて第2参照移動量ずつ移動させることで、前記広範囲対応ブロックの中から前記狭範囲参照ブロックを順に選択し、
     前記第1参照移動量は、前記第2参照移動量よりも多い
    距離測定装置。
  10.  請求項7の距離測定装置において、
     前記第1探索部は、
      前記第2画像の中から前記広範囲基準ブロックに対応する前記広範囲対応ブロックの候補となる広範囲参照ブロックを順に選択し、前記第2画像の中から順に選択された広範囲参照ブロックのうち前記広範囲基準ブロックとの類似度が最大となる広範囲参照ブロックを前記広範囲対応ブロックに決定し、
      前記広範囲基準ブロックおよび前記広範囲参照ブロックに対して、データ量を削減するための削減処理を行い、前記削減処理が行われた該広範囲基準ブロックおよび該広範囲参照ブロックに基づいて、該広範囲基準ブロックと該広範囲参照ブロックとの類似度を導出する
    距離測定装置。
  11.  それぞれの視野が重なるように並んで配置される第1撮像部および第2撮像部と、前記第1撮像部の視野と前記第2撮像部の視野とが重なる範囲にパターン光を投射する投射部とを用いて行われる距離測定方法であって、
     前記投射部から前記パターン光を投射する投射ステップと、
     前記第1撮像部により得られた第1画像と前記第2撮像部により得られた第2画像とを取得する取得ステップと、
     前記第1画像と前記第2画像との視差に基づいて、前記パターン光が投射された測定面までの距離を計測する計測ステップとを備え、
     前記パターン光は、色相が異なる複数の光領域と、色相が同じで輝度が異なる複数の光領域からなり、複数の広範囲光領域が所定のパターンで分布し、且つ、前記複数の広範囲光領域の各々において、複数の狭範囲光領域が所定のパターンで分布するパターン光である
    距離測定方法。
  12.  請求項11の距離測定方法をコンピュータに実行させる距離測定プログラム。
PCT/JP2023/034528 2022-09-30 2023-09-22 距離測定装置、距離測定方法、距離測定プログラム WO2024070954A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-158285 2022-09-30
JP2022158285 2022-09-30

Publications (1)

Publication Number Publication Date
WO2024070954A1 true WO2024070954A1 (ja) 2024-04-04

Family

ID=90477744

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/034528 WO2024070954A1 (ja) 2022-09-30 2023-09-22 距離測定装置、距離測定方法、距離測定プログラム

Country Status (1)

Country Link
WO (1) WO2024070954A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004020536A (ja) * 2002-06-20 2004-01-22 Ricoh Co Ltd 三次元形状計測装置
JP2005214653A (ja) * 2004-01-27 2005-08-11 Olympus Corp 3次元形状測定方法及びその装置
WO2020235067A1 (ja) * 2019-05-22 2020-11-26 オムロン株式会社 3次元計測システム及び3次元計測方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004020536A (ja) * 2002-06-20 2004-01-22 Ricoh Co Ltd 三次元形状計測装置
JP2005214653A (ja) * 2004-01-27 2005-08-11 Olympus Corp 3次元形状測定方法及びその装置
WO2020235067A1 (ja) * 2019-05-22 2020-11-26 オムロン株式会社 3次元計測システム及び3次元計測方法

Similar Documents

Publication Publication Date Title
KR100914961B1 (ko) 구조광 기반 3차원 카메라의 최적 노출 결정방법 및 시스템
CN107113370B (zh) 图像记录设备及记录图像方法
KR20160007361A (ko) 투영광원을 구비한 촬영방법 및 그 촬영장치
US10713810B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
JP7168077B2 (ja) 3次元計測システム及び3次元計測方法
JP2010532018A (ja) 多色自動焦点装置および方法
WO2023182237A1 (ja) 距離測定装置
US20180180407A1 (en) Image processing apparatus and image processing method
JP2006279546A (ja) 電子カメラ、画像処理プログラム、および画像処理方法
CN111988594B (zh) 图像处理设备及其控制方法、摄像设备、监视***和介质
JP7409425B2 (ja) 位置算出システム、位置算出装置、位置算出方法及びプログラム
JP2013097154A (ja) 距離測定装置、撮像装置、距離測定方法
US20190108617A1 (en) Image processing apparatus, system, image processing method, calibration method, and computer-readable recording medium
WO2024070954A1 (ja) 距離測定装置、距離測定方法、距離測定プログラム
JP2020021126A (ja) 画像処理装置およびその制御方法、距離検出装置、撮像装置、プログラム
US20190301855A1 (en) Parallax detection device, distance detection device, robot device, parallax detection method, and distance detection method
US10339665B2 (en) Positional shift amount calculation apparatus and imaging apparatus
CN109756667B (zh) 位置取得***、位置取得装置、位置取得方法以及记录介质
JP2014215436A (ja) 撮像装置、その制御方法、および制御プログラム
JP6524680B2 (ja) 撮像システム、距離情報の取得方法及び距離情報の生産方法
JP2011133360A (ja) 距離計測装置、距離計測方法、及びプログラム
EP3062516B1 (en) Parallax image generation system, picking system, parallax image generation method, and computer-readable recording medium
JP5896090B1 (ja) 撮像装置および測色方法
JP2017173259A (ja) 計測装置、システム及び物品の製造方法
JP2022098072A (ja) 三次元形状計測方法、三次元形状計測装置およびロボットシステム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23872180

Country of ref document: EP

Kind code of ref document: A1