WO2013129387A1 - 距離計測装置及び距離計測方法 - Google Patents

距離計測装置及び距離計測方法 Download PDF

Info

Publication number
WO2013129387A1
WO2013129387A1 PCT/JP2013/054948 JP2013054948W WO2013129387A1 WO 2013129387 A1 WO2013129387 A1 WO 2013129387A1 JP 2013054948 W JP2013054948 W JP 2013054948W WO 2013129387 A1 WO2013129387 A1 WO 2013129387A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
unit
irradiation light
region
image
Prior art date
Application number
PCT/JP2013/054948
Other languages
English (en)
French (fr)
Inventor
沖 孝彦
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to JP2014502244A priority Critical patent/JP5800082B2/ja
Priority to EP13754683.4A priority patent/EP2821748B1/en
Priority to CN201380011961.6A priority patent/CN104160243B/zh
Priority to US14/379,937 priority patent/US10436902B2/en
Publication of WO2013129387A1 publication Critical patent/WO2013129387A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4918Controlling received signal intensity, gain or exposure of sensor

Definitions

  • the present invention relates to a distance measuring device and a distance measuring method for measuring the distance to an object by irradiating the object with intensity-modulated irradiation light.
  • Irradiation light is irradiated toward the object, and the reflected light reflected by the object is imaged by an imaging device such as a CCD, and the distance to the object or the shape of the object is measured based on the acquired imaging data.
  • An optical distance measuring device is known. In such a distance measuring device, if the reflected light of the irradiated light by the object is weaker than the background light, the reflected light may be buried in the background light (noise) and the object may not be recognized correctly.
  • the remote transmitter and receiver where the reflected light is weaker than in the past, and the transmitter / receiver for the neighborhood where the reflected light is sufficiently strong, use the irradiation light with different wavelengths and blinking cycles, so that the remote and the remote are individually
  • a distance measuring device has been proposed that can measure the distance (for example, see Patent Document 1).
  • the upper end portion (the upper peak region of the sine wave) or the lower end portion (the lower peak region of the sine wave) of the intensity-modulated signal acquired from the image captured by the imaging unit is saturated, An error occurs in the synchronous detection determination when performing the synchronous detection process on the transmission signal. Therefore, although there is sufficient reflection information, the intensity modulation signal is not detected, and there is a problem that the accuracy of distance measurement to the object and shape measurement is reduced.
  • the present invention has been made to solve such a problem, and an object of the present invention is to detect an intensity modulation signal acquired from a captured image in a nonlinear region in the luminance sensitivity characteristic of the imaging unit. Even if it is a case, it is providing the distance measuring apparatus and distance measuring method which can measure the distance or shape to a target object with high precision.
  • a distance measuring device is mounted on a moving body, has a horizontal irradiation region, and emits intensity-modulated irradiation light; and
  • An imaging unit that is mounted on a moving body and captures an object irradiated with irradiation light, a light projection control unit that controls the intensity of irradiation light in accordance with the imaging timing of the imaging unit, and an image captured by the imaging unit From the image, the region where the brightness fluctuates in synchronization with the intensity modulation of the irradiation light is extracted as the synchronous detection region, the edge detection unit that detects the edge of the synchronous detection region, and the edge detection unit.
  • a distance calculation unit that calculates the distance to the object based on the edge of the synchronous detection region.
  • the synchronous detection unit irradiates necessary for the luminance variation of the image to shift to the linear region of the imaging unit.
  • the light amplitude and DC component are calculated.
  • the light projection control unit controls the intensity of the irradiation light based on the amplitude and DC component of the irradiation light calculated by the irradiation intensity correction calculation unit.
  • the distance measuring apparatus is mounted on a moving body, has a light irradiation area in the horizontal direction and irradiates intensity-modulated irradiation light, and is mounted on the moving body and irradiated.
  • An imaging unit that images an object irradiated with light
  • a light projection control unit that controls the intensity of irradiation light in accordance with the imaging timing of the imaging unit, and an intensity of irradiation light from an image captured by the imaging unit It has a synchronous detection part which extracts the area
  • the light projection control unit reduces the amplitude of the irradiation light when the intensity of light incident on the imaging unit changes beyond a predetermined range.
  • a distance measuring method irradiates an object with irradiation light whose intensity is modulated using a light projecting unit mounted on a moving body, and uses an imaging unit mounted on the moving body.
  • the target object irradiated with the irradiation light is imaged, the intensity of the irradiation light is controlled in accordance with the timing of the imaging, and the region where the brightness varies in synchronization with the intensity modulation of the irradiation light from the captured image is detected synchronously.
  • the edge of the synchronous detection region is detected, the distance to the object is calculated based on the detected edge, and the luminance fluctuation of the captured image is the luminance output value of the nonlinear region of the imaging unit
  • the amplitude and DC component of the irradiation light necessary for the luminance fluctuation of the image to move to the linear region of the imaging unit are calculated, and the irradiation light is calculated based on the calculated amplitude and DC component of the irradiation light. Control strength.
  • FIG. 1 is a block diagram showing a configuration of a distance measuring apparatus 100 according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing a detailed configuration of the synchronous detection processing unit 15 of FIG.
  • FIG. 3 is a block diagram showing the procedure of the processing operation of the synchronous detection processing unit 15 of FIG. 4 is a timing chart showing changes in each signal in FIG. 3,
  • FIG. 4 (a) shows a transmission signal S (t),
  • FIG. 4 (b) shows a BPSK transmission signal, and
  • FIG. 4 (c) denotes the signal after the carrier multiplication,
  • FIG. 4 (d) shows a decoded signal a n.
  • FIG. 5 is an explanatory diagram showing a state in which the distance measuring device of FIG.
  • FIG. 6 is a perspective view showing an example of an image captured by the camera 12 of FIG.
  • FIG. 7 is an explanatory diagram showing the principle of measuring the distance to the observation object P.
  • FIG. 8 is a graph showing an example of the relationship (luminance sensitivity characteristic) between the input light intensity and the luminance output value possessed by the image sensor included in the camera 12 of FIG.
  • FIG. 9 is a graph showing how distortion occurs at the upper end of the luminance output signal of the image sensor with respect to the intensity-modulated signal.
  • FIG. 10 is a graph showing how distortion occurs at the lower end of the luminance output signal of the image sensor with respect to the intensity-modulated signal.
  • FIG. 11 is an explanatory diagram illustrating a process of correcting the amplitude of the modulated light in the nonlinear region in the bright part of the image sensor.
  • FIG. 12 is an explanatory diagram illustrating processing for correcting the amplitude of modulated light and superimposing a DC component in a non-linear region in the dark part of the image sensor.
  • FIG. 13 is a flowchart showing an example of a procedure of a distance measuring method using the distance measuring device of FIG.
  • FIG. 14 is a flowchart showing a detailed processing procedure of the synchronous detection processing shown in FIG.
  • FIG. 15 is an explanatory diagram showing distance resolution when the visual axis of the camera 12 in FIG. 1 has no depression angle.
  • FIG. 16 is an explanatory diagram showing the distance resolution when the visual axis of the camera 12 in FIG. 1 has a depression angle.
  • the distance measuring apparatus 100 is mounted on a vehicle (an example of a moving body), and projects a projection unit that irradiates irradiation light toward an observation target P (target) that is a target for distance measurement around the vehicle. 11, a camera (an example of an imaging unit) 12 that captures an image of the observation object P irradiated with irradiation light, and an image memory 14 that can store a predetermined number of images output from the camera 12.
  • the distance measuring device 100 includes a light projection control unit 13 that controls irradiation of irradiation light by the light projecting unit 11, and an irradiation intensity correction calculation unit that corrects the amplitude and direct current component of irradiation light irradiated from the light projecting unit 11.
  • a synchronous detection processing unit 15 that performs synchronous detection processing on an image signal captured by the camera 12, and upper edge detection that detects the upper edge (an example of an edge) of the observation object P from the synchronously detected image.
  • a distance calculation unit 17 that calculates the distance from the vehicle to the observation object P based on the upper edge detected by the upper edge detection unit 16.
  • the image memory 14, the synchronous detection processing unit 15, and the irradiation intensity correction calculation unit 18 constitute a “synchronous detection unit”.
  • the case where the moving body is a vehicle will be described as an example.
  • the present invention is not limited to this, and can be applied to other moving bodies such as a railway vehicle and a ship.
  • the distance measuring apparatus 100 according to the present embodiment can be configured using, for example, an integrated computer including a central processing unit (CPU) and a storage unit such as a RAM, a ROM, and a hard disk.
  • CPU central processing unit
  • storage unit such as a RAM, a ROM, and a hard disk.
  • the light projecting unit 11 is, for example, a headlight including a projector headlight or a reflector, and irradiates the observation target P with irradiation light having a light distribution characteristic that forms an irradiation region in the horizontal direction. Then, by irradiating the observation target P with irradiation light whose intensity is modulated, the luminance boundary between the irradiation region and the non-irradiation region, that is, the upper edge can be clearly projected on the observation target P. Further, as the light source of the light projecting unit 11, a light source of visible light, infrared light, or ultraviolet light can be used.
  • the camera 12 includes an image sensor such as a CCD or a CMOS, and captures an image around the vehicle. Specifically, the reflected light obtained by reflecting the irradiation light irradiated by the light projecting unit 11 from the observation target P and the background light are incident on the imaging element included in the camera 12.
  • the image sensor provided in the camera 12 outputs luminance according to the intensity of incident light in accordance with luminance sensitivity characteristics described later.
  • the imaging element included in the camera 12 is an element that can observe the wavelengths of visible light, infrared light, and ultraviolet light. Shall be used.
  • the image memory 14 has a function of storing a predetermined number of images output from the camera 12.
  • the image memory 14 stores a plurality of images taken in time series from the camera 12.
  • the synchronous detection processing unit 15 performs synchronous detection on the modulation signal included in the irradiation light output from the light projection control unit 13 so that only pixels whose luminance varies in synchronization with the intensity modulation of the irradiation light (synchronous detection region).
  • the extracted extracted light image is output.
  • the synchronous detection process is performed on all the pixels in the plurality of images stored in the image memory 14 (or all the pixels in the image processing area when the processing area is limited in the image). Then, this irradiation light extraction image is output to the upper edge detection unit 16.
  • the detailed configuration of the synchronous detection processing unit 15 will be described later with reference to the block diagram shown in FIG.
  • the light projecting control unit 13 outputs a trigger signal indicating the timing of lighting and extinguishing the pulse when the irradiation light emitted from the light projecting unit 11 is modulated by PWM control. And a control signal for the shutter time (exposure time). Further, a carrier wave (carrier frequency) signal used in the PWM control is output to the synchronous detection processing unit 15.
  • the irradiation intensity correction calculation unit 18 provides the intensity-modulated irradiation light amplitude and DC offset amount (DC component) data, pulse lighting for PWM control is performed based on these data. Correct the timing of turning off.
  • the upper edge detection unit 16 detects the position of the upper edge of the irradiated light from the irradiation light extracted image extracted by the synchronous detection processing unit 15, and the vertical position information in the image (the upper edge of the irradiated light shown in FIG. 6). position information in the vertical direction of r1).
  • the distance calculation unit 17 uses the vertical position information of the upper edge output from the upper edge detection unit 16 and uses the triangulation principle based on the angle and layout formed by the irradiation direction of the upper edge and the visual axis of the camera 12. The distance to the observation object P irradiated with the irradiation light is calculated. The calculation procedure will be described later with reference to FIG.
  • the irradiation intensity correction calculation unit 18 is configured so that the luminance output value of the nonlinear region becomes the luminance output value of the linear region in accordance with the presence state of the luminance output value of the nonlinear region of the imaging device in the image stored in the image memory 14. The necessary irradiation light amplitude and DC offset amount are calculated, and the calculation result is output to the light projection control unit 13.
  • the synchronous detection processing unit 15 includes a DC component removal processing unit 21, a waveform multiplication unit 22, and a synchronous detection determination unit 23.
  • the direct-current component removal processing unit 21 reads out the number of images corresponding to the modulation period of the light projection control from the image stored in the image memory 14. Then, the luminance value is averaged along the time series for each pixel in the read image, and the average value is removed from the luminance output value of the pixel.
  • the waveform multiplication unit 22 multiplies the modulation signal (carrier signal) transmitted from the light projection control 13 for each pixel of the image from which the DC component has been removed by the DC component removal processing unit 21.
  • the synchronous detection determination unit 23 performs synchronization determination with the modulation signal used for the light projection control by determining whether the signal multiplied by the modulation signal by the waveform multiplication unit 22 is positive or negative.
  • the irradiation light is irradiated from the light projecting unit 11 toward the observation target P, and the reflected light reflected by the observation target P is detected. It is detected separately from the light (background light).
  • synchronous detection processing is used as processing for robustly detecting only irradiated irradiation light.
  • this synchronous detection processing is performed on all the pixels of the image captured by the camera 12 or all the pixels in the image region set as the processing region, and the irradiation light is extracted at each pixel.
  • the transmission signal S (t) (t is time) shown in FIG. 3 is a binary signal that changes to either “1” or “0” at a constant time interval, as shown in FIG. 3.
  • the waveform of the carrier wave sin ( ⁇ t) shifted in phase by ⁇ (180 degrees) is output.
  • the signal is emitted from the light projecting unit 11 toward the observation target P, which is a surrounding object (see symbol q1 in FIG. 3). That is, the modulation signal transmitted from the light projecting unit 11 is represented by “2 ⁇ (S (t) ⁇ 0.5) ⁇ sin ( ⁇ t)”.
  • the irradiation light applied to the observation object P is reflected by the observation object P (see symbol q2 in FIG. 3) and detected by the camera 12. Then, the DC component (direct current component) is removed from the modulation signal included in the image, and the carrier wave sin ( ⁇ t) is further multiplied by the multiplication unit.
  • the modulated signal is multiplied by the carrier wave sin ( ⁇ t)
  • the following equation (1) is obtained.
  • a ⁇ (S (t) ⁇ 0.5) ⁇ sin ( ⁇ t) ⁇ sin ( ⁇ t) A ⁇ (S (t) ⁇ 0.5) ⁇ (1-cos (2 ⁇ t)) / 2 (1)
  • A is a constant including the influence of reflection.
  • the synchronous detection processing unit 15 illustrated in FIG. 1 performs synchronous detection processing based on the image stored in the image memory 14 based on the principle described with reference to FIGS. Get an image.
  • the irradiation intensity correction calculation unit 18 shown in FIG. 1 indicates that the luminance fluctuation of the image captured by the camera 12 and stored in the image memory 14 is the luminance output value of the nonlinear region of the image sensor mounted on the camera 12. In this case, the amplitude and direct current component of the irradiation light necessary for the luminance output value of the nonlinear region to shift to the linear region are calculated. Then, the light projection control unit 13 controls the amplitude and DC component when the irradiation light is emitted based on the calculated amplitude and DC component of the irradiation light.
  • FIG. 5 shows a state in which area light (irradiation light) is irradiated toward the observation object P from the light projecting unit 11 mounted on the vehicle Q
  • FIG. 6 shows the area light (irradiation light) as the observation object.
  • An example of an image captured by the camera 12 when P is irradiated is shown.
  • the camera 12 is disposed at a position offset in a direction (vertical direction) perpendicular to the spreading direction (horizontal direction) of irradiation light irradiated from the light projecting unit 11.
  • Irradiation light projected from the light projecting unit 11 is irradiated onto the observation target P, and the camera 12 images the irradiation light reflected on the surface of the observation target P.
  • the irradiation angle (0 degree in the example of FIG.
  • the distance (height difference) Dy between the light projecting unit 11 and the camera 12, and the depression angle ⁇ formed by the visual axis of the camera 12 are
  • the vertical direction ⁇ at which the upper edge of the irradiated light is observed changes according to the distance Z to the observation object P. Accordingly, the distance Z to the observation object P can be calculated by the triangulation principle using the vertical position y of the upper edge observed by the camera 12.
  • FIG. 8 is a graph showing the luminance sensitivity characteristics of the image sensor, and shows the relationship between the intensity of light incident on the image sensor of the camera 12 and the luminance output value.
  • the observation target P is irradiated with background light such as sunlight in addition to the irradiation light irradiated from the light projecting unit 11, and an image captured by the camera 12 according to the DC component intensity of the background light.
  • the incident light intensity changes.
  • the imaging device mounted on the camera 12 detects incident light in the nonlinear region P2, and the luminance output value detected by the camera 12 is distorted at the lower end as in the waveform (B2). The resulting signal waveform.
  • FIG. 9 is a graph showing a luminance change along a time series of pixels in which a signal waveform having a distorted upper end is observed.
  • a region C shown in FIG. 9 shows a sample point group that is detected by saturation due to the nonlinear characteristic of the camera 12.
  • an error occurs in the restoration of the binary signal S (t) by the positive / negative determination after the calculation of the above-described equation (1). That is, since the nonlinear regions P1 and P2 shown in FIG. 8 exist, the luminance output value is distorted with respect to the intensity of incident light imaged by the camera 12 (because the region C in FIG. 9 exists). Thus, accurate synchronous detection processing cannot be performed.
  • FIG. 10 is a graph showing a change in luminance along the time series of pixels in which a signal with a distorted lower end is observed.
  • a region C shown in FIG. 10 shows a group of sample points that are detected by saturation due to the nonlinear characteristics of the camera 12. Then, as in FIG. 9 described above, this region C makes it impossible to perform accurate synchronous detection processing.
  • signal distortion in the nonlinear regions P1 and P2 of the image sensor included in the camera 12 is avoided by the following method, and highly accurate synchronous detection processing is executed to improve distance measurement accuracy.
  • the amplitude of the irradiation light output from the light projecting part 11 Reduce. Thereby, it is avoided that the luminance output value is observed in the nonlinear region.
  • the amplitude A1 of the irradiation light before correction is changed to a waveform a1 with a reduced amplitude. That is, the waveform of the irradiation light superimposed on the background light N1 is changed to the waveform a1 detected in the linear region of the image sensor.
  • the luminance output value of the image sensor of the camera 12 is a waveform with no distortion with respect to the input light intensity, as shown by the waveform b1 in FIG. For this reason, it is possible to avoid the occurrence of the distortion region shown in the region C of FIG. 9 and to perform highly accurate synchronous detection processing.
  • the waveform is changed to a waveform a2 in which the amplitude is reduced and the DC component L1 is superimposed on the amplitude A2 of the irradiation light before correction. That is, the waveform of the irradiation light superimposed on the background light N2 is changed to the waveform a2 detected in the linear region of the image sensor.
  • the luminance output value of the image sensor of the camera 12 is a waveform that is not distorted with respect to the input light intensity, as shown by the waveform b2 in FIG. For this reason, it is possible to avoid the occurrence of the distortion region shown in the region C of FIG. 10 and to perform highly accurate synchronous detection processing.
  • the irradiation intensity correction calculation unit 18 shifts the luminance output of the nonlinear region to the linear region.
  • the amplitude and direct current component of the irradiation light necessary for the calculation are calculated.
  • the light projection control part 13 controls the output of irradiation light so that it may become this computed amplitude and DC component. Therefore, it is possible to obtain a luminance output free from distortion with respect to the input light intensity, and consequently improve the accuracy of synchronous detection.
  • step S1 an image captured by the camera 12 is stored in the image memory 14 (see FIG. 1).
  • step S ⁇ b> 2 it is determined whether or not an image having the number of frames necessary for synchronous detection is stored in the image memory 14. If the number of images necessary for synchronous detection is not stored, the process returns to step S1, and if the number of images necessary for synchronous detection is stored, the process proceeds to step S3.
  • step S3 a synchronous detection process described later is executed. Thereafter, the process proceeds to step S4.
  • step S4 the upper edge of the synchronous detection region is extracted, and the process proceeds to step S5.
  • step S5 a distance measurement process by triangulation is performed based on the data of the upper edge detected in the process of step S4. That is, the distance Z to the observation object P is measured based on the method described with reference to FIG. Thereafter, the process proceeds to step S6.
  • step S6 the distance Z obtained in step S5 is output to the lower system. Thereafter, this process is terminated. Thus, the distance Z from the attachment position of the camera 12 to the observation object P can be measured.
  • step S3 the procedure of the synchronous detection process shown in step S3 will be described with reference to the flowchart shown in FIG.
  • step S11 synchronous detection processing is started in step S11, and in step S12, the time-series image data of the number necessary for synchronous detection is acquired from the image stored in the image memory 14. Thereafter, the process proceeds to step S13.
  • step S13 it is determined whether or not there is a luminance output value corresponding to the nonlinear region of the image sensor in the time-series data in units of pixels. If it is determined that it exists, the process proceeds to step S14, and if it is determined that it does not exist, the process proceeds to step S18.
  • step S14 the correction amount of the amplitude is calculated from the saturation amount of the luminance value.
  • the amplitude correction value of the modulation signal is calculated according to the ratio of the luminance output corresponding to the nonlinear region with respect to the modulation period.
  • the saturation amount is obtained from the comparison between the input waveform A1 (or A2) and the output waveform B1 (or B2) shown in FIG. 8, and the input waveform a1 (shown in FIG. 11) is obtained based on the saturation amount.
  • the input waveform a2) shown in FIG. 12 is obtained. Thereafter, the process proceeds to step S15.
  • step S15 it is determined whether or not the non-linear area is a luminance output of the non-linear area of the bright part. That is, it is determined whether it is the nonlinear region P1 or P2 shown in FIG. If it is a dark part (NO in step S15), a direct current component is calculated in step S16. That is, the DC component L1 shown in FIG. 12 is calculated. Thereafter, the process proceeds to step S17.
  • step S17 the amplitude correction value and the DC component (intensity modulation command value) are stored.
  • step S23 it is determined that the output signal cannot be determined, and coloration indicating that determination is not possible is performed (for example, gray; 127 for 8-bit gradation). That is, the luminance output values detected in the nonlinear regions P1 and P2 shown in FIG. 8 are displayed in a color (gray) indicating that determination is impossible because of low reliability.
  • step S17 the intensity modulation command value is stored, and the intensity of irradiation light irradiated from the next light projecting unit 11 is adjusted based on the intensity modulation command value.
  • step S24 Since the intensity of the irradiation light is controlled to the waveform a1 shown in FIG. 11 or the waveform a2 shown in FIG. 12, the luminance output value is not obtained from the non-linear region (that is, NO in the process of step S13). ), Highly accurate synchronous detection processing is performed. Thereafter, the process proceeds to step S24.
  • step S18 averaging processing is performed in units of pixels, and the DC offset component is removed by dividing the average value of each pixel from each time series data. Thereafter, the process proceeds to step S19.
  • step S19 the offset-adjusted time series data is multiplied by the carrier wave. Thereafter, the process proceeds to step S20.
  • step S20 it is determined whether the result of the positive / negative determination after the multiplication is synchronized with the transmission signal S (t). If synchronized, the process proceeds to step S21, and the pixel is overwritten with a synchronized color (for example, white; “255” in the case of 8-bit gradation). On the other hand, if not synchronized, the process proceeds to step S22, and the pixel is overwritten with an asynchronous color (for example, black; “0” in the case of 8-bit gradation). Thereafter, the process proceeds to step S24.
  • a synchronized color for example, white; “255” in the case of 8-bit gradation
  • an asynchronous color for example, black; “0” in the case of 8-bit gradation
  • step S24 it is determined whether or not the determination has been completed for all the pixels. If the determination has not been completed, the process returns to step S12, and synchronous detection determination is performed for the pixels that have not been completed. On the other hand, if all the pixels have been determined, the process proceeds to step S25 to output an intensity modulation command value. That is, an intensity modulation command value (command value indicating amplitude and DC component) at the time of the next measurement is output to the light projection control unit 13. Next, in step S26, a synchronous detection image is output. Thus, the present process ends.
  • an intensity modulation command value command value indicating amplitude and DC component
  • the distance measuring device 100 when the luminance output value is detected in the nonlinear region of the image sensor, the irradiation light is detected so that the luminance output value is detected in the linear region of the image sensor.
  • the amplitude and the direct current component By adjusting the amplitude and the direct current component, positive / negative determination processing can be performed reliably.
  • a wide angle lens In order to observe a wide area with one camera 12, a wide angle lens is usually used.
  • a general wide-angle lens employs an equidistant projection lens (so-called f ⁇ lens) as a projection method, and the peripheral visual field has a lower resolution than the central visual field.
  • f ⁇ lens equidistant projection lens
  • the camera visual axis In combination with such a wide-angle lens, it is desirable that the camera visual axis has a depression angle (or elevation angle), and an area with high resolution is appropriately set toward an area to be monitored.
  • FIG. 15 shows a case where there is no depression angle on the visual axis of the camera 12
  • FIG. 16 shows a case where there is a depression angle.
  • the pixel position on the camera visual axis is y (j), and the pixel position adjacent to y (j) is y (j + 1).
  • the angular resolution d ⁇ of one pixel determined by the pixel positions y (j) and y (j + 1) is This corresponds to the distance resolution dD (0) at the spatial distance.
  • the angular resolution d ⁇ of one pixel determined by the pixel positions y (j) and y (j + 1) is real space.
  • the distance resolution dD ( ⁇ ) in terms of distance. Since the distance resolution dD ( ⁇ ) is smaller than the distance resolution dD (0), when the camera visual axis has a depression angle (elevation angle), the real space resolution with respect to the angular resolution of one pixel becomes high. That is, by providing the depression angle ⁇ , it is possible to increase the real spatial resolution when extracting the upper edge.
  • the upper edge of the irradiation light projected by the light projecting unit 11 is formed in a region extending in the lateral direction with respect to the camera 12.
  • the camera 12 is arranged offset in a direction perpendicular to the irradiation direction of the upper edge.
  • the visual axis of the camera 12 makes a predetermined depression angle or elevation angle with respect to the irradiation direction of the upper edge.
  • the light projecting unit 11 emits irradiation light that has been intensity-modulated at a predetermined modulation frequency toward the irradiation region, and is captured in time series by the camera 12.
  • a new image is stored in the image memory 14.
  • the synchronous detection process part 15 performs a synchronous detection process with respect to the image acquired in time series, and extracts the luminance information of the pixel synchronized with the intensity
  • the light projecting unit 11 irradiates. Controls the amplitude and DC component of the irradiation light. Then, the luminance is adjusted so that the luminance output value falls within the linear region of the image sensor. Therefore, synchronous detection processing can be performed with high accuracy, and stable distance measurement and shape measurement can be performed.
  • the luminance change of the image captured by the camera 12 is the luminance output value of the non-linear region in the bright part of the image sensor
  • the intensity amplitude of the irradiation light irradiated from the light projecting unit 11 is reduced.
  • the luminance change of the image becomes the output of the linear region.
  • the luminance change of the image is the luminance output value of the non-linear region in the dark part of the image sensor
  • the direct current offset of the irradiation light emitted from the light projecting unit 11 is controlled, and the amplitude is reduced by the offset control amount.
  • the luminance change of the image becomes the output of the linear region.
  • the upper edge of the irradiation light projected by the light projecting unit 11 is formed in a region that spreads laterally with respect to the camera 12.
  • the camera 12 is arranged offset in a direction perpendicular to the irradiation direction of the upper edge.
  • the visual axis of the camera 12 makes a predetermined depression angle or elevation angle with respect to the irradiation direction of the upper edge. Therefore, even when a general wide-angle lens (fisheye lens) is used, the measurement accuracy when measuring the distance based on the principle of triangulation is improved.
  • the camera 12 is provided with a filter that transmits light of a specific spectrum with high efficiency. It becomes possible to detect more robustly.
  • amplitude modulation, phase modulation, or frequency modulation as a synchronization signal used in the light projecting unit 11 and the synchronous detection processing unit 15. Furthermore, robustness can be improved by using a BPSK transmission signal that is a combination of amplitude modulation and phase modulation.
  • the amplitude of the irradiation light intensity irradiated from the light projecting unit 11 is controlled to N [%].
  • control is performed to superimpose the DC component by 100-N [%] of the previous luminance amplitude value.
  • the amplitude of the irradiation light emitted from the light projecting unit 11 is reduced in accordance with the ratio of the time during which the luminance value of the linear region is output with respect to the entire modulation period, and the direct current component is superimposed.
  • the intensity of the irradiation light is controlled so that the luminance variation of the image shifts to the linear region of the imaging unit.
  • Projection unit 12 Camera (imaging unit) DESCRIPTION OF SYMBOLS 13 Light projection control part 14 Image memory 15 Synchronous detection process part 16 Upper end edge detection part 17 Distance calculation part 18 Irradiation intensity correction calculation part 100 Distance measuring device P Observation object (object)

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

距離計測装置(100)は、移動体に搭載され、水平方向に照射領域を有し、強度変調された照射光を照射する投光部(11)と、移動体に搭載され、照射光が照射された対象物(P)を撮像する撮像部(12)と、撮像部の撮像のタイミングに合わせて照射光の強度を制御する投光制御部(13)と、撮像部にて撮像された画像から、照射光の強度変調と同期して輝度が変動する同期検波領域を抽出する同期検波部(14、15、18)と、同期検波領域のエッジを検出するエッジ検出部と、同期検波領域のエッジに基づいて、対象物までの距離を算出する距離算出部とを有する。同期検波部(18)は、 画像の輝度変動が撮像部の非線形領域の輝度出力値である場合、画像の輝度変動が撮像部の線形領域に移行するために必要な照射光の振幅及び直流成分とを演算する。投光制御部は、演算された照射光の振幅及び直流成分に基づいて照射光の強度を制御する。

Description

距離計測装置及び距離計測方法
 本発明は、強度変調された照射光を対象物に照射して対象物までの距離を計測する距離計測装置及び距離計測方法に関する。
 対象物に向けて照射光を照射し、対象物により反射された反射光をCCD等の撮像素子で撮像し、取得した撮像データに基づいて対象物までの距離、或いは対象物の形状を計測する光学式の距離計測装置が知られている。このような距離計測装置において、照射光の対象物による反射光が背景光に比べて弱いと、反射光は背景光(雑音)に埋もれてしまい、対象物を正しく認識できなくなる場合がある。
 そこで、従来より反射光が弱くなる遠方用の送受光部と、反射光が十分に強い近傍用の送受光部とが、波長や点滅周期が異なる照射光を用いることで、遠方と近傍を個別に計測できるようにした距離測定装置が提案されている(例えば、特許文献1参照)。
特開2010-107448号公報
 雑音に対する頑健性を高めるために正弦波等で強度変調された送信信号を用いて距離を測定する場合を考える。背景光の光量が撮像素子の輝度感度特性における線形観測領域の上端部、或いは下端部付近に位置する場合、背景光に対して送信信号が重畳された反射光を観測すると、この反射光が撮像素子の非線形領域に入ってしまうことがある。
 この場合には、撮像部にて撮像した画像から取得される強度変調された信号の上端部(正弦波の上部ピーク領域)、或いは下端部(正弦波の下部ピーク領域)が飽和してしまい、送信信号に対して同期検波処理を実行する際の同期検波判定に誤りが生じる。よって、十分な反射情報があるにも拘わらず、強度変調信号が非検出となってしまい、対象物までの距離計測や形状計測の精度が低下するという課題があった。
 本発明は、このような課題を解決するためになされたものであり、その目的とするところは、撮像した画像から取得される強度変調信号が、撮像部の輝度感度特性における非線形領域で検出される場合であっても、対象物までの距離或いは形状を高精度に計測することが可能な距離計測装置及び距離計測方法を提供することにある。
 上記目的を達成するため、本発明の第1の態様に係わる距離計測装置は、移動体に搭載され、水平方向に照射領域を有し、強度変調された照射光を照射する投光部と、移動体に搭載され、照射光が照射された対象物を撮像する撮像部と、撮像部の撮像のタイミングに合わせて照射光の強度を制御する投光制御部と、撮像部にて撮像された画像から、照射光の強度変調と同期して輝度が変動する領域を、同期検波領域として抽出する同期検波部と、同期検波領域のエッジを検出するエッジ検出部と、エッジ検出部にて検出された同期検波領域のエッジに基づいて、対象物までの距離を算出する距離算出部とを有する。同期検波部は、撮像部にて撮像された画像の輝度変動が撮像部の非線形領域の輝度出力値である場合には、画像の輝度変動が撮像部の線形領域に移行するために必要な照射光の振幅及び直流成分とを演算する。投光制御部は、照射強度補正演算部により演算された照射光の振幅及び直流成分に基づいて、照射光の強度を制御する。
 本発明の第2の態様に係わる距離計測装置は、移動体に搭載され、水平方向に照射領域を有し、強度変調された照射光を照射する投光部と、移動体に搭載され、照射光が照射された対象物を撮像する撮像部と、撮像部の撮像のタイミングに合わせて照射光の強度を制御する投光制御部と、撮像部にて撮像された画像から、照射光の強度変調と同期して輝度が変動する領域を、同期検波領域として抽出する同期検波部と、同期検波領域に基づいて、対象物までの距離を算出する距離算出部とを有する。投光制御部は、撮像部に入射する光の強度が所定範囲を超えて変化する場合には、照射光の振幅を小さくする。
 本発明の第3の態様に係わる距離計測方法は、移動体に搭載された投光部を用いて強度変調された照射光を対象物に照射し、移動体に搭載された撮像部を用いて照射光が照射された対象物を撮像し、撮像のタイミングに合わせて照射光の強度を制御し、撮像された画像から、照射光の強度変調と同期して輝度が変動する領域を、同期検波領域として抽出し、同期検波領域のエッジを検出し、検出されたエッジに基づいて、対象物までの距離を算出し、撮像された画像の輝度変動が撮像部の非線形領域の輝度出力値である場合には、画像の輝度変動が撮像部の線形領域に移行するために必要な照射光の振幅及び直流成分とを演算し、演算された照射光の振幅及び直流成分に基づいて、照射光の強度を制御する。
図1は、本発明の一実施形態に係る距離計測装置100の構成を示すブロック図である。 図2は、図1の同期検波処理部15の詳細な構成を示すブロック図である。 図3は、図1の同期検波処理部15の処理動作の手順を示すブロック図である。 図4は、図3における各信号の変化を示すタイミングチャートであり、図4(a)は送信信号S(t)を示し、図4(b)はBPSK送信信号を示し、図4(c)は搬送波乗算後の信号を示し、図4(d)は復号信号aを示す。 図5は、車両Qに搭載された図1の距離計測装置が、観測対象物Pまでの距離を測定する様子を示す説明図である。 図6は、図1のカメラ12で撮像された画像の一例を示す斜視図である。 図7は、観測対象物Pまでの距離を測定する原理を示す説明図である。 図8は、図1のカメラ12が備える撮像素子が有する、入力光強度と輝度出力値との関係(輝度感度特性)の一例を示すグラフである。 図9は、強度変調された信号に対して撮像素子の輝度出力信号の上端部に歪みを生じる様子を示すグラフである。 図10は、強度変調された信号に対して撮像素子の輝度出力信号の下端部に歪みを生じる様子を示すグラフである。 図11は、撮像素子の明部における非線形領域での、変調光の振幅を補正する処理を示す説明図である。 図12は、撮像素子の暗部における非線形領域での、変調光の振幅補正、及び直流成分を重畳する処理を示す説明図である。 図13は、図1の距離計測装置を用いた距離計測方法の手順の一例を示すフローチャートである。 図14は、図13に示した同期検波処理の詳細な処理手順を示すフローチャートである。 図15は、図1のカメラ12の視軸に俯角が無い場合の、距離分解能を示す説明図である。 図16は、図1のカメラ12の視軸に俯角が有る場合の、距離分解能を示す説明図である。
 以下、本発明の実施形態を図面に基づいて説明する。図1を参照して、本発明の一実施形態に係る距離計測装置100の構成を説明する。該距離計測装置100は、車両(移動体の一例)に搭載されるものであり、車両周囲の距離測定の対象となる観測対象物P(対象物)に向けて照射光を照射する投光部11と、照射光が照射された観測対象物Pの映像を撮像するカメラ(撮像部の一例)12と、カメラ12より出力される画像を所定枚数保存可能な画像メモリ14とを備えている。
 更に、距離計測装置100は、投光部11による照射光の照射を制御する投光制御部13と、投光部11より照射する照射光の振幅、及び直流成分を補正する照射強度補正演算部18と、カメラ12で撮像された画像信号に対して同期検波処理を行う同期検波処理部15と、同期検波された画像から観測対象物Pの上端エッジ(エッジの一例)を検出する上端エッジ検出部16と、上端エッジ検出部16で検出された上端エッジに基づいて車両から観測対象物Pまでの距離を算出する距離算出部17と、を備えている。
 なお、本実施形態では、画像メモリ14、同期検波処理部15、及び照射強度補正演算部18により、「同期検波部」が構成されている。また、移動体が車両である場合を例に挙げて説明するが、本発明はこれに限定されるものではなく、鉄道車両や船舶等の他の移動体についても適用することが可能である。また、本実施形態に係る距離計測装置100は、例えば、中央演算ユニット(CPU)や、RAM、ROM、ハードディスク等の記憶部からなる一体型のコンピュータを用いて構成することができる。
 投光部11は、例えば、プロジェクタヘッドライトやリフレクタを備えたヘッドライトであり、水平方向に照射領域を形成する配光特性を有する照射光を観測対象物Pに向けて照射する。そして、観測対象物Pに強度変調された照射光を照射することにより、観測対象物P上に、照射領域と非照射領域との輝度境界、すなわち、上端エッジを鮮明に映し出すことができる。また、投光部11の発光源として、可視光、赤外光、或いは紫外光の発光源を用いることができる。
 カメラ12は、CCDやCMOS等の撮像素子を備えており、車両周囲の画像を撮像する。具体的には、カメラ12が備える撮像素子には、投光部11により照射された照射光が観測対象物Pで反射した反射光と、背景光とが入射する。カメラ12が備える撮像素子は、後述する輝度感度特性にしたがって、入射光の強度に応じた輝度を出力する。また、投光部11より、可視光、赤外光、紫外光等が使用される場合には、カメラ12が備える撮像素子は、可視光、赤外光、紫外光の波長を観測可能な素子を使用したものとする。
 画像メモリ14は、カメラ12より出力される画像を所定枚数保存する機能を備えている。画像メモリ14には、カメラ12より時系列で撮像された複数の画像が保存される。
 同期検波処理部15は、投光制御部13から出力される照射光に含まれる変調信号を同期検波することにより、照射光の強度変調と同期して輝度が変動する画素のみ(同期検波領域)を抽出した照射光抽出画像を出力する。同期検波処理は、画像メモリ14に記憶されている複数の画像中の全画素(或いは、画像中に処理領域を制限した場合は、画像処理領域中の全画素)において実施されている。そして、この照射光抽出画像を上端エッジ検出部16に出力する。なお、同期検波処理部15による詳細な構成については、図2に示すブロック図を参照して後述する。
 投光制御部13は、投光部11から射出される照射光をPWM制御にて変調する際のパルス点灯及び消灯のタイミングを示すトリガ信号を出力するとともに、カメラ12による撮像タイミングのトリガ信号と、シャッター時間(露出時間)の制御信号とを出力している。また、PWM制御で使用した搬送波(キャリア周波数)信号を同期検波処理部15に出力している。また、照射強度補正演算部18より、強度変調された照射光の振幅及び直流オフセット量(直流成分)のデータが与えられた場合には、これらのデータに基づいて、PWM制御する際のパルス点灯、消灯のタイミングを補正する。
 上端エッジ検出部16は、同期検波処理部15により抽出された照射光抽出画像より、照射光の上端エッジの位置を検出し、その画像内の縦位置情報(図6に示す照射光の上端エッジr1の上下方向の位置情報)を出力する。
 距離算出部17は、上端エッジ検出部16より出力される上端エッジの縦位置情報を用いて、上端エッジの照射方向とカメラ12の視軸とがなす角度及びレイアウトに基づき、三角測量の原理により、照射光が照射されている観測対象物Pまでの距離を算出する。この算出の手順については、図7を参照して後述する。
 照射強度補正演算部18は、画像メモリ14に記憶された画像における撮像素子の非線形領域の輝度出力値の存在状況に応じて、非線形領域の輝度出力値が線形領域の輝度出力値となるために必要な照射光の振幅及び直流オフセット量を演算し、この演算結果を投光制御部13に出力する。
 図2を参照して、同期検波処理部15の詳細な構成を説明する。同期検波処理部15は、直流成分除去処理部21と、波形乗算部22と、同期検波判定部23とを備えている。
 直流成分除去処理部21は、画像メモリ14に記憶されている画像から、投光制御の変調周期に相当する枚数分の画像を読み出す。そして、読み出した画像中の画素ごとに時系列に沿った輝度値の平均処理を行って、画素の輝度出力値から平均値を除去する。
 波形乗算部22は、直流成分除去処理部21で直流成分が除去された画像の画素毎に投光制御13から送信される変調信号(搬送波信号)を乗算する。
 同期検波判定部23は、波形乗算部22で変調信号が乗算された信号の正負判定により、投光制御に用いた変調信号との同期判定を行う。
 次に、同期検波処理部15における一般的な同期検波の基本原理を、図3に示す模式図、及び図4に示すタイミングチャートを参照して説明する。本実施形態に係る距離計測装置100では、投光部11より観測対象物Pに向けて照射光を照射し、観測対象物Pで反射した反射光を検出する際に、照射した照射光を他の光(背景光)と区別して検出する。この際、照射した照射光のみを頑健に検出する処理として、同期検波処理を用いている。
 本実施形態では、カメラ12により撮像された画像の全画素、或いは処理領域として設定された画像領域中の全画素について、この同期検波処理を実施し、各画素にて照射光の抽出を行う。以下、図3,図4を参照して詳細に説明する。
 図3に示す送信信号S(t)(tは時間)は、図4(a)に示すように、一定の時間間隔で「1」「0」のいずれかに変化するバイナリ信号とする。送信信号S(t)を送出する際に、送信信号S(t)に対して十分高い周波数ωを持つ搬送波sin(ωt)を送信信号S(t)で位相変調して、BPSK(Binary Phase Shift Keying:二位相偏移変調)送信信号を生成する。具体的には、S(t)=1の場合には、切替部31を上側に切り替えて搬送波sin(ωt)をそのまま出力し、S(t)=0の場合には、切替部31を下側に切り替えて搬送波sin(ωt)を、π(180度)だけ位相をシフトした波形を出力する。
 その結果、図4(b)に示す如くの位相変調された波形(S(t)=0の場合には位相が180度シフトしている)の信号(BPSK送信信号)が生成され、BPSK送信信号は、投光部11より周囲物体である観測対象物Pに向けて照射される(図3の符号q1参照)。即ち、投光部11より送出される変調信号は、「2×(S(t)-0.5)×sin(ωt)」で示されることになる。
 一方、観測対象物Pに照射された照射光は、観測対象物Pにて反射され(図3の符号q2参照)、カメラ12にて検出される。そして、画像に含まれる変調信号からDC成分(直流成分)が除去され、更に、乗算部にて搬送波sin(ωt)が乗じられる。変調信号に対して搬送波sin(ωt)を乗算すると、下記(1)式となる。
 A×(S(t)-0.5)×sin(ωt)×sin(ωt)
 = A×(S(t)-0.5)×(1-cos(2ωt))/2  …(1)
 なお、Aは反射の影響を含む定数である。
 (1)式より、乗算部の出力信号は、周波数の和(DC成分)と差(2倍の高調波成分)の信号成分が混在した信号となる。即ち、図4(c)に示すように、周波数が2倍となり、且つ、S(t)=1のときにプラス側に振幅し、S(t)=0のときにマイナス側に振幅する波形が得られる。
 その後、LPF(低域通過フィルタ)を用いて高周数成分を除去することにより平滑化され、更に、正負判定することにより、図4(d)に示すように、復号信号aとして、送信されたバイナリ信号S(t)を取り出すことができる。なお、上記では、検波信号としてBPSK送信信号を用いる例について説明したが、これ以外の振幅変調、位相変調、周波数変調、或いはこれらの組み合わせを用いることも可能である。
 そして、図1に示した同期検波処理部15は、図3、図4を参照して説明した原理に基づき、画像メモリ14に記憶されている画像に基づいて同期検波処理を行い、照射光抽出画像を取得する。更に、図1に示した照射強度補正演算部18は、カメラ12で撮像され画像メモリ14に記憶された画像の輝度変動が、カメラ12に搭載される撮像素子の非線形領域の輝度出力値であった場合に、この非線形領域の輝度出力値が線形領域に移行するために必要な照射光の振幅と直流成分とを演算する。そして、投光制御部13は、演算された照射光の振幅、及び直流成分に基づいて、照射光を発光させる際の振幅、及び直流成分を制御する。
 次に、投光部11より投光される照射光の投光パターンについて説明する。上述したように、車両に搭載される投光部11は、照射領域の上端部に明暗が鮮明な水平パターンを有する照射光を照射する。以下、この配光パターンについて、図5,図6を参照して説明する。図5は、車両Qに搭載される投光部11より、観測対象物Pに向けて領域光(照射光)を照射する様子を示し、図6は、領域光(照射光)を観測対象物Pに照射した際に、カメラ12が撮像した画像の一例を示す。
 車両Qの姿勢が変化することや、観測対象物Pが移動することにより、車両Qと観測対象物Pとの間の相対的な位置関係に変化が生じる場合がある。このような場合であっても、安定的に照射光を抽出するためには、検波に必要な時系列的な画像フレームにおいて、照射光が観測対象物P上の同一箇所に連続して観測される必要がある。
 現実的には、車両Q及び観測対象物Pの動きに制約を設けることはできない。よって、車両Q及び観測対象物Pが任意の動きをした場合でも、安定して照射光を抽出するために十分広い照射光の領域を設定する必要がある。そこで、本実施形態では、図6に示すように、水平方向に広がる(水平方向に長い)照射領域を有する照射光を用いている。
 次に、照射光の上端エッジを用いて、観測対象物Pまでの距離を計測する原理について、図7に示す模式図を参照して説明する。図7に示すように、投光部11より照射される照射光の広がり方向(横方向)とは垂直な方向(縦方向)にオフセットした位置に、カメラ12が配置される。投光部11から投光される照射光が観測対象物Pに照射され、カメラ12では、観測対象物Pの表面で反射した照射光を撮像する。ここで、投光部11の上端エッジへの照射角度(図7の例では0度)、投光部11とカメラ12との距離(高低差)Dy、カメラ12の視軸が成す俯角αが予め設定されている場合、観測対象物Pまでの距離Zに応じて、照射光の上端エッジが観測される上下方位βが変化する。従って、カメラ12で観測される上端エッジの上下位置yを用いて、三角測量の原理により観測対象物Pまでの距離Zを算出することができる。
 次に、強度変調された照射光を用いた距離計測において、非検出誤差を生じる理由について、図8~図10を参照して説明する。
 図8は、撮像素子の輝度感度特性を示すグラフであり、カメラ12の撮像素子に入射する光の強度と、輝度出力値との関係を示している。観測対象物Pには、投光部11より照射される照射光以外に、太陽光等の背景光が照射されており、この背景光の直流成分強度に応じて、カメラ12で撮像される画像の入射光強度が変化する。
 そして、この背景光の直流成分が大きい場合(背景光N1の場合)、この背景光に対して、強度変調された照射光の反射光(A1)が重畳されると、入射光強度(カメラ12で撮像される画像の輝度)は大きくなる。このため、カメラ12に搭載される撮像素子は、入射光を非線形領域P1で検出することになり、カメラ12にて検出される輝度出力値は、波形(B1)のような上端部に歪みが生じる信号波形になる。
 一方、背景光の直流成分が小さい場合(背景光N2の場合)、この背景光に対して、強度変調された照射光の反射光(A2)が重畳されると、入射光強度は小さくなる。このため、カメラ12に搭載される撮像素子は、入射光を非線形領域P2で検出することになり、カメラ12にて検出される輝度出力値は、波形(B2)のような下端部が歪みが生じる信号波形になる。
 図9は、上端部が歪んだ信号波形が観測される画素の時系列に沿った輝度変化を示すグラフである。図9に示す領域Cは、カメラ12の非線形特性により飽和検出されたサンプル点群を示している。この受信波形が歪んだ状態では直流オフセット成分(=A/2;(1)式参照)を正確に得ることがでない。このため、同期検波処理を実施すると、前述した(1)式の演算後の正負判定によるバイナリ信号S(t)の復元に誤りを生じてしまうことになる。即ち、図8に示す非線形領域P1,P2が存在することにより、カメラ12で撮像される入射光の強度に対して、輝度出力値に歪みが生じるので(図9の領域Cが存在するので)、正確な同期検波処理ができなくなってしまう。
 また、図10は、下端部が歪んだ信号が観測される画素の時系列に沿った輝度変化を示すグラフである。図10に示す領域Cは、カメラ12の非線形特性により飽和検出されたサンプル点群を示している。そして、上述した図9と同様に、この領域Cにより、正確な同期検波処理ができなくなってしまう。
 本実施形態では、以下に示す手法によりカメラ12が備える撮像素子の非線形領域P1,P2での信号歪みを回避して、高精度な同期検波処理を実行して距離計測の精度を向上させる。
 以下、非線形領域での信号歪みを回避する方法について説明する。本実施形態では、カメラ12で検出される強度変調信号に含まれるサンプル点群の中に非線形領域の出力値が観測された場合には、投光部11から出力される照射光の振幅と直流成分を制御する。これにより、非線形領域の輝度出力値を線形領域へ移行させる。強度変調された照射光を用いて同期検波する際に、非検出となることなく正確に同期判定を行うことができる。以下、具体的に説明する。
 図9の領域Cに示す如くの、カメラ12の明部(入射光強度の高い領域)での非線形領域の輝度出力値が観測される場合には、投光部11より出力する照射光の振幅を縮小する。これにより、非線形領域にて輝度出力値が観測されることを回避する。具体的には、図11に示すように、補正前の照射光の振幅A1に対して、振幅を縮小させた波形a1に変更する。即ち、背景光N1に重畳する照射光の波形を、撮像素子の線形領域で検出される波形a1へ変更する。これにより、非線形領域での検出が回避されるので、カメラ12の撮像素子の輝度出力値は、図11の波形b1に示すように、入力光強度に対して歪みの無い波形となる。このため、図9の領域Cに示した歪み領域の発生を回避でき、高精度な同期検波処理を行うことが可能となる。
 一方、図10の領域Cに示す如くの、カメラ12の暗部(入射光強度の低い領域)での非線形領域の輝度出力値が観測される場合には、投光部11より出力する照射光の振幅を縮小し、且つ直流成分を重畳する。これにより、非線形領域にて輝度出力値が観測されることを回避する。具体的には、図12に示すように、補正前の照射光の振幅A2に対して、振幅を縮小させ且つ直流成分L1を重畳した波形a2に変更する。即ち、背景光N2に重畳する照射光の波形を、撮像素子の線形領域で検出される波形a2へ変更する。これにより、非線形領域での検出が回避されるので、カメラ12の撮像素子の輝度出力値は、図12の波形b2に示すように、入力光強度に対して歪みの無い波形となる。このため、図10の領域Cに示した歪み領域の発生を回避でき、高精度な同期検波処理を行うことが可能となる。
 つまり、カメラ12で撮像された画像の輝度出力がカメラ12の撮像素子の非線形領域の輝度出力であった場合、照射強度補正演算部18は、この非線形領域の輝度出力が線形領域に移行するために必要な照射光の振幅と直流成分とを演算する。そして、投光制御部13は、この演算された振幅及び直流成分となるように、照射光の出力を制御する。従って、入力光強度に対して歪みの無い輝度出力を得ることができ、ひいては、同期検波の精度を向上させることができるようになる。
 次に、本実施形態に係る距離計測装置100の処理動作の手順を、図13,図14に示すフローチャートを参照して説明する。
 初めに、ステップS1において、カメラ12により撮像された画像を画像メモリ14(図1参照)に保存する。ステップS2において、同期検波に必要なフレーム数の画像が画像メモリ14に保存されているか否かを判定する。同期検波に必要な画像数が保存されてなければ、ステップS1に処理を戻し、同期検波に必要な画像数が保存されていれば、ステップS3に移行する。
 ステップS3において、後述する同期検波処理を実行する。その後、ステップS4に移行する。ステップS4において、同期検波領域の上端エッジを抽出し、ステップS5に移行する。
 ステップS5において、ステップS4の処理で検出された上端エッジのデータに基づき、三角測量による距離計測処理を行う。即ち、図7を参照して説明した手法に基づいて、観測対象物Pまでの距離Zを計測する。その後、ステップS6に移行する。
 ステップS6において、ステップS5で求められた距離Zを下位のシステムに出力する。その後、本処理を終了する。こうして、カメラ12の取り付け位置から、観測対象物Pまでの距離Zを計測することができる。
 次に、ステップS3に示した同期検波処理の手順について、図14に示すフローチャートを参照して説明する。
 初めに、ステップS11において同期検波処理を開始し、ステップS12において、画像メモリ14に記憶されている画像から、同期検波に必要な枚数の時系列画像データを取得する。その後、ステップS13に移行する。
 ステップS13において、画素単位で時系列データ中に撮像素子の非線形領域に相当する輝度出力値が存在するか否かを判定する。存在すると判定された場合はステップS14に移行し、存在しないと判定された場合にはステップS18に移行する。
 ステップS14において、輝度値の飽和量から振幅の補正量を演算する。この処理では、変調周期に対する非線形領域に相当する輝度出力の割合に応じて、変調信号の振幅補正値を演算する。具体的には、図8に示した入力波形A1(或いはA2)と出力波形B1(或いはB2)との対比から飽和量を求め、この飽和量に基づいて、図11に示した入力波形a1(或いは、図12に示した入力波形a2)を求める。その後、ステップS15に移行する。
 ステップS15において、非線形領域は、明部の非線形領域の輝度出力であるか否かを判断する。即ち、図8に示した非線形領域P1であるか、P2であるかを判断する。そして、暗部である場合には(ステップS15でNO)、ステップS16において、直流成分を演算する。即ち、図12に示した直流成分L1を演算する。その後、ステップS17に移行する。
 ステップS17において、振幅補正値及び直流成分(強度変調指令値)を記憶する。そして、ステップS23において、この出力信号は判定不可であると判断して、判定不可を示す色付けとする(例えば、灰色;8bit階調の場合は127)。即ち、図8に示した非線形領域P1,P2で検出された輝度出力値は、信頼性が低いので判定不可を示す色(灰色)で表示する。また、ステップS17で強度変調指令値が保存され、この強度変調指令値に基づいて、次回投光部11より照射される照射光の強度が調整される。即ち、照射光の強度は、図11に示す波形a1、或いは図12に示す波形a2に制御されるので、輝度出力値が非線形領域より得られることがなくなり(即ち、ステップS13の処理でNOとなり)、高精度な同期検波処理が行われることになる。その後、ステップS24に移行する。
 ステップS18において、画素単位での平均処理を行い、各画素の平均値を各時系列データから除算することでDCオフセット成分を除去する。その後、ステップS19に移行する。ステップS19において、オフセット調整された時系列データと搬送波とを乗算する。その後、ステップS20に移行する。
 ステップS20において、乗算後の結果の正負判定結果と送信信号S(t)とが同期しているか否かを判定する。同期していればステップS21に移行して、画素を同期色(例として、白色;8bit階調の場合は「255」)で上書きする。一方、同期していなければステップS22に移行し、画素を非同期色(例として、黒色;8bit階調の場合は「0」)で上書きする。その後、ステップS24に移行する。
 ステップS24において、全画素で判定が終了したか否かを判定し、終了していなければステップS12に処理を戻し、終了していない画素について同期検波判断を実行する。一方、全画素の判定が終了していれば、ステップS25に移行して強度変調指令値を出力する。即ち、投光制御部13に次測定時の強度変調指令値(振幅及び直流成分を示す指令値)を出力する。次いで、ステップS26において、同期検波画像を出力する。以上により本処理は終了する。
 このように、本実施形態に係る距離計測装置100では、輝度出力値が撮像素子の非線形領域で検出される場合には、輝度出力値が撮像素子の線形領域で検出されるように、照射光の振幅及び直流成分を調整して、確実に正負判定処理を行える。
 次に、カメラ12の視軸が、上端エッジが照射される方向に対して所定の俯角を有するようにカメラ12の向きを設定することにより、分解能を向上させることについて説明する。
 1個のカメラ12で広域を観測するためには、通常、広角レンズが用いられる。一般的な広角レンズは、射影方式として等距離射影レンズ(いわゆる、fθレンズ)を採用しており、周辺視野では中心視野に比べて分解能が劣る。このような広角レンズとの組み合わせにおいては、カメラ視軸に俯角(或いは仰角)を持たせ、分解能が高い領域を監視したい領域に向けて適切に設定することが望ましい。
 以下、fθレンズとの組み合せにおいて、簡単のために、照射光の上端エッジが路面に対して水平である場合を仮定する。そして、カメラ12の視軸に俯角があることにより、観測対象物までの距離計測値の分解能が向上することを、図14,図15を参照して説明する。図15はカメラ12の視軸に俯角が無い場合を示し、図16は俯角が有る場合を示す。
 図15及び図16で、カメラ視軸の画素位置をy(j)とし、y(j)の下に隣接する画素位置をy(j+1)とする。このとき、図15に示すように、俯角(仰角)が無い場合(=0°の場合)において、画素位置y(j)とy(j+1)で決定される1画素の角度分解能dθは、実空間距離での距離分解能dD(0)に相当する。一方、図16に示すように、俯角(仰角)が有る場合(=α°の場合)において、画素位置y(j)とy(j+1)で決定される1画素の角度分解能dθは、実空間距離での距離分解能dD(α)に相当する。距離分解能dD(α)は距離分解能dD(0)よりも小さいので、カメラ視軸が俯角(仰角)を有する場合、1画素の角度分解能に対する実空間分解能が高くなる。即ち、俯角αを設けることにより、上端エッジを抽出する際の実空間分解能を高くすることが可能となる。
 このように、投光部11により投光される照射光の上端エッジは、カメラ12に対して横方向に広がる領域に形成される。カメラ12は、上端エッジの照射方向に対して鉛直な方向にオフセットして配置される。また、カメラ12の視軸は、上端エッジの照射方向に対して所定の俯角或い仰角をなす。これにより、一般的な広角レンズ(魚眼レンズ)を使用した際においても、三角測量の原理に基づき距離計測する際の計測精度が向上する。
 このようにして、本実施形態に係る距離計測装置100では、投光部11が照射領域に向けて所定の変調周波数で強度変調した照射光を照射し、カメラ12にて撮像された時系列的な画像を画像メモリ14に記憶する。そして、同期検波処理部15は時系列的に取得された画像に対して同期検波処理を行い、照射光の強度変調に同期した画素の輝度情報を抽出する。照射光の変調周期内において、撮像信号の上端部或いは下端部が、カメラ12の撮像素子の輝度感度特性の線形領域の上端部以上或いは下端部以下となる場合、投光部11から照射される照射光の振幅及び直流成分を制御する。そして、輝度出力値が撮像素子の線形領域に収まるように輝度を調整する。従って、同期検波処理を高精度に行うことができ、安定した距離計測や形状計測を行うことができるようになる。
 また、カメラ12で撮像される画像の輝度変化が撮像素子の明部における非線形領域の輝度出力値である場合、投光部11から照射される照射光の強度振幅を縮小する。これにより、画像の輝度変化が線形領域の出力となるように制御することができる。画像の輝度変化が撮像素子の暗部における非線形領域の輝度出力値である場合、投光部11から照射される照射光の直流オフセットを制御し、且つ、オフセット制御した量だけ振幅を縮小する。これにより、画像の輝度変化が線形領域の出力となるように制御することができる。これにより、投光部11の発光素子の出力性能を超えることなく、同期判定において誤判定を抑制でき、安定した照射光抽出処理を実施することができる。
 更に、投光部11により投光される照射光の上端エッジは、カメラ12に対して横方向に広がる領域に形成される。カメラ12は、上端エッジの照射方向に対して鉛直な方向にオフセットして配置される。また、カメラ12の視軸は、上端エッジの照射方向に対して所定の俯角或い仰角をなす。よって、一般的な広角レンズ(魚眼レンズ)を使用した際においても、三角測量の原理に基づき距離計測する際の計測精度が向上する。
 また、投光部11に搭載される発光源が、赤外光、或いは紫外光を発するものであれば、カメラ12に特定スペクトルの光を高効率で透過するフィルタを設けることにより、照射光をより頑健に検出することが可能となる。
 更に、投光部11及び同期検波処理部15で用いる同期信号として、振幅変調や位相変調、周波数変調を用いることも可能である。更に、振幅変調と位相変調の組み合わせであるBPSK送信信号を用いることで、頑健性を向上させることが可能である。
 次に、本実施形態の変形例について説明する。図9に示したように、撮像素子の明部における非線形領域の輝度出力値が観測される場合を考える。この場合、投光部11より照射される照射光の変調周期に占める線形領域の輝度出力値の割合N[%]を用いて、照射光強度の振幅をN[%]に縮小させる制御を行う。これにより、前述した実施形態と同様の効果を得ることができる。例えば、線形領域の割合Nが60%である場合には、照射光強度の振幅を60[%]とすることにより、非線形領域の輝度出力信号を回避することができる。
 一方、図10に示したように、撮像素子の暗部における非線形領域の輝度出力値が観測される場合には、投光部11より照射される照射光強度の振幅をN[%]に制御すると共に、前回の輝度振幅値の100-N[%]だけ直流成分を重畳する制御を行う。これにより、非線形領域の輝度出力信号を回避することができる。
 このように、変調周期全体に対する、線形領域の輝度値が出力される時間の割合に応じて、投光部11より照射する照射光の振幅を縮小し、直流成分を重畳する。これにより、極めて簡単な方法で、非線形領域での輝度出力信号を回避することができる。
 以上、実施形態に沿って本発明の内容を説明したが、本発明はこれらの記載に限定されるものではなく、種々の変形及び改良が可能であることは、当業者には自明である。
 特願2012-045238号(出願日:2012年3月1日)の全内容は、ここに援用される。
 実施形態に係わる距離計測装置及び距離計測方法によれば、画像の輝度変動が撮像部の線形領域に移行するように照射光の強度を制御する。これにより、撮像部の非線形領域の輝度出力値が一部観測される場合においても、照射光の同期検波計測を誤ることなく、安定した距離計測または形状計測を実施することができる。よって、本発明は、産業上の利用可能性を有する。
 11 投光部
 12 カメラ(撮像部)
 13 投光制御部
 14 画像メモリ
 15 同期検波処理部
 16 上端エッジ検出部
 17 距離算出部
 18 照射強度補正演算部
 100 距離計測装置
 P 観測対象物(対象物)

Claims (9)

  1.  移動体に搭載され、水平方向に照射領域を有し、強度変調された照射光を照射する投光部と、
     前記移動体に搭載され、前記照射光が照射された対象物を撮像する撮像部と、
     前記撮像部の撮像のタイミングに合わせて前記照射光の強度を制御する投光制御部と、
     前記撮像部にて撮像された画像から、前記照射光の強度変調と同期して輝度が変動する領域を、同期検波領域として抽出する同期検波部と、
     前記同期検波領域のエッジを検出するエッジ検出部と、
     前記エッジ検出部にて検出された前記同期検波領域のエッジに基づいて、前記対象物までの距離を算出する距離算出部とを有し、
     前記同期検波部は、前記撮像部にて撮像された画像の輝度変動が前記撮像部の非線形領域の輝度出力値である場合には、前記画像の輝度変動が前記撮像部の線形領域に移行するために必要な前記照射光の振幅及び直流成分とを演算し、
     前記投光制御部は、前記演算された前記照射光の振幅及び直流成分に基づいて、前記照射光の強度を制御する
    ことを特徴とする距離計測装置。
  2.  前記投光制御部は、
     前記画像の輝度変動が前記撮像部の明部における非線形領域の輝度出力値である場合には、前記照射光の振幅を縮小するだけの制御を行い、
     前記画像の輝度変動が前記撮像部の暗部における非線形領域の輝度出力値である場合には、前記照射光の振幅を縮小し、且つ縮小した量を直流成分として重畳する制御を行う
    ことを特徴とする請求項1記載の距離計測装置。
  3.  前記投光制御部は、前記照射光の変調周期全体に対する、前記線形領域の輝度が出力される時間の割合に応じて、前記照射光の振幅を縮小することを特徴とする請求項1または請求項2のいずれかに記載の距離計測装置。
  4.  前記投光部、及び前記撮像部は、前記照射光の強度変調として、振幅変調、位相変調、周波数変調のうちの一つ、或いはこれらの組み合わせを用いることを特徴とする請求項1~請求項3のいずれか1項に記載の距離計測装置。
  5.  前記投光部は、可視光、赤外光、紫外光のうちの少なくとも1つを照射する光源を具備し、前記撮像部は、前記投光部に具備された光源に応じて、可視光領域、赤外領域、紫外領域に感度を有することを特徴とする請求項1~請求項4のいずれか1項に記載の距離計測装置。
  6.  前記撮像部は、前記投光部の上端エッジが照射される方向に対して、鉛直方向に設けられ、且つ、所定の俯角を有することを特徴とする請求項1~請求項5のいずれか1項に記載の距離計測装置。
  7.  移動体に搭載され、水平方向に照射領域を有し、強度変調された照射光を照射する投光部と、
     前記移動体に搭載され、前記照射光が照射された対象物を撮像する撮像部と、
     前記撮像部の撮像のタイミングに合わせて前記照射光の強度を制御する投光制御部と、
     前記撮像部にて撮像された画像から、前記照射光の強度変調と同期して輝度が変動する領域を、同期検波領域として抽出する同期検波部と、
     前記同期検波領域に基づいて、前記対象物までの距離を算出する距離算出部と、を有し、
     前記投光制御部は、前記撮像部に入射する光の強度が所定範囲を超えて変化する場合には、前記照射光の振幅を小さくする
    ことを特徴とする距離計測装置。
  8.  前記撮像部に入射する光の強度が所定範囲を超えて変化する場合とは、前記撮像部にて撮像された画像の輝度が前記撮像部の非線形領域の輝度出力値となる場合であることを特徴とする請求項7に記載の距離計測装置。
  9.  移動体に搭載された投光部を用いて、強度変調された照射光を対象物に照射し、
     前記移動体に搭載された撮像部を用いて、前記照射光が照射された対象物を撮像し、
     前記撮像のタイミングに合わせて前記照射光の強度を制御し、
     前記撮像された画像から、前記照射光の強度変調と同期して輝度が変動する領域を、同期検波領域として抽出し、
     前記同期検波領域のエッジを検出し、
     前記検出されたエッジに基づいて、前記対象物までの距離を算出し、
     前記撮像された画像の輝度変動が前記撮像部の非線形領域の輝度出力値である場合には、前記画像の輝度変動が前記撮像部の線形領域に移行するために必要な前記照射光の振幅及び直流成分とを演算し、
     前記演算された前記照射光の振幅及び直流成分に基づいて、前記照射光の強度を制御する
    ことを特徴とする距離計測方法。
PCT/JP2013/054948 2012-03-01 2013-02-26 距離計測装置及び距離計測方法 WO2013129387A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014502244A JP5800082B2 (ja) 2012-03-01 2013-02-26 距離計測装置及び距離計測方法
EP13754683.4A EP2821748B1 (en) 2012-03-01 2013-02-26 Range finding device and range finding method
CN201380011961.6A CN104160243B (zh) 2012-03-01 2013-02-26 距离测量装置和距离测量方法
US14/379,937 US10436902B2 (en) 2012-03-01 2013-02-26 Range finding device and range finding method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012045238 2012-03-01
JP2012-045238 2012-03-01

Publications (1)

Publication Number Publication Date
WO2013129387A1 true WO2013129387A1 (ja) 2013-09-06

Family

ID=49082584

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/054948 WO2013129387A1 (ja) 2012-03-01 2013-02-26 距離計測装置及び距離計測方法

Country Status (5)

Country Link
US (1) US10436902B2 (ja)
EP (1) EP2821748B1 (ja)
JP (1) JP5800082B2 (ja)
CN (1) CN104160243B (ja)
WO (1) WO2013129387A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013253971A (ja) * 2012-06-05 2013-12-19 Samsung Electronics Co Ltd 深さ映像生成方法及び装置、深さ映像処理方法及び装置
JP2015087267A (ja) * 2013-10-31 2015-05-07 日産自動車株式会社 物体検出装置
WO2018235709A1 (ja) * 2017-06-23 2018-12-27 ミツミ電機株式会社 測距カメラおよび測距方法
WO2019239491A1 (ja) * 2018-06-12 2019-12-19 三菱電機株式会社 光測距装置及び加工装置
WO2021145212A1 (ja) * 2020-01-14 2021-07-22 ソニーセミコンダクタソリューションズ株式会社 測距センサ、測距システム、および、電子機器

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6420530B2 (ja) 2013-06-26 2018-11-07 キヤノン株式会社 情報処理装置、計測システム、制御システム、光量決定方法、プログラム及び記憶媒体
JP6144976B2 (ja) * 2013-06-26 2017-06-07 キヤノン株式会社 情報処理装置、組み付け装置、情報処理方法、及びプログラム
TW201706563A (zh) * 2015-05-10 2017-02-16 麥吉克艾公司 距離感測器(一)
JP7242183B2 (ja) * 2015-06-03 2023-03-20 ヘプタゴン・マイクロ・オプティクス・プライベート・リミテッド 距離測定を行うための動作可能な光電子モジュール
US10768283B2 (en) * 2015-11-11 2020-09-08 Ams Sensors Singapore Pte. Ltd. Enhanced distance data acquisition
WO2018106670A1 (en) 2016-12-07 2018-06-14 Magik Eye Inc. Distance sensor projecting parallel patterns
US10249203B2 (en) * 2017-04-17 2019-04-02 Rosemount Aerospace Inc. Method and system for providing docking guidance to a pilot of a taxiing aircraft
JP2020537237A (ja) 2017-10-08 2020-12-17 マジック アイ インコーポレイテッド 縦グリッドパターンを使用した距離測定
EP3692501A4 (en) 2017-10-08 2021-07-07 Magik Eye Inc. CALIBRATION OF A SENSOR SYSTEM INCLUDING MULTIPLE MOBILE SENSORS
CN112119628B (zh) 2018-03-20 2022-06-03 魔眼公司 调整相机曝光以用于三维深度感测和二维成像
KR20200123849A (ko) 2018-03-20 2020-10-30 매직 아이 인코포레이티드 가변 밀도들의 투영 패턴을 사용하는 거리 측정
JP7292315B2 (ja) 2018-06-06 2023-06-16 マジック アイ インコーポレイテッド 高密度投影パターンを使用した距離測定
WO2020033169A1 (en) 2018-08-07 2020-02-13 Magik Eye Inc. Baffles for three-dimensional sensors having spherical fields of view
JP2020067385A (ja) * 2018-10-25 2020-04-30 ソニーセミコンダクタソリューションズ株式会社 演算処理装置、測距装置及び演算処理方法
CN111338332B (zh) * 2018-11-30 2022-03-18 宝时得科技(中国)有限公司 自动行走设备、其避障方法及装置
EP3911920B1 (en) 2019-01-20 2024-05-29 Magik Eye Inc. Three-dimensional sensor including bandpass filter having multiple passbands
WO2020197813A1 (en) 2019-03-25 2020-10-01 Magik Eye Inc. Distance measurement using high density projection patterns
JP7115390B2 (ja) * 2019-03-28 2022-08-09 株式会社デンソー 測距装置
EP3970362A4 (en) 2019-05-12 2023-06-21 Magik Eye Inc. MAPPING THREE-DIMENSIONAL DEPTH MAP DATA TO TWO-DIMENSIONAL IMAGERY
CN110187352B (zh) * 2019-05-22 2021-06-18 北京石油化工学院 一种利用循环平稳随机序列的激光脉冲测距方法
WO2021113135A1 (en) 2019-12-01 2021-06-10 Magik Eye Inc. Enhancing triangulation-based three-dimensional distance measurements with time of flight information
EP4094181A4 (en) 2019-12-29 2024-04-03 Magik Eye Inc. ASSIGNMENT OF THREE-DIMENSIONAL COORDINATES TO TWO-DIMENSIONAL FEATURE POINTS
US11688088B2 (en) 2020-01-05 2023-06-27 Magik Eye Inc. Transferring the coordinate system of a three-dimensional camera to the incident point of a two-dimensional camera

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04166788A (ja) * 1990-10-31 1992-06-12 Japan Radio Co Ltd 距離検出装置
JPH0642960A (ja) * 1992-07-28 1994-02-18 Matsushita Electric Works Ltd 光学式変位測定装置
JPH0972736A (ja) * 1995-09-01 1997-03-18 Toshiba Corp 距離計
JP2008051759A (ja) * 2006-08-28 2008-03-06 Nissan Motor Co Ltd 距離計測装置及び距離計測方法
JP2008241435A (ja) * 2007-03-27 2008-10-09 Stanley Electric Co Ltd 距離画像生成装置
JP2009186258A (ja) * 2008-02-05 2009-08-20 Nissan Motor Co Ltd 光検出装置及び光検出方法
JP2010107448A (ja) 2008-10-31 2010-05-13 Toyota Motor Corp 距離測定装置
JP2013024636A (ja) * 2011-07-19 2013-02-04 Nissan Motor Co Ltd 距離測定装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US528622A (en) * 1894-11-06 William benjamin teale
DE4312186C2 (de) * 1993-04-14 1995-04-06 Sick Optik Elektronik Erwin Verfahren und Vorrichtungen zur Feststellung von in einem Überwachungsbereich vorhandenen Gegenständen und/oder zur Feststellung deren Position
JP4398017B2 (ja) * 1998-10-07 2010-01-13 オリンパス株式会社 測距装置
JP2000330002A (ja) * 1999-05-20 2000-11-30 Olympus Optical Co Ltd 測距装置
US6937938B2 (en) * 2002-09-04 2005-08-30 Stanley A. Sansone Method and apparatus for interferometry, spectral analysis, and three-dimensional holographic imaging of hydrocarbon accumulations and buried objects
JP2006101421A (ja) * 2004-09-30 2006-04-13 Toshiba Corp 映像信号処理回路
JP4827431B2 (ja) * 2005-04-15 2011-11-30 シーケーディ株式会社 三次元計測装置及び基板検査装置
JP4799216B2 (ja) * 2006-03-03 2011-10-26 富士通株式会社 距離測定機能を有する撮像装置
JP5092613B2 (ja) 2007-08-06 2012-12-05 日産自動車株式会社 距離計測方法および装置、ならびに距離計測装置を備えた車両
JP5206095B2 (ja) * 2008-04-25 2013-06-12 ソニー株式会社 構図判定装置、構図判定方法、プログラム
JP5584196B2 (ja) * 2009-03-05 2014-09-03 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 距離測定装置、距離測定方法、プログラムおよび集積回路
CN102360079B (zh) * 2011-07-05 2013-03-06 上海理工大学 一种激光测距仪及工作方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04166788A (ja) * 1990-10-31 1992-06-12 Japan Radio Co Ltd 距離検出装置
JPH0642960A (ja) * 1992-07-28 1994-02-18 Matsushita Electric Works Ltd 光学式変位測定装置
JPH0972736A (ja) * 1995-09-01 1997-03-18 Toshiba Corp 距離計
JP2008051759A (ja) * 2006-08-28 2008-03-06 Nissan Motor Co Ltd 距離計測装置及び距離計測方法
JP2008241435A (ja) * 2007-03-27 2008-10-09 Stanley Electric Co Ltd 距離画像生成装置
JP2009186258A (ja) * 2008-02-05 2009-08-20 Nissan Motor Co Ltd 光検出装置及び光検出方法
JP2010107448A (ja) 2008-10-31 2010-05-13 Toyota Motor Corp 距離測定装置
JP2013024636A (ja) * 2011-07-19 2013-02-04 Nissan Motor Co Ltd 距離測定装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2821748A4

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013253971A (ja) * 2012-06-05 2013-12-19 Samsung Electronics Co Ltd 深さ映像生成方法及び装置、深さ映像処理方法及び装置
JP2015087267A (ja) * 2013-10-31 2015-05-07 日産自動車株式会社 物体検出装置
WO2018235709A1 (ja) * 2017-06-23 2018-12-27 ミツミ電機株式会社 測距カメラおよび測距方法
JP2019007826A (ja) * 2017-06-23 2019-01-17 ミツミ電機株式会社 測距カメラおよび測距方法
WO2019239491A1 (ja) * 2018-06-12 2019-12-19 三菱電機株式会社 光測距装置及び加工装置
JPWO2019239491A1 (ja) * 2018-06-12 2020-10-01 三菱電機株式会社 光測距装置及び加工装置
TWI787384B (zh) * 2018-06-12 2022-12-21 日商三菱電機股份有限公司 光測距裝置及加工裝置
US11977157B2 (en) 2018-06-12 2024-05-07 Mitsubishi Electric Corporation Optical distance measurement device and machining device
WO2021145212A1 (ja) * 2020-01-14 2021-07-22 ソニーセミコンダクタソリューションズ株式会社 測距センサ、測距システム、および、電子機器

Also Published As

Publication number Publication date
US10436902B2 (en) 2019-10-08
JP5800082B2 (ja) 2015-10-28
EP2821748A4 (en) 2015-04-22
US20150012244A1 (en) 2015-01-08
JPWO2013129387A1 (ja) 2015-07-30
EP2821748B1 (en) 2019-07-31
EP2821748A1 (en) 2015-01-07
CN104160243A (zh) 2014-11-19
CN104160243B (zh) 2017-03-01

Similar Documents

Publication Publication Date Title
JP5800082B2 (ja) 距離計測装置及び距離計測方法
JP5448617B2 (ja) 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ
EP1997322B1 (en) Active 3d triangulation-based imaging method and device
JP4830871B2 (ja) 3次元形状計測装置及び3次元形状計測方法
EP3169975B1 (en) Method and measuring instrument for target detection and/or identification
US20120098935A1 (en) 3d time-of-flight camera and method
JP2008157797A (ja) 3次元計測方法及びそれを用いた3次元形状計測装置
JP2010175435A (ja) 三次元情報検出装置及び三次元情報検出方法
JP2016223911A (ja) 検査システム
JP2016224707A (ja) 検査システム
JP2014178245A (ja) 距離測定装置
JP2014070936A (ja) 誤差画素検出装置、誤差画素検出方法、および誤差画素検出プログラム
JP6477348B2 (ja) 自己位置推定装置及び自己位置推定方法
JP4797109B2 (ja) 三次元形状計測装置及び三次元形状計測方法
JP6019621B2 (ja) 距離計測装置
US11610339B2 (en) Imaging processing apparatus and method extracting a second RGB ToF feature points having a correlation between the first RGB and TOF feature points
JP2010175554A (ja) 三次元形状計測装置及び三次元形状計測方法
JP5978866B2 (ja) 撮影装置及び撮影装置の画像処理方法
JP5751416B2 (ja) 距離測定装置
JP6236955B2 (ja) 距離測定装置
JP5939422B2 (ja) 距離計測装置
JP2017191082A (ja) 輝点画像取得装置および輝点画像取得方法
JP2008170282A (ja) 形状測定装置
JP2010032448A (ja) 3次元形状測定装置
JP2013044690A (ja) 距離測定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13754683

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014502244

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2013754683

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14379937

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE