WO2015025497A1 - 測距システム及び信号発生装置 - Google Patents

測距システム及び信号発生装置 Download PDF

Info

Publication number
WO2015025497A1
WO2015025497A1 PCT/JP2014/004146 JP2014004146W WO2015025497A1 WO 2015025497 A1 WO2015025497 A1 WO 2015025497A1 JP 2014004146 W JP2014004146 W JP 2014004146W WO 2015025497 A1 WO2015025497 A1 WO 2015025497A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
ranging
illumination
signal
unit
Prior art date
Application number
PCT/JP2014/004146
Other languages
English (en)
French (fr)
Inventor
伊藤 順治
山田 徹
藤井 俊哉
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2015532700A priority Critical patent/JP6459069B2/ja
Priority to CN201480043384.3A priority patent/CN105452807A/zh
Publication of WO2015025497A1 publication Critical patent/WO2015025497A1/ja
Priority to US15/045,851 priority patent/US10151835B2/en
Priority to US16/183,271 priority patent/US11422256B2/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/003Bistatic lidar systems; Multistatic lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone

Definitions

  • the present disclosure relates to a ranging system and a signal generator.
  • FIG. 21 shows a conventional detection system disclosed in Patent Document 1 among various detection systems proposed so far.
  • This detection system is used for automobiles, and includes an LED lamp 12 as an infrared light source provided at the front of the automobile, a camera 13 as imaging means, and a control circuit 14 as control means provided inside the automobile. And a monitor 15 as a display means.
  • the LED lamp 12 is a light source different from a headlight light source intended to illuminate darkness, and is provided near the end of a bumper of an automobile, and is configured to emit, for example, near infrared light having a wavelength of 880 nm.
  • the camera 13 is configured as a solid-state imaging device having sensitivity to near infrared rays emitted from the LED lamp 12 as an active type system, and performs image pickup with near infrared rays.
  • the monitor 15 uses a monitor such as a dedicated monitor or a car navigation system provided in the interior of the automobile, and the above-described imaging screen is displayed on the screen, or the inner surface of the windshield as a so-called head-up display.
  • the above-described imaging screen is projected on a screen provided in the screen.
  • the infrared light receiving element 16 detects infrared rays emitted from pedestrians and animals as a passive type system.
  • Patent Document 1 it is necessary to install a light source for brightening darkness or the like and a light source (LED lamp 12) that oscillates near infrared light for imaging by the camera 13.
  • LED lamp 12 a light source that oscillates near infrared light for imaging by the camera 13.
  • a ranging system and a signal generator having a compact system (apparatus), a light weight and high ranging accuracy are provided.
  • a distance measuring system includes a signal generation unit that generates a light emission signal that instructs light irradiation and an exposure signal that instructs exposure of reflected light, and the light emission signal.
  • a first illumination / ranging and light source unit that receives and performs illumination that is not intended for distance measurement and the light irradiation for distance measurement by reflected light, and performs the exposure by receiving the exposure signal;
  • An imaging unit that acquires an exposure amount of the reflected light, and a calculation unit that calculates and outputs distance information using the exposure amount, and causes the first illumination / ranging light source unit to perform the illumination.
  • the operation mode includes an illumination mode and a first distance measurement mode in which the first distance measurement / light source unit performs the first distance measurement by irradiating the light and operating the imaging unit.
  • one light source (illumination and ranging light source unit) is used not only for illumination but also for ranging, compared to the case where the illumination system and the ranging system are installed independently,
  • the distance measuring system can be easily reduced in size and weight.
  • the illumination / ranging light source unit is also a light source used for illumination, reflected light having a sufficient amount of light for distance measurement can be obtained, so that ranging accuracy can be improved.
  • the amplitude of light emitted from the first illumination / ranging light source unit in the first ranging mode is the first illumination in the illumination mode. You may make it become larger than the amplitude of the light irradiated from a ranging and light source part.
  • the ranging accuracy can be further increased.
  • the lighting time width of the light emitted from the first illumination distance measuring / combining light source unit in the first distance measuring mode is the first lighting distance in the illumination mode. It may be made shorter than the lighting time width of the light emitted from the illumination / ranging light source unit.
  • the ranging accuracy can be further increased.
  • the distance measuring system further includes a mode in which the imaging unit is operated and the arithmetic unit is configured to measure a background light amount in a state where the first illumination distance measuring and light source unit is turned off.
  • the calculation unit may perform correction for subtracting the background light amount from the exposure amount in the first distance measurement mode.
  • the ranging accuracy can be further increased.
  • the first illumination / ranging light source unit may be mounted with a single color LED or a plurality of color LEDs.
  • the switching between the first distance measuring mode and the illumination mode may be at least 120 times / second.
  • the distance measuring system further includes a second illumination / ranging light source unit, and the calculation unit further includes a phase difference between the first and second illumination / range light source units. Ranging may be performed using information.
  • the first and second illumination / ranging light source units may include (a) left of left and right high beam light sources and left and right low beam light sources provided in a vehicle. And (b) left and right low beam light sources.
  • the calculation unit may perform the second distance measurement by comparing the current frame and the previous frame using the image signal from the imaging unit. Good.
  • the calculation unit may determine one of the distance information obtained by the first and second distance measurements according to the other of the distance information obtained by the first and second distance measurements. Correction may be performed.
  • the first and second ranging may be selectively used according to day and night, weather, a distance to a subject, or a moving speed of the subject or the ranging system. Good.
  • the imaging unit may include a solid-state imaging device, and the solid-state imaging device may be a CCD type solid-state imaging device.
  • the imaging unit includes a solid-state imaging device having a plurality of pixels, and each of the plurality of pixels is read from the light receiving unit that performs photoelectric conversion and the light receiving unit.
  • the solid-state imaging device may be a MOS type solid-state imaging device that collectively reads out the signal charges of the light receiving unit to the storage unit in the plurality of pixels. .
  • the imaging unit includes a solid-state imaging device having a plurality of pixels, and each of the plurality of pixels has a different refractive index with an axis perpendicular to the light receiving surface as a central axis.
  • a microlens having a structure in which the above materials are repeatedly arranged concentrically may be provided.
  • the imaging unit includes a solid-state imaging device having a plurality of pixels, and each of the plurality of pixels transmits an infrared transmission filter, red light, and infrared light. Any of the above filter, a second filter that transmits green light and infrared light, and a third filter that transmits blue light and infrared light may be included.
  • At least one of the infrared transmission filter and the first to third filters may be a filter in which inorganic materials are stacked.
  • the distance measuring system may be mounted on a heavy machine or a heavy machine and a structure at a work site.
  • the ranging system may be mounted on a transportation device.
  • the distance measuring system may be mounted on a home equipment.
  • a signal generation device is a signal generation device that controls a light emission pulse signal, the signal generation device controlling a plurality of types of the light emission pulse signals, and the plurality of types of light emission pulses.
  • the signal includes a first light emission pulse signal for instructing light irradiation for distance measurement, and a second light emission pulse signal for instructing lighting of illumination not intended for distance measurement, and the second light emission pulse signal is OFF.
  • the first light emission pulse signal is turned on.
  • the ranging accuracy can be increased.
  • a period in which the first light emission pulse signal is turned on may be shorter than a period in which the second light emission pulse signal is turned on.
  • the ranging accuracy can be further increased.
  • the second light emission pulse signal may be turned on after repeating a period in which the first light emission pulse signal is turned on a plurality of times.
  • the total number of times the first light emission pulse signal is turned on and the number of times the second light emission pulse signal is turned on may be at least 120 times / second. .
  • the amplitude of the first light emission pulse signal may be larger than the amplitude of the second light emission pulse signal.
  • the first light emission pulse signal may be used to perform distance measurement by Time Of Flight.
  • the signal generation device may control an exposure signal that instructs exposure of reflected light by a subject of irradiation light generated by the first light emission pulse signal.
  • the system can be reduced in size and weight, and high distance measurement accuracy can be realized.
  • FIG. 1 is a functional block diagram illustrating a schematic configuration of the distance measuring system according to the first embodiment.
  • FIG. 2 is a schematic mounting diagram showing a mounting example of the distance measuring system according to the first embodiment.
  • FIG. 3 is a schematic mounting diagram showing an example of mounting the ranging system according to the first embodiment.
  • FIG. 4 is a cross-sectional view illustrating a pixel structure of the solid-state imaging device according to the first embodiment.
  • FIG. 5 is a functional configuration diagram of the CCD solid-state imaging device according to the first embodiment.
  • FIG. 6 is a circuit diagram showing a configuration of a unit cell of the MOS type solid-state imaging device according to the first embodiment.
  • FIG. 7 is a schematic configuration diagram of a MOS image sensor in which unit cells according to Embodiment 1 are two-dimensionally arranged.
  • FIG. 8 is a first timing chart showing an operation example based on the light emission signal and the exposure signal according to the first embodiment.
  • FIG. 9A is a second timing chart illustrating an operation example based on the light emission signal and the exposure signal according to Embodiment 1.
  • FIG. 9B is a diagram illustrating an operation example in which the operation is continuously performed a predetermined number of times in the TOF mode or the illumination mode based on the light emission signal according to Embodiment 1.
  • FIG. 10 is a third timing chart showing an operation example based on the light emission signal and the exposure signal according to the first embodiment.
  • FIG. 11 is a functional block diagram showing a schematic configuration of the distance measuring system according to the second embodiment.
  • FIG. 12 is a schematic mounting diagram illustrating an example in which the distance measuring system according to the second embodiment is mounted on an automobile.
  • FIG. 13A is a diagram showing details of the first and second illumination / ranging light sources of the distance measuring system according to the second embodiment.
  • FIG. 13B is a diagram illustrating a combination example of a high beam light source and a low beam light source in the TOF mode (first ranging mode) and the illumination mode of the ranging system according to Embodiment 2.
  • FIG. 14A is a functional block diagram illustrating a schematic configuration of a ranging system including a single illumination / ranging light source according to the third embodiment.
  • FIG. 14B is a functional block diagram illustrating a schematic configuration of a ranging system including first and second illumination / ranging light sources according to Embodiment 3.
  • FIG. 15A is a diagram illustrating a first arrangement example of the microlenses of the solid-state imaging element according to Embodiment 3.
  • FIG. 15B is a diagram illustrating a second arrangement example of the microlenses of the solid-state imaging element according to Embodiment 3.
  • FIG. 15C is a diagram illustrating a third arrangement example of the microlenses of the solid-state imaging element according to Embodiment 3.
  • FIG. 15D is an explanatory diagram illustrating an optical path between the solid-state imaging device according to Embodiment 3, a lens, and a subject.
  • FIG. 15A is a diagram illustrating a first arrangement example of the microlenses of the solid-state imaging element according to Embodiment 3.
  • FIG. 15B is a diagram illustrating a second arrangement example of the microlenses of the solid
  • FIG. 16 is a plan view showing the arrangement and structure of the microlenses of the solid-state imaging device according to the embodiment for each unit cell group.
  • FIG. 17 is a diagram illustrating an example in which the distance measuring system according to the fourth embodiment is mounted on a household equipment device.
  • FIG. 18A is a cross-sectional structure diagram illustrating details of an IR transmission filter (photonic type), in particular, for pixels of an image sensor on which the distance measuring system according to the embodiment is mounted.
  • FIG. 18B is a cross-sectional structure diagram illustrating details of an IR transmission filter (organic material type), in particular, for pixels of an image sensor on which the distance measuring system according to the embodiment is mounted.
  • FIG. 19 is a plan structure diagram of the solid-state imaging device according to the embodiment.
  • FIG. 20 is a cross-sectional structure diagram of the solid-state imaging device according to the embodiment.
  • FIG. 21 is a functional block diagram showing a schematic configuration of a conventional detection system.
  • the distance measuring system (sensing system) according to the first embodiment generates (controls) a plurality of types of light emission signals (light emission pulse signals) instructing light irradiation and exposure signals instructing exposure of reflected light.
  • (Signal generator) a first illumination / ranging light source that receives a light emission signal and performs illumination not intended for distance measurement (sensing) and light irradiation for distance measurement (sensing) by reflected light
  • An imaging unit that receives an exposure signal and performs exposure to acquire an exposure amount of reflected light, and an arithmetic unit that calculates and outputs distance information using the exposure amount.
  • the first illumination distance measurement / light source unit to illuminate without operating the first illumination distance measurement / light source unit, and the first illumination distance measurement / light source unit to irradiate light to operate the imaging unit.
  • the first ranging mode sensing mode Characterized in that it has as the operation mode.
  • FIG. 1 is a functional block diagram showing a schematic configuration of the ranging system according to the first embodiment.
  • the ranging system (detection system) 1 includes an imaging unit 10, an illumination ranging / light source 20 (first illumination / ranging light source unit), a signal generation unit 30, and an arithmetic unit 40.
  • an imaging unit 10 an imaging unit 10
  • an illumination ranging / light source 20 first illumination / ranging light source unit
  • a signal generation unit 30 an arithmetic unit 40.
  • the illumination / ranging light source 20 includes a drive circuit, a capacitor, and a light emitting element, and emits light by supplying the charge held in the capacitor to the light emitting element.
  • the light emitting element other light emitting elements such as a laser diode and a light emitting diode (LED) may be used.
  • the illumination / ranging light source 20 is used both as an illumination light source for brightening darkness and the like without aiming at distance measurement and a distance measurement light source for detecting a physical quantity such as distance.
  • a transportation device for example, an automobile
  • it is also used as a headlight or a fog lamp.
  • the LED used as the illumination / ranging light source 20 may be a single color LED (for example, a white LED).
  • LED of multiple colors for example, red LED, blue LED, yellow LED, etc.
  • long wavelength side for example, red LED
  • the attenuation due to diffusing particles such as fog is reduced, and it is possible to measure a distance further than when white is used.
  • a white LED can be combined with a red LED, a blue LED, a yellow LED, and the like.
  • the white when the sunlight is strong in the evening, the white having a shorter wavelength
  • a light source with a long wavelength that can reduce attenuation due to scattering for example, red LED.
  • the light source on the sidewalk side rather than the oncoming lane side is more powerful depending on the road conditions It is possible to measure the distance with high accuracy in any weather and environmental conditions by properly using it to increase the reach.
  • LEDs of multiple types such as red LED, blue LED, yellow LED, etc.
  • distance measurement using selectively near infrared light from the wavelength range of light oscillated from the illumination light source can be performed. You can also do it.
  • the signal generator 30 generates a light emission signal (first light emission pulse signal, second light emission pulse signal) 51 instructing light irradiation and an exposure signal 52 instructing exposure of reflected light from the subject.
  • the illumination / ranging light source 20 irradiates the subject with light for ranging according to the timing of receiving the light emission signal (first light emission pulse signal) 51 generated by the signal generation unit 30 and the light emission signal generated by the signal generation unit 30. According to the timing of receiving the (second light emission pulse signal) 51, light irradiation for increasing darkness without performing distance measurement is performed.
  • the imaging unit 10 has a circuit that creates and outputs RAW data 53 such as a camera lens, a solid-state imaging device (image sensor), and an A / D converter. Note that this embodiment includes a case where a circuit that creates and outputs RAW data 53 such as an A / D converter is mounted on a solid-state imaging device.
  • the imaging unit 10 performs a plurality of exposures on the region including the target object (subject) in accordance with the timing indicated by the exposure signal 52 generated by the signal generation unit 30, and corresponds to the sum of the plurality of exposure amounts.
  • RAW data 53 TOF (Time Of Flight) information
  • the calculation unit 40 calculates based on the RAW data 53 received from the imaging unit 10 and outputs distance information (detection information) to the subject.
  • the signal generation part 30, the imaging part 10, and the calculating part 40 also include the case where one part or all are mounted on a semiconductor substrate by one chip.
  • FIG. 2 and 3 are schematic mounting diagrams showing an example of mounting the ranging system of FIG.
  • FIG. 2 is a schematic diagram showing details of the illumination / ranging light source 20 and the imaging unit 10 when mounted on a shovel car, which is a heavy machine.
  • the shovel car 90 is mounted with the illumination / ranging light source 20 and the imaging unit 10, and the imaging unit 10 is mounted on the upper revolving body of the shovel car 90. Further, an arm is provided at the front of the vehicle in the upper swing body of the excavator 90, and a bucket 96 for scooping bulk material is provided at the tip of the arm. Further, the upper swing body can be rotated 360 degrees.
  • the image pickup unit 10 is mounted on the excavator 90, and the illumination / ranging light source 20 is installed on the structure 18 at the construction site.
  • the ranging system 1 is mounted on a heavy machine or a heavy machine and a work site structure, for example, it is possible to accurately measure the distance to an obstacle when digging the ground or the like, that is, , Automatically digging up to a certain distance or distance to an obstacle (for example, the Y position in FIGS. 2 and 3), and automatically stops when it deviates from the assumed distance (or approaches the assumed distance) Thus, it is possible to perform automatic operation while the distance measuring system 1 is small and light.
  • heavy machinery such as bulldozers
  • transportation equipment autonomouss, bicycles, motorcycles, railway vehicles, airplanes, spacecrafts
  • Etc. can be mounted on all kinds of equipment such as transportation equipment, infrastructure equipment, and housing equipment.
  • FIG. 4 is a cross-sectional view showing the pixel structure of the solid-state imaging device according to this embodiment.
  • the solid-state imaging device in the figure includes a semiconductor substrate 301, a light receiving portion (PD) 303, a metal wiring, a gate electrode or transfer electrode 305, a microlens 307, and the like.
  • the reflected light from the subject is collected by the microlens 307 and reaches the light receiving unit (PD) 303.
  • the solid-state imaging device can use an image sensor having sensitivity only to infrared rays (hereinafter referred to as IR), and also includes a red region, a green region, and a blue region (hereinafter referred to as RGB).
  • IR infrared rays
  • RGB + IR an image sensor having sensitivity to IR
  • Details of the case of using RGB + IR will be described later.
  • FIG. 5 is a functional configuration diagram of a CCD type solid-state imaging device.
  • the CCD solid-state imaging device includes a light receiving unit (photodiode, PD) 101, a plurality of vertical transfer units 102, a horizontal transfer unit 103, and a signal charge detection unit 104.
  • PD photodiode
  • the photodiode 101 converts the received light into electric charges.
  • the vertical transfer unit 102 includes a plurality of gates, and sequentially transfers charges read from the photodiode 101 in the vertical direction.
  • the horizontal transfer unit 103 sequentially transfers the charges received from the vertical transfer unit 102 as packets by the plurality of gates configured by the plurality of gates in the horizontal direction.
  • the signal charge detection unit 104 sequentially detects the charges received from the horizontal transfer unit, converts them into voltage signals, and outputs RAW data (TOF information) 53.
  • the operation of resetting a plurality of photodiodes (PD) 101 at once can eliminate the time difference of light detected in each PD, so that the delay of light to the object to be measured can be measured. It is possible to realize high-precision ranging using the.
  • FIG. 5 shows a CCD image sensor (CCD type solid-state imaging device), a MOS image sensor can also be used in this embodiment.
  • the MOS image sensor includes a solid-state imaging device having a plurality of pixels, and each of the plurality of pixels includes a light receiving unit that performs photoelectric conversion and a storage unit that accumulates signal charges read from the light receiving unit.
  • the MOS image sensor is characterized in that the signal charges of the light receiving unit are collectively read out to the storage unit in a plurality of pixels.
  • FIG. 6 is an example of a MOS type solid-state imaging device used in the imaging unit 10 of the distance measuring system 1 according to the present embodiment, and is a circuit diagram showing a configuration of the unit cell 201 in the MOS image sensor.
  • n is an integer from 1 to 4.
  • each unit cell 201 is a PD that is a light receiving unit, a shutter transistor M5 that resets (discharges) signal charges accumulated in the PD by setting the shutter signal TXSn to H, and a storage unit.
  • FD Floating diffusion
  • read transistor M1 for reading signal charge accumulated in PD by setting transfer signal TXn to H
  • read signal FD by setting reset signal RSn to H
  • a reset transistor M2 for resetting the signal charge
  • a source follower transistor M3 whose gate is connected to FD
  • a line selection transistor M4 that connects the source follower transistor M3 to the vertical signal line by setting the selection signal SELn to H. It consists of.
  • the drains of the reset transistor M2, the source follower transistor M3, and the shutter transistor M5 are connected to the pixel electrode VDD.
  • FIG. 7 is a schematic configuration diagram of a MOS image sensor in which the unit cells 201 of FIG. 6 are two-dimensionally arranged.
  • the MOS image sensor in FIG. 7 includes an imaging region 202 in which unit cells 201 are arranged in a two-dimensional form of 4 rows and 4 columns, and fixed pattern noise (FPN) generated due to variations in transistor threshold voltage for each column.
  • An FPN removing unit 203 for removing, a horizontal selecting unit 204 for sequentially selecting an output signal of the FPN removing unit 203, and a differential amplifier 205 for amplifying the output signal of the horizontal selecting unit 204.
  • the imaging area 202 has a small size of 4 rows and 4 columns for convenience of explanation.
  • Each column of the FPN removing unit 203 includes a signal level sample transistor M11 that receives the sample hold signal SHS, a reset level sample transistor M12 that receives the sample hold signal SHN, a signal level capacitor Cll, and a reset level Capacity C12.
  • Each column of the horizontal selection unit 204 includes a first column selection transistor M21 interposed between a signal level capacitor Cll and a first horizontal signal line 207, a reset level capacitor C12, and a second horizontal signal. And a second column selection transistor M22 interposed between the line 208 and the line 208.
  • Each column of the horizontal selection unit 204 is sequentially selected by signals H1 to H4 from a horizontal scanning unit (not shown).
  • the differential amplifier 205 amplifies the potential difference between the first horizontal signal line 207 and the second horizontal signal line 208.
  • the solid-state imaging device shown in FIGS. 6 and 7 includes an accumulation unit (FD in FIG. 6) that collectively reads and accumulates signal charges of PDs in all pixels, and a plurality of photos in the imaging region 2
  • the diode PD can be reset at once, that is, a global shutter & global reset function is realized even in the MOS type.
  • the solid-state imaging device according to the present embodiment is not limited to the CCD type and MOS type image sensors shown in FIGS. 5, 6, and 7, and other requirements are considered as the ranging system 1. Even if other solid-state imaging devices (image sensors) are used, it is possible to obtain the effects (improving ranging accuracy, etc.) described later.
  • FIG. 8, FIG. 9A, and FIG. 10 are first to third timing charts showing operation examples based on the light emission signal and the exposure signal. In this embodiment, any of the operations in the first to third timing charts can be used.
  • a light emission signal 51 is a first light emission pulse signal instructing light irradiation for distance measurement, and And a second light emission pulse signal for instructing lighting of illumination not intended for distance measurement.
  • the second light emission pulse signal is OFF, the first light emission pulse signal is turned ON, and the first light emission pulse signal is generated by TOF.
  • the basic principle is TOF that measures the distance from the time it takes for the projected light to reciprocate to the object, and the irradiation light generated by the light emission signal (first light emission pulse signal) 51 depends on the measurement object that is the subject.
  • the exposure signal 52 instructing the exposure of the reflected light is controlled by two patterns at different timings of the first exposure signal and the second exposure signal, and the object to be measured is based on the ratio of the respective light amounts exposed.
  • the distance is calculated. For example, exposure is performed so as to include all of the reflected light from the measurement object by the first exposure signal, and the reflected light from the measurement object is delayed with respect to the light emission timing by the second exposure signal. Exposure is performed so that the exposure amount increases. Further, in order to detect an offset component such as background light, the light emission signal 51 is stopped and exposure is performed under the same conditions as the first exposure signal and the second exposure signal.
  • the distance L to the subject is calculated from each value of c (see Equation 1).
  • the light emission signal (first light emission pulse signal) 51 and the first exposure signal are repeatedly output a plurality of times, and then light emission is performed.
  • the signal (first light emission pulse signal) 51 and the second exposure signal are repeatedly output the same number of times, and then the light emission signal (first light emission pulse signal) 51 is stopped to generate the first exposure signal and the second exposure signal.
  • the exposure signal 52 under the same condition as is repeatedly output the same number of times.
  • the series of timings may be set as one set, and after a plurality of sets are repeatedly output, the accumulated exposure amount may be output and the distance to the subject may be calculated by (Equation 1).
  • the driving operation during illumination (illumination mode) will be described with reference to FIG. 8.
  • the operation is performed such that the amplitude of light is higher in the TOF mode (sensing mode) than in the illumination mode. That is, the amplitude of the first light emission pulse signal is larger than the amplitude of the second light emission pulse signal, so that the amplitude of the light emitted from the illumination ranging / light source 20 in the TOF mode is equal to the illumination ranging / light source in the illumination mode. 20 is larger than the amplitude of the light irradiated from 20.
  • the distance measuring system 1 combines the light source for brightening darkness and the like and the light source for measuring distance by reflected light, thereby reducing the size and weight of the distance measuring system 1. In addition, distance information can be obtained accurately.
  • driving in the illumination mode is the same as the driving method of FIG.
  • the driving is performed in the same manner as the driving described with reference to FIG. That is, the lighting time width is made shorter (narrower) in the TOF mode than in the illumination mode.
  • the period during which the first light emission pulse signal is ON is shorter than the period during which the second light emission pulse signal is ON, so that the lighting time width of the light emitted from the illumination / ranging light source 20 in the TOF mode is In the illumination mode, it is shorter than the lighting time width of the light emitted from the illumination / ranging light source 20.
  • the distance measuring system 1 can be reduced in size and weight in the same manner as in FIG. 8, and the distance information can be accurately acquired.
  • the first distance measurement mode and the background light quantity measurement mode are provided in the TOF mode (sensing mode).
  • the ranging system 1 includes a mode in which the imaging unit 10 is operated with the lighting / ranging light source 20 turned off, and the calculation unit 40 measures the background light amount. Correction is performed to reduce the amount of background light from the exposure amount in the distance measurement mode.
  • the driving is a mode in which the background light quantity is measured with the illumination / ranging light source 20 turned off (that is, the background light quantity is subtracted from the received data in the TOF mode during distance calculation).
  • This operation makes it possible to reduce the size and weight of the distance measuring system 1 and to acquire distance information more accurately.
  • the first light emission pulse signal is turned on so that the number of times of lighting lighting + TOF lighting is larger than a certain number.
  • the number of times the second light emission pulse signal is turned on is 60 times / second or more, more preferably 120 times / second or more.
  • the number of times of lighting lighting + TOF lighting is set to 60 times / second or more, more preferably 120 times / second or more. That is, the first distance measurement mode and the illumination mode are switched at least 120 times / second.
  • the LED actually lights up dynamically by pulse driving at a speed of 120 times / second or more, but it appears to the human eye to emit light continuously due to the afterimage effect. Protect your eyes.
  • the distance measurement system 1 can be reduced in size and weight, and accurate distance information can be acquired, and eye saving can be realized for subjects, pedestrians, and the like.
  • the distance measuring system of the present embodiment can also be driven by combining the driving methods of FIGS. 8, 9A, and 10.
  • FIG. 9B is a diagram illustrating an operation example in which the operation is continuously performed a predetermined number of times in the TOF mode or the illumination mode using the light emission signal. As shown in FIG. 9B, for example, the operation can be continuously performed a predetermined number of times in the TOF mode or the illumination mode.
  • the distance measuring system according to the second embodiment further includes a second light source unit for illumination distance measurement / light source, and the calculation unit 40 performs measurement using the phase difference information of the first and second light source unit for illumination distance measurement / light source. It is configured to perform a distance.
  • FIG. 11 is a functional block diagram showing a schematic configuration of another distance measuring system according to the second embodiment.
  • FIG. 12 shows a case where the distance measuring system 1 is mounted on an automobile, which is a transport device, taking the second embodiment as an example, and in particular, a schematic perspective view showing details of the illumination distance measuring combined light source 20 and the imaging unit 10. It is.
  • the first and second illumination / ranging light source sections 20a and 20b are illumination / ranging light source sections 20a and 20b.
  • FIG. 11 and FIG. 12 as a plurality of illumination distance measuring light sources 20a and 20b separated by a certain distance, such as a headlight for an automobile, distance measurement for detecting a physical quantity such as a distance from the illumination light source.
  • the light source is also used.
  • the imaging unit 10 receives a plurality of reflected lights of light emitted from different positions, and outputs a plurality of RAW data 53a and 53b from the imaging unit 10 to the arithmetic unit 40.
  • the calculation unit 40 corrects the TOF data using the distance calculation by the TOF using the left and right headlights, and further using the plurality of RAW data 53a and 53b, that is, the second distance information using the reflected light having a phase difference as the correction information. I do.
  • the distance measuring system according to the present embodiment can perform detection with higher accuracy.
  • an automobile headlight system as a plurality of illumination ranging light sources, and in this method, the path of the irradiation light a and the reflected light a, the irradiation light b, and the reflected light b.
  • the relative position between the subject and the image sensor can be calculated based on the difference in the path, and the distance can be detected with higher accuracy without greatly changing the configuration of the existing lighting device.
  • headlights are used as a plurality of illumination light sources separated by a certain distance, but other light sources (for example, fog lamps 100a and 100b) can also be used.
  • the imaging unit 10 is installed in the upper part of the windshield (near the rearview mirror).
  • the present invention is not limited to this.
  • the imaging unit 10 can be installed in the front grille, the front bumper, or the like. is there.
  • FIG. 13A shows an automotive ranging system 1 using the second embodiment as an automotive application.
  • the first and second illumination / ranging light sources are used.
  • the first and second illumination / ranging light source units include (a) a left and right high beam light source, and (b) a left and right low beam among left and right high beam light sources and left and right low beam light sources provided in the vehicle. One of the light sources.
  • the distance measuring system 1 of the present embodiment is used for the headlight of an automobile, and the high beam light sources 11a and 11b and the low beam light sources 12a and 12b are used as the first and second illumination / ranging light sources. That is, the first illumination / ranging light source includes at least one of the high beam light source 11a and the low beam light source 12a, and the second illumination / ranging light source includes at least one of the high beam light source 11b and the low beam light source 12b. Thereby, it is possible to accurately measure the distance while sufficiently illuminating the darkness at night.
  • FIG. 13B is a diagram illustrating a combination example of the high beam light sources 11a and 11b and the low beam light sources 12a and 12b as the first and second illumination / ranging light source units in the TOF mode (first distance measurement mode) and the illumination mode. is there.
  • Group A in FIG. 13B indicates that the low beam light sources 12a and 12b are used in both the TOF mode (first ranging mode) and the illumination mode. That is, distance measurement using the operation and phase difference information in FIGS.
  • the set B indicates that the high beam light sources 11a and 11b are used in both the TOF mode (first ranging mode) and the illumination mode.
  • the set C indicates that the low beam light sources 12a and 12b are used in the TOF mode (first ranging mode) and the high beam light sources 11a and 11b are used in the illumination mode.
  • the set D indicates that the high beam light sources 11a and 11b are used in the TOF mode (first ranging mode), and the low beam light sources 12a and 12b are used in the illumination mode.
  • infrared light is separately used for the high beam, and if synchronized with the low beam light sources 12a and 12b, the illumination for illuminating the darkness by the low beam and the object, the pedestrian, etc. by the infrared high beam are dazzling. Ranging is possible without giving The term “synchronization” as used herein refers to synchronizing the turning off of one of the first and second illumination / ranging light source units with the lighting of the other.
  • FIGS 12 and 13A show an example in which an automobile is mounted.
  • the present invention is not limited to this.
  • other transportation equipment bicycles, motorcycles, railway vehicles, airplanes, spacecrafts, etc.
  • transportation equipment and infrastructure equipment It can be installed in all kinds of equipment such as heavy equipment (excavator, bulldozer, etc.) and house equipment.
  • FIGS. 14A and 14B are functional block diagrams illustrating a schematic configuration of the distance measuring system 1 according to the third embodiment.
  • 14A shows a case where the single illumination / ranging light source 20 as shown in FIG. 1 in the first embodiment is provided, and
  • FIG. 14B shows the first as shown in FIG. 11 in the second embodiment.
  • a second illumination / ranging light source is provided.
  • the distance measuring system 1 includes an imaging unit 10, an illumination distance measuring light source 20, a signal generating unit 30, and a calculation unit 40.
  • the illumination / ranging light source 20 (20a, 20b) has a drive circuit, a capacitor, and a light emitting element, and emits light by supplying the charge held in the capacitor to the light emitting diode.
  • the light emitting element other light emitting elements such as a laser diode and a light emitting diode (LED) may be used.
  • the signal generator 30 generates a light emission signal 51 (51a, 51b) for instructing light irradiation and an exposure signal 52 (52a, 52b) for instructing exposure of reflected light from the subject.
  • the illumination / ranging light source 20 (20a, 20b) irradiates the subject with light for distance measurement according to the timing of receiving the light emission signal 51 generated by the signal generation unit 30.
  • the imaging unit 10 has a circuit that creates and outputs RAW data 53 (53a, 53b) such as a camera lens, a solid-state imaging device (image sensor), and an A / D converter. Further, the imaging unit 10 performs a plurality of exposures on a region including the target object (subject) according to the timing indicated by the exposure signal 52 (52a, 52b) generated by the signal generation unit 30, and a plurality of exposure amounts.
  • RAW data 53 (53a, 53b) TOF information) corresponding to the sum of the two is obtained.
  • the imaging unit 10 performs imaging and outputs the image information to the calculation unit 40.
  • the calculation unit 40 calculates using the RAW data 53 (53a, 53b) received from the imaging unit 10 and the image information, and outputs distance information (detection information) to the subject.
  • ranging in the TOF mode is the same as in the above-described embodiment.
  • an image is taken and the distance is measured from the image data.
  • a continuous image is taken by the imaging unit 10, the current frame (image) is compared with the previous frame (image), and the distance is calculated by calculation (image ranging mode).
  • the ranging accuracy can be improved by the following usage.
  • the first method is to use the measurement mode (distance information) properly according to day and night.
  • the illumination light source is not normally turned on, such as in the daytime
  • the illumination / ranging light source 20 (20a, 20b) is turned off and distance measurement is performed in the image distance measurement mode.
  • the illumination / ranging light source 20 (20a, 20b) is turned on (pulse lighting drive), and distance measurement is performed in the TOF mode.
  • accurate distance measurement can be performed day and night without turning on the illumination / ranging light source 20 during the daytime.
  • the second usage is a method of supplementing data with the distance information in the image ranging mode in the distance information in the TOF mode. This method can further improve the ranging accuracy.
  • the third usage is a method that uses different measurement modes (distance information) depending on the weather and environmental conditions to be handled.
  • the TOF mode is used when receiving strong sunlight such as evening, when it is raining (that is, when image recognition is difficult), and the image ranging mode is used in other environments. This makes it possible to measure the distance with high accuracy in any weather and situation.
  • the fourth method is to use the measurement mode (distance information) properly according to the distance to the subject. That is, for example, the TOF mode and the image ranging mode are used at a short distance up to 10 m, and the TOF mode is mainly used at a long distance of 10 m or more. Thereby, it is possible to measure the distance with high accuracy regardless of the distance to the subject.
  • the fifth usage is a method for properly using the measurement mode (distance information) depending on the moving speed of the transportation device (for example, automobile) or the subject on which the system is mounted.
  • the TOF mode and the image ranging mode are used.
  • the TOF mode and the image ranging mode are used separately for each frame.
  • the TOF mode is used at a high speed of 100 km / h or more. Thereby, it is possible to measure the distance with high accuracy regardless of the distance to the subject.
  • the distance measuring system 1 is automatically operated until the obstacle is reached. It is a small and lightweight ranging system 1 that automatically stops operation when it is recognized from an image pickup as an obstacle that can not be dug down (and the object is hard, there is a danger of explosion, etc.) However, automatic operation can be performed.
  • the distance measuring system 1 includes, for example, transportation equipment (bicycles, motorcycles, railway vehicles, airplanes, spacecrafts, etc.), transportation equipment and infrastructure equipment, heavy equipment (excavators, bulldozers, etc.), and housing equipment. It can be mounted on any device.
  • transportation equipment for example, transportation equipment (bicycles, motorcycles, railway vehicles, airplanes, spacecrafts, etc.), transportation equipment and infrastructure equipment, heavy equipment (excavators, bulldozers, etc.), and housing equipment. It can be mounted on any device.
  • FIG. 15A to FIG. 15C are views showing first to third arrangement examples of unit cells (microlenses).
  • FIG. 15D is an explanatory diagram illustrating an optical path between a solid-state imaging device, a lens, and a subject. Regions A and B are regions in the lens.
  • the first unit cell 401 corresponds to a unit cell that receives light from the region A in FIG. 15D
  • the second unit cell 402 corresponds to a unit that receives light from the region B in FIG. 15D. It corresponds to the cell.
  • FIG. 15A a plurality of first unit cells 401 and a plurality of second unit cells 402 are arranged in a staggered pattern, and are alternately arranged in the column direction (vertical direction) and the row direction (horizontal direction). ing.
  • FIG. 15B the columns of the first unit cells 401 and the columns of the second unit cells 402 are alternately arranged in the row direction.
  • FIG. 15C the rows of the first unit cells 401 and the rows of the second unit cells 402 are alternately arranged in the column direction.
  • the first unit cell 401 and the second unit cell 402 may be arranged for each block of several cell units. By arranging in this way, two types of light are received simultaneously.
  • FIG. 16 is a plan view showing the arrangement and structure of the microlens for each unit cell group.
  • the microlens 307 generally has a curved surface structure, and the light is bent and condensed by the difference in refractive index between the microlens and the substance (gas, solid, etc.) with which the microlens contacts. .
  • the microlens shown in FIG. 16 is separated with a line width approximately equal to or shorter than the wavelength of light incident on the microlens and is perpendicular to the light receiving surface of the microlens. And having an effective refractive index distribution controlled by a combination of the plurality of light transmission films. That is, it has an effective refractive index distribution as a lens by a structure in which materials (light transmission films) having different refractive indexes from the central axis are repeatedly arranged.
  • the microlens is, for example, a microlens formed of an inorganic material, a so-called digital microlens. If a microlens having an upper surface pattern as shown in FIG. 16 is mounted above each unit cell, each unit cell can have different light collection characteristics with respect to a change in incident angle locally. That is, by decentering the central axis from the center of the unit cell, it is possible to set an incident angle at which the light amount (light receiving sensitivity) is maximized.
  • the first unit cell and the second unit cell having different incident angles that maximize the light amount are provided adjacent to each other, incident light in two directions can be received simultaneously, and a so-called stereo camera can be used without using a so-called stereo camera.
  • a stereoscopic image can be realized by an image sensor.
  • a stereoscopic image can be drawn without using a stereo camera (compound camera), and the image ranging mode using the stereoscopic image data can perform ranging with even higher accuracy. I can do it.
  • FIG. 17 is a diagram illustrating an example in which the distance measuring system 1 described in the first embodiment or the second embodiment is mounted on a housing equipment (residential space). In the figure, in particular, the illumination / ranging light source 20 and the imaging unit 10 are shown.
  • layout information such as dimension information in the space and furniture can be automatically obtained as data, and data can be used for mail order sales.
  • layout information such as dimension information in the space and furniture can be automatically obtained as data, and data can be used for mail order sales.
  • layout information such as dimension information in the space and furniture
  • data can be used for mail order sales.
  • it is possible to automatically perform a simulation such as whether installation is possible in terms of size.
  • FIGS. 18A and 18B are structural cross-sectional views illustrating the details of the IR transmission filter, in particular, regarding the pixels of the image sensor mounted in the distance measuring system 1 according to the first to third embodiments.
  • the IR transmission filter is, for example, a so-called photonic color filter 331 in which layers having different refractive indexes are periodically stacked.
  • the IR transmission filter has a difference in wavelength that is selectively transmitted by the unit cell 21 according to the color light to be detected by changing the thickness of at least one layer of the laminated structure for each color light. Is provided.
  • the IR transmission filter is configured by laminating inorganic materials such as SiO 2 and TiO 2.
  • the IR transmission filter is manufactured by a vacuum film formation method such as sputtering or vacuum deposition. By using an inorganic material, an IR transmission filter having a difference in wavelength characteristics for each unit cell 21 can be formed.
  • the image sensor receives the IR light and generates a signal charge by optimizing the structure of the light receiving portion (for example, photodiode) (for example, optimizing the impurity profile).
  • the structure of the light receiving portion for example, photodiode
  • the impurity profile for example, the impurity profile
  • the IR transmission filter 330 it is possible to obtain the effect of the present disclosure by forming the IR transmission filter 330 with a general organic material, but the selection can be made by forming the IR transmission filter with an inorganic material as described above.
  • the wavelength width of the light to be transmitted can be narrowed.
  • FIG. 19 is a plan structural view of the solid-state imaging device according to the present embodiment, and R + IR, G + IR, B + IR, and IR filters are installed in each pixel.
  • each of the R + IR, G + IR, and B + IR pixels passes through a filter, and when the background light includes an infrared component, a part of the infrared light is received. That is, the R component and the partial infrared component, the G component and the partial infrared component, the B component and the partial infrared component are received by each pixel of R + IR, G + IR, and B + IR. Further, only a part of the infrared component is received by the IR transmission filter by the IR transmission filter, photoelectric conversion is performed, and the R + IR, G + IR, B + IR, and IR pixels are accumulated during the visible exposure time.
  • distance measurement is performed in the TOF mode using light transmitted through the IR transmission filter, and light transmitted through the R + IR, G + IR, and B + IR transmission filters is used.
  • the image is taken, and the distance using the image data is measured.
  • this method if a continuous image is taken by the imaging unit 10 and the distance is calculated by comparing the current frame (image) and the previous frame (image), more accurate distance measurement can be performed. .
  • each of the R + IR, G + IR, B + IR, and IR filters can be formed of an organic material as shown in FIG. 18B.
  • the R + IR, G + IR, B + IR, and IR filters can be appropriately divided into an inorganic material filter and an organic material filter.
  • the R + IR, G + IR, B + IR, and IR filters may be formed by combining a filter made of an inorganic material and a filter made of an organic material (for example, so as to overlap in a vertical direction with respect to the semiconductor substrate). Is possible.
  • the distance measuring system according to the present disclosure can realize highly accurate three-dimensional measurement of an object to be measured without depending on the surrounding environment.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

 測距システム(1)は、光照射を指示する発光信号と反射光の露光を指示する露光信号とを発生する信号発生部(30)と、発光信号を受信して、測距を目的としない照明と、反射光による測距のための光照射とを行う第1の照明測距兼用光源部(20)と、露光信号を受信して露光を行い、反射光の露光量を取得する撮像部(10)と、露光量を用いて、距離情報を演算して出力する演算部(40)とを備え、第1の照明測距兼用光源部に照明を行わせる照明モードと、第1の照明測距兼用光源部に光照射をさせて撮像部を動作させることにより第1の測距を行う第1の測距モードとを動作モードとして有する。

Description

測距システム及び信号発生装置
 本開示は、測距システム及び信号発生装置に関する。
 図21は、これまで提案された様々な検知システムのなかで、特許文献1に開示された従来技術の検知システムである。
 この検知システムは、自動車用途であり、自動車の前部に設けられた赤外光源としてのLEDランプ12と、撮像手段としてのカメラ13と、自動車の内部に設けられた制御手段としての制御回路14と、表示手段としてのモニタ15と、から構成されている。
 また、LEDランプ12は暗闇を照らす目的のヘッドライト光源とは別の光源であり、自動車のバンパーの端付近に設けられ、例えば波長880nmの近赤外光を出射するように構成されている。
 また、カメラ13は、アクティブタイプのシステムとして、LEDランプ12から出射される近赤外線に対して感度を有する固体撮像素子から構成され、近赤外線による画像撮像を行なう。
 モニタ15は、自動車の車室内に設けられた専用のモニタ又はカーナビゲーションシステム等のモニタを使用して、その画面上に上述した撮像画面が表示され、あるいは所謂ヘッドアップディスプレイとして、フロントガラスの内面に設けられたスクリーンに上述した撮像画面が投影されるようになっている。
 また、赤外受光素子16は、パッシブタイプのシステムとして、歩行者や動物等が発する赤外線を検出する。
特開2002-274258号公報
 しかしながら、特許文献1に開示された従来技術では、暗闇等を明るくするための光源と、カメラ13で撮像を行うため近赤外光を発振する光源(LEDランプ12)を、それぞれ設置する必要があり、システム(装置)の小型化、軽量化が難しいという課題を有している。
 また、近年、検知システムの性能向上、用途拡大させるためには、特に距離情報を正確に取得することが求められている。
 前記課題を鑑み、システム(装置)の小型化、軽量化と高い測距精度を備える測距システム及び信号発生装置を提供する。
 上記課題を解決するために、本開示の一態様に係る測距システムは、光照射を指示する発光信号と反射光の露光を指示する露光信号とを発生する信号発生部と、前記発光信号を受信して、測距を目的としない照明と、反射光による測距のための前記光照射とを行う第1の照明測距兼用光源部と、前記露光信号を受信して前記露光を行い、前記反射光の露光量を取得する撮像部と、前記露光量を用いて、距離情報を演算して出力する演算部とを備え、前記第1の照明測距兼用光源部に前記照明を行わせる照明モードと、前記第1の照明測距兼用光源部に前記光照射をさせて前記撮像部を動作させることにより第1の測距を行う第1の測距モードとを、動作モードとして有する。
 この構成によれば、1つの光源(照明測距兼用光源部)を、照明だけでなく測距にも兼用するので、照明システムと測距システムとを独立にそれぞれを設置する場合と比べて、測距システムの小型化、軽量化を容易にすることができる。しかも、照明測距兼用光源部は照明にも用いる光源なので測距に十分な光量の反射光を得られることから、測距精度を高めることができる。
 また、本開示の一態様に係る測距システムでは、前記第1の測距モードにおいて前記第1の照明測距兼用光源部から照射される光の振幅は、前記照明モードにおいて前記第1の照明測距兼用光源部から照射される光の振幅よりも大きくなるようにしてもよい。
 この構成によれば、測距精度をもっと高めることができる。
 また、本開示の一態様に係る測距システムでは、前記第1の測距モードにおいて前記第1の照明測距兼用光源部から照射される光の点灯時間幅は、前記照明モードにおいて前記第1の照明測距兼用光源部から照射される光の点灯時間幅よりも短くなるようにしてもよい。
 この構成によれば、測距精度をもっと高めることができる。
 また、本開示の一態様に係る測距システムは、さらに、前記第1の照明測距兼用光源部を消灯した状態で、前記撮像部を動作させ前記演算部にバックグラウンド光量を計測させるモードを備え、前記演算部は、前記第1の測距モードの露光量から前記バックグラウンド光量を減じる補正を行ってもよい。
 この構成によれば、測距精度をさらにもっと高めることができる。
 また、本開示の一態様に係る測距システムにおいて、前記第1の照明測距兼用光源部は、単色のLED、又は複数色のLEDを搭載してもよい。
 また、本開示の一態様に係る測距システムにおいて、前記第1の測距モードおよび前記照明モードの切り替えを少なくとも120回/秒としてもよい。
 また、本開示の一態様に係る測距システムは、さらに第2の照明測距兼用光源部を備え、前記演算部は、さらに、前記第1および第2の照明測距兼用光源部の位相差情報を用いて測距を行ってもよい。
 また、本開示の一態様に係る測距システムにおいて、前記第1および第2の照明測距兼用光源部は、車両に備えられた左右のハイビーム光源と左右のロービーム光源のうち、(a)左および右のハイビーム光源、並びに(b)左および右のロービーム光源のいずれかであってもよい。
 また、本開示の一態様に係る測距システムにおいて、前記演算部は、前記撮像部からの画像信号を用いて現在のフレームと前のフレームを比較することにより第2の測距を行ってもよい。
 また、本開示の一態様に係る測距システムにおいて、前記演算部は、前記第1および第2の測距による距離情報の一方を、前記第1および第2の測距の距離情報の他方により補正を行ってもよい。
 また、本開示の一態様に係る測距システムにおいて、前記第1、第2の測距を、昼夜、天候、被写体までの距離、又は、前記被写体もしくは前記測距システムの動き速度により使い分けてもよい。
 また、本開示の一態様に係る測距システムにおいて、前記撮像部は固体撮像素子を備え、前記固体撮像素子はCCD型の固体撮像素子であってもよい。
 また、本開示の一態様に係る測距システムは、前記撮像部は複数の画素を有する固体撮像素子を備え、前記複数の画素のそれぞれは、光電変換する受光部と、前記受光部から読み出された信号電荷を蓄積する蓄積部とを備え、前記固体撮像素子は、前記複数の画素において前記受光部の信号電荷を前記蓄積部に一括して読み出すMOS型の固体撮像素子であってもよい。
 また、本開示の一態様に係る測距システムにおいて、前記撮像部は複数の画素を有する固体撮像素子を備え、前記複数の画素のそれぞれは、受光面と垂直な軸を中心軸とし異なる屈折率の材料を同心状に繰り返し配置した構造を有するマイクロレンズを備えていてもよい。
 また、本開示の一態様に係る測距システムは、前記撮像部は複数の画素を有する固体撮像素子を備え、前記複数の画素のそれぞれは、赤外線透過フィルタ、赤色光および赤外線を透過する第1のフィルタ、緑色光および赤外線を透過する第2のフィルタ、および、青色光および赤外線を透過する第3のフィルタの何れかを備えてもよい。
 また、本開示の一態様に係る測距システムは、前記赤外線透過フィルタ、および、前記第1から第3フィルタの少なくとも1つは、無機材料を積層したフィルタであってもよい。
 また、本開示の一態様に係る測距システムは、重機、又は、重機と作業現場の構造物に搭載してもよい。
 また、本開示の一態様に係る測距システムは、輸送機器に搭載してもよい。
 また、本開示の一態様に係る測距システムは、住宅設備機器に搭載してもよい。
 また、本開示の一態様に係る信号発生装置は、発光パルス信号を制御する信号発生装置であって、前記信号発生装置は、複種類の前記発光パルス信号を制御し、前記複種類の発光パルス信号は、測距を行うための光照射を指示する第1発光パルス信号と、測距を目的としない照明の点灯を指示する第2発光パルス信号とを含み、前記第2発光パルス信号がOFFとなるときに、前記第1発光パルス信号はONとなる。
 この構成によれば、測距精度を高めることができる。
 また、本開示の一態様に係る信号発生装置において、前記第1発光パルス信号がONとなる期間は、前記第2発光パルス信号がONとなる期間よりも短くてもよい。
 この構成によれば、測距精度をもっと高めることができる。
 また、本開示の一態様に係る信号発生装置において、前記第2発光パルス信号は、前記第1発光パルス信号がONとなる期間を複数回繰り返した後に、ONとなってもよい。
 また、本開示の一態様に係る信号発生装置において、前記第1発光パルス信号がONとなる回数と前記第2発光パルス信号がONとなる回数との合計は、少なくとも120回/秒としてもよい。
 また、本開示の一態様に係る信号発生装置において、前記第1発光パルス信号の振幅は、前記第2発光パルス信号の振幅よりも大きくてもよい。
 また、本開示の一態様に係る信号発生装置において、前記第1発光パルス信号は、Time Of Flightにより測距を行うために用いられてもよい。
 また、本開示の一態様に係る信号発生装置は、前記第1発光パルス信号により発生した照射光の、被写体による反射光の露光を指示する露光信号を制御してもよい。
 本開示に係る測距システム及び信号発生装置によれば、システム(装置)の小型化、軽量化と高い測距精度を実現することが出来る。
図1は、実施の形態1に係る測距システムの概略構成を示す機能ブロック図である。 図2は、実施の形態1に係る測距システムの搭載例を示す概略搭載図である。 図3は、実施の形態1に係る測距システムの搭載例を示す概略搭載図である。 図4は、実施の形態1に係る固体撮像素子の画素の構造を示す断面図である。 図5は、実施の形態1に係るCCD型の固体撮像素子の機能構成図である。 図6は、実施の形態1に係るMOS型の固体撮像素子の単位セルの構成を示す回路図である。 図7は、実施の形態1に係る単位セルが2次元状に配置されてなるMOSイメージセンサの概略構成図である。 図8は、実施の形態1に係る発光信号及び露光信号による動作例を示す第1のタイミングチャートである。 図9Aは、実施の形態1に係る発光信号及び露光信号による動作例を示す第2のタイミングチャートである。 図9Bは、実施の形態1に係る発光信号によるTOFモード又は照明モードで一定回数連続して動作させる動作例を示す図である。 図10は、実施の形態1に係る発光信号及び露光信号による動作例を示す第3のタイミングチャートである。 図11は、実施の形態2に係る測距システムの概略構成を示す機能ブロック図である。 図12は、実施の形態2に係る測距システムを自動車に搭載した例を示す概略搭載図である。 図13Aは、実施の形態2に係る測距システムの第1および第2の照明測距兼用光源の詳細を示した図である。 図13Bは、実施の形態2に係る測距システムのTOFモード(第1の測距モード)と照明モードにおけるハイビーム光源、ロービーム光源の組み合わせ例を示す図である。 図14Aは、実施の形態3に係る、単独の照明測距兼用光源を備える測距システムの概略構成を示す機能ブロック図である。 図14Bは、実施の形態3に係る、第1および第2の照明測距兼用光源を備える測距システムの概略構成を示す機能ブロック図である。 図15Aは、実施の形態3に係る固体撮像素子のマイクロレンズの第1の配列例を示す図である。 図15Bは、実施の形態3に係る固体撮像素子のマイクロレンズの第2の配列例を示す図である。 図15Cは、実施の形態3に係る固体撮像素子のマイクロレンズの第3の配列例を示す図である。 図15Dは、実施の形態3に係る固体撮像素子と、レンズおよび被写体との間の光路を示す説明図である。 図16は、実施の形態に係る固体撮像素子のマイクロレンズの配置および構造を単位セル群毎に示す平面構造図である。 図17は、実施の形態4に係る測距システムを住宅設備機器に搭載した例を示す図である。 図18Aは、実施の形態に係る測距システムの搭載されるイメージセンサの画素について、特にIR透過フィルタ(フォトニック型)の詳細を説明した断面構造図である。 図18Bは、実施の形態に係る測距システムの搭載されるイメージセンサの画素について、特にIR透過フィルタ(有機材料型)の詳細を説明した断面構造図である。 図19は、実施の形態に係る固体撮像素子の平面構造図である。 図20は、実施の形態に係る固体撮像素子の断面構造図である。 図21は、従来技術の検知システムの概略構成を示す機能ブロック図である。
 以下、本開示の実施の形態に係る測距システムについて、図面を参照しながら説明する。なお、以下の実施の形態は、いずれも本開示の一具体例を示すものであり、数値、形状、材料、構成要素、構成要素の配置位置及び接続形態などは、一例であり、本開示を限定するものではない。
 (実施の形態1)
 実施の形態1に係る測距システム(センシングシステム)は、光照射を指示する複種類の発光信号(発光パルス信号)と反射光の露光を指示する露光信号とを発生(制御)する信号発生部(信号発生装置)と、発光信号を受信して、測距(センシング)を目的としない照明と、反射光による測距(センシング)のための光照射とを行う第1の照明測距兼用光源部と、露光信号を受信して露光を行い、反射光の露光量を取得する撮像部と、露光量を用いて、距離情報を演算して出力する演算部とを備え、撮像部および演算部を動作させることなく第1の照明測距兼用光源部に照明を行わせる照明モードと、第1の照明測距兼用光源部に光照射をさせて撮像部を動作させることにより第1の測距を行う第1の測距モード(センシングモード)とを、動作モードとして有することを特徴とする。
 図1は、実施の形態1に係る測距システムの概略構成を示す機能ブロック図である。
 同図に示すように、測距システム(検知システム)1は、撮像部10と、照明測距兼用光源20(第1の照明測距兼用光源部)と、信号発生部30と、演算部40とを備える。
 照明測距兼用光源20は、駆動回路、コンデンサ及び発光素子を有し、コンデンサに保持した電荷を発光素子へ供給することで光を発する。発光素子としてはレーザダイオードや発光ダイオード(LED)等のその他の発光素子を用いてもよい。
 また、照明測距兼用光源20は、測距を目的としないで暗闇等を明るくするための照明用光源と、距離などの物理量を検知するための測距用光源とが兼用となっている。例えば、後述する図12のように、輸送機器(例えば、自動車)に用いる場合は、ヘッドライト又はフォグランプ等と兼用する。
 また、照明測距兼用光源20として用いるLEDは、単色LED(例として白色LED)を用いることが出来る。
 また、照明測距兼用光源20として用いるLEDとして複数色のLED(例えば、赤色LED、青色LED.黄色LED等)を組み合わせてもよく、この場合は、測距に長波長側(例えば、赤色LED)の光源を用いると、霧等の拡散粒子による減衰が軽減され、白色を用いた場合に比べてより遠くを測距すること出来る。
 また、複数色のLEDとして、例えば、赤色LED、青色LED,黄色LED等と共に白色LEDを組み合わせることもでき、この場合は、例えば、夕方等において強い日差しを受けている場合はより波長の短い白色を用い、雨が降っている場合などは散乱による減衰を低減できる波長の長い光源(例えば、赤色LED等)を使い、夜間は道路状況に応じて対向車線側ではなく歩道側の光源をより強力にして到達距離を上げるというように使い分けることより、どのような天候、環境状況でも高い精度で測距することが出来る。
 また、赤色LED、青色LED、黄色LED等による複数種類の色のLEDを組み合わせることにより、照明光源から発振される光の波長領域の中から、近赤外光を選択的に用いた測距を行うことも出来る。
 また、信号発生部30は、光照射を指示する発光信号(第1発光パルス信号、第2発光パルス信号)51と、被写体からの反射光の露光を指示する露光信号52とを発生する。照明測距兼用光源20は、信号発生部30で発生する発光信号(第1発光パルス信号)51を受信するタイミングに従って被写体に対する測距のための光照射と、信号発生部30で発生する発光信号(第2発光パルス信号)51を受信するタイミングに従って測距を目的としないで暗闇を明るくするための光照射とを行う。
 撮像部10は、カメラレンズ、固体撮像素子(イメージセンサ)、及びA/Dコンバータ等のRAWデータ53を作成し出力する回路を有する。なお、本実施の形態は、A/Dコンバータ等のRAWデータ53を作成し出力する回路は固体撮像素子に搭載されている場合も含む。
 また、撮像部10は、対象物体(被写体)を含む領域に対して、信号発生部30で発生する露光信号52が示すタイミングに従って複数回の露光を行い、複数回の露光量の総和に対応したRAWデータ53(TOF(Time Of Flight)情報)を出力する。
 また、演算部40は、撮像部10から受けたRAWデータ53に基づいて演算し、被写体までの距離情報(検知情報)を出力する。
 なお、本実施の形態では、信号発生部30、撮像部10及び演算部40は、その一部又はすべてが、半導体基板にワンチップで搭載される場合も含む。
 図2、図3は、図1の測距システムの搭載例を示す概略搭載図である。図2は、重機であるショベルカーに搭載した場合であり、特に、照明測距兼用光源20と撮像部10の詳細を示した概略図である。
 図2では、ショベルカー90には、照明測距兼用光源20と撮像部10が搭載され、撮像部10はショベルカー90の上部旋回体の上部に搭載されている。また、ショベルカー90の上部旋回体における車両前部にはアームが備えられ、アームの先端部分に、バルク材を掬い込むバケット96が設けられている。また、上部旋回体は360度旋回可能となっている。
 また、図3では、ショベルカー90には撮像部10が搭載されており、工事現場の構造物18に照明測距兼用光源20が設置されている。
 本実施の形態に係る測距システム1を重機、又は、重機と作業現場の構造物に搭載すれば、例えば、地面等を掘り下げる場合の障害物までの距離を正確に測定することが出来、つまり、一定の距離又は障害物(例えば図2、図3のY箇所)までの距離まで自動的に掘り下げ、想定する距離から外れた(又は、想定する距離に近づいた)場合は自動的に動作停止など、小型かつ軽量な測距システム1でありながら自動運転を行うことも出来るようになる。
 なお、図2、図3では重機の搭載した例を示したが、これに限定されず、例えば、その他の重機(ブルドーザー等)、輸送機器(自動車、自転車、オートバイ、鉄道車両、飛行機、宇宙機等)、輸送機器とインフラ設備、住宅設備機器など、あらゆる機器に搭載することが可能である。
 また、図4は、本実施の形態に係る固体撮像素子の画素の構造を示す断面図である。
 図中の固体撮像素子は、半導体基板301、受光部(PD)303、金属配線、ゲート電極又は転送電極305、マイクロレンズ307等を含む。被写体からの反射光は、マイクロレンズ307により集光されて受光部(PD)303に到達する。
 なお、本実施の形態に係る固体撮像素子は、赤外線(以下、IRと呼ぶ)に対してのみ感度を有するイメージセンサを使用出来ると共に、赤色領域、緑色領域及び青色領域(以下、RGBと呼ぶ)、並びに、IR(以下、RGB+IRと呼ぶ)に対して感度を有するイメージセンサを用いることが可能である。なお、RGB+IRを用いた場合の詳細は後述する。
 次に、本実施の形態に係る測距システム1の撮像部10に、CCD型の固体撮像素子を用いた場合について説明する。
 図5は、CCD型の固体撮像素子の機能構成図である。同図に示すように、CCD型固体撮像素子は、受光部(フォトダイオード、PD)101と、複数の垂直転送部102と、水平転送部103と、信号電荷検出部104とを備える。
 フォトダイオード101は、受光した光を電荷に変換する。垂直転送部102は、複数のゲートから構成され、フォトダイオード101から読み出した電荷を順次垂直方向に転送する。水平転送部103は、複数のゲートから構成されている複数のゲートがパケットとして垂直転送部102から受けた電荷を順次水平方向に転送する。信号電荷検出部104は、水平転送部から受けた電荷を順次検出して電圧信号に変換してRAWデータ(TOF情報)53を出力する。
 また、複数のフォトダイオード(PD)101を一括してリセットする動作、いわゆるグローバルリセットにより各PDにおいて検出する光の時間差を無くすることが出来るので、被測定物への光の遅延を計測することを利用する高精度な測距を実現することが出来る。
 なお、図5はCCDイメージセンサ(CCD型固体撮像素子)であるが、本実施の形態ではMOSイメージセンサを用いることも出来る。このMOSイメージセンサは複数の画素を有する固体撮像素子を備え、複数の画素のそれぞれは、光電変換する受光部と、受光部から読み出された信号電荷を蓄積する蓄積部とを備える。MOSイメージセンサは、複数の画素において受光部の信号電荷を蓄積部に一括して読み出すことを特徴とする。
 図6は、本実施の形態に係る測距システム1の撮像部10に用いるMOS型の固体撮像素子の一例であり、MOSイメージセンサにおける単位セル201の構成を示す回路図である。ここに、nは1から4までの整数とする。
 図6より、個々の単位セル201は、受光部であるPDと、シャッタ信号TXSnをHとすることでPDに蓄積した信号電荷をリセット(排出)するためのシャッタトランジスタM5と、蓄積部であるフローティングディフュージョン(floating difusion:FD)と、転送信号TXnをHとすることでPDに蓄積した信号電荷をFDに読み出すための読み出しトランジスタM1と、リセット信号RSnをHとすることでFDに読み出された信号電荷をリセットするためのリセットトランジスタM2と、ゲートがFDに接続されたソースフォロワトランジスタM3と、選択信号SELnをHとすることでソースフォロワトランジスタM3を垂直信号線へ接続するライン選択トランジスタM4とから構成される。リセットトランジスタM2とソースフォロワトランジスタM3とシャッタトランジスタM5とのドレインは、画素電極VDDに接続されている。
 図7は、図6の単位セル201が2次元状に配置されてなるMOSイメージセンサの概略構成図である。
 図7のMOSイメージセンサは、単位セル201を4行4列の2次元状に配列した撮像領域202と、列ごとのトランジスタ閾値電圧のばらつきにより発生する固定パターンノイズ(fixed pattern noise:FPN)を除去するためのFPN除去部203と、FPN除去部203の出力信号を順次選択するための水平選択部204と、水平選択部204の出力信号を増幅するための差動アンプ205とから構成されている。なお、撮像領域202は説明の便宜上4行4列の小サイズとしている。
 撮像領域202の行は、不図示の垂直走査部により順次選択される。各列の垂直信号線206に電流源209が接続されている。FPN除去部203の各列は、サンプルホールド信号SHSを受ける信号レベル用のサンプルトランジスタM11と、サンプルホールド信号SHNを受けるリセットレベル用のサンプルトランジスタM12と、信号レベル用の容量Cllと、リセットレベル用の容量C12とから構成される。水平選択部204の各列は、信号レベル用の容量Cllと第1の水平信号線207との間に介在した第1の列選択トランジスタM21と、リセットレベル用の容量C12と第2の水平信号線208との間に介在した第2の列選択トランジスタM22とから構成される。水平選択部204の各列は、不図示の水平走査部からの信号H1~H4により順次選択される。差動アンプ205は、第1の水平信号線207と第2の水平信号線208との間の電位差を増幅する。
 図6、図7に示した固体撮像素子は、PDの信号電荷を全画素において一括して読み出し蓄積する蓄積部(図6のFD)を備えることを特徴とし、撮像領域2内の複数のフォトダイオードPDを一括してリセットすることが出来、つまり、MOS型であってもグローバルシャッタ&グローバルリセット機能を実現する。
 但し、本実施の形態に係る固体撮像素子は、図5、図6、図7で示したCCD型、MOS型イメージセンサに限定されるものではなく、測距システム1として他の要求を考慮して、その他の固体撮像素子(イメージセンサ)を用いても後述する効果(測距精度向上、等)を得ることが可能である。
 次に、本実施の形態に係る測距システムの動作方法について、図8、図9A、図10のタイミングチャートを用いて詳細を説明する。図8、図9A、図10は、発光信号及び露光信号による動作例を示す第1~第3のタイミングチャートである。本実施の形態では、第1~第3のタイミングチャートのいずれかの動作を用いることが出来る。
 まず、第1の駆動方法として、図8を用いて測距時(TOFモード)の駆動操作を説明すると、発光信号51は測距を行うための光照射を指示する第1発光パルス信号と、測距を目的としない照明の点灯を指示する第2発光パルス信号とを含み、第2発光パルス信号がOFFのときに、第1発光パルス信号はONとなり、第1発光パルス信号は、TOFにより測距を行うために用いられる。また、投射した光が対象物まで往復するのにかかる時間から距離を計測するTOFを基本原理とし、発光信号(第1発光パルス信号)51により発生した照射光の、被写体である測定対象物による反射光の露光を指示する露光信号52が、第一の露光信号と第二の露光信号との異なるタイミングの2パターンで制御されることで露光したそれぞれの光量の比に基づいて測定対象物までの距離を算出する。例えば、第一の露光信号によって、測定対象物からの反射光の全てを含むように露光を行い、第二の露光信号によって、測定対象物からの反射光が発光タイミングに対して遅延する程、露光量が増加するような露光を行う。また背景光等のオフセット成分を検出するため、発光信号51を停止させて第一の露光信号、第二の露光信号と同じ条件の露光を行う。
 そして、第一の露光信号による露光量の総和S0、第二の露光信号による露光量の総和S1、背景光の露光量の総和BG、照射する直接光の発光信号51の時間幅T0、光速度cの各値から被写体までの距離Lを算出する(式1参照)。
Figure JPOXMLDOC01-appb-M000001
 また、1画面における発光信号51、第一の露光信号、第二の露光信号のタイミングでは、発光信号(第1発光パルス信号)51と第一の露光信号とを複数回繰り返し出力し、その後発光信号(第1発光パルス信号)51と第二の露光信号とを同じ回数だけ繰り返し出力し、その後発光信号(第1発光パルス信号)51を停止させて第一の露光信号や第二の露光信号と同じ条件の露光信号52を同じ回数だけ繰り返し出力する。この一連のタイミングを1セットとし、これを複数セット繰り返し出力した後、蓄積された露光量を出力して被写体までの距離を(式1)により算出するようにしてもよい。
 続いて、図8を用いて照明時(照明モード)の駆動操作を説明すると、光の振幅が照明モードに比べてTOFモード(センシングモード)の方が高い強度となるように動作を行う。つまり、第1発光パルス信号の振幅は第2発光パルス信号の振幅よりも大きく、これにより、TOFモードにおいて照明測距兼用光源20から照射される光の振幅は、照明モードにおいて照明測距兼用光源20から照射される光の振幅よりも大きい。
 これにより、本実施の形態に係る測距システム1は、暗闇等を明るくするための光源と、反射光により測距を行うため光源を兼用することにより、測距システム1の小型化、軽量化を実現することが出来、さらに、距離情報を正確に取得することが出来る。
 次に、第2の駆動方法を、図9Aを用いて、図8で説明した内容との相違点を中心に詳細を説明する。
 まず、照明モードでの駆動は、図8の駆動方法と同じである。一方、TOFモード(センシングモード)では、図8を説明した駆動と同様に行うが、この一連の動作時間が照明モードより短時間に行う。つまり、点灯時間幅が照明モードに比べてTOFモードの方が短い(狭い)ようにする。言い換えれば、第1発光パルス信号がONとなる期間は第2発光パルス信号がONとなる期間よりも短く、これにより、TOFモードにおいて照明測距兼用光源20から照射される光の点灯時間幅は、照明モードにおいて照明測距兼用光源20から照射される光の点灯時間幅よりも短い。
 この動作により、図8と同様に、測距システム1の小型化、軽量化を実現することが出来、さらに、距離情報を正確に取得することが出来る。
 次に、第3の駆動方法として、図10を用いて、図8で説明した内容との相違点を中心に詳細を説明する。
 図10では、TOFモード(センシングモード)に、第1の測距モードとバックグラウンド光量測定モード(第2の測距モード)を備えている。この例では、測距システム1は、照明測距兼用光源20を消灯した状態で、撮像部10を動作させ演算部40にバックグラウンド光量を計測させるモードを備え、演算部40は、第1の測距モードの露光量からバックグラウンド光量を減じる補正を行う。
 第1の測距モードでは基本的な動作は図8、図9Aで説明したものと同じである。バックグラウンド光量を測定するモードでは露光信号52のタイミングパターンとして第三の露光信号を追加している。具体的には、照明測距兼用光源20を消灯した状態でバックグラウンド光量を測定するモード(つまり、測距計算時に背景光量をTOFモードの受信データから引く)となる駆動である。
 この動作により、測距システム1の小型化、軽量化を実現することが出来、距離情報を更に正確に取得することが出来る。
 引き続き、測距システムの動作方法について説明すると、図8、図9A、図10の駆動方法において、照明点灯+TOF点灯の回数は一定回数よりも多くとなるように、第1発光パルス信号がONとなる回数と第2発光パルス信号がONとなる回数との合計は60回以上/秒、より好ましくは、120回以上/秒とする高速パルス駆動を行う。例えば、照明点灯+TOF点灯の回数を60回以上/秒、より好ましくは、120回以上/秒とする。つまり、第1の測距モードおよび照明モードの切り替えを少なくとも120回/秒とする。
 これにより、LED光源からの光が被写体、歩行者等に対して、目のちらつきを感じることを防ぎ、アイセーブを実現することが出来る。言い換えれば、LEDは実際には120回/秒以上の速さでパルス駆動により動的に点灯するけれども、人の目には残像効果により連続発光しているように見えるため、ちらつきや違和感から人の目を保護する。
 つまり、本実施の形態では、測距システム1の小型化、軽量化、さらに、正確な距離情報の取得と共に、被写体、歩行者等に対してアイセーブを実現することが出来る。
 なお、本実施の形態の測距システムは、図8、図9A、図10の駆動方法を組み合わせて駆動を行うことも可能である。
 また、図8、図9A、図10の駆動方法では、TOFモードと照明モードを交互に駆動する例を説明したが、それに限定されるものではなく、第2発光パルス信号は、第1発光パルス信号がONとなる期間を複数回繰り返した後に、ONとなっても良い。図9Bは、発光信号によるTOFモード又は照明モードで一定回数連続して動作させる動作例を示す図である。図9Bに示すように、例えば、TOFモード又は照明モードで一定回数連続して動作を行うことも出来る。
 (実施の形態2)
 以下、図面を参照しながら、実施の形態2に係る測距システム1の構成及び動作について、これまでの実施の形態で説明した内容との相違点を中心に詳細を説明する。
 実施の形態2における測距システムは、さらに、第2の前記照明測距兼用光源部を備え、演算部40は、第1および第2の照明測距兼用光源部の位相差情報を用いて測距を行うように構成されている。図11は実施の形態2に係る別の測距システムの概略構成を示す機能ブロック図である。また、図12は実施の形態2を一例として、測距システム1を輸送機器である自動車に搭載した場合であり、特に、照明測距兼用光源20と撮像部10の詳細を示した概略斜視図である。第1および第2の照明測距兼用光源部は、照明測距兼用光源部20aおよび20bである。
 図11、図12では、自動車用のヘッドライトのように、一定の距離で離れた複数の照明測距兼用光源20a、20bとして、照明用光源と距離などの物理量を検知するための測距用光源とが兼用となっている。
 これにより、異なる位置から照射された光の複数の反射光を撮像部10が受け取り、撮像部10から複数のRAWデータ53a、53bを演算部40に出力する。演算部40では、左右ヘッドライトを用いたTOFによる距離演算と、さらに、複数のRAWデータ53a、53b、つまり位相差のある反射光を用いた第2の距離情報を補正情報としてTOFデータの補正を行う。これにより、本実施の形態の測距システムは、更に精度の高い検知を行うことが出来る。
 さらに、照明測距兼用光源20a、20bに対して、測距時においてそれぞれ異なる波長の光源を用いることにより、照明測距兼用光源20a、20bから得られる画像データ、および距離データを得、物体の形状を立体的に捉えることが出来る。
 すなわち、本実施の形態では、特に複数の照明測距光源として自動車のヘッドライトシステムに適用することがより好ましく、この方法では照射光aと反射光aの経路と照射光bと反射光bの経路の差によって被写体とイメージセンサとの相対位置を計算することが出来、既存の照明機器の構成を大きく変えることなく、より高い精度の距離検知を行うことが可能となる。
 なお、図12では、一定の距離で離れた複数の照明用光源としてヘッドライトを用いたが、その他の光源(例えば、フォグランプ100a、100b)を用いることも可能である。
 また、図12では、撮像部10をフロントガラス内上部(バックミラー付近)に設置したが、それに限定されるものではなく、例えば、フロントグリル内、フロンバンパー内、等に設置することも可能である。
 さらに、本実施の形態の詳細な説明を続けると、図13Aは実施の形態2を自動車用途として用いた自動車用の測距システム1であり、特に、第1および第2の照明測距兼用光源の詳細を示した図である。第1および第2の照明測距兼用光源部は、車両に備えられた左右のハイビーム光源と左右のロービーム光源のうち、(a)左および右のハイビーム光源、および(b)左および右のロービーム光源のいずれかである。
 つまり、自動車のヘッドライトに本実施の形態の測距システム1を用い、ハイビーム光源11a、11bおよびロービーム光源12a、12bを第1および第2の照明測距兼用光源として用いる。つまり、第1の照明測距兼用光源は、ハイビーム光源11aおよびロービーム光源12aの少なくとも一方を含み、第2の照明測距兼用光源は、ハイビーム光源11bおよびロービーム光源12bの少なくとも一方を含む。これにより、夜間時に暗闇を充分に照らしながら、精度良く距離測定を行うことが出来る。
 図13Bは、TOFモード(第1の測距モード)と照明モードにおける第1および第2の照明測距兼用光源部としてのハイビーム光源11a、11b、ロービーム光源12a、12bの組み合わせ例を示す図である。
 図13B中の組Aは、TOFモード(第1の測距モード)、照明モードの両方においてもロービーム光源12a、12bを用いることを示す。つまり、図8~図10における動作および位相差情報を用いた測距を組Aで行う。
 同様に、組Bは、TOFモード(第1の測距モード)、照明モードの両方においてもハイビーム光源11a、11bを用いることを示す。組Cは、TOFモード(第1の測距モード)ではロービーム光源12a、12bを用いて、照明モードではハイビーム光源11a、11bを用いることを示す。組Dは、TOFモード(第1の測距モード)ではハイビーム光源11a、11bを用いて、照明モードではロービーム光源12a、12bを用いることを示す。
 なお、組Dの場合、ハイビームに別途赤外光を用い、ロービーム光源12a、12bと同期を取ればロービームによる暗闇を照らす照明と、赤外光ハイビームによる被写体、歩行者等に対して、まぶしさを与えることなく測距が可能となる。ここでいう同期とは、第1および第2の照明測距兼用光源部の一方の消灯と他方の点灯とを同期させることをいう。
 なお、本実施の形態は、上述した図8、図9A、図10で説明したTOFモード、照明モード、バックグラウンド光量測定モードの各動作を用いることも可能であり、より高い精度となる測距を行うことが出来る。
 なお、図12、図13Aでは自動車の搭載した例を示したが、これに限定されず、例えば、その他の輸送機器(自転車、オートバイ、鉄道車両、飛行機、宇宙機等)、輸送機器とインフラ設備、重機(ショベルカー、ブルドーザー等)、住宅設備機器など、あらゆる機器に搭載することが可能である。
 (実施の形態3)
 実施の形態3では、撮像部からの画像信号を用いて現在のフレームと前のフレームを比較することにより第2の測距を行う画像測距モードを有する測距システムについて説明する。
 以下、図面を参照しながら、実施の形態3に係る測距システム1の構成及び動作について、上述した実施の形態との相違点を中心に説明する。
 図14A、図14Bは、実施の形態3に係る測距システム1の概略構成を示す機能ブロック図である。そのうち、図14Aは、実施の形態1における図1で示したような単独の照明測距兼用光源20を備えた場合であり、図14Bは実施の形態2における図11で示したように第1および第2の照明測距兼用光源を備えた場合である。
 図14A、図14Bより、測距システム1は、撮像部10と、照明測距兼用光源20と、信号発生部30と、演算部40とを備える。
 照明測距兼用光源20(20a、20b)は、駆動回路、コンデンサ及び発光素子を有し、コンデンサに保持した電荷を発光ダイオードへ供給することで光を発する。発光素子としてはレーザダイオードや発光ダイオード(LED)等のその他の発光素子を用いてもよい。
 また、信号発生部30は、光照射を指示する発光信号51(51a、51b)と、被写体からの反射光の露光を指示する露光信号52(52a、52b)とを発生する。照明測距兼用光源20(20a、20b)は、信号発生部30で発生する発光信号51を受信するタイミングに従って被写体に対して測距のための光照射を行う。
 更に、信号発生部30で発生する発光信号51(51a、51b)を受信するタイミングに従って、測距を目的としないで暗闇を明るくするための光照射を行う。
 撮像部10は、カメラレンズ、固体撮像素子(イメージセンサ)、及びA/Dコンバータ等のRAWデータ53(53a、53b)を作成し出力する回路を有する。また、撮像部10は、対象物体(被写体)を含む領域に対して、信号発生部30で発生する露光信号52(52a、52b)が示すタイミングに従って複数回の露光を行い、複数回の露光量の総和に対応したRAWデータ53(53a、53b)(TOF情報)を得る。
 さらに、撮像部10は、撮像を行い、その画像情報を演算部40に出力する。
 演算部40は、撮像部10から受けたRAWデータ53(53a、53b)、及び、画像情報を用いて演算し、被写体までの距離情報(検知情報)を出力する。
 まず、TOFモードで測距を行うのは上述した実施の形態と同じである。
 さらに、本実施の形態では画像撮像を行い、その画像データから距離を測定する。その方法の一例として、撮像部10で連続画像を撮影し、現在のフレーム(画像)と前のフレーム(画像)を比較し、演算により距離を算出する(画像測距モード)。
 このように、TOFデータと画像情報の両方を距離情報として用いて、以下のような使い方により、測距精度を向上させることが出来る。
 第1の使い方は、昼夜により測定モード(距離情報)を使い分ける方法である。例えば、昼間など通常は照明光源を点灯させないような場合、本実施の形態では照明測距兼用光源20(20a、20b)は消灯して画像測距モードで測距を行う。また、夜間などで通常照明光源を点灯させる場合は、本実施の形態では照明測距兼用光源20(20a、20b)は点灯(パルス点灯駆動)させて、TOFモードで測距を行う。これにより、昼間は照明測距兼用光源20を点灯させずに、昼夜を問わずに正確な測距することが出来る。
 第2の使い方は、TOFモードの距離情報に、画像測距モードの距離情報でデータ補完を行う方法である。この方法では、より一層測距精度を向上させることが出来る。
 第3の使い方は、扱われる天候や環境条件などにより測定モード(距離情報)を使い分ける方法である。例えば、夕方等の強い日差しを受けている場合、雨が降っている場合など(つまり、画像認識が難しい場合は)はTOFモードを用い、それ以外の環境では、画像測距モードを用いる。これによって、どのような天候、状況でも高い精度で測距することが出来る。
 第4の使い方は、被写体までの距離により測定モード(距離情報)を使い分ける方法である。すなわち、例えば10mまでの近距離ではTOFモードと画像測距モードを用い、例えば10m以上の遠距離では主としてTOFモードを用いる。これにより、どのような被写体までの距離の場合でも高い精度で測距することが出来る。
 第5の使い方は、本システムが搭載された輸送機器(例えば、自動車)、又は被写体の動き速度によって測定モード(距離情報)を使い分ける方法である。例えば輸送機器の速度が、例えば30km/hまでの低速度ではTOFモードと画像測距モードを用い、例えば30~100km/hまでの中速度ではTOFモードと画像測距モードをフレームごとに使い分け、例えば100km/h以上の高速度ではTOFモードをそれぞれ用いる。これにより、どのような被写体までの距離の場合でも高い精度で測距することが出来る。
 なお、本実施の形態は、上述した図8、図9A、図10で説明したTOFモード、照明モード、バックグラウンド光量測定モードの各動作を用いることも可能であり、より高い精度となる測距を行うことが出来る。
 また、本実施の形態に係る測距システム1を、上述した図2、図3のように、重機、又は、重機と作業現場の構造物に搭載すれば、障害物に到達するまでは自動的に掘り下げ、更に、掘り下げることが出来ない障害物(物体が硬い、爆発の危険がある、等)と画像撮像から認識した場合は自動的に動作停止など、小型かつ軽量な測距システム1でありながら自動運転を行うことも出来るようになる。
 また、本実施の形態の測距システム1は、例えば、輸送機器(自転車、オートバイ、鉄道車両、飛行機、宇宙機等)、輸送機器とインフラ設備、重機(ショベルカー、ブルドーザー等)、住宅設備機器など、あらゆる機器に搭載することが可能である。
 (実施の形態3の変形例)
 以下、図面を参照しながら、本変形例に係る測距システム1の構成及び動作について、これまでの実施の形態で説明した内容との相違点を中心に詳細を説明する。
 まず、図15A~図15Cは、単位セル(マイクロレンズ)の第1~第3の配列例を示す図である。図15Dは、固体撮像素子と、レンズおよび被写体との間の光路を示す説明図である。領域A、Bはそれぞれレンズ中の領域である。
 図15A~図15Cでは、第1の単位セル401は図15Dの領域Aからの光を受光する単位セルに対応し、第2の単位セル402は図15Dの領域Bからの光を受光する単位セルに対応している。
 図15Aでは、複数の第1の単位セル401と複数の第2の単位セル402とが千鳥格子で配置されており、列方向(垂直方向)および行方向(水平方向)に交互に配置されている。図15Bでは、第1の単位セル401の列と第2の単位セル402の列とが行方向に交互に配置されている。図15Cでは、第1の単位セル401の行と第2の単位セル402の行とが列方向に交互に配置されている。なお、単位セルの配列としては3種類を図示したが、第1の単位セル401および第2の単位セル402を数セル単位のブロック毎に配置するなどしても良い。このように配置することで局所的には2種類の光を同時に受光する。
 図16は、マイクロレンズの配置および構造を単位セル群毎に示す平面構造図である。
 上述した図4で示したように、一般的にマイクロレンズ307は曲面構造を備え、マイクロレンズ及びマイクロレンズが接触する物質(気体、固体等)の屈折率間差により光を曲げて集光させる。
 一方、図16に示したマイクロレンズは、上方から見たとき、マイクロレンズへの入射光の波長と同程度かそれよりも短い線幅で分離され、マイクロレンズの受光面に対して垂直な方向の軸を中心軸とする同心構造の複数の光透過膜を有し、複数の光透過膜の組み合わせによって制御された実効屈折率分布を有している。つまり、上記の中心軸から異なる屈折率の材料(光透過膜)を繰り返し配置した構造によりレンズとしての実効屈折率分布を有する。
 また、このようなマイクロレンズを実現するために、マイクロレンズは、例えば無機材料で形成されたマイクロレンズ、いわゆるデジタルマイクロレンズとされる。図16のような上面パターンを持つマイクロレンズを各単位セルの上方に実装すれば、各単位セルで局所的に入射角度変化に対する異なる集光特性を持つことが出来る。つまり、上記の中心軸を単位セルの中心から偏心させることによって、光量(受光感度)が最大となる入射角度を設定することができる。
 したがって、光量が最大となる入射角度が異なる第1の単位セルおよび第2の単位セルが隣り合って設けられるため、2方向の入射光を同時に受光でき、いわゆるステレオカメラを用いることなく、単眼のイメージセンサにより立体画像を実現できる。
 本構成により、ステレオカメラ(複眼カメラ)を用いなくても、立体画像を描画することが出来、その立体画像データからを用いた画像測距モードは、より一層高精度で測距を行うことが出来る。
 なお、上述したデジタルマイクロレンズは、図4、図18A、図18Bで説明したマイクロレンズ307に用いることも可能である。
 (実施の形態4)
 以下、図面を参照しながら、実施の形態3に係る測距システム1の構成及び動作について説明する。
 図17は、実施の形態1又は実施の形態2で説明した測距システム1を住宅設備機器(住空間)に搭載した例を示す図である。同図では、特に、照明測距兼用光源20と撮像部10を示す。
 本実施の形態に係る測距システム1を住宅設備機器に搭載すれば、例えば、空間内の寸法情報、家具など配置情報をデータとして自動的に得ることが出来、データを用いて、通信販売で家具等を購入する場合に、サイズ的に設置が可能であるか、などのシミュレーションを自動的に行うことが可能となる。
 (実施の形態の変形例1)
 以下、図面を参照しながら、本変形例に係る測距システム1の構成及び動作について、これまでの実施の形態で説明した内容との相違点を中心に詳細を説明する。
 図18A、図18Bは、本実施の形態1~3に係る測距システム1の搭載されるイメージセンサの画素について、特にIR透過フィルタの詳細を説明した構造断面図である。
 図18Aでは、IR透過フィルタは、例えば、互いに屈折率が異なる層を周期的に積層させた、いわゆるフォトニックカラーフィルタ331とする。IR透過フィルタは、例えば、積層構造のうちの少なくとも一つの層の厚さを色光ごとに異ならせることで、単位セル21が検出対象とする色光に応じて、選択的に透過させる波長に差が設けられている。
 また、IR透過フィルタは、無機材料、例えば、SiO2やTiO2を積層させて構成されている。IR透過フィルタは、例えば、スパッタリング、真空蒸着等の真空成膜法により製造する。無機材料を使用することで、単位セル21ごとに波長特性に差を持たせたIR透過フィルタを形成することができる。
 ここで、図4で上述したように、イメージセンサは、IR光を受光し信号電荷を発生させるのは、受光部(例えば、フォトダイオード)の構造の最適化(例えば、不純物プロファイルの最適化)により、IR透過フィルタが無くても受光、信号電荷発生は可能である。しかしながら、IR透過フィルタをイメージセンサに搭載することにより、受光する光の波長を選択することが出来る。
 さらに、図18BのようにIR透過フィルタを一般的な有機材料でIR透過フィルタ330を形成し本開示の効果を得ることは可能であるが、上述したような無機材料で形成することにより、選択する光の波長幅を狭くすることが出来る。
 以上により、より高精度な測距を行うことが出来る。
 (実施の形態の変形例2)
 また、図19は、本実施の形態に係る固体撮像素子の平面構造図であり、各画素にはR+IR、G+IR、B+IR、IRの各フィルタが設置されている。
 この画素は、また、R+IR、G+IR、B+IRの各々の画素にはフィルタ透過により、背景光が赤外成分を含む場合はその一部の赤外光が受光される。つまり、R+IR、G+IR、B+IRの各々の画素にR成分と前記一部の赤外成分、G成分と前記一部の赤外成分、B成分と前記一部の赤外成分が受光される。また、IR透過フィルタにより、IR画素には一部の赤外成分のみが受光されて光電変換が行われ、R+IR、G+IR、B+IR、IR各々の画素で、可視露光時間中に蓄積される。
 このとき、実施の形態2及び実施の形態3の測距システム1において、IR透過フィルタを透過した光を用いTOFモードで測距を行い、R+IR、G+IR、B+IR透過フィルタを透過した光を用いて、画像撮像を行い、その画像データからを用いた距離を測定する。その方法の一例として、撮像部10で連続画像を撮影し、現在のフレーム(画像)と前のフレーム(画像)を比較演算により距離を算出すれば、より高精度な測距を行うことが出来る。
 なお、本変形例では、図20に示すように、R+IR、G+IR、B+IR、IRの各フィルタを、上述した図18Aのように無機材料を積層することで形成することも可能である。
 また、本変形例では、R+IR、G+IR、B+IR、IRの各フィルタを、上述した図18Bのように有機材料で形成することも可能である。
 また、本変形例では、R+IR、G+IR、B+IR、IRの各フィルタを、無機材料によるフィルタと有機材料によるフィルタとに適宜分けて形成することも可能である。
 また、本変形例では、R+IR、G+IR、B+IR、IRの各フィルタを、無機材料によるフィルタと有機材料によるフィルタを組み合せて(例えば、半導体基板に対して垂直方向に重なるように)形成することも可能である。
 本開示に係る測距システムは、周辺環境に依存することなく、測定対象物の高精度な3次元測定が実現できるため、例えば、人物、建物などの3次元測定に有用である。
   1 測距システム
   2 撮像領域
  10 撮像部
  11a、11b ハイビーム光源
  12a、12b ロービーム光源
  18 構造物
  20、20a、20b 照明測距兼用光源
  21 単位セル
  30 信号発生部
  40 演算部
  51 発光信号
  52 露光信号
  53、53a、53b RAWデータ
  90 ショベルカー
  96 バケット
 100a、100b フォグランプ
 101 フォトダイオード
 102 垂直転送部
 103 水平転送部
 104 信号電荷検出部
 201 単位セル
 202 撮像領域
 203 除去部
 204 水平選択部
 205 差動アンプ
 206 垂直信号線
 207、208 水平信号線
 209 電流源
 301 半導体基板
 305 金属配線、ゲート電極又は転送電極
 307 マイクロレンズ
 330 透過フィルタ
 331 フォトニックカラーフィルタ
 401 第1の単位セル
 402 第2の単位セル
 C11、C12 容量
  M1 読み出しトランジスタ
  M2 リセットトランジスタ
  M3 ソースフォロワトランジスタ
  M4 ライン選択トランジスタ
  M5 シャッタトランジスタ
  PD フォトダイオード
 M12 リセットレベル用サンプルトランジスタ
 M21、M22 列選択トランジスタ
 Mll 信号レベル用サンプルトランジスタ
 RSn リセット信号
 SHN サンプルホールド信号
 SHS サンプルホールド信号
 TXn 転送信号
 VDD 画素電極
SELn 選択信号
TXSn シャッタ信号

Claims (26)

  1.  光照射を指示する発光信号と反射光の露光を指示する露光信号とを発生する信号発生部と、
     前記発光信号を受信して、測距を目的としない照明と、反射光による測距のための前記光照射とを行う第1の照明測距兼用光源部と、
     前記露光信号を受信して前記露光を行い、前記反射光の露光量を取得する撮像部と、
     前記露光量を用いて、距離情報を演算して出力する演算部とを備え、
     前記第1の照明測距兼用光源部に前記照明を行わせる照明モードと、前記第1の照明測距兼用光源部に前記光照射をさせて前記撮像部を動作させることにより第1の測距を行う第1の測距モードとを、動作モードとして有する
     測距システム。
  2.  前記第1の測距モードにおいて前記第1の照明測距兼用光源部から照射される光の振幅は、前記照明モードにおいて前記第1の照明測距兼用光源部から照射される光の振幅よりも大きい
     請求項1に記載の測距システム。
  3.  前記第1の測距モードにおいて前記第1の照明測距兼用光源部から照射される光の点灯時間幅は、前記照明モードにおいて前記第1の照明測距兼用光源部から照射される光の点灯時間幅よりも短い
     請求項1又は2に記載の測距システム。
  4.  さらに、前記第1の照明測距兼用光源部を消灯した状態で、前記撮像部を動作させ前記演算部にバックグラウンド光量を計測させるモードを備え、
     前記演算部は、前記第1の測距モードの露光量から前記バックグラウンド光量を減じる補正を行う
     請求項1~3のいずれかに記載の測距システム。
  5.  前記第1の照明測距兼用光源部は、単色のLED、又は複数色のLEDを搭載する
     請求項1~4のいずれかに記載の測距システム。
  6.  前記第1の測距モードおよび前記照明モードの切り替えを少なくとも120回/秒とする
     請求項5に記載の測距システム。
  7.  前記測距システムは、さらに第2の照明測距兼用光源部を備え、
     前記演算部は、さらに、前記第1および第2の照明測距兼用光源部の位相差情報を用いて測距を行う
     請求項1~6のいずれかに記載の測距システム。
  8.  前記第1および第2の照明測距兼用光源部は、車両に備えられた左右のハイビーム光源と左右のロービーム光源のうち、(a)左および右のハイビーム光源、並びに(b)左および右のロービーム光源のいずれかである
     請求項7に記載の測距システム。
  9.  前記演算部は、
     前記撮像部からの画像信号を用いて現在のフレームと前のフレームを比較することにより第2の測距を行う
     請求項1~8のいずれかに記載の測距システム。
  10.  前記演算部は、前記第1および第2の測距による距離情報の一方を、前記第1および第2の測距の距離情報の他方により補正を行う
     請求項9に記載の測距システム。
  11.  前記第1、第2の測距は、昼夜、天候、被写体までの距離、又は、前記被写体もしくは前記測距システムの動き速度により使い分ける
     請求項9又は10に記載の測距システム。
  12.  前記撮像部は固体撮像素子を備え、
     前記固体撮像素子はCCD型の固体撮像素子である
     請求項1~11のいずれかに記載の測距システム。
  13.  前記撮像部は複数の画素を有する固体撮像素子を備え、
     前記複数の画素のそれぞれは、
     光電変換する受光部と、
     前記受光部から読み出された信号電荷を蓄積する蓄積部とを備え、
     前記固体撮像素子は、前記複数の画素において前記受光部の信号電荷を前記蓄積部に一括して読み出すMOS型の固体撮像素子である
     請求項1~11のいずれかに記載の測距システム。
  14.  前記撮像部は複数の画素を有する固体撮像素子を備え、
     前記複数の画素のそれぞれは、受光面と垂直な軸を中心軸とし異なる屈折率の材料を同心状に繰り返し配置した構造を有するマイクロレンズを備える
     請求項1~13のいずれかに記載の測距システム。
  15.  前記撮像部は複数の画素を有する固体撮像素子を備え、
     前記複数の画素のそれぞれは、赤外線透過フィルタ、赤色光および赤外線を透過する第1のフィルタ、緑色光および赤外線を透過する第2のフィルタ、および、青色光および赤外線を透過する第3のフィルタの何れかを備える
     請求項1~14のいずれかに記載の測距システム。
  16.  前記赤外線透過フィルタ、および、前記第1から第3フィルタの少なくとも1つは、無機材料を積層したフィルタである
     請求項15に記載の測距システム。
  17.  前記測距システムを重機、又は、重機と作業現場の構造物に搭載した
     請求項1~16のいずれかに記載の測距システム。
  18.  前記測距システムを輸送機器に搭載した
     請求項1~16のいずれかに記載の測距システム。
  19.  前記測距システムを住宅設備機器に搭載した
     請求項1~16のいずれかに記載の測距システム。
  20.  発光パルス信号を制御する信号発生装置であって、
     前記信号発生装置は、複種類の前記発光パルス信号を制御し、
     前記複種類の発光パルス信号は、測距を行うための光照射を指示する第1発光パルス信号と、測距を目的としない照明の点灯を指示する第2発光パルス信号とを含み、
     前記第2発光パルス信号がOFFとなるときに、前記第1発光パルス信号はONとなる
     信号発生装置。
  21.  前記第1発光パルス信号がONとなる期間は、前記第2発光パルス信号がONとなる期間よりも短い
     請求項20に記載の信号発生装置。
  22.  前記第2発光パルス信号は、前記第1発光パルス信号がONとなる期間を複数回繰り返した後に、ONとなる
     請求項20又は21に記載の信号発生装置。
  23.  前記第1発光パルス信号がONとなる回数と前記第2発光パルス信号がONとなる回数との合計は、少なくとも120回/秒とする
     請求項20~22のいずれかに記載の信号発生装置。
  24.  前記第1発光パルス信号の振幅は、前記第2発光パルス信号の振幅よりも大きい
     請求項20~23のいずれかに記載の信号発生装置。
  25.  前記第1発光パルス信号は、Time Of Flightにより測距を行うために用いられる
     請求項20~24のいずれかに記載の信号発生装置。
  26.  前記信号発生装置は、前記第1発光パルス信号により発生した照射光の、被写体による反射光の露光を指示する露光信号を制御する
     請求項20~25のいずれかに記載の信号発生装置。
PCT/JP2014/004146 2013-08-23 2014-08-08 測距システム及び信号発生装置 WO2015025497A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015532700A JP6459069B2 (ja) 2013-08-23 2014-08-08 測距システム
CN201480043384.3A CN105452807A (zh) 2013-08-23 2014-08-08 测距***、以及信号产生装置
US15/045,851 US10151835B2 (en) 2013-08-23 2016-02-17 Distance measurement system and solid-state imaging sensor used therefor
US16/183,271 US11422256B2 (en) 2013-08-23 2018-11-07 Distance measurement system and solid-state imaging sensor used therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-173529 2013-08-23
JP2013173529 2013-08-23

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/045,851 Continuation US10151835B2 (en) 2013-08-23 2016-02-17 Distance measurement system and solid-state imaging sensor used therefor

Publications (1)

Publication Number Publication Date
WO2015025497A1 true WO2015025497A1 (ja) 2015-02-26

Family

ID=52483292

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/004146 WO2015025497A1 (ja) 2013-08-23 2014-08-08 測距システム及び信号発生装置

Country Status (4)

Country Link
US (2) US10151835B2 (ja)
JP (1) JP6459069B2 (ja)
CN (1) CN105452807A (ja)
WO (1) WO2015025497A1 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016090785A (ja) * 2014-11-04 2016-05-23 キヤノン株式会社 撮像装置及びその制御方法
WO2017022218A1 (ja) * 2015-08-04 2017-02-09 パナソニックIpマネジメント株式会社 固体撮像装置
JP2017107132A (ja) * 2015-12-11 2017-06-15 株式会社ニコン 電子機器
JP2018513967A (ja) * 2015-03-17 2018-05-31 コーネル・ユニバーシティーCornell University 深度フィールドイメージング装置、方法および応用
WO2018101187A1 (ja) * 2016-11-29 2018-06-07 パナソニックIpマネジメント株式会社 距離測定装置
EP3330739A4 (en) * 2015-07-31 2018-08-15 Panasonic Intellectual Property Management Co., Ltd. Range imaging device and solid-state imaging device
WO2019123738A1 (ja) * 2017-12-22 2019-06-27 ソニーセミコンダクタソリューションズ株式会社 センサチップ、電子機器、及び装置
US10473456B2 (en) 2017-01-25 2019-11-12 Panasonic Intellectual Property Management Co., Ltd. Driving control system and driving control method
WO2020049906A1 (ja) * 2018-09-03 2020-03-12 パナソニックIpマネジメント株式会社 距離測定装置
US11086013B2 (en) 2017-05-15 2021-08-10 Ouster, Inc. Micro-optics for imaging module with multiple converging lenses per channel
JP2021530708A (ja) * 2018-07-20 2021-11-11 ヴァレオ ビジョンValeo Vision 飛行時間推定を備えたマトリックス照明装置
JP2021532648A (ja) * 2018-07-31 2021-11-25 ウェイモ エルエルシー ハイブリッド飛行時間型イメージャモジュール
WO2021256094A1 (ja) * 2020-06-15 2021-12-23 ソニーセミコンダクタソリューションズ株式会社 光源駆動装置、光源装置および測距装置
US11388349B2 (en) 2015-07-10 2022-07-12 Panasonic Intellectual Property Management Co., Ltd. Imaging device that generates multiple-exposure image data
WO2023079944A1 (ja) * 2021-11-02 2023-05-11 株式会社デンソー 制御装置、制御方法、制御プログラム
WO2024071088A1 (ja) * 2022-09-27 2024-04-04 ヌヴォトンテクノロジージャパン株式会社 撮像装置、測距装置及び撮像装置の制御方法
WO2024101195A1 (ja) * 2022-11-11 2024-05-16 株式会社Jvcケンウッド 3次元形状計測装置および3次元形状計測方法

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107533136B (zh) * 2015-06-24 2020-08-25 株式会社村田制作所 距离传感器
JP6673084B2 (ja) * 2016-08-01 2020-03-25 株式会社デンソー 光飛行型測距装置
CN106772420A (zh) * 2017-02-28 2017-05-31 苏州四百克拉光电科技有限公司 水下微小颗粒物探测的高光谱连续光激光雷达***
CN106908804A (zh) * 2017-03-10 2017-06-30 苏州四百克拉光电科技有限公司 一种林业植株三维点云测量激光雷达***及方法
JP6846708B2 (ja) * 2017-03-30 2021-03-24 パナソニックIpマネジメント株式会社 画像認識装置および距離画像生成方法
ES2946763T3 (es) * 2017-08-10 2023-07-25 Siemens Mobility GmbH Adaptación de parámetros de pesos de fusión de datos, controlada por sensores, a condiciones meteorológicas en una unidad de odometría de un vehículo ferroviario
US10663565B2 (en) * 2017-09-19 2020-05-26 Rockwell Automation Technologies, Inc. Pulsed-based time of flight methods and system
US10585176B2 (en) 2017-09-19 2020-03-10 Rockwell Automation Technologies, Inc. Pulsed-based time of flight methods and system
CN108459417B (zh) * 2018-02-05 2020-06-26 华侨大学 一种单目窄带多光谱立体视觉***及其使用方法
CN108594248A (zh) * 2018-03-08 2018-09-28 北京集光通达科技股份有限公司 激光镜头和激光测距***
KR102624984B1 (ko) * 2018-03-21 2024-01-15 삼성전자주식회사 ToF 센서와 이를 이용한 3차원 영상 장치 및 3차원 영상 장치의 구동 방법
US10996324B2 (en) 2018-05-14 2021-05-04 Rockwell Automation Technologies, Inc. Time of flight system and method using multiple measuring sequences
US11002836B2 (en) 2018-05-14 2021-05-11 Rockwell Automation Technologies, Inc. Permutation of measuring capacitors in a time-of-flight sensor
CN108845332B (zh) * 2018-07-04 2020-11-20 歌尔光学科技有限公司 基于tof模组的深度信息测量方法及装置
US10969476B2 (en) 2018-07-10 2021-04-06 Rockwell Automation Technologies, Inc. High dynamic range for sensing systems and methods
US10789506B2 (en) * 2018-09-24 2020-09-29 Rockwell Automation Technologies, Inc. Object intrusion detection system and method
US11506763B2 (en) * 2018-10-31 2022-11-22 Infineon Technologies Ag Image sensor with interleaved hold for single-readout depth measurement
US11259002B2 (en) 2019-02-15 2022-02-22 Analog Devices International Unlimited Company Time-of-flight camera and proximity detector
JP2020193957A (ja) * 2019-05-30 2020-12-03 ファナック株式会社 測距異常を補正する距離画像生成装置
JP7463671B2 (ja) * 2019-08-01 2024-04-09 Toppanホールディングス株式会社 距離画像撮像装置、及び距離画像撮像方法
JP7175872B2 (ja) * 2019-11-14 2022-11-21 株式会社日立エルジーデータストレージ 測距装置
CN112929519B (zh) * 2019-12-06 2022-10-25 Oppo广东移动通信有限公司 深度相机、成像装置和电子设备
CN113126105A (zh) * 2019-12-30 2021-07-16 睿镞科技(北京)有限责任公司 三维测距方法和装置
WO2021234932A1 (ja) * 2020-05-22 2021-11-25 株式会社ブルックマンテクノロジ 距離画像撮像装置及び距離画像撮像方法
EP4198556A1 (en) * 2021-12-17 2023-06-21 Nokia Technologies Oy Determining position of object by optical time-of-flight measurement with background light referencing

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10239029A (ja) * 1997-02-28 1998-09-11 Olympus Optical Co Ltd 三次元形状計測装置
JP2000083260A (ja) * 1998-05-22 2000-03-21 Asahi Optical Co Ltd 3次元画像入力装置
JP2002191554A (ja) * 2000-12-26 2002-07-09 Asahi Optical Co Ltd 3次元画像検出装置を備えた電子内視鏡
JP2004279284A (ja) * 2003-03-18 2004-10-07 Mitsubishi Heavy Ind Ltd 監視用レーザレーダシステム
JP2006318059A (ja) * 2005-05-10 2006-11-24 Olympus Corp 画像処理装置、画像処理方法、および画像処理用プログラム
JP2010535334A (ja) * 2007-08-01 2010-11-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 車両位置測定システム及び方法
WO2012122572A2 (en) * 2011-03-10 2012-09-13 Sionyx, Inc. Three dimensional sensors, systems, and associated methods
JP2012209913A (ja) * 2011-03-16 2012-10-25 Toshiba Corp 固体撮像装置及びカメラモジュール
JP2013120133A (ja) * 2011-12-07 2013-06-17 Fujitsu Ltd 三次元座標測定装置、三次元座標測定方法、及びプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7415126B2 (en) * 1992-05-05 2008-08-19 Automotive Technologies International Inc. Occupant sensing system
US7164117B2 (en) * 1992-05-05 2007-01-16 Automotive Technologies International, Inc. Vehicular restraint system control system and method using multiple optical imagers
US5668663A (en) * 1994-05-05 1997-09-16 Donnelly Corporation Electrochromic mirrors and devices
AU2001243285A1 (en) * 2000-03-02 2001-09-12 Donnelly Corporation Video mirror systems incorporating an accessory module
JP2001337166A (ja) * 2000-05-26 2001-12-07 Minolta Co Ltd 3次元入力方法および3次元入力装置
US20040012710A1 (en) * 2001-01-22 2004-01-22 Tsuyoshi Yaji Optical apparatus using deformable mirror
JP4688196B2 (ja) 2001-03-23 2011-05-25 スタンレー電気株式会社 自動車用暗視システム
US6711280B2 (en) * 2001-05-25 2004-03-23 Oscar M. Stafsudd Method and apparatus for intelligent ranging via image subtraction
US6747813B2 (en) * 2001-09-17 2004-06-08 Olympus Corporation Optical system and imaging device
JP4449443B2 (ja) * 2003-12-10 2010-04-14 日産自動車株式会社 レーダ機能付きledランプ装置
EP1901225A1 (en) * 2005-05-10 2008-03-19 Olympus Corporation Image processing device, image processing method, and image processing program
WO2007071032A1 (en) * 2005-12-19 2007-06-28 Institut National D'optique Object-detecting lighting system and method
US8242476B2 (en) 2005-12-19 2012-08-14 Leddartech Inc. LED object detection system and method combining complete reflection traces from individual narrow field-of-view channels
JP5901935B2 (ja) * 2011-10-24 2016-04-13 株式会社東芝 固体撮像装置及びカメラモジュール

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10239029A (ja) * 1997-02-28 1998-09-11 Olympus Optical Co Ltd 三次元形状計測装置
JP2000083260A (ja) * 1998-05-22 2000-03-21 Asahi Optical Co Ltd 3次元画像入力装置
JP2002191554A (ja) * 2000-12-26 2002-07-09 Asahi Optical Co Ltd 3次元画像検出装置を備えた電子内視鏡
JP2004279284A (ja) * 2003-03-18 2004-10-07 Mitsubishi Heavy Ind Ltd 監視用レーザレーダシステム
JP2006318059A (ja) * 2005-05-10 2006-11-24 Olympus Corp 画像処理装置、画像処理方法、および画像処理用プログラム
JP2010535334A (ja) * 2007-08-01 2010-11-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 車両位置測定システム及び方法
WO2012122572A2 (en) * 2011-03-10 2012-09-13 Sionyx, Inc. Three dimensional sensors, systems, and associated methods
JP2012209913A (ja) * 2011-03-16 2012-10-25 Toshiba Corp 固体撮像装置及びカメラモジュール
JP2013120133A (ja) * 2011-12-07 2013-06-17 Fujitsu Ltd 三次元座標測定装置、三次元座標測定方法、及びプログラム

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016090785A (ja) * 2014-11-04 2016-05-23 キヤノン株式会社 撮像装置及びその制御方法
US10983216B2 (en) 2015-03-17 2021-04-20 Cornell University Depth field imaging apparatus, methods, and applications
US10605916B2 (en) 2015-03-17 2020-03-31 Cornell University Depth field imaging apparatus, methods, and applications
JP2018513967A (ja) * 2015-03-17 2018-05-31 コーネル・ユニバーシティーCornell University 深度フィールドイメージング装置、方法および応用
US11388349B2 (en) 2015-07-10 2022-07-12 Panasonic Intellectual Property Management Co., Ltd. Imaging device that generates multiple-exposure image data
US11722784B2 (en) 2015-07-10 2023-08-08 Panasonic Intellectual Property Management Co., Ltd. Imaging device that generates multiple-exposure image data
EP3330739A4 (en) * 2015-07-31 2018-08-15 Panasonic Intellectual Property Management Co., Ltd. Range imaging device and solid-state imaging device
CN107925733B (zh) * 2015-08-04 2020-09-18 松下半导体解决方案株式会社 固体摄像装置
JPWO2017022218A1 (ja) * 2015-08-04 2018-05-24 パナソニックIpマネジメント株式会社 固体撮像装置
WO2017022218A1 (ja) * 2015-08-04 2017-02-09 パナソニックIpマネジメント株式会社 固体撮像装置
CN107925733A (zh) * 2015-08-04 2018-04-17 松下知识产权经营株式会社 固体摄像装置
JP2017107132A (ja) * 2015-12-11 2017-06-15 株式会社ニコン 電子機器
WO2018101187A1 (ja) * 2016-11-29 2018-06-07 パナソニックIpマネジメント株式会社 距離測定装置
US11448757B2 (en) 2016-11-29 2022-09-20 Nuvoton Technology Corporation Japan Distance measuring device
JPWO2018101187A1 (ja) * 2016-11-29 2019-10-24 パナソニックIpマネジメント株式会社 距離測定装置
US10473456B2 (en) 2017-01-25 2019-11-12 Panasonic Intellectual Property Management Co., Ltd. Driving control system and driving control method
US11333489B2 (en) 2017-01-25 2022-05-17 Panasonic Intellectual Property Management Co., Ltd. Driving control system and driving control method
US11150347B2 (en) 2017-05-15 2021-10-19 Ouster, Inc. Micro-optics for optical imager with non-uniform filter
US11131773B2 (en) 2017-05-15 2021-09-28 Ouster, Inc. Lidar unit with an optical link between controller and photosensor layer
US11086013B2 (en) 2017-05-15 2021-08-10 Ouster, Inc. Micro-optics for imaging module with multiple converging lenses per channel
US11175405B2 (en) 2017-05-15 2021-11-16 Ouster, Inc. Spinning lidar unit with micro-optics aligned behind stationary window
WO2019123738A1 (ja) * 2017-12-22 2019-06-27 ソニーセミコンダクタソリューションズ株式会社 センサチップ、電子機器、及び装置
JPWO2019123738A1 (ja) * 2017-12-22 2020-10-22 ソニーセミコンダクタソリューションズ株式会社 センサチップ、電子機器、及び装置
CN110249237A (zh) * 2017-12-22 2019-09-17 索尼半导体解决方案公司 传感器芯片、电子设备和装置
US11543497B2 (en) 2017-12-22 2023-01-03 Sony Semiconductor Solutions Corporation Sensor chip, electronic equipment, and apparatus
JP7177066B2 (ja) 2017-12-22 2022-11-22 ソニーセミコンダクタソリューションズ株式会社 センサチップ、電子機器、及び装置
JP2021530708A (ja) * 2018-07-20 2021-11-11 ヴァレオ ビジョンValeo Vision 飛行時間推定を備えたマトリックス照明装置
JP2021532648A (ja) * 2018-07-31 2021-11-25 ウェイモ エルエルシー ハイブリッド飛行時間型イメージャモジュール
JP7321246B2 (ja) 2018-07-31 2023-08-04 ウェイモ エルエルシー ハイブリッド飛行時間型イメージャモジュール
JPWO2020049906A1 (ja) * 2018-09-03 2021-09-09 パナソニックIpマネジメント株式会社 距離測定装置
JP7117646B2 (ja) 2018-09-03 2022-08-15 パナソニックIpマネジメント株式会社 距離測定装置
US11657526B2 (en) 2018-09-03 2023-05-23 Panasonic Intellectual Property Management Co., Ltd. Distance measurement device
WO2020049906A1 (ja) * 2018-09-03 2020-03-12 パナソニックIpマネジメント株式会社 距離測定装置
WO2021256094A1 (ja) * 2020-06-15 2021-12-23 ソニーセミコンダクタソリューションズ株式会社 光源駆動装置、光源装置および測距装置
WO2023079944A1 (ja) * 2021-11-02 2023-05-11 株式会社デンソー 制御装置、制御方法、制御プログラム
WO2024071088A1 (ja) * 2022-09-27 2024-04-04 ヌヴォトンテクノロジージャパン株式会社 撮像装置、測距装置及び撮像装置の制御方法
WO2024071091A1 (ja) * 2022-09-27 2024-04-04 ヌヴォトンテクノロジージャパン株式会社 撮像装置、測距装置及び撮像装置の制御方法
WO2024101195A1 (ja) * 2022-11-11 2024-05-16 株式会社Jvcケンウッド 3次元形状計測装置および3次元形状計測方法

Also Published As

Publication number Publication date
US11422256B2 (en) 2022-08-23
US20160161611A1 (en) 2016-06-09
US20190072673A1 (en) 2019-03-07
JPWO2015025497A1 (ja) 2017-03-02
US10151835B2 (en) 2018-12-11
JP6459069B2 (ja) 2019-01-30
CN105452807A (zh) 2016-03-30

Similar Documents

Publication Publication Date Title
JP6459069B2 (ja) 測距システム
EP3423865B1 (en) Gated imaging apparatus, system and method
JP7478281B2 (ja) Lidarシステム及び方法
US20180203122A1 (en) Gated structured imaging
CN105723239B (zh) 测距摄像***以及固体摄像元件
US20220276384A1 (en) Time-of-Flight Sensor with Structured Light Illuminator
US10390004B2 (en) Stereo gated imaging system and method
WO2020195966A1 (ja) 撮像システム及び撮像システムの制御方法、並びに、物体認識システム
KR20190067179A (ko) 촬상 소자 및 전자기기
CN110603458B (zh) 光学传感器和电子设备
KR102559910B1 (ko) 차량 주변 환경을 특성화하기 위한 시스템
KR20210066906A (ko) 가열 요소를 갖는 전기 광학 시스템
US11782140B2 (en) SiPM based sensor for low level fusion
TW202127637A (zh) 受光元件、測距模組
US20230228875A1 (en) Solid-state imaging element, sensing system, and control method of solid-state imaging element
US20230062562A1 (en) Sensing system and distance measuring system
WO2024042360A1 (en) Systems and methods for updating point clouds in lidar systems
CN115606194A (zh) 感测***

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480043384.3

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14838461

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015532700

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14838461

Country of ref document: EP

Kind code of ref document: A1