WO2024076110A1 - 라이다 장치 및 동작 방법 - Google Patents

라이다 장치 및 동작 방법 Download PDF

Info

Publication number
WO2024076110A1
WO2024076110A1 PCT/KR2023/015096 KR2023015096W WO2024076110A1 WO 2024076110 A1 WO2024076110 A1 WO 2024076110A1 KR 2023015096 W KR2023015096 W KR 2023015096W WO 2024076110 A1 WO2024076110 A1 WO 2024076110A1
Authority
WO
WIPO (PCT)
Prior art keywords
optical signal
light
unit
lidar device
distribution
Prior art date
Application number
PCT/KR2023/015096
Other languages
English (en)
French (fr)
Inventor
장인규
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220127538A external-priority patent/KR20240048128A/ko
Priority claimed from KR1020220132164A external-priority patent/KR20240052305A/ko
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Publication of WO2024076110A1 publication Critical patent/WO2024076110A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4911Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4913Circuits for detection, sampling, integration or read-out
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems

Definitions

  • the embodiment relates to a LiDAR device and operating method.
  • LiDAR Light Detection And Ranging
  • LiDAR Light Detection And Ranging
  • FMCW LIDAR Frequency Modulated Continuous Wave LIDAR refers to LIDAR that measures information about distance and speed simultaneously by modulating the frequency of light.
  • FMCW LIDAR measures speed using the Doppler effect. When a wave is reflected from a moving object, a change in frequency occurs due to the Doppler effect. By detecting these frequency changes, FMCW LiDAR can simultaneously measure the speed and position of an object without consuming time. Additionally, FMCW lidar is robust to ambient light and interference with other lidars. In addition, FMCW LiDAR can measure light using an interferometer to block interaction with signals other than those sent from LiDAR.
  • the optical signal generated by the FMCW lidar is split, and the signal-to-noise ratio varies depending on the split ratio, affecting the detection rate.
  • the division ratio cannot be changed, the output strength of the optical signal has no choice but to be adjusted even if the measurement environment affects the signal-to-noise ratio.
  • FMCW lidar detects the detection target by dividing it into several pixels.
  • the exposure time allocated to one pixel is reduced.
  • the signal strength decreases and the maximum computable distance in the same frequency modulation range decreases.
  • the maximum computable distance is kept constant, the frequency modulation speed of the laser inevitably increases. As the frequency modulation speed increases, the intensity of the laser may decrease.
  • the embodiment provides a LIDAR device and operating method that allows the division ratio of an optical signal to be adjusted.
  • a lidar device and operation method that can maintain the signal-to-noise ratio by adjusting the division ratio of the optical signal as noise such as ambient light changes are provided.
  • a lidar device and operating method are provided that detect changes in noise, such as ambient light, in real time and automatically adjust the division ratio of the optical signal.
  • a lidar device and operating method are provided that can modulate the frequency of an optical signal into an arbitrary waveform and adjust the detection unit of the detection target.
  • a LiDAR device and operating method are provided that can increase the exposure time of an optical signal for one detection unit.
  • LiDAR device and operation method that allows reducing distance resolution with the same optical signal output is provided.
  • a lidar device and operating method are provided that can increase the maximum measurement distance or reduce the frequency modulation speed with the same optical signal output.
  • the problem to be solved in the embodiment is not limited to this, and it will also include means of solving the problem described below and purposes and effects that can be understood from the embodiment.
  • the LiDAR device includes an output unit that outputs an optical signal; a distribution unit that distributes the optical signal into a first optical signal and a second optical signal; a receiving unit that receives a third optical signal, which is light reflected from an object of the first optical signal; an interference unit where interference between the second optical signal and the third optical signal occurs; a detection unit that detects a fourth optical signal, which is interference light generated by interference between the second optical signal and the third optical signal, or a fifth optical signal, which is noise; And a depth information generator that generates depth information and speed information for the observation object based on the fourth optical signal, wherein the distribution unit can adjust the distribution ratio of the first optical signal and the second optical signal.
  • the distribution ratio may follow Equation 1, Equation 2, and Equation 3.
  • P0 is the power of the optical signal
  • P1 is the power of the first optical signal
  • P2 is the power of the second optical signal
  • x is a variable greater than 0 and less than 1
  • the distribution unit may adjust the distribution ratio so that the ratio of the power of the fourth optical signal to the power of the fifth optical signal is within a predetermined range.
  • the ratio of the power of the fourth optical signal to the power of the fifth optical signal may follow Equation 4.
  • SNR is the ratio of the power of the fourth optical signal to the power of the fifth optical signal
  • R is the response
  • Loss is the degree of loss of reflected light
  • e is the amount of electron charge
  • B is the frequency bandwidth of the system, i others are This is the noise distribution of the fifth optical signal
  • the distribution ratio may be determined according to x, which is the maximum ratio of the power of the fourth optical signal to the power of the fifth optical signal according to Equation 4 above.
  • the distribution unit may adjust the distribution ratio according to changes in the fifth optical signal.
  • the distribution unit may increase x when the power of the fifth optical signal increases and may decrease x when the power of the fifth optical signal decreases.
  • the detection unit detects changes in the fifth optical signal in real time, and the distribution unit can automatically adjust the distribution ratio according to changes in the fifth optical signal detected in real time.
  • the distribution unit includes a first distribution unit and a second distribution unit, wherein the optical signal sequentially passes through the first distribution unit and the second distribution unit, and the polarization angle of the optical signal is adjusted by rotating the first distribution unit.
  • the second distribution unit may adjust the distribution ratio by passing the vertically polarized light of the optical signal that has passed through the first distribution unit and reflecting the horizontally polarized light.
  • the first distribution unit may be a half wave plate (HWP), and the second distribution unit may be a polarizing beam splitter (PBS).
  • HWP half wave plate
  • PBS polarizing beam splitter
  • the distribution unit includes a third distribution unit, a fourth distribution unit, and a fifth distribution unit, and the optical signal sequentially passes through the third distribution unit and the fourth distribution unit, or the optical signal passes through the third distribution unit and the fifth distribution unit. They pass sequentially, and the third distribution unit can adjust the distribution ratio of the optical signal distributed to the fourth distribution unit or the fifth distribution unit by moving the path of the optical signal.
  • the third distribution unit, the fourth distribution unit, and the fifth distribution unit are waveguides, and the third distribution unit can adjust the distribution ratio by changing a contact area with the fourth distribution unit or the fifth distribution unit.
  • a LiDAR operating method includes operating a LiDAR device and checking signals from a weather, current time, or illuminance sensor; setting the power of ambient light according to the weather, current time, or signal from the illuminance sensor using a reference table;
  • the distribution unit of the LIDAR device changes the distribution ratio of the optical signal to adjust the signal-to-noise ratio, which is the ratio of the power of the optical signal to the power of the set ambient light, and the distribution ratio is the incident light that irradiates the optical signal to the observation object and a ratio of distribution to reference light for interference;
  • It may include generating depth information and speed information of an observation object through interference between the incident light and the reference light.
  • the distribution ratio may follow Equation 1, Equation 2, and Equation 3.
  • P0 is the power of the optical signal
  • P1 is the power of the first optical signal
  • P2 is the power of the second optical signal
  • x is a variable greater than 0 and less than 1
  • the signal-to-noise ratio may follow Equation 4.
  • SNR is the signal-to-noise ratio
  • R is the response
  • Loss is the degree of loss of reflected light
  • e is the charge of the electron
  • B is the frequency bandwidth of the system
  • i others are the noise distribution of the ambient light
  • the distribution unit adjusts the distribution ratio according to a change in the set power of the ambient light, increases x when the power of the ambient light increases, decreases x when the power of the ambient light decreases, and detects in real time.
  • the distribution ratio can be automatically adjusted according to changes in the optical signal.
  • the LiDAR device includes an optical output device (VCSEL, Vertical Cavity Surface Emitting Laser) that outputs an optical signal; a plurality of lens groups that converge the optical signals and output the condensed optical signals to the outside; A light detection device (SPAD, Single Photon Avalanche Diode) that detects a first signal generated by reflecting the optical signal to an observation object and a second signal that is ambient light; a depth information generator that generates depth information about the observation object based on the optical signal and the first signal; a distribution unit that adjusts a distribution ratio of the optical signal by comparing the intensity of the first signal and the intensity of the second signal; and a memory that stores data on the signal-to-noise ratio adjusted according to the change in the distribution ratio.
  • VCSEL Vertical Cavity Surface Emitting Laser
  • the LiDAR device includes an output unit that outputs an optical signal; a receiving unit that receives input light signals for a plurality of points of the object after being reflected from the object; an interference unit generating an interference light signal by causing interference between the input light signal and the reference light; a detection unit that detects the input light signal; a depth information generator that generates depth information about the object based on the optical signal and the input optical signal; and a control unit that adjusts the frequency of the optical signal; It includes, wherein the control unit is set to modulate the waveform of the frequency of the optical signal, and the depth information generating unit generates the depth information using data on the input optical signal at a continuous portion of the plurality of points. You can.
  • the depth information generator may generate depth information of a first pixel using first to i-th data for the input light signal of first to i-th points. (i is an integer greater than or equal to 1.)
  • the depth information generator may generate depth information of a second pixel using 2nd to (i+1)th data for the input light signal at 2nd to (i+1)th points.
  • the depth information generator uses the m-i+1 to m-th data for the input light signal of the m-i+1 to m-th points from the second pixel to provide depth information of the m-i+1-th pixel. can be created. (m is an integer greater than i)
  • the depth information generator may repeat the process of generating depth information for the first to m-i+1th pixels.
  • the period of the waveform of the frequency of the optical signal is equal to the exposure time of one said point, and the exposure time of one said pixel may be i times the exposure time of the input optical signal of one said point.
  • the depth information generator may generate the depth information using data on the interference light signal of a continuous portion of the plurality of points.
  • the control unit may increase the period of the waveform of the frequency of the optical signal by j times.
  • the period of the waveform of the frequency of the optical signal may be equal to the exposure time of one of the points, and the exposure time of one pixel may be equal to the exposure time of the input optical signal of one of the points.
  • a LIDAR operating method includes the steps of a receiver receiving reflected light reflected from a plurality of points of an object; A detection unit detecting reflected light reflected from first to i-th points; and a step of the depth information generator generating depth information of the first pixel using first to i-th data generated by detecting reflected light reflected from the first to i-th points. (i is an integer greater than or equal to 1)
  • a LIDAR operating method includes the steps of the detection unit detecting reflected light reflected at an i+1-th point; And the depth information generator generating depth information of the second pixel using the 2nd to (i+1)th data generated by detecting reflected light reflected from the 2nd to (i+1)th points. .
  • a LIDAR operation method includes the steps of the detection unit repeatedly detecting reflected light reflected from the mth point; And the depth information generator generates depth information up to the m-i+1-th pixel using the m-i+1-th to m-th data generated by detecting reflected light reflected from the m-i+1 to m-th points. It may include a generating step. (m is an integer greater than i)
  • the depth information generator may repeat the process of generating depth information for the first to m-i+1th pixels.
  • the period of the waveform of the frequency of the optical signal is equal to the exposure time of one said point, and the exposure time of one said pixel may be i times the exposure time of the input optical signal of one said point.
  • the LIDAR operation method may include the step of the controller increasing the period of the waveform of the frequency of the optical signal by j times.
  • the period of the waveform of the frequency of the optical signal may be equal to the exposure time of one of the points, and the exposure time of one pixel may be equal to the exposure time of the input optical signal of one of the points.
  • the LiDAR device includes an optical output device (VCSEL, Vertical Cavity Surface Emitting Laser) that outputs an optical signal; a plurality of lens groups that converge the optical signals and output the condensed optical signals to the outside; an optical detection device that detects an input optical signal when the optical signal is reflected at a plurality of points of an observation object; and a depth information generator that generates depth information about the observation object based on the optical signal and the input optical signal, wherein the depth information generator generates data about the input optical signal of a continuous portion of the plurality of points.
  • the depth information can be generated using .
  • a LIDAR device and operation method that allows the division ratio of an optical signal to be adjusted can be implemented.
  • the frequency of the optical signal can be modulated into an arbitrary waveform, and a LIDAR device and operation method that allows the detection unit of the detection target to be adjusted can be implemented.
  • LiDAR device and operating method that can increase the exposure time of an optical signal for one detection unit can be implemented.
  • FIG. 1 is a configuration diagram of a LiDAR device according to an embodiment.
  • Figure 2 is a schematic conceptual diagram of the operating principle of a LiDAR device according to an embodiment.
  • Figure 3 is a schematic conceptual diagram of a LiDAR device according to an embodiment.
  • Figure 4 is a graph showing changes in the optimal distribution ratio according to noise changes according to an embodiment.
  • Figure 5 is a conceptual diagram of a distribution unit of a LiDAR device according to an embodiment.
  • Figure 6 is a conceptual diagram of a distribution unit of a LiDAR device according to another embodiment.
  • FIG. 7 is a flowchart of a lidar operation method according to an embodiment.
  • Figure 8 is a configuration diagram of a LiDAR device according to an embodiment.
  • Figure 9 is a schematic conceptual diagram of a LiDAR device according to an embodiment.
  • Figure 10 is an image showing the operating principle of a lidar device according to an embodiment.
  • Figure 11 is a graph showing the waveform of the frequency of an optical signal of a lidar device according to an embodiment.
  • Figure 12 is an image showing the detection method of an existing LiDAR device.
  • Figure 13 is an image showing a detection method of a LiDAR device according to an embodiment.
  • Figure 14 is an image showing a detection method of a LiDAR device according to another embodiment.
  • Figure 15 is a flowchart of a lidar operation method according to an embodiment.
  • Figure 16 is an exploded view of a LiDAR device according to an embodiment.
  • the technical idea of the present invention is not limited to some of the described embodiments, but may be implemented in various different forms, and as long as it is within the scope of the technical idea of the present invention, one or more of the components may be optionally used between the embodiments. It can be used by combining and replacing.
  • first, second, A, B, (a), and (b) may be used.
  • a component when a component is described as being 'connected', 'coupled' or 'connected' to another component, the component is not only directly connected, coupled or connected to that other component, but also is connected to that component. It may also include cases where other components are 'connected', 'combined', or 'connected' due to another component between them.
  • “above” or “below” refers not only to cases where two components are in direct contact with each other, but also to one This also includes cases where another component described above is formed or placed between two components.
  • “top (above) or bottom (bottom)” it may include not only the upward direction but also the downward direction based on one component.
  • the technical idea of the present invention is not limited to some of the described embodiments, but may be implemented in various different forms, and as long as it is within the scope of the technical idea of the present invention, one or more of the components may be optionally used between the embodiments. It can be used by combining and replacing.
  • first, second, A, B, (a), and (b) may be used.
  • a component when a component is described as being 'connected', 'coupled' or 'connected' to another component, the component is not only directly connected, coupled or connected to that other component, but also is connected to that component. It can also include cases where other components are 'connected', 'combined', or 'connected' due to another component between them.
  • “above” or “below” refers not only to cases where two components are in direct contact with each other, but also to one This also includes cases where another component described above is formed or placed between two components.
  • “top (above) or bottom (bottom)” it may include not only the upward direction but also the downward direction based on one component.
  • the LiDAR device may refer to an information generating device that is mounted on a car and generates distance information by measuring the distance between the car and an object, but is not limited thereto.
  • the LIDAR device may be a LIDAR (Light Detection and Ranging) camera.
  • the lidar device can extract depth information using the Time of Flight (ToF) principle.
  • the LIDAR device may also be referred to as a depth information generating device or a camera device.
  • FIG. 1 is a configuration diagram of a LiDAR device according to an embodiment.
  • the LIDAR device 100 includes an output unit 110, a distribution unit 120, a reception unit 130, an interference unit 140, a detection unit 150, and a depth information generation unit ( 160) may be included.
  • the LiDAR device 100 shown in FIG. 1 only components related to the present embodiments are shown. Accordingly, it is obvious to those skilled in the art that the LiDAR device 100 may further include other general-purpose components in addition to the components shown in FIG. 1.
  • the LIDAR device 100 may be an FMCW LIDAR. Additionally, a point scanning method may be used, and therefore, the intensity of light received by the detection unit 150 may be lower than that of other methods, for example, a flash method. Therefore, an avalanche photo diode (APD) or a single photon avalanche diode (SPAD) with high sensing sensitivity may be used as the detection unit 150. Depending on whether the detection unit 150 includes a light receiving element, APD or SPAD, the specific circuit configuration of AFE (Analog Front End), TDC (Time to Digital Converter), etc. may vary.
  • AFE Analog Front End
  • TDC Time to Digital Converter
  • the LIDAR device 100 can measure the distance and speed of the detection target using the Doppler effect.
  • a change in frequency occurs due to the Doppler effect.
  • the Doppler effect is a phenomenon in which when an object emitting electromagnetic waves (light) moves closer or farther away from the observer, the wavelength of the electromagnetic waves measured by the observer is different from the laboratory wavelength. This is a phenomenon in which when an object emitting electromagnetic waves approaches the observer, the wavelength of the observed electromagnetic waves becomes shorter, and when the object moves away from the observer, the wavelength of the observed electromagnetic waves becomes longer.
  • the LiDAR device 100 includes an output unit 110 that outputs an optical signal, a distribution unit 120 that distributes the optical signal into a first optical signal and a second optical signal, and an object of the first optical signal.
  • a receiving unit 130 that receives the third optical signal, which is reflected light, an interference unit 140 that causes interference between the second optical signal and the third optical signal, and interference generated by interference between the second optical signal and the third optical signal.
  • It may include a detection unit 150 that detects a fourth optical signal that is light or a fifth optical signal that is noise, and a depth information generator 160 that generates depth information about the observation object based on the fourth optical signal.
  • the output unit 110 may output an optical signal and transmit it to the distribution unit 120.
  • the output unit 110 includes an edge emitting laser, a vertical-cavity surface emitting laser (VCSEL), a distributed feedback laser, a light emitting diode (LED), and an SLD ( It may include a light source such as a super luminescent diode.
  • the output unit 110 may generate and irradiate light of a plurality of different wavelength bands or different frequencies.
  • the output unit 110 can generate pulsed light or continuous light. Continuous light can be in the form of a sinusoid wave or square wave.
  • the LIDAR device 100 By generating an output optical signal in the form of pulsed light or continuous light, the LIDAR device 100 creates a gap between the output optical signal output from the output unit 110 and the input optical signal reflected from the object and then input to the receiving unit 130. Time difference or phase difference can be detected.
  • the output optical signal may be referred to as an optical signal
  • the object may be referred to as an observation target. From the perspective of the object of observation, the output light signal may be incident light.
  • the output unit 110 may include a light source, a lens group disposed on the light source, and a diffusion member disposed on the lens group.
  • a light source generates and outputs light.
  • the light produced by the light source may be infrared with a wavelength of 770 to 3000 nm.
  • the light generated by the light source may be visible light with a wavelength of 380 to 770 nm.
  • the light source may use a light emitting diode (LED), and may have a plurality of light emitting diodes arranged according to a certain pattern.
  • the light source may include an organic light emitting diode (OLED) or a laser diode (LD).
  • the light source may be a Vertical Cavity Surface Emitting Laser (VCSEL).
  • VCSEL Vertical Cavity Surface Emitting Laser
  • VCSEL is one of the laser diodes that converts electrical signals into optical signals, and can output a wavelength of about 800 to 1000 nm, for example, about 850 nm or about 940 nm.
  • the light source repeats blinking (on/off) at regular time intervals to generate an output light signal in the form of a pulse wave or continuous wave.
  • the certain time interval may be the frequency of the output light signal.
  • the lens group can converge light output from a light source and output the condensed light to the outside.
  • the lens group may be disposed on top of the light source and spaced apart from the light source.
  • the upper part of the light source may mean the side where light is output from the light source.
  • the lens group may include at least one lens.
  • each lens may be aligned with respect to the central axis to form an optical system.
  • the central axis may be the same as the optical axis of the optical system.
  • the diffusion member may receive light output from the light source and the lens group and then refract or diffract the received light to output the light.
  • the distribution unit 120 may distribute an optical signal into a plurality of optical signals.
  • the distribution unit 120 may receive an optical signal from the output unit 110 and distribute it into a first optical signal and a second optical signal.
  • the first optical signal is transmitted to the receiving unit 130, and the second optical signal is transmitted to the interference unit 140.
  • the distribution unit 120 can adjust the distribution ratio of the first optical signal and the second optical signal.
  • the distribution method of the optical signal of the distribution unit 120 is not limited and may include a method using polarization.
  • the receiver 130 may transmit an optical signal to an object or receive an optical signal reflected from the object. At this time, the received reflected light may be the optical signal output by the output unit 110 reflected from the object.
  • the receiver 130 may include an image sensor, a filter disposed on the image sensor, and a lens group disposed on the filter.
  • the optical signal reflected from the object may pass through the lens group.
  • the optical axis of the lens group may be aligned with the optical axis of the image sensor.
  • a filter may be placed between the lens group and the image sensor.
  • a filter may be placed in the optical path between the object and the image sensor.
  • the filter can filter light having a certain wavelength range.
  • a filter can transmit a specific wavelength band of light. Filters allow light of specific wavelengths to pass through. For example, a filter can pass light in the infrared band and block light outside the infrared band.
  • Image sensors can sense light.
  • the image sensor can receive optical signals.
  • An image sensor can detect optical signals and output them as electrical signals.
  • the image sensor can detect light with a wavelength corresponding to the wavelength of light output from the light source. For example, an image sensor can detect light in the infrared band.
  • An image sensor may have a structure in which a plurality of pixels are arranged in a grid.
  • the image sensor may be a Complementary Metal Oxide Semiconductor (CMOS) image sensor or a Charge Coupled Device (CCD) image sensor. Additionally, the image sensor may include a ToF sensor that receives IR light reflected from an object and measures the distance using time difference or phase difference.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Device
  • the receiver 130 may receive the first optical signal from the output unit 110, and the receiver 130 may receive the first optical signal and transmit it to the object. Additionally, the receiver 130 may receive a third optical signal, which is reflected light returned after the first optical signal is reflected from an object.
  • the receiving unit 130 may correspond to an optical system including a plurality of lenses, and the receiving unit 130 may be located on the output unit 110 and the interference unit 140.
  • the interference unit 140 may generate interference between the second optical signal and the third optical signal. Since the LIDAR device 100 according to the embodiment measures the change in the interference light of the second optical signal and the third optical signal as the frequency of the optical signal is changed, there may be an interference unit 140 in which interference occurs. .
  • the interference unit 140 may receive a third optical signal from the receiving unit 130 and a second optical signal from the distribution unit 120.
  • the interference unit 140 may generate interference between the received second and third optical signals. Additionally, the fourth optical signal, which is interference light generated by interference, can be transmitted to the detection unit 150.
  • the detector 150 can receive and detect an optical signal.
  • the detection unit 150 may include a plurality of photodiodes, which may be light-receiving elements that generate an electrical signal using light energy.
  • the type of light receiving element is not particularly limited.
  • the detection unit 150 may receive and detect the fourth optical signal from the interference unit 140. Additionally, the detector 150 can receive and detect a fifth optical signal, which is noise, from the outside. Noise may include various types of light incident on the detector 150, including sunlight. Noise may include dark noise, thermal noise, etc., which are characteristics of the detection unit 150 itself.
  • the fifth light signal is influenced by sunlight, etc., so its intensity may change in real time. The stronger the strength of the fifth optical signal, the more difficult it may be to detect the fourth optical signal.
  • the depth information generator 160 may generate depth information and speed information of an object using the fourth optical signal output from the interference unit 140.
  • the fourth optical signal may correspond to the result of interference between the third optical signal reflected from the object and the second optical signal output from the distribution unit 120. That is, the fourth optical signal corresponds to the result of the Doppler effect occurring with respect to the second and third optical signals.
  • the fourth optical signal includes depth information and speed information about the object due to the Doppler effect.
  • the depth information generator 160 may receive the fourth and fifth optical signals and derive information about the object.
  • Figure 2 is a schematic conceptual diagram showing the operating principle of a LiDAR device according to an embodiment.
  • LiDAR devices can generally be composed of components such as a laser, scanner, and photodiode. Each part can have several forms. There may be various optical components between the laser and the scanner, the scanner and the observation object, and the scanner and the photodiode. Lasers may be capable of frequency modulation. The optical signal from the laser can be divided into incident light and reference light. Incident light can travel to the object of observation through the scanner and be reflected back. The reflected light reflected from the observation object may be attenuated by the amount of loss. A beat frequency may be generated due to interference between the reflected light and the reference light. Based on these vibration frequencies, the distance and speed to the observation target can be measured.
  • Lasers may be capable of frequency modulation.
  • the optical signal from the laser can be divided into incident light and reference light. Incident light can travel to the object of observation through the scanner and be reflected back. The reflected light reflected from the observation object may be attenuated by the amount of loss. A beat frequency may be generated due to interference between the reflected light and the
  • the LiDAR device may be a scanning type LiDAR.
  • the receiver can calculate the distance by scanning M*N points.
  • the signal-to-noise ratio of the optical signal may be determined depending on the ambient light and noise inside the detection unit (photodiode).
  • the best signal-to-noise ratio can be generated by optimizing the ratio at which the optical signal is divided into incident light and reference light.
  • the best signal-to-noise ratio can be obtained according to the output power of a given output unit (laser). Additionally, the output power of the laser can be lowered to obtain the same signal-to-noise ratio.
  • Figure 23 is a schematic conceptual diagram of a LiDAR device according to an embodiment.
  • the distribution unit 120 of the LiDAR device 100 may adjust the distribution ratio of the first optical signal and the second optical signal.
  • the distribution unit 120 may receive an optical signal from the output unit and distribute it into a first optical signal and a second optical signal.
  • the distribution unit 120 may transmit the first optical signal to the receiver and transmit the second optical signal to the interference unit 140.
  • the distribution ratio of the LIDAR device according to the embodiment may follow Equation 1, Equation 2, and Equation 3.
  • P0 is the power of the optical signal
  • P1 is the power of the first optical signal
  • P2 is the power of the second optical signal
  • x is a variable greater than 0 and less than 1
  • the sum of the power of the first optical signal and the power of the second optical signal may correspond to the power of the optical signal output by the output unit.
  • the power of the first optical signal and the power of the second optical signal are (1-x), x, depending on x, a variable greater than or equal to 0 and less than or equal to 1. It can be distributed in the ratio of
  • Figure 4 is a graph showing changes in the optimal distribution ratio according to noise changes according to an embodiment.
  • the distribution unit of the LIDAR device may adjust the distribution ratio so that the ratio of the power of the fourth optical signal to the power of the fifth optical signal is within a predetermined range.
  • the value of the signal-to-noise ratio changes. If the ratio of the power of the fourth optical signal to the power of the fifth optical signal is different, the signal-to-noise ratio can be maintained within a predetermined range by adjusting the distribution ratio of the distribution unit.
  • the optimal x value when the fifth optical signal of the LiDAR device is weak and when the fifth optical signal is strong, is the optimal x value when the fifth optical signal is weak is the fifth optical signal. It may be larger than the optimal x value when the optical signal is weak.
  • the optimal x value, x1 may be 0.061063, and if the fifth optical signal is strong, the optimal x value, x2, may be 0.131353.
  • the ratio of the power of the fourth optical signal to the power of the fifth optical signal of the LIDAR device according to the embodiment may follow Equation 4.
  • SNR is the ratio of the power of the fourth optical signal to the power of the fifth optical signal
  • R is the response
  • Loss is the degree of loss of reflected light
  • e is the amount of electron charge
  • B is the frequency bandwidth of the system, i others are This is the noise distribution of the fifth optical signal
  • the ratio of the power of the fourth optical signal to the power of the fifth optical signal according to the embodiment may be the ratio of the dispersion of the fourth optical signal to the dispersion of the fifth optical signal.
  • the distribution ratio of the LIDAR device according to the embodiment may be determined according to x, which is the maximum ratio of the power of the fourth optical signal to the power of the fifth optical signal according to Equation 4.
  • the distribution unit can adjust the distribution ratio according to x, which is the maximum signal-to-noise ratio.
  • Equation 6 Equation 6
  • Loss refers to the degree of loss of the third optical signal (reflected light). If the degree of loss of the third optical signal is very small, loss can be ignored and x, which is the maximum ratio of the fourth optical signal to the fifth optical signal, can be determined. .
  • the distribution unit of the LIDAR device may adjust the distribution ratio according to changes in the fifth optical signal.
  • the fifth optical signal is a noise signal, and when the detector detects the optical signal, noise is present and may be detected together. Therefore, detection of optical signals may not be easy. Ultimately, if the intensity of noise increases and the signal-to-noise ratio (SNR) decreases, a method to increase the signal-to-noise ratio is needed. In addition, since noise can change in real time, including various lights including sunlight, heat, and characteristics of the detection unit itself, it is necessary to maintain the signal-to-noise ratio in real time. Accordingly, the distribution unit can adjust the signal-to-noise ratio by adjusting the distribution ratio according to changes in the fifth optical signal.
  • SNR signal-to-noise ratio
  • the distribution unit of the LIDAR device may increase x when the power of the fifth optical signal increases and may decrease x when the power of the fifth optical signal decreases.
  • the detection unit of the LIDAR device detects changes in the fifth optical signal in real time, and the distribution unit may automatically adjust the distribution ratio according to changes in the fifth optical signal detected in real time.
  • the fifth optical signal is a noise signal and can change in real time according to changes in sunlight, weather, etc. Therefore, in order to prevent the signal-to-noise ratio from continuously changing in real time, the detector can measure the fifth optical signal in real time and detect the change in the fifth optical signal in real time, and the distribution unit can detect the change in the fifth optical signal in real time.
  • the distribution ratio can be automatically adjusted depending on the
  • Figure 5 is a conceptual diagram of a distribution unit of a LiDAR device according to an embodiment.
  • the distribution unit of the LiDAR device includes a first distribution unit 121 and a second distribution unit 122, and the optical signal is transmitted to the first distribution unit 121 and the second distribution unit. Pass 122 sequentially, and do.
  • the distribution unit rotates the first distribution unit 121 to adjust the polarization angle of the optical signal, and the second distribution unit 122 passes the vertically polarized light of the optical signal that has passed through the first distribution unit 121 using The distribution ratio of horizontally polarized light can be adjusted by reflecting it.
  • the distribution unit may include a first distribution unit 121 and a second distribution unit 122.
  • the first distribution unit 121 and the second distribution unit 122 may be arranged side by side in the optical signal path, but are not limited to this.
  • the optical signal may sequentially pass through the first distribution unit 121 and the second distribution unit 122.
  • the first distribution unit 121 can change the polarization angle depending on the angle of the optical signal. For example, a linearly polarized signal has a difference in the polarization direction before and after passing through the first distribution unit 121 as it rotates 90 degrees from the polarization direction before passing through the first distribution unit 121. A circularly polarized signal may not have any effect even after passing through the first distribution unit 121.
  • the first distribution unit 121 may be made of a material with a different refractive index depending on the polarization direction.
  • the second distribution unit 122 may pass the vertically polarized light of the incident optical signal and reflect the horizontally polarized light.
  • the vertically polarized light of the optical signal may be passed through to become a first optical signal, and the horizontally polarized light of the optical signal may be reflected to become a second optical signal.
  • the distribution unit can adjust the distribution ratio of the optical signal by adjusting the polarization angle by rotating the first distribution unit 121. That is, the distribution unit can adjust the signal-to-noise ratio by rotating the first distribution unit 121.
  • the first distribution unit 121 of the LiDAR device may be a half wave plate (HWP), and the second distribution unit 122 may be a polarizing beam splitter (PBS).
  • HWP half wave plate
  • PBS polarizing beam splitter
  • Figure 6 is a conceptual diagram of a distribution unit of a LiDAR device according to another embodiment.
  • the distribution unit of the LiDAR device includes a third distribution unit 123, a fourth distribution unit 124, and a fifth distribution unit 125, and the optical signal is transmitted to the third distribution unit. Passes sequentially through the (123) and the fourth distribution unit 124 or sequentially passes through the third distribution unit 123 and the fifth distribution unit 125, and the third distribution unit 123 provides a path for the optical signal. By moving it, the distribution ratio of the optical signal distributed to the fourth distribution unit 124 or the fifth distribution unit 125 can be adjusted.
  • the third distribution unit 123, fourth distribution unit 124, and fifth distribution unit 125 of the LiDAR device according to the embodiment are waveguides, and the third distribution unit 123 is the fourth distribution unit 124.
  • the distribution ratio of the optical signal can be adjusted by changing the contact area with the fifth distribution unit 125.
  • the third distribution unit 123, the fourth distribution unit 124, and the fifth distribution unit 125 may be hollow conduits made of conductors.
  • the third to fifth distribution units 123, 124, and 125 may have a structure that allows optical signals to pass through the inside of the tube. When an optical signal is incident on the third distribution unit 123, fourth distribution unit 124, and fifth distribution unit 125, the optical signal can pass through and exit the inside of the tube structure uniformly.
  • the third distribution unit 123 may change the contact area with the fourth distribution unit 124 or the fifth distribution unit 125.
  • the fourth distribution unit 124 and the fifth distribution unit 125 may be arranged in vertical contact with each other, and the third distribution unit 123 is the fourth distribution unit 124 or the fifth distribution unit ( 125) and the cross sections of the pipe structure may be in contact with each other.
  • the distribution unit may adjust the distribution ratio of the optical signal by moving the third distribution unit 123 in the vertical direction while contacting the fourth distribution unit 124 and the fifth distribution unit 125.
  • the distribution unit can adjust the distribution ratio of the optical signal by moving the third distribution unit 123, and thereby adjust the signal-to-noise ratio.
  • FIG. 7 is a flowchart of a lidar operation method according to an embodiment.
  • the LiDAR operating method (S1000) includes operating the LiDAR device and checking signals from the weather, current time, or illuminance sensor (S1100), and determining the weather and current time using a reference table.
  • the distribution unit of the lidar device changes the distribution ratio of the optical signal to adjust the signal-to-noise ratio, which is the ratio of the power of the optical signal to the power of the set ambient light, and , the distribution ratio is the ratio of distributing the optical signal to the incident light irradiating the observation object and the reference light for interference (S1300), and the step of generating depth information and speed information of the observation object through interference of the incident light and reference light (S1400). may include.
  • the distribution ratio of the lidar operation method according to the embodiment may follow Equation 1, Equation 2, and Equation 3.
  • P0 is the power of the optical signal
  • P1 is the power of the incident light
  • P2 is the power of the reference light
  • x is a variable greater than 0 and less than 1
  • the signal-to-noise ratio of the lidar operation method according to the embodiment may follow Equation 4.
  • SNR is the signal-to-noise ratio
  • R is the response
  • Loss is the degree of loss of reflected light
  • e is the charge of the electron
  • B is the frequency bandwidth of the system
  • i others are the noise distribution of the ambient light
  • the distribution unit of the lidar operation method adjusts the distribution ratio according to the change in the power of the ambient light, increases x when the power of the ambient light increases, decreases x when the power of the ambient light decreases, and operates in real time.
  • the distribution ratio can be automatically adjusted according to changes in the detected optical signal.
  • the LiDAR device includes an optical output device (VCSEL, Vertical Cavity Surface Emitting Laser) that outputs an optical signal, a plurality of lenses that converge the optical signal and output the condensed optical signal to the outside, and the optical signal is an object of observation.
  • An optical detection device (SPAD, Single Photon Avalanche Diode) that detects the first signal and the second signal that is ambient light generated by reflection, and the depth information that generates depth information about the observation object based on the optical signal and the first signal. It may include a distribution unit that adjusts the distribution ratio of the optical signal by comparing the intensity of the first signal and the intensity of the second signal, and a memory that stores data about the signal-to-noise ratio adjusted according to the change in the distribution ratio.
  • Figure 8 is a configuration diagram of a LiDAR device according to an embodiment.
  • the LIDAR device 200 includes an output unit 210, a reception unit 220, a detection unit 230, an interference unit 240, a depth information generation unit 250, and a control unit 140160. ) may include. Only components related to the present embodiments are shown in the LiDAR device 200. Accordingly, it is obvious to those skilled in the art that the LiDAR device 200 may further include other general-purpose components in addition to the components shown in FIG. 8.
  • the LIDAR device 200 may be FMCW LIDAR. Additionally, a point scanning method may be used, and therefore, the intensity of light received by the detection unit 230 may be lower than that of other methods, for example, a flash method. Therefore, an avalanche photo diode (APD) or a single photon avalanche diode (SPAD) with high sensing sensitivity may be used as the detection unit 230. Depending on whether the detection unit 230 includes a light receiving element, APD or SPAD, the specific circuit configuration of AFE (Analog Front End), TDC (Time to Digital Converter), etc. may vary.
  • AFE Analog Front End
  • TDC Time to Digital Converter
  • the LIDAR device 200 can measure the distance and speed of the detection target using the Doppler effect.
  • a change in frequency occurs due to the Doppler effect.
  • the Doppler effect is a phenomenon in which when an object emitting electromagnetic waves (light) moves closer or farther away from the observer, the wavelength of the electromagnetic waves measured by the observer is different from the laboratory wavelength. This is a phenomenon in which when an object emitting electromagnetic waves approaches the observer, the wavelength of the observed electromagnetic waves becomes shorter, and when the object moves away from the observer, the wavelength of the observed electromagnetic waves becomes longer.
  • Figure 9 is a schematic conceptual diagram of a LiDAR device according to an embodiment.
  • the LIDAR device 200 includes an output unit 210 that outputs an optical signal, and an input optical signal for a plurality of points of the object that is input after reflection from the object.
  • a receiving unit 220 an interference unit 240 that generates an interference light signal when interference occurs between the input light signal and the reference light, and a detection unit 230 that detects the input light signal, detects the object based on the optical signal and the input light signal.
  • It may include a depth information generation unit 250 that generates depth information and a control unit 260 that adjusts the frequency of the optical signal.
  • An output unit 210 that radiates the output optical signal to the object, and then It may include a receiver 220 that receives the input optical signal, a detector 230 that detects the input optical signal, and a control unit 240 that adjusts the frequency of the optical signal.
  • the output unit 210 may output an optical signal and transmit it to the receiver 220.
  • the output unit 210 includes an edge emitting laser, a vertical-cavity surface emitting laser (VCSEL), a distributed feedback laser, a light emitting diode (LED), and an SLD ( It may include a light source such as a super luminescent diode.
  • the output unit 210 may generate and irradiate light in a plurality of different wavelength bands.
  • the output unit 210 can generate pulsed light or continuous light.
  • Continuous light can be in the form of a sinusoid wave or square wave.
  • the LIDAR device 200 By generating an output optical signal in the form of pulsed light or continuous light, the LIDAR device 200 creates a gap between the output optical signal output from the output unit 210 and the input optical signal reflected from the object and then input to the receiving unit 220. Time difference or phase difference can be detected.
  • the output optical signal may be referred to as an optical signal
  • the object may be referred to as an observation target. From the perspective of the object of observation, the output light signal may be incident light.
  • the output unit 210 may include a light source, a lens group disposed on the light source, and a diffusion member disposed on the lens group.
  • a light source generates and outputs light.
  • the light produced by the light source may be infrared with a wavelength of 770 to 3000 nm.
  • the light generated by the light source may be visible light with a wavelength of 380 to 770 nm.
  • the light source may use a light emitting diode (LED), and may have a plurality of light emitting diodes arranged according to a certain pattern.
  • the light source may include an organic light emitting diode (OLED) or a laser diode (LD).
  • the light source may be a Vertical Cavity Surface Emitting Laser (VCSEL).
  • VCSEL Vertical Cavity Surface Emitting Laser
  • VCSEL is one of the laser diodes that converts electrical signals into optical signals, and can output a wavelength of about 800 to 1000 nm, for example, about 850 nm or about 940 nm.
  • the light source repeats blinking (on/off) at regular time intervals to generate an output light signal in the form of a pulse wave or continuous wave.
  • the certain time interval may be the frequency of the output light signal.
  • the lens group can converge light output from a light source and output the condensed light to the outside.
  • the lens group may be disposed on top of the light source and spaced apart from the light source.
  • the upper part of the light source may mean the side where light is output from the light source.
  • the lens group may include at least one lens.
  • each lens may be aligned with respect to the central axis to form an optical system.
  • the central axis may be the same as the optical axis of the optical system.
  • the diffusion member may receive light output from the light source and the lens group and then refract or diffract the received light to output the light.
  • the optical signal output by the output unit 210 may be controlled by the control unit 260.
  • the output unit 210 may adjust the output optical signal by receiving a command for adjusting the output of the optical signal from the control unit 260.
  • the output unit 210 may output optical signals having different strengths, periods, frequencies, etc.
  • the output unit 210 may transmit the output optical signal to the reception unit 220.
  • the output unit 210 may output an optical signal whose frequency is modulated according to a certain period. The distance and speed of an object can be measured simultaneously using a frequency-modulated optical signal using the Doppler effect.
  • the optical signal output by the output unit 210 may be divided into input light and reference light by the control unit 260.
  • the splitter 270 connected between the output unit 210 and the receiver 220 can split the optical signal into input light and reference light.
  • the input light may be transmitted to the receiving unit 220, and the reference light may be transmitted to the interference unit 240.
  • the input light reflected from the object and received may have different characteristics from the reference light, and the interference unit 240 may generate interference between the input light and the reference light to output a specific optical signal.
  • the LIDAR device 200 can simultaneously measure the distance and speed of an object using an optical signal generated as a result of interference.
  • the receiver 220 may emit an optical signal to an object or receive an optical signal reflected from the object.
  • the receiving unit 220 may be referred to as a scanner.
  • the receiving unit 220 may include an image sensor, a filter disposed on the image sensor, and a lens group disposed on the filter.
  • the optical signal reflected from the object may pass through the lens group.
  • the optical axis of the lens group may be aligned with the optical axis of the image sensor.
  • a filter may be placed between the lens group and the image sensor.
  • a filter may be placed in the optical path between the object and the image sensor.
  • the filter can filter light having a certain wavelength range.
  • a filter can transmit a specific wavelength band of light. Filters allow light of specific wavelengths to pass through. For example, a filter can pass light in the infrared band and block light outside the infrared band.
  • Image sensors can sense light.
  • the image sensor can receive optical signals.
  • An image sensor can detect optical signals and output them as electrical signals.
  • the image sensor can detect light with a wavelength corresponding to the wavelength of light output from the light source.
  • an image sensor can detect light in the infrared band.
  • the image sensor may correspond to the detection unit 230 of the LiDAR device 200.
  • An image sensor may have a structure in which a plurality of pixels are arranged in a grid.
  • the image sensor may be a Complementary Metal Oxide Semiconductor (CMOS) image sensor or a Charge Coupled Device (CCD) image sensor. Additionally, the image sensor may include a ToF sensor that receives IR light reflected from an object and measures the distance using time difference or phase difference.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Device
  • the receiving unit 220 may receive an optical signal output from the output unit 210.
  • the receiver 220 may irradiate the received optical signal to the object.
  • the receiver 220 may receive an input light signal reflected from an object and re-entered. Additionally, the received input light signal can be transmitted to the detection unit 230.
  • the received input light signal may interfere with the reference light in the interference unit 240 and be provided to the detection unit 230.
  • the receiver 220 can uniformly and consistently irradiate optical signals to each unit of an object divided into certain units.
  • the receiver 220 may move its position or adjust its angle in order to uniformly irradiate the optical signal to the object, but the method of irradiating the optical signal is not limited.
  • the interference unit 240 may generate interference between the incident light signal and the reference light. Since the LIDAR device 200 according to the embodiment measures the change in the interference light between the incident light signal and the reference light as the frequency of the optical signal is changed, there may be an interference unit 240 in which interference occurs.
  • the interference unit 240 may receive an incident light signal from the receiver 230.
  • the interference unit 240 may generate interference between the received incident light signal and the reference light. Additionally, interference light generated by interference can be transmitted to the detection unit 230.
  • the detection unit 230 can detect an optical signal.
  • the detection unit 230 may receive and detect interference light generated by interference from the interference unit 240.
  • the detection unit 230 may include a plurality of photodiodes, which may be light-receiving elements that generate an electrical signal using light energy.
  • the type of light receiving element is not particularly limited.
  • the detection unit 230 may divide the object into a plurality of units and detect the input light signal for each unit.
  • the detection unit 230 can detect an input light signal reflected from all parts of the object by detecting an optical signal for each unit of the object.
  • the detection unit 230 can simultaneously measure the distance and speed of an object by detecting an input light signal.
  • the depth information generator 250 of the LIDAR device may generate depth information using data on some continuous input light signals among a plurality of points.
  • the depth information generator 250 may generate depth information of the observation object using the interference light generated by the interference module 240.
  • the depth information generator 250 may generate information about the position and speed of an object using the result of interfering light with a changing frequency using the FMCW method.
  • a wave is reflected from a moving object, a change in frequency occurs due to the Doppler effect. By detecting this change in frequency, the speed and position of the object can be measured simultaneously without wasting time.
  • the FMCW method is different from the dToF method, which measures the round-trip time of an optical signal, and the iToF method, which measures distance using an optical signal whose size changes.
  • the optical signal output from the output unit 210 may correspond to an optical signal whose frequency is modulated.
  • the reference light incident on the interference unit 240 may also correspond to an optical signal whose frequency is modulated, and the input light signal reflected from an object and incident on the interference unit 240 may also correspond to an optical signal whose frequency is modulated.
  • interference occurs between reference light and input light having different characteristics due to the interference unit 240.
  • the Doppler effect occurs between different optical signals.
  • the interference light output from the interference unit 240 has characteristics.
  • the detection unit 230 can detect the interference light, and the depth information generator 250 can measure the speed and position of the object in real time using information on the detected interference light.
  • the control unit of the LIDAR device according to the embodiment may be set to modulate the waveform of the frequency of the optical signal.
  • the control unit 260 can control the optical signal output by the output unit 210.
  • the control unit 260 controls the operation of the output unit 210, the receiver 220, and the depth information generator 250.
  • the depth information generator 250 and the control unit 260 may be implemented in the form of a printed circuit board (PCB). Additionally, the depth information generator 250 and the control unit 260 may be implemented in different configurations.
  • the control unit 260 may be included in a terminal or vehicle on which the LiDAR device 200 according to an embodiment of the present invention is deployed.
  • the control unit 260 is implemented in the form of an application processor (AP) of a smartphone equipped with the LiDAR device 200 according to an embodiment of the present invention, or a LA according to an embodiment of the present invention. It may be implemented in the form of an ECU (electronic control unit) of a vehicle equipped with the device 200.
  • AP application processor
  • ECU electronic control unit
  • the control unit 260 may transmit a command to control the output optical signal to the output unit 210.
  • the control unit 260 may transmit a command to adjust the output intensity, period, or frequency of the optical signal.
  • the control unit 260 may receive detection data of the input light signal from the detection unit. A command to adjust the optical signal according to the corresponding data can be transmitted to the output unit 210.
  • the control unit 260 may transmit a command to adjust the size of the frequency of the optical signal. Additionally, the change in frequency of the optical signal can be adjusted to have a constant waveform, and the shape or period of the corresponding waveform can be adjusted.
  • the LiDAR device 200 may generally be composed of components such as a laser, a scanner, and a photodiode. Each part can have several forms. There may be various optical components between the laser and the scanner, the scanner and the observation object, and the scanner and the photodiode. Lasers may be capable of frequency modulation. The optical signal from the laser may be divided into incident light and reference light through the splitter 270. Incident light can travel to the object of observation through the scanner and be reflected back. The reflected light reflected from the observation object may be attenuated by the amount of loss. A beat frequency may be generated due to interference between the reflected light and the reference light. Based on these vibration frequencies, the distance and speed to the observation target can be measured.
  • Lasers may be capable of frequency modulation.
  • the optical signal from the laser may be divided into incident light and reference light through the splitter 270. Incident light can travel to the object of observation through the scanner and be reflected back. The reflected light reflected from the observation object may be attenuated by the amount of
  • Figure 10 is an image showing a method of segmenting an object of a LiDAR device according to an embodiment.
  • the LiDAR device may be a scanning type LiDAR.
  • a LIDAR device may detect input light signals for a plurality of points of an object.
  • the depth information generator of the LIDAR device may generate depth information using data on the input light signal of some of the consecutive points among the plurality of points.
  • a point may be a unit that divides an object to be detected by a LIDAR device into certain units. It may be a unit in which the part of an object to be observed is divided into certain areas and shapes. Additionally, the detector may detect an input light signal for each point. Additionally, the depth information generator may generate depth information using data on some continuous input light signals among a plurality of points.
  • the receiver 220 can irradiate an optical signal to an object and transmit the reflected incident light signal to the detector.
  • the receiver 220 may irradiate the optical signal consistently to a1, a2, a3, ..., am in that order by adjusting the irradiation position or angle of the optical signal.
  • the depth information generator may generate depth information for each divided point using data on the incident light signal at that point. The size of the split point is not limited.
  • Figure 11 is a graph showing the waveform of the frequency of an optical signal of a lidar device according to an embodiment.
  • the frequency of the optical signal of the LiDAR device may represent a sawtooth waveform (11-a).
  • the frequency of the optical signal of the LiDAR device according to the embodiment may exhibit a triangular waveform (11-b).
  • the frequency of the optical signal according to the embodiment may change constantly with time within the range from f0 to f1, and may exhibit a waveform with a constant period (Tf).
  • Tf constant period
  • the waveform of the frequency of the optical signal is not limited.
  • the distance resolution of the LIDAR device can be determined according to Equation 7.
  • ⁇ R may be the distance resolution
  • c may be the speed of the optical signal
  • f1-f0 may be the frequency width of the optical signal
  • Tf may be the period of one waveform
  • Tp may be the exposure time of one point of the depth information generator.
  • Distance resolution refers to the minimum measurable distance between two points, expressed in planar distance units. As the distance resolution decreases, the performance of the LiDAR device improves.
  • the maximum measurable distance of the LIDAR device can be determined according to Equation 8.
  • Rmax may be the maximum measurement distance
  • f1-f0 may be the width of the frequency of the optical signal
  • fs may be the sampling frequency
  • c may be the speed of the optical signal
  • Tf may be the period of the waveform.
  • the maximum measurement distance refers to the maximum distance at which a LIDAR device can detect an object. As the maximum measurement distance increases, the performance of the LIDAR device improves.
  • the frequency modulation speed of the LIDAR device can be determined according to Equation 9.
  • Vf may be the frequency modulation speed
  • f1-f0 may be the frequency width of the optical signal
  • Tf may be the period of the waveform.
  • Frequency modulation speed refers to the speed at which a LIDAR device can modulate the frequency of the output optical signal. As the frequency modulation rate decreases, the performance of the LiDAR device improves.
  • Figure 12 is an image showing the detection method of an existing LiDAR device.
  • the depth information generator may generate depth information using data on the input light signal of each point (a1, a2, ..., am) of the object.
  • the receiver can irradiate an optical signal with a certain waveform and periodic frequency toward the object.
  • the receiver may radiate an optical signal having a certain waveform and frequency to the object and receive a reflected input optical signal.
  • the receiver can consistently irradiate the optical signal to the object by adjusting the irradiation position or angle of the optical signal.
  • the period of the waveform of the frequency of the optical signal may be constant at Tf.
  • the exposure time of each point (a1, a2, a3, ..., am) of the depth information generator may be constant at t1, t2, t3, ..., tm, respectively.
  • the exposure time tm may be equal to the period (Tf) of the waveform of the frequency of the optical signal.
  • the distance resolution of an existing LiDAR device can be determined according to Equation 10.
  • the maximum measurement distance of an existing LIDAR device can be determined according to Equation 11.
  • the frequency modulation speed of an existing LiDAR device can be determined according to Equation 12.
  • the depth information generator may generate depth information and speed information for a point of an object using an input light signal reflected from the point of the object. That is, the depth information generator may generate depth information and speed information for the point of the object using an input light signal corresponding to one cycle.
  • the LIDAR device can generate depth information and speed information about a point of an object from interference light generated as a result of interfering with an input light signal reflected from the point of the object and a reference light signal.
  • a method for detecting depth information and speed information of the LIDAR device 200 will be described.
  • Figure 13 is an image showing a detection method of a LiDAR device according to an embodiment.
  • the depth information generator of the LIDAR device may generate depth information of the first pixel using first to i-th data for the input light signals of the first to i-th points.
  • the pixel may correspond to a unit different from the point described above.
  • the number of pixels may be less than the number of points.
  • the detection unit can detect the incident light signal at each point of the object in the same way as an existing LIDAR device. That is, the detector may detect an interference light signal generated by interference between an incident light signal reflected from the first to mth points and a reference light signal. The corresponding operation is the same as the description of the detection unit described with reference to FIGS. 1 to 5.
  • the depth information generator may use a plurality of data for input light signals of a plurality of points to generate depth information using pixels (b1, b2, b3, ..., bm-i+1) as a new unit.
  • pixels b1, b2, b3, ..., bm-i+1
  • i is an integer greater than or equal to 1
  • m is an integer greater than or equal to i.
  • the depth information generator generates input light signals for a total of three points from the first to the third. Depth information of the first pixel can be generated using the detected first to third data.
  • the plurality of points and data of the LIDAR device according to the embodiment is a total of m, and depth information per pixel can be generated using i pieces of data.
  • the depth information generator of the LIDAR device may generate depth information of the second pixel using the second to i+1th data for the input light signal of the second to i+1th points.
  • the depth information generator In the same way that the depth information generator generates depth information of the first pixel using data about the input light signal of the first to i-th points, the depth information generator generates the depth information of the first pixel using the data about the input light signal of the second to i+1-th points. Depth information of the second pixel can be generated using i+1 data. For example, when i is 3, the depth information generator may generate depth information of the second pixel using the second to fourth data obtained by detecting input light signals for a total of three points. .
  • the depth information generator of the LIDAR device uses the m-i+1 to m-th data for the input light signal of the m-i+1 to m-th points from the second pixel to the m-i +1 pixel depth information can be generated.
  • the depth information generator generates depth information of the second pixel using data on the input light signal of the 2nd to i+1th points, and inputs the m-i+1th to mth points from the 3rd pixel.
  • Depth information up to the m-i+1th pixel can be generated using m-i+1 to m-th data for the optical signal. For example, when i is 3 and m is 100, the depth information generator may generate depth information up to the 98th pixel using the 98th to 100th data for the input light signal of the 98th to 100th points. .
  • the depth information generator of the LIDAR device may repeat the process of generating depth information for the first to m-i+1th pixels.
  • the period of the waveform of the frequency of the optical signal of the LIDAR device according to the embodiment is the same as the exposure time of one point, and the exposure time of one pixel may be i times the exposure time of the input light signal of one point.
  • the period (T') of the waveform of the frequency of the optical signal may be the same as the period (Tf) of the waveform of the frequency of the optical signal of the existing LIDAR device.
  • T ' Tf
  • the period (T') of the waveform of the frequency of the optical signal may be equal to the exposure time of one point (t1, t2, ..., tm), and the exposure time of one pixel (t '1, t'2, t'3, ..., t'm-i+1) may be i times the exposure time (t1, t2, ..., tm) of the input light signal of one point. .
  • the distance resolution of the LIDAR device may be 1/i times the distance resolution when the depth information generator generates depth information with a plurality of points.
  • the distance resolution of the LIDAR device according to the embodiment may be determined according to Equation 13.
  • the distance resolution of the LIDAR device according to the embodiment may be 1/i times the distance resolution when the existing depth information generator generates depth information with a plurality of points.
  • t'm is 3 times tm, so the distance resolution of the LiDAR device according to the embodiment may be 1/3 times that of detection by the existing LiDAR device.
  • the distance resolution may decrease, thereby improving the performance of the LIDAR device.
  • Figure 14 is an image showing a detection method of a LiDAR device according to another embodiment.
  • the control unit of the LIDAR device may increase the period of the waveform of the frequency of the optical signal by j times.
  • the depth information generator of the LIDAR device may generate depth information of the first pixel using the first to i-th data for the input light signals of the first to i-th points. .
  • the period (T'') of the waveform of the frequency of the optical signal according to the embodiment may be i times the period of the waveform of the frequency of the optical signal of the existing LIDAR device.
  • the period (T'') of the waveform of the frequency of the optical signal according to the embodiment is three times the period (Tf) of the waveform of the frequency of the optical signal of the existing LIDAR device. You can.
  • the period of the waveform of the frequency of the optical signal of the LIDAR device is the same as the exposure time of one point, and the exposure time of one pixel may be the same as the exposure time of the input light signal of one point.
  • the period (T'') of the waveform of the frequency of the optical signal may be i times the exposure time required to generate depth information of the input optical signal as one point, and may be i times the exposure time required to generate depth information of the input optical signal as one point, and may be bm-i+1), the exposure time (t''1, t''2, t''3, ..., t''m-i+1) required to generate depth information of the input light signal is one.
  • the point may be equal to the exposure time required to generate depth information of the input light signal.
  • the maximum measurement distance of the LIDAR device may be i times the maximum measurement distance when the depth information generator generates depth information with a plurality of points.
  • the maximum measurement distance of the LIDAR device according to the embodiment may be determined according to Equation 14.
  • Rmax'' may be the maximum measurement distance of the LiDAR device according to the embodiment.
  • the period of the waveform of the frequency of the optical signal according to the embodiment is T'', which may be i times the period of the waveform of the frequency of the optical signal of the LIDAR device when generating depth information according to existing points.
  • T'' is three times T f , so the maximum measurement distance of the LiDAR device according to the embodiment may be three times the maximum measurement distance of the existing LiDAR device.
  • the maximum measurement distance can increase and the performance of the LIDAR device can be improved.
  • the frequency modulation speed of the LIDAR device may be 1/i times the frequency modulation speed when the depth information generator generates depth information with a plurality of points.
  • the frequency modulation speed of the LiDAR device according to the embodiment can be determined according to Equation 15.
  • Vf'' may be the frequency modulation speed of the LiDAR device according to the embodiment.
  • the frequency modulation speed can be determined by Equation 15 above.
  • the period of the waveform of the frequency of the optical signal according to the embodiment is T'', which may be i times the period of the waveform of the frequency of the optical signal of the LIDAR device when generating depth information according to existing points.
  • T'' is 3 times T f , so the maximum measurement distance of the LiDAR device according to the embodiment may be 1/3 times the maximum measurement distance of the existing LiDAR device.
  • the frequency modulation speed decreases, thereby improving the performance of the LiDAR device.
  • Figure 15 is a flowchart of a lidar operation method according to an embodiment.
  • the LIDAR operation method (S2000) includes a step of receiving reflected light reflected from a plurality of points of the object by the receiving unit (S2100), and detecting the reflected light reflected from the first to i-th points by the detecting unit.
  • a LIDAR operating method (S2000) includes a step of detecting reflected light reflected from the i+1th point by a detection unit (S2400), and a step of detecting reflected light reflected from the second to i+1th points by a depth information generating unit. It may include generating depth information of the second pixel using the generated second to i+1 data (S2500).
  • a LIDAR operation method (S2000) includes a step (S2600) in which the detection unit repeatedly detects the reflected light reflected from the m-th point, and the depth information generator performs the step of repeatedly detecting the reflected light reflected from the m-i+1 to m-th points. It may include repeatedly generating depth information up to the m-i+1th pixel using the m-i+1th to mth data generated by detecting (S2700). (m is an integer greater than i.)
  • the LIDAR device 200 can reduce the calculation time for depth information by generating a plurality of data in real time and generating depth information for each pixel using the plurality of generated data.
  • the depth information generator of the lidar operation method according to the embodiment may repeat the process of generating depth information of the first to m-i+1th pixels.
  • the period of the waveform of the frequency of the optical signal in the lidar operation method according to the embodiment is the same as the exposure time of one point, and the exposure time of one pixel may be i times the exposure time of the input light signal of one point. .
  • the lidar operation method according to the embodiment may include the step of the controller increasing the period of the waveform of the frequency of the optical signal by j times.
  • the period of the waveform of the frequency of the optical signal in the lidar operation method according to the embodiment is the same as the exposure time of one point, and the exposure time of one pixel may be the same as the exposure time of the input light signal of one point. .
  • the LiDAR device includes an optical output device (VCSEL, Vertical Cavity Surface Emitting Laser) that outputs an optical signal, a plurality of lenses that converge the optical signal and output the condensed optical signal to the outside, and the optical signal is an object of observation. It includes a light detection device (SPAD, Single Photon Avalanche Diode) that detects the input light signal reflected by a plurality of points and a depth information generator that generates depth information about the observation object based on the light signal and the input light signal. In addition, the depth information generator may generate depth information using data on some continuous input light signals among a plurality of points.
  • VCSEL Vertical Cavity Surface Emitting Laser
  • Figure 16 is an exploded view of a LiDAR device according to an embodiment of the present invention.
  • the LIDAR device may include an output unit and a receiver.
  • the substrate 10, holder 30, and shield can 50 are formed as one piece and are commonly used for the output unit and the receiver unit, it may be difficult to distinguish them between the output unit and the receiver unit.
  • each of the above components can be understood as a component of the output unit and the receiver unit, respectively.
  • common components such as the substrate 10, the holder 30, and the shield can 50 may be provided separately to the output unit and the receiver.
  • the output unit may include a substrate 10, a light source 20, a holder 30, a diffusion member 41, a diffuser ring 42, and a shield can 50.
  • the receiving unit may include a substrate 10, a sensor 60, a filter 80, a holder 30, a lens 70, a barrel 71, and a shield can 50.
  • the substrate 10 may include a printed circuit board (PCB).
  • the board 10 may be connected to the connector through the FPCB 91.
  • the substrate 10 and the FPCB 91 may be formed of RFPCB (Rigid Flexible PCB).
  • a light source 20 and a sensor 60 may be disposed on the substrate 10.
  • the substrate 10 may be placed under the holder 30.
  • the substrate 10 may include terminals.
  • the terminal of the substrate 10 may be coupled to the coupling portion of the shield can 50.
  • Terminals of the board 10 may include a plurality of terminals.
  • the terminal of the board 10 may include two terminals.
  • the light source 20 may be disposed on the substrate 10 .
  • the light source 20 may be disposed in contact with the substrate 10 .
  • the light source 20 may be disposed on the substrate 10 .
  • the light source 20 may be disposed on the substrate 10 .
  • the light source 20 may correspond to the output unit 210 described above.
  • Holder 30 may be placed on substrate 10 .
  • the holder 30 may be placed in contact with the substrate 10 .
  • the holder 30 may be placed on the substrate 10 .
  • the holder 30 may be placed on the substrate 10 .
  • the holder 30 may be fixed to the substrate 10 with an adhesive.
  • the holder 30 can accommodate a light source 20, a diffuser module 40, a sensor 60, and a filter 80 therein.
  • the holder 30 may be an injection molded plastic product.
  • the holder 30 may be formed by injection molding.
  • the diffuser module 40 may include a diffusion member 41 and a diffuser ring 42.
  • the diffuser module 40 may be formed integrally as in the modified example, but in this embodiment, it may be manufactured separately into the diffusion member 41 and the diffuser ring 42 to increase moldability during injection molding.
  • the diffusion member 41 and the diffuser ring 42 may be separated from each other.
  • the diffusion member 41 may be a diffuser lens.
  • the diffusion member 41 may be disposed within the holder 30.
  • the diffusion member 41 may be coupled to the holder 30.
  • the diffusion member 41 may be fixed to the holder 30.
  • the diffusion member 41 may be disposed on the optical path of light emitted from the light source 20.
  • the diffusion member 41 may be disposed on the light source 20.
  • the diffusion member 41 may be disposed on the light source 20.
  • the diffusion member 41 may be an injection-molded plastic product.
  • the diffusion member 41 may be formed by plastic injection.
  • the height of the top of the diffusion member 41 may correspond to the height of the top of the lens 70.
  • the diffusion member 41 may be inserted upward in the vertical direction and coupled to the holder 30. At this time, the upward direction may be from the lower part of the holder 30 to the upper part of the holder 30. A portion of the diffusion member 41 may overlap the holder 30 in the upward direction.
  • Diffuser ring 42 may be placed within holder 30.
  • the diffuser ring 42 may be fixed to the holder 30.
  • the diffuser ring 42 may be coupled to the holder 30.
  • the diffuser ring 42 may be disposed below the diffusion member 41.
  • the diffuser ring 42 may support the diffusion member 41.
  • the diffuser ring 42 may be in contact with the diffusion member 41.
  • the diffuser ring 42 may be an injection molded plastic product.
  • the diffuser ring 42 may be formed by plastic injection.
  • the shield can 50 may cover the body of the holder 30.
  • the shield can 50 may include a cover.
  • the shield can 50 may include a cover can.
  • the shield can 50 may be non-magnetic.
  • the shield can 50 may be made of a metal material.
  • the shield can 50 may be formed of a metal plate.
  • the shield can 50 may be electrically connected to the substrate 10 .
  • the shield can 50 may be connected to the substrate 10 through a solder ball. Through this, the shield can 50 can be grounded.
  • the shield can 50 can block electromagnetic interference (EMI).
  • the shield can 50 may be referred to as an 'EMI shield can'.
  • electromagnetic interference noise may increase, and the shield can 50 can block the electromagnetic interference noise.
  • Sensor 60 may be disposed on substrate 10 .
  • the sensor 60 may be placed on the substrate 10 on the other side of the partition wall of the holder 30 . That is, the sensor 60 may be placed on the opposite side of the light source 20 based on the partition wall of the holder 30.
  • the sensor 60 can detect infrared rays.
  • the sensor 60 can detect light of a specific wavelength among infrared rays.
  • the sensor 60 can detect light that has passed through the filter 80.
  • the sensor 60 can detect light in the wavelength band of the light source 20. Through this, the sensor 60 can detect the light emitted from the light source 20 and reflected on the subject to sense 3D image information of the subject.
  • the effective sensing area of the sensor 60 is disposed to correspond to the diffusion member 41, but the sensor 60 may be disposed generally biased toward the partition.
  • a circuit pattern of the sensor 60 may be placed in a portion of the sensor 60 that is biased toward the partition.
  • Lens 70 may be fixed within barrel 71.
  • the lens 70 may be an injection molded plastic product.
  • the lens 70 may be formed by plastic injection.
  • Lens 70 may include a plurality of lenses.
  • Filter 80 may be disposed between lens 70 and sensor 60.
  • the filter 80 may be a band pass filter that passes light of a specific wavelength.
  • the filter 80 can pass infrared rays.
  • the filter 80 can pass light of a specific wavelength among infrared rays.
  • the filter 80 may pass light in the wavelength band of the light emitted by the light source 20.
  • the filter 80 can block visible light.
  • Filter 80 may be coupled to holder 30.
  • a groove of a size corresponding to that of the filter 80 is formed in the holder 30, and the filter 80 can be inserted into the groove and fixed with adhesive.
  • An adhesive injection groove for injecting adhesive between the filter 80 and the holder 30 may be formed in the groove of the holder 30.
  • the filter 80 may be placed at a lower position than the diffuser ring 42.
  • the LiDAR device according to an embodiment of the present invention may refer to a LiDAR device that extracts depth information using a structured light method. That is, the LIDAR device according to an embodiment of the present invention may use structured light having a predetermined pattern as an output light signal and generate depth information using disparity of the structured light.
  • the operating method according to the disclosed embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. Additionally, an embodiment of the present disclosure may be a computer-readable recording medium on which one or more programs including instructions for executing a wireless communication method are recorded.
  • the computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination.
  • Program instructions recorded on the medium may be those specifically designed and constructed for the present invention, or may be known and available to those skilled in the art of computer software.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks.
  • Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term is used when data is semi-permanently stored in the storage medium.
  • signals e.g. electromagnetic waves
  • temporary storage There is no distinction between temporary storage and temporary storage.
  • a 'non-transitory storage medium' may include a buffer where data is temporarily stored.
  • operating methods according to various embodiments disclosed in this document may be included and provided in a computer program product.
  • Computer program products can be traded as commodities.
  • the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smartphones) or online.
  • a portion of the computer program product e.g., a downloadable app
  • a machine-readable storage medium such as the memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.
  • a computer program product including a recording medium in which a program for performing the operating method according to the disclosed embodiment is stored.
  • ' ⁇ unit' used in this embodiment refers to software or hardware components such as FPGA (field-programmable gate array) or ASIC, and the ' ⁇ unit' performs certain roles.
  • ' ⁇ part' is not limited to software or hardware.
  • the ' ⁇ part' may be configured to reside in an addressable storage medium and may be configured to reproduce on one or more processors. Therefore, as an example, ' ⁇ part' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables.
  • components and 'parts' may be combined into a smaller number of components and 'parts' or may be further separated into additional components and 'parts'. Additionally, components and 'parts' may be implemented to regenerate one or more CPUs within a device or a secure multimedia card.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

실시 예는, 광신호를 출력하는 출력부; 상기 광신호를 제1 광신호 및 제2 광신호로 분배하는 분배부; 상기 제1 광신호의 객체에 대한 반사광인 제3 광신호를 수신하는 수신부; 상기 제2 광신호와 상기 제3 광신호의 간섭이 발생하는 간섭부; 상기 제2 광신호와 상기 제3 광신호의 간섭에 의해 발생한 간섭광인 제4 광신호 또는 노이즈인 제5 광신호를 검출하는 검출부; 및 상기 광신호에 기초하여 관측 대상에 대한 깊이 정보 및 속도 정보를 생성하는 깊이 정보 생성부;를 포함하며, 상기 분배부는 상기 제1 광신호 및 제2 광신호의 분배 비율을 조절하는 라이다 장치를 개시한다.

Description

라이다 장치 및 동작 방법
실시 예는 라이다 장치 및 동작 방법에 관한 것이다.
라이다(Light Detection And Ranging, LiDAR) 시스템은 다양한 분야, 예를 들어, 우주항공, 지질학, 3차원 지도, 자동차, 로봇, 드론 등에 응용되고 있다.
그 중, FMCW(Frequency Modulated Continuous Wave) 라이다는 빛의 주파수를 변조시켜 거리와 속도에 대한 정보를 동시에 측정하는 라이다를 의미한다. FMCW 라이다는 도플러 효과를 이용하여 속도를 측정한다. 파동이 움직이는 물체로부터 반사되면 도플러 효과에 의해 주파수 변화가 발생한다. 이러한 주파수 변화를 감지하여, FMCW 라이다는 물체의 속도와 위치를 시간 소모 없이 동시에 측정 가능하다. 또한, FMCW 라이다는 주변광 및 다른 라이다와의 간섭에 강건하다. 또한, FMCW 라이다는 간섭계를 이용하여 광을 측정하여 라이다에서 보내는 신호가 아닌 다른 신호와의 상호 작용을 차단할 수 있다.
반사광과의 간섭을 발생시키기 위해 FMCW 라이다에서 발생시킨 광신호를 분할하게 되는데, 그러한 분할 비율에 따라 신호대잡음비가 달라져 검출율에 영향을 미치게 된다. 다만, 분할 비율을 변경할 수 없어 측정 환경이 신호대잡음비에 영향을 미치더라도 광신호의 출력 세기를 조절하는 수 밖에 없다.
따라서, 광신호의 분할 비율을 변경 가능하게 함으로써 신호대잡음비를 유지하거나, 최적의 신호대잡음비를 생성할 수 있는 방안이 필요하다.
또한, FMCW 라이다는 검출 대상을 여러 픽셀로 나누어 검출하게 되는데, 이 경우 하나의 레이저를 사용할 경우, 하나의 픽셀에 할당되는 노출 시간이 줄어들게 된다. 노출 시간이 줄어들면, 신호의 세기가 줄어들고 같은 주파수 변조 범위에서 최대 계산 가능 거리가 줄어들게 된다. 또한, 최대 계산 가능 거리를 일정하게 유지할 경우 레이저의 주파수 변조 속도가 증가할 수 밖에 없다. 주파수 변조 속도가 올라가면 레이저의 세기가 줄어들 수 있다.
따라서, 신호를 검출하는 경우 노출 시간을 조절하여 라이다의 성능을 개선할 수 있는 방안이 필요하다.
실시 예는 광신호의 분할 비율을 조절할 수 있게 하는 라이다 장치 및 동작 방법을 제공한다.
또한, 주변광 등 노이즈가 변화함에 따라 광신호의 분할 비율을 조절하여 신호대잡음비를 유지할 수 있는 라이다 장치 및 동작 방법을 제공한다.
또한, 주변광 등 노이즈의 변화를 실시간으로 검출하여 광신호의 분할 비율을 자동으로 조절하는 라이다 장치 및 동작 방법을 제공한다.
또한, 광신호의 주파수를 임의의 파형으로 변조할 수 있으며, 검출 대상의 검출 단위를 조절할 수 있게 하는 라이다 장치 및 동작 방법을 제공한다.
또한, 하나의 검출 단위에 대한 광신호를 노출 시간을 증가시킬 수 있게 하는 라이다 장치 및 동작 방법을 제공한다.
또한, 같은 광신호 출력으로 거리해상도를 감소시킬 수 있게 하는 라이다 장치 및 동작 방법을 제공한다.
또한, 같은 광신호 출력으로 최대 측정 거리를 증가시키거나 주파수 변조 속도를 감소시킬 수 있게 하는 라이다 장치 및 동작 방법을 제공한다.
실시 예에서 해결하고자 하는 과제는 이에 한정되는 것은 아니며, 아래에서 설명하는 과제의 해결수단이나 실시 형태로부터 파악될 수 있는 목적이나 효과도 포함된다고 할 것이다.
실시예에 따른 라이다 장치는 광신호를 출력하는 출력부; 상기 광신호를 제1 광신호 및 제2 광신호로 분배하는 분배부; 상기 제1 광신호의 객체에 대한 반사광인 제3 광신호를 수신하는 수신부; 상기 제2 광신호와 상기 제3 광신호의 간섭이 발생하는 간섭부; 상기 제2 광신호와 상기 제3 광신호의 간섭에 의해 발생한 간섭광인 제4 광신호 또는 노이즈인 제5 광신호를 검출하는 검출부; 및 상기 제4 광신호에 기초하여 관측 대상에 대한 깊이 정보 및 속도 정보를 생성하는 깊이 정보 생성부;를 포함하며, 상기 분배부는 상기 제1 광신호 및 제2 광신호의 분배 비율을 조절할 수 있다.
상기 분배 비율은 식 1, 식2, 및 식 3에 따를 수 있다.
[식 1]
P0=P1+P2
[식 2]
P1=(1-x)P0
[식 3]
P2=xP0
(P0은 광신호의 파워, P1은 제1 광신호의 파워, P2는 제2 광신호의 파워이며 x는 0 이상, 1이하의 변수이다)
상기 분배부는 상기 제5 광신호의 파워에 대한 상기 제4 광신호의 파워의 비율이 소정의 범위 내에 존재하도록 상기 분배 비율을 조절할 수 있다.
상기 제5 광신호의 파워에 대한 상기 제4 광신호의 파워의 비율은 식 4에 따를 수 있다.
[식 4]
Figure PCTKR2023015096-appb-img-000001
(SNR는 상기 제5 광신호의 파워에 대한 상기 제4 광신호의 파워의 비율, R은 응답도, Loss는 반사광의 손실 정도, e는 전자의 전하량, B는 시스템의 주파수 대역폭, i others는 상기 제5 광신호의 노이즈 분산이다)
상기 분배 비율은 상기 식4에 따른 상기 제5 광신호의 파워에 대한 상기 제4 광신호의 파워의 비율이 최대인 상기 x에 따라 결정될 수 있다.
상기 분배부는 상기 제5 광신호의 변화에 따라 분배 비율을 조절할 수 있다.
상기 분배부는 상기 제5 광신호의 파워가 증가하는 경우 상기 x를 증가시키고, 상기 제5 광신호의 파워가 감소하는 경우 상기 x를 감소시킬 수 있다.
상기 검출부는 상기 제5 광신호의 변화를 실시간으로 검출하며, 상기 분배부는 실시간으로 검출한 상기 제5 광신호의 변화에 따라 자동으로 분배 비율을 조절할 수 있다.
상기 분배부는 제1 분배부 및 제2 분배부를 포함하며, 상기 광신호는 상기 제1 분배부 및 상기 제2 분배부를 순차적으로 통과하고, 상기 제1 분배부를 회전시켜 상기 광신호의 편광 각도를 조절하고, 상기 제2 분배부는 상기 제1 분배부를 통과한 상기 광신호의 수직 편광은 통과시키고, 수평 편광은 반사 시킴으로써 상기 분배 비율을 조절할 수 있다.
상기 제1 분배부는 반파장판(HWP, Half Wave Plate)이고, 상기 제2 분배부는 편광 빔 분배기(PBS, Polarizing Beam Splitter)일 수 있다.
상기 분배부는 제3 분배부, 제4 분배부 및 제5 분배부를 포함하며, 상기 광신호는 상기 제3 분배부 및 상기 제4 분배부를 순차적으로 통과하거나 상기 제3 분배부 및 상기 제5 분배부를 순차적으로 통과하고, 상기 제3 분배부는 상기 광 신호의 경로를 이동시켜 상기 제4 분배부 또는 제5 분배부로 분배되는 상기 광 신호의 상기 분배 비율을 조절할 수 있다.
상기 제3 분배부, 상기 제4 분배부 및 상기 제5 분배부는 도파관이며, 상기 제3 분배부는 상기 제4 분배부 또는 제5 분배부와의 접촉 면적을 변경하여 상기 분배 비율을 조절할 수 있다.
실시예에 따른 라이다 동작 방법은 라이다 장치를 동작시키고 날씨, 현재 시각 또는 조도 센서의 신호를 확인하는 단계; 참조 테이블을 이용하여 상기 날씨, 현재 시각 또는 조도 센서의 신호에 따른 주변광의 파워를 설정하는 단계; 상기 라이다 장치의 분배부가 광신호의 분배 비율을 변경하여 설정된 주변광의 파워에 대한 상기 광신호의 파워의 비율인 신호대잡음비를 조절하고, 상기 분배 비율은 상기 광신호를 관측 대상에 조사하는 입사광 및 간섭을 위한 참조광으로 분배하는 비율인 단계; 및
상기 입사광 및 상기 참조광의 간섭을 통해 관측 대상의 깊이 정보 및 속도 정보를 생성하는 단계;를 포함할 수 있다.
상기 분배 비율은 식 1, 식2, 및 식 3에 따를 수 있다.
[식 1]
P0=P1+P2
[식 2]
P1=(1-x)P0
[식 3]
P2=xP0
(P0은 광신호의 파워, P1은 제1 광신호의 파워, P2는 제2 광신호의 파워이며 x는 0이상, 1이하의 변수이다)
상기 신호대잡음비는 식 4에 따를 수 있다.
[식 4]
Figure PCTKR2023015096-appb-img-000002
(SNR는 신호대잡음비, R은 응답도, Loss는 반사광의 손실 정도, e는 전자의 전하량, B는 시스템의 주파수 대역폭, i others는 상기 주변광의 노이즈 분산이다)
상기 분배부는 상기 설정된 주변광의 파워의 변화에 따라 상기 분배 비율을 조절하며, 상기 주변광의 파워가 증가하는 경우 상기 x를 증가시키고, 상기 주변광의 파워가 감소하는 경우 상기 x를 감소시키고, 실시간으로 검출된 상기 광신호의 변화에 따라 자동으로 상기 분배 비율을 조절할 수 있다.
실시예에 따른 라이다 장치는 광신호를 출력하는 광 출력 장치(VCSEL, Vertical Cavity Surface Emitting Laser); 상기 광신호를 집광하고, 집광된 상기 광신호를 외부에 출력하는 복수의 렌즈군; 상기 광신호가 관측 대상에 반사되어 생성된 제1 신호 및 주변광인 제2 신호를 검출하는 광 검출 장치(SPAD, Single Photon Avalanche Diode); 상기 광신호 및 상기 제1 신호에 기초하여 상기 관측 대상에 대한 깊이 정보를 생성하는 깊이 정보 생성부; 상기 제1 신호의 세기와 상기 제2 신호의 세기를 비교하여 상기 광신호의 분배 비율을 조절하는 분배부; 및 상기 분배 비율의 변화에 따라 조절된 신호대잡음비에 대한 데이터를 저장하는 메모리;를 포함할 수 있다.
실시예에 따른 라이다 장치는 광신호를 출력하는 출력부; 객체로부터 반사된 후 입력된 상기 객체의 복수의 포인트에 대한 입력광 신호를 수신하는 수신부; 상기 입력광 신호와 참조광의 간섭이 발생하여 간섭광 신호를 생성하는 간섭부; 상기 입력광 신호를 검출하는 검출부; 상기 광신호 및 상기 입력광 신호에 기초하여 상기 객체에 대한 깊이 정보를 생성하는 깊이 정보 생성부; 및 상기 광신호의 주파수를 조절하는 제어부; 를 포함하며, 상기 제어부는 상기 광신호의 주파수의 파형을 변조하도록 설정되며, 상기 깊이 정보 생성부는 상기 복수의 포인트 중 연속하는 일부의 상기 입력광 신호에 대한 데이터를 이용하여 상기 깊이 정보를 생성할 수 있다.
상기 깊이 정보 생성부는 제1 내지 제i 포인트의 상기 입력광 신호에 대한 제1 내지 제i 데이터를 이용하여 제1 픽셀의 깊이 정보를 생성할 수 있다. (i는 1 이상의 정수이다.)
상기 깊이 정보 생성부는 제2 내지 제i+1 포인트의 상기 입력광 신호에 대한 제2 내지 제i+1 데이터를 이용하여 제2 픽셀의 깊이 정보를 생성할 수 있다.
상기 깊이 정보 생성부는 상기 제2 픽셀부터 제m-i+1 내지 제m 포인트의 상기 입력광 신호에 대한 제m-i+1 내지 제m 데이터를 이용하여 제m-i+1 픽셀의 깊이 정보를 생성할 수 있다. (m은 i이상의 정수이다)
상기 깊이 정보 생성부는 상기 제1 내지 제m-i+1 픽셀의 깊이 정보를 생성하는 과정을 반복할 수 있다.
상기 광신호의 주파수의 상기 파형의 주기는 하나의 상기 포인트의 노출 시간과 동일하고, 하나의 상기 픽셀의 노출 시간은 하나의 상기 포인트의 상기 입력광 신호의 노출 시간의 i배일 수 있다.
상기 깊이 정보 생성부는 상기 복수의 포인트 중 연속하는 일부의 상기 간섭광 신호에 대한 데이터를 이용하여 상기 깊이 정보를 생성할 수 있다.
상기 제어부는 상기 광신호의 주파수의 상기 파형의 주기를 j배 증가시킬 수 있다.
상기 광신호의 주파수의 상기 파형의 주기는 하나의 상기 포인트의 노출 시간과 동일하며, 하나의 상기 픽셀의 노출 시간은 하나의 상기 포인트의 상기 입력광 신호의 노출 시간과 동일할 수 있다.
실시예에 따른 라이다 동작 방법은 수신부가 객체의 복수의 포인트에서 반사된 반사광을 수신하는 단계; 검출부가 제1 내지 제i 포인트에서 반사된 반사광을 검출하는 단계; 및 깊이 정보 생성부가 상기 제1 내지 제i 포인트에서 반사된 반사광을 검출하여 생성된 제1 내지 제i 데이터를 이용하여 제1 픽셀의 깊이 정보를 생성하는 단계;를 포함할 수 있다. (i는 1 이상의 정수이다)
실시예에 따른 라이다 동작 방법은 상기 검출부가 제i+1 포인트에서 반사된 반사광을 검출하는 단계; 및 상기 깊이 정보 생성부가 제2 내지 제i+1 포인트에서 반사된 반사광을 검출하여 생성된 제2 내지 제i+1데이터를 이용하여 제2 픽셀의 깊이 정보를 생성하는 단계;를 포함할 수 있다.
실시예에 따른 라이다 동작 방법은 상기 검출부가 제m 포인트에서 반사된 반사광까지 반복하여 검출하는 단계; 및 상기 깊이 정보 생성부가 제m-i+1 내지 제m 포인트에서 반사된 반사광을 검출하여 생성된 제m-i+1 내지 제m 데이터를 이용하여 제m-i+1 픽셀까지의 깊이 정보를 생성하는 단계;를 포함할 수 있다. (m은 i이상의 정수이다)
상기 깊이 정보 생성부는 상기 제1 내지 제m-i+1 픽셀의 깊이 정보를 생성하는 과정을 반복할 수 있다.
상기 광신호의 주파수의 상기 파형의 주기는 하나의 상기 포인트의 노출 시간과 동일하고, 하나의 상기 픽셀의 노출 시간은 하나의 상기 포인트의 상기 입력광 신호의 노출 시간의 i배일 수 있다.
실시예에 따른 라이다 동작 방법은 상기 제어부가 상기 광신호의 주파수의 상기 파형의 주기를 j 배 증가시키는 단계;를 포함할 수 있다.
상기 광신호의 주파수의 상기 파형의 주기는 하나의 상기 포인트의 노출 시간과 동일하며, 하나의 상기 픽셀의 노출 시간은 하나의 상기 포인트의 상기 입력광 신호의 노출 시간과 동일할 수 있다.
실시예에 따른 라이다 장치는 광신호를 출력하는 광 출력 장치(VCSEL, Vertical Cavity Surface Emitting Laser); 상기 광신호를 집광하고, 집광된 상기 광신호를 외부에 출력하는 복수의 렌즈군; 상기 광신호가 관측 대상의 복수의 포인트에 반사되어 입력된 입력광 신호를 검출하는 광 검출 장치; 및 상기 광신호 및 상기 입력광 신호에 기초하여 상기 관측 대상에 대한 깊이 정보를 생성하는 깊이 정보 생성부를 포함하며, 상기 깊이 정보 생성부는 상기 복수의 포인트 중 연속하는 일부의 상기 입력광 신호에 대한 데이터를 이용하여 상기 깊이 정보를 생성할 수 있다.
실시 예에 따르면, 광신호의 분할 비율을 조절할 수 있게 하는 라이다 장치 및 동작 방법을 구현할 수 있다.
또한, 주변광 등 노이즈가 변화함에 따라 광신호의 분할 비율을 조절하여 신호대잡음비를 유지할 수 있는 라이다 장치 및 동작 방법을 구현할 수 있다.
또한, 주변광 등 노이즈의 변화를 실시간으로 검출하여 광신호의 분할 비율을 자동으로 조절하는 라이다 장치 및 동작 방법을 구현할 수 있다.
또한, 광신호의 주파수를 임의의 파형으로 변조할 수 있으며, 검출 대상의 검출 단위를 조절할 수 있게 하는 라이다 장치 및 동작 방법을 구현할 수 있다.
또한, 하나의 검출 단위에 대한 광신호를 노출 시간을 증가시킬 수 있게 하는 라이다 장치 및 동작 방법을 구현할 수 있다.
또한, 같은 광신호 출력으로 거리해상도를 감소시킬 수 있게 하는 라이다 장치 및 동작 방법을 구현할 수 있다.
또한, 같은 광신호 출력으로 최대 측정 거리를 증가시키거나 주파수 변조 속도를 감소시킬 수 있게 하는 라이다 장치 및 동작 방법을 구현할 수 있다.
본 발명의 다양하면서도 유익한 장점과 효과는 상술한 내용에 한정되지 않으며, 본 발명의 구체적인 실시형태를 설명하는 과정에서 보다 쉽게 이해될 수 있을 것이다.
도 1은 실시예에 따른 라이다 장치의 구성도이다.
도 2는 실시예에 따른 라이다 장치의 동작 원리의 대략적인 개념도이다.
도 3은 실시예에 따른 라이다 장치의 대략적인 개념도이다.
도 4는 실시예에 따른 노이즈 변화에 따른 최적의 분배 비율의 변화를 보여주는 그래프이다.
도 5는 실시예에 따른 라이다 장치의 분배부의 개념도이다.
도 6는 다른 실시예에 따른 라이다 장치의 분배부의 개념도이다.
도 7은 실시예에 따른 라이다 동작 방법의 순서도이다.
도 8은 실시예에 따른 라이다 장치의 구성도이다.
도 9는 실시예에 따른 라이다 장치의 대략적인 개념도이다.
도 10은 실시예에 따른 라이다 장치의 작동 원리를 나타내는 이미지이다.
도 11은 실시예에 따른 라이다 장치의 광신호의 주파수의 파형을 나타내는 그래프이다.
도 12는 기존의 라이다 장치의 검출 방법을 나타내는 이미지이다.
도 13은 실시예에 따른 라이다 장치의 검출 방법을 나타내는 이미지이다.
도 14는 다른 실시예에 따른 라이다 장치의 검출 방법을 나타내는 이미지이다.
도 15는 실시예에 따른 라이다 동작 방법의 순서도이다.
도 16은 실시예에 따른 라이다 장치의 분해도이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.
다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.
또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.
또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.
본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.
이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.
그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속' 되는 경우도 포함할 수 있다.
또한, 각 구성 요소의 "상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.
다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.
또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.
또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.
본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.
이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.
그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속' 되는 경우도 포함할 수 있다.
또한, 각 구성 요소의 "상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.
본 발명의 실시예에 따른 라이다 장치는 자동차에 실장되어, 자동차와 물체 간의 거리를 측정하여 거리 정보를 생성하는 정보 생성 장치를 의미할 수 있으나, 이로 제한되는 것은 아니다. 본 발명의 실시예에 따른 라이다 장치는 LIDAR(Light Detection and Ranging) 카메라일 수 있다. 본 발명의 실시예에 따른 라이다 장치는 ToF(Time of Flight) 원리를 이용하여 깊이 정보를 추출할 수 있다. 본 명세서에서, 라이다 장치는 깊이 정보 생성 장치 또는 카메라 장치라 지칭될 수도 있다.
도 1은 실시예에 따른 라이다 장치의 구성도이다.
도 1을 참조하면, 실시예에 따른 라이다 장치(100)는 출력부(110), 분배부(120), 수신부(130), 간섭부(140), 검출부(150) 및 깊이 정보 생성부(160)를 포함할 수 있다. 도 1에 도시된 라이다 장치(100)에는 본 실시예들과 관련된 구성요소들만이 도시되어 있다. 따라서, 라이다 장치(100)에는 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음은 당업자에게 자명하다.
실시예에 따른 라이다 장치(100)는 FMCW LIDAR일 수 있다. 또한, 포인트 스캐닝(point scanning) 방식을 사용할 수 있으며, 따라서, 검출부(150)에 수신되는 광의 세기는 다른 방식, 예를 들어, 플래쉬(flash) 방식에 비해 낮을 수 있다. 따라서, 검출부(150)로는 센싱 감도가 높은 애벌런치 포토다이오드(Avalanche Photo Diode, APD) 또는 싱글 포톤 애벌런치 다이오드(Single Photon Avalanche Diode, SPAD)가 채용될 수 있다. 검출부(150)가 APD 또는 SPAD중 어떤 수광소자를 포함하는지에 따라 AFE(Analog Front End), TDC(Time to Digital Converter) 등의 구체적 회로 구성이 달라질 수 있다.
실시예에 따른 라이다 장치(100)는 도플러 효과(Doppler effect)를 이용하여 검출 대상의 거리와 속도를 측정할 수 있다. 광신호가 파동이 움직이는 물체로부터 반사되면 도플러 효과에 의해 주파수의 변화가 발생한다. 이러한 주파수 변화를 감지하여 물체의 속도와 위치를 시간 소모 없이 동시에 측정 가능하다. 도플러 효과는 전자기파(빛)를 방출하는 물체가 관측자 기준으로 가까워지거나 또는 멀어지는 운동을 할 때, 관측자가 측정하는 전자기파의 파장이 실험실 파장과 달라지는 현상이다. 전자기파를 방출하는 물체가 관측자에게 다가올 때는 관측되는 전자기파의 파장이 짧아지고, 그 물체가 관측자로부터 멀어질 때는 관측되는 전자기파의 파장이 길어지는 현상이다.
실시예에 따른 라이다 장치(100)는 광신호를 출력하는 출력부(110), 광신호를 제1 광신호 및 제2 광신호로 분배하는 분배부(120), 제1 광신호의 객체에 대한 반사광인 제3 광신호를 수신하는 수신부(130), 제2 광신호와 제3 광신호의 간섭이 발생하는 간섭부(140), 제2 광신호와 제3 광신호의 간섭에 의해 발생한 간섭광인 제4 광신호 또는 노이즈인 제5 광신호를 검출하는 검출부(150), 및 제4 광신호에 기초하여 관측 대상에 대한 깊이 정보를 생성하는 깊이 정보 생성부(160)를 포함할 수 있다.
출력부(110)는 광신호를 출력하여 분배부(120)에 송신할 수 있다.
출력부(110)는 측면 발광 레이저(edge emitting laser), 수직 공진형 표면 발광 레이저(vertical-cavity surface emitting laser, VCSEL) 분포궤환형 레이저(distributed feedback laser), LED(light emitting diode) 및 SLD(super luminescent diode) 등의 광원을 포함할 수 있다. 출력부(110)는 복수의 서로 다른 파장 대역 또는 서로 다른 주파수의 광을 생성, 조사할 수 있다. 출력부(110)는 펄스광 또는 연속광을 생성할 수 있다. 연속광은 사인파(sinusoid wave)나 사각파(squared wave)의 형태일 수 있다. 출력 광 신호를 펄스광이나 연속광 형태로 생성함으로써, 라이다 장치(100)는 출력부(110)로부터 출력된 출력 광 신호와 객체로부터 반사된 후 수신부(130)로 입력된 입력광 신호 사이의 시간 차 또는 위상 차를 검출할 수 있다. 본 명세서에서, 출력 광 신호는 광 신호라 지칭 될 수 있고, 객체는 관측 대상으로 지칭될 수 있다. 관측 대상 입장에서 출력 광 신호는 입사광이 될 수 있다.
출력부(110)는 광원, 광원 상에 배치된 렌즈군 및 렌즈군 상에 배치된 확산부재를 포함할 수 있다. 광원은 빛을 생성하고, 출력한다. 광원이 생성하는 빛은 파장이 770 내지 3000nm인 적외선 일 수 있다. 또는 광원이 생성하는 빛은 파장이 380 내지 770 nm인 가시광선 일 수 있다. 광원은 발광 다이오드(Light Emitting Diode, LED)를 이용할 수 있으며, 복수의 발광 다이오드가 일정한 패턴에 따라 배열된 형태를 가질 수 있다. 뿐만 아니라, 광원은 유기 발광 다이오드(Organic light emitting diode, OLED)나 레이저 다이오드(Laser diode, LD)를 포함할 수도 있다. 또는, 광원은 VCSEL(Vertical Cavity Surface Emitting Laser)일 수도 있다. VCSEL은 전기 신호를 광 신호로 바꾸어 주는 레이저 다이오드 중 하나이며, 약 800 내지 1000nm인 파장, 예를 들어 약 850nm 또는 약 940nm 파장을 출력할 수 있다. 광원은 일정 시간 간격으로 점멸(on/off)을 반복하여 펄스파 형태나 지속파 형태의 출력광 신호를 생성한다. 일정 시간 간격은 출력광 신호의 주파수일 수 있다.
렌즈군은 광원으로부터 출력된 빛을 집광하고, 집광된 빛을 외부로 출력할 수 있다. 렌즈군은 광원의 상부에서 광원과 이격되어 배치될 수 있다. 여기서, 광원의 상부란 광원으로부터 빛이 출력되는 측을 의미할 수 있다. 렌즈군은 적어도 1매의 렌즈를 포함할 수 있다. 렌즈군이 복수 매의 렌즈를 포함하는 경우, 각 렌즈들은 중심축을 기준으로 정렬하여 광학계를 형성할 수 있다. 여기서, 중심축은 광학계의 광축(Optical axis)과 동일할 수 있다.
확산부재는 광원 및 렌즈군으로부터 출력된 빛을 수신한 후 수신한 빛을 굴절 또는 회절시켜 출력할 수 있다.
실시예에 따른 분배부(120)는 광신호를 복수의 광신호로 분배할 수 있다.
분배부(120)는 출력부(110)로부터 광신호를 수신하여 제1 광신호 및 제2 광신호로 분배할 수 있다. 제1 광신호는 수신부(130)에 송신되며, 제2 광신호는 간섭부(140)에 송신된다.
분배부(120)는 제1 광신호와 제2 광신호의 분배 비율을 조절할 수 있다. 분배부(120)의 광신호의 분배 방식은 제한되지 않으며, 편광을 이용한 방식 등을 포함할 수 있다.
수신부(130)는 광신호를 객체에 송신하거나 객체로부터 반사되어 돌아오는 광신호를 수신할 수 있다. 이때, 수신되는 반사광은 출력부(110)가 출력한 광신호가 객체로부터 반사된 것일 수 있다.
수신부(130)는 이미지 센서, 이미지 센서 상에 배치되는 필터 및 필터 상에 배치되는 렌즈군을 포함할 수 있다. 객체로부터 반사된 광신호는 렌즈군을 통과할 수 있다. 렌즈군의 광축은 이미지 센서의 광축과 얼라인(align)될 수 있다. 필터는 렌즈군과 이미지 센서 사이에 배치될 수 있다. 필터는 객체와 이미지 센서 사이의 광경로 상에 배치될 수 있다. 필터는 소정 파장 범위를 갖는 빛을 필터링할 수 있다. 필터는 빛의 특정 파장 대역을 투과시킬 수 있다. 필터는 특정 파장의 빛을 통과시킬 수 있다. 예를 들어, 필터는 적외선 대역의 빛을 통과시키고 적외선 대역 이외의 빛을 차단시킬 수 있다. 이미지 센서는 빛을 센싱할 수 있다. 이미지 센서는 광신호를 수신할 수 있다. 이미지 센서는 광신호를 감지하여 전기적 신호로 출력할 수 있다. 이미지 센서는 광원이 출력하는 광의 파장에 대응하는 파장의 광을 감지할 수 있다. 예를 들어, 이미지 센서는 적외선 대역의 빛을 감지할 수 있다.
이미지 센서는 복수의 픽셀이 그리드 형태로 배열된 구조로 구성될 수 있다. 이미지 센서는 CMOS(Complementary Metal Oxide Semiconductor) 이미지 센서일 수 있으며, CCD(Charge Coupled Device) 이미지 센서일 수도 있다. 또한, 이미지 센서는 객체로부터 반사된 IR 광을 받아들여 시간 차 또는 위상 차를 이용해 거리를 측정하는 ToF 센서를 포함할 수 있다.
수신부(130)는 출력부(110)로부터 제1 광신호를 수신할 수 있으며, 수신부(130)는 제1 광신호를 수신하여 객체에 송신할 수 있다. 또한, 수신부(130)는 제1 광신호가 객체로부터 반사되어 돌아오는 반사광인 제3 광신호를 수신할 수 있다. 여기서 수신부(130)는 복수의 렌즈들을 포함하는 광학계에 해당할 수 있으며, 수신부(130)는 출력부(110) 및 간섭부(140) 상에 위치할 수 있다.
간섭부(140)는 제2 광신호와 제3 광신호의 간섭이을 발생한시킬 수 있다. 실시예에 따른 라이다 장치(100)는 광신호의 주파수를 변경함에 따라 제2 광신호와 제3 광신호의 간섭광의 변화를 측정하는 방식이므로 간섭이 발생하는 간섭부(140)가 존재할 수 있다.
간섭부(140)는 수신부(130)로부터 제3 광신호를 수신할 수 있으며, 분배부(120)로부터 제2 광신호를 수신할 수 있다. 간섭부(140)는 수신한 제2 및 제3 광신호의 간섭을 발생시킬 수 있다. 또한, 간섭에 의해 발생한 간섭광인 제4 광신호를 검출부(150)에 송신할 수 있다.
검출부(150)는 광신호를 수신하여 검출할 수 있다. 검출부(150)는 복수의 포토다이오드를 포함할 수 있으며, 이는 광 에너지에 의해 전기 신호를 발생시키는 수광 소자일 수 있다. 수광 소자의 종류는 특별히 한정되지 않는다.
검출부(150)는 간섭부(140)로부터 제4 광신호를 수신하여 검출할 수 있다. 또한, 검출부(150)는 외부로부터 노이즈인 제5 광신호를 수신하여 검출할 수 있다. 노이즈는 태양광을 포함한 검출부(150)에 입사되는 다양한 빛을 포함할 수 있다. 노이즈는 검출부(150) 자체의 특성인 다크 노이즈, 열 잡음 등을 포함할 수 있다. 제5 광신호는 태양광 등의 영향을 받으므로 실시간으로 세기가 변화할 수 있다. 제5 광신호의 세기가 강할수록 제4 광신호의 검출이 용이하지 않게 될 수 있다.
깊이 정보 생성부(160)는 간섭부(140)로부터 출력되는 제4 광신호를 이용하여 객체의 깊이 정보 및 속도 정보를 생성할 수 있다. 제4 광신호는 객체로부터 반사된 제3 광신호와 분배부(120)로부터 출력된 제2 광신호가 간섭된 결과에 해당할 수 있다. 즉, 제4 광신호는 제2 광신호와 제3 광신호에 대하여 도플러 효과가 발생한 결과에 해당한다. 제4 광신호는 도플러 효과에 의하여, 객체에 대한 깊이 정보와 속도 정보를 포함하게 된다. 깊이 정보 생성부(160)는 제4 광신호 및 제5 광신호를 수신하여 객체의 정보를 도출할 수 있다.
도 2는 실시예에 따른 라이다 장치의 작동 원리를 나타내는 대략적인 개념도이다.
라이다 장치는 일반적으로 레이저, 스캐너, 포토다이오드의 부품으로 구성될 수 있다. 각 부품은 여러 형태를 가지고 있을 수 있다. 레이저와 스캐너, 스캐너와 관측 대상, 스캐너와 포토다이오드 사이에 여러가지 광 부품이 있을 수 있다. 레이저는 주파수의 변조가 가능할 수 있다. 레이저의 광신호는 입사광과 참조광으로 분배될 수 있다. 입사광은 스캐너를 통해서 관측 대상으로 갔다가 반사되어 돌아올 수 있다. 관측 대상으로부터 반사되어 돌아온 반사광은 Loss만큼 감쇠가 발생할 수 있다. 반사되어 돌아온 반사광과 참조광이 간섭을 일으켜 진동주파수(Beat Frequency)가 생성될 수 있다. 이러한 진동주파수를 기반으로 관측 대상과의 거리 및 속도를 측정할 수 있다.
도 2를 참조하면, 실시예에 따른 라이다 장치는 스캐닝 타입 라이다일 수 있다. 수신부(스캐너)는 M*N개의 포인트를 스캔하면서 거리를 계산할 수 있다. 이때, 검출부(포토다이오드) 내부의 주변광, 노이즈에 따라 광신호의 신호대잡음비가 정해질 수 있다. 이 경우, 광신호가 입사광과 참조광으로 나뉘는 비율을 최적화하여 최고의 신호대잡음비를 생성할 수 있다. 결국, 주어진 출력부(레이저)의 출력 파워에 따른 최고의 신호대잡음비를 얻을 수 있다. 또한, 같은 크기의 신호대잡음비를 얻기 위한 레이저의 출력 파워를 낮출 수 있다.
도 23는은 실시예에 따른 라이다 장치의 대략적인 개념도이다.
도 23를을 참조하면, 실시예에 따른 라이다 장치(100)의 분배부(120)는 제1 광신호 및 제2 광신호의 분배 비율을 조절할 수 있다.
분배부(120)는 출력부로부터 광신호를 수신하여 제1 광신호 및 제2 광신호로 분배할 수 있다. 분배부(120)는 제1 광신호는 수신부로 송신하고, 제2 광신호는 간섭부(140)로 송신할 수 있다.
실시예에 따른 라이다 장치의 분배 비율은 분배 비율이 식1, 식2 및 식3에 따를 수 있다.
[식 1]
P0=P1+P2
[식 2]
P1=(1-x)P0
[식 3]
P2=xP0
(P0은 광신호의 파워, P1은 제1 광신호의 파워, P2는 제2 광신호의 파워이며 x는 0 이상, 1이하의 변수이다)
제1 광신호의 파워 및 제2 광신호의 파워의 합은 출력부가 출력한 광신호의 파워에 해당할 수 있다. 제1 광신호의 파워와 제2 광신호의 파워의 합이 일정한 경우 제1 광신호의 파워와 제2 광신호의 파워는 0이상, 1이하의 변수인 x에 따라 (1-x), x의 비율로 분배 될 수 있다.
도 4는 실시예에 따른 노이즈 변화에 따른 최적의 분배 비율의 변화를 보여주는 그래프이다.
도 4를 참조하면, 실시예에 따른 라이다 장치의 분배부는 제5 광신호의 파워에 대한 제4 광신호의 파워의 비율이 소정의 범위 내에 존재하도록 분배 비율을 조절할 수 있다.
라이다 장치가 광신호를 검출하는 경우 노이즈가 존재하여 같이 검출될 수 있다. 따라서, 광신호의 검출이 용이하지 않게 될 수 있다. 결국 노이즈의 세기가 커 신호대잡음비(SNR)가 낮아질 경우 신호대잡음비를 증가시킬 방안이 필요하다. 또한, 노이즈는 태양광을 비롯한 다양한 빛, 열, 검출부 자체의 특성 등을 포함하여 실시간으로 변화할 수 있기 때문에 실시간으로 신호대잡음비를 유지시킬 방안이 필요하다.
실시예에 따른 라이다 장치의 분배부의 분배 비율을 다르게 할 경우 신호대잡음비의 수치가 달라지게 된다. 제5 광신호의 파워에 대한 제4 광신호의 파워의 비율이 달라질 경우 분배부의 분배 비율을 조절하여 신호대잡음비를 소정의 범위 내로 유지시킬 수 있다.
실시예에 따른 라이다 장치의 제5 광신호가 약한 경우와 제5 광신호가 강한 경우의 신호대잡음비를 가장 높게 하는 최적의 x값을 비교하면 제5 광신호가 약강한 경우의 최적의 x값이 제5 광신호가 약한 경우의 최적의 x값보다 더 클 수 있다.
실시예에 따른 라이다 장치의 제5 광신호가 약한 경우 최적의 x값인 x1은 0.061063일 수 있고, 제5 광신호가 강한 경우 최적의 x값인 x2는 0.131353일 수 있다.
실시예에 따른 라이다 장치의 제5 광신호의 파워에 대한 제4 광신호의 파워의 비율은 식4에 따를 수 있다.
[식 4]
Figure PCTKR2023015096-appb-img-000003
(SNR는 상기 제5 광신호의 파워에 대한 상기 제4 광신호의 파워의 비율, R은 응답도, Loss는 반사광의 손실 정도, e는 전자의 전하량, B는 시스템의 주파수 대역폭, i others는 상기 제5 광신호의 노이즈 분산이다)
실시예에 따른 제5 광신호의 파워에 대한 제4 광신호의 파워의 비율은 제5 광신호의 분산에 대한 제4 광신호의 분산의 비율일 수 있다.
실시예에 따른 라이다 장치의 분배 비율은 식4에 따른 제5 광신호의 파워에 대한 제4 광신호의 파워의 비율이 최대인 x에 따라 결정될 수 있다.
분배부는 신호대잡음비가 최대인 x에 따라 분배 비율을 조절할 수 있다.
제5 광신호의 파워에 대한 제4 광신호의 파워의 비율을 x에 대하여 미분함으로써 제5 광신호의 파워에 대한 제4 광신호의 파워의 비율이 최대인 x를 결정할 수 있다.
제5 광신호의 파워에 대한 제4 광신호의 파워의 비율이 최대인 x는 식5에 따라 결정될 수 있다.
[식 5]
Figure PCTKR2023015096-appb-img-000004
제5 광신호의 파워에 대한 제4 광신호의 파워의 비율이 최대인 x는 식6에 따라 결정될 수 있다.
[식 6]
Figure PCTKR2023015096-appb-img-000005
Loss는 제3 광신호(반사광)의 손실 정도를 의미하는데 제3 광신호의 손실 정도가 매우 작은 경우 Loss를 무시하고 제5 광신호에 대한 제4 광신호의 비율이 최대인 x를 결정할 수 있다.
실시예에 따른 라이다 장치의 분배부는 제5 광신호의 변화에 따라 분배 비율을 조절할 수 있다.
제5 광신호는 노이즈 신호로 검출부가 광신호를 검출하는 경우 노이즈가 존재하여 같이 검출될 수 있다. 따라서, 광신호의 검출이 용이하지 않게 될 수 있다. 결국 노이즈의 세기가 증가하여 신호대잡음비(SNR)가 낮아질 경우 신호대잡음비를 증가시킬 방안이 필요하다. 또한, 노이즈는 태양광을 비롯한 다양한 빛, 열, 검출부 자체의 특성 등을 포함하여 실시간으로 변화할 수 있기 때문에 실시간으로 신호대잡음비를 유지시킬 필요가 있다. 따라서, 분배부는 제5 광신호의 변화에 따라 분배 비율을 조절하여 신호대잡음비를 조절할 수 있다.
실시예에 따른 라이다 장치의 분배부는 제5 광신호의 파워가 증가하는 경우 x를 증가시키고, 제5 광신호의 파워가 감소하는 경우 x를 감소시킬 수 있다.
제5 광신호의 파워가 증가하여 제5 광신호의 파워에 대한 제4 광신호의 파워의 비율이 증가하는 경우 x를 증가시켜 최적의 신호대잡음비를 유지할 수 있고, 제5 광신호의 파워가 감소하여 제5 광신호의 파워에 대한 제4 광신호의 파워의 비율이 감소하는 경우 x를 감소시켜 최적의 신호대잡음비를 유지할 수 있다.
실시예에 따른 라이다 장치의 검출부는 제5 광신호의 변화를 실시간으로 검출하며, 분배부는 실시간으로 검출한 제5 광신호의 변화에 따라 자동으로 분배 비율을 조절할 수 있다.
제5 광신호는 노이즈 신호로서 태양광, 날씨 등의 변화에 따라 실시간으로 변화할 수 있다. 따라서, 실시간으로 신호대잡음비가 계속 달라지는 것을 방지하기 위해 검출부는 제5 광신호를 실시간으로 측정하여 제5 광신호의 변화를 실시간으로 감지할 수 있으며, 분배부는 실시간으로 검출한 제5 광신호의 변화에 따라 자동으로 분배 비율을 조절할 수 있다.
도 5는 실시예에 따른 라이다 장치의 분배부의 개념도이다.
도 5를 참조하면, 실시예에 따른 라이다 장치의 분배부는 제1 분배부(121) 및 제2 분배부(122)를 포함하며, 광신호는 제1 분배부(121) 및 제2 분배부(122)를 순차적으로 통과하고,한다. 분배부는 제1 분배부(121)를 회전시켜 광신호의 편광 각도를 조절하고, 제2 분배부(122)는를 이용하여 제1 분배부(121)를 통과한 광신호의 수직 편광은 통과시키고, 수평 편광은 반사 시킴으로써 분배 비율을 조절할 수 있다.
실시예에 따른 분배부는 제1 분배부(121) 및 제2 분배부(122)를 포함할 수 있다. 제1 분배부(121) 및 제2 분배부(122)는 광신호의 경로에 나란히 배치될 수 있지만 이에 한정되지 않는다. 광신호는 제1 분배부(121) 및 제2 분배부(122)를 순차적으로 통과할 수 있다.
제1 분배부(121)는 광신호의 각도에 따라 편광 각도를 변경시킬 수 있다. 예를 들어 선편광이 된 신호는 제1 분배부(121)의 통과 전과 통과 후에의 편광 방향이 제1 분배부(121)의 통과 전의 편광 방향과 90도 회전하며차이를 가진다,. 원편광이 된 신호는 제1 분배부(121)의 통과 후에도 영향이 없을 수 있다. 제1 분배부(121)는 편광 방향에 따라 굴절률이 다른 물질로 구성될 수 있다.
제2 분배부(122)는 입사된 광신호의 수직 편광은 통과시키고 수평 편광은 반사시킬 수 있다. 예를 들어, 광신호의 수직 편광은 통과시켜 제1 광신호가 되고 광신호의 수평 편광은 반사시켜 제2 광신호가 될 수 있다.
분배부는 제1 분배부(121)를 회전 시킴으로써 편광 각도를 조절하여 광신호의 분배 비율을 조절할 수 있다. 즉, 분배부는 제1 분배부(121)를 회전 시킴으로써 신호대잡음비를 조절할 수 있다.
실시예에 따른 라이다 장치의 제1 분배부(121)는 반파장판(HWP, Half Wave Plate)이고, 제2 분배부(122)는 편광 빔 분배기(PBS, Polarizing Beam Splitter)일 수 있다.
도 6는 다른 실시예에 따른 라이다 장치의 분배부의 개념도이다.
도 6를 참조하면, 실시예에 따른 라이다 장치의 분배부는 제3 분배부(123), 제4 분배부(124) 및 제5 분배부(125)를 포함하며, 광신호는 제3 분배부(123) 및 제4 분배부(124)를 순차적으로 통과하거나 제3 분배부(123) 및 제5 분배부(125)를 순차적으로 통과하고, 제3 분배부(123)는 광 신호의 경로를 이동시켜 제4 분배부(124) 또는 제5 분배부(125)로 분배되는 광 신호의 분배 비율을 조절할 수 있다.
실시예에 따른 라이다 장치의 제3 분배부(123), 제4 분배부(124) 및 제5 분배부(125)는 도파관이며, 제3 분배부(123)는 제4 분배부(124) 또는 제5 분배부(125)와의 접촉 면적을 변경하여 광신호의 분배 비율을 조절할 수 있다.
제3 분배부(123), 제4 분배부(124) 및 제5 분배부(125)는 도체로 만든 속이 빈 도관일 수 있다. 제3 내지 제5 분배부(123, 124, 125)는 관 내부를 광신호가 통과할 수 있는 구조일 수 있다. 제3 분배부(123), 제4 분배부(124) 및 제5 분배부(125)는 광신호를 입사시킬 경우 광신호가 관 구조 내부를 균일하게 통과하여 빠져나갈 수 있다.
제3 분배부(123)는 제4 분배부(124) 또는 제5 분배부(125)와의 접촉 면적을 변경할 수 있다. 제4 분배부(124)와 제5 분배부(125)는 서로 상하 방향으로 접촉하여 배치된 구조일 수 있으며, 제3 분배부(123)는 제4 분배부(124) 또는 제5 분배부(125)와 관 구조의 단면이 서로 접촉한 배치 구조일 수 있다. 따라서, 분배부는 제3 분배부(123)를 제4 분배부(124) 및 제5 분배부(125)와 접촉한 채 수직 방향으로 이동시켜 광신호의 분배 비율을 조절할 수 있다. 분배부는 제3 분배부(123)를 이동 시킴으로써 광신호의 분배 비율을 조절할 수 있고, 이에 따라서 신호대잡음비를 조절할 수 있다.
도 7은 실시예에 따른 라이다 동작 방법의 순서도이다.
도 7을 참조하면, 실시예에 따른 라이다 동작 방법(S1000)은 라이다 장치를 동작시키고 날씨, 현재 시각 또는 조도 센서의 신호를 확인하는 단계(S1100), 참조 테이블을 이용하여 날씨, 현재 시각 또는 조도 센서의 신호에 따른 주변광의 파워를 설정하는 단계(S1200), 라이다 장치의 분배부가 광신호의 분배 비율을 변경하여 설정된 주변광의 파워에 대한 광신호의 파워의 비율인 신호대잡음비를 조절하고, 분배 비율은 광신호를 관측 대상에 조사하는 입사광 및 간섭을 위한 참조광으로 분배하는 비율인 단계(S1300) 및 입사광 및 참조광의 간섭을 통해 관측 대상의 깊이 정보 및 속도 정보를 생성하는 단계(S1400)를 포함할 수 있다.
실시예에 따른 라이다 동작 방법의 분배 비율은 식 1, 식2, 및 식 3에 따를 수 있다.
[식 1]
P0=P1+P2
[식 2]
P1=(1-x)P0
[식 3]
P2=xP0
(P0은 광신호의 파워, P1은 입사광의 파워, P2는 참조광의 파워이며 x는 0이상, 1이하의 변수이다)
실시예에 따른 라이다 동작 방법의 신호대잡음비는 식 4에 따를 수 있다.
[식 4]
Figure PCTKR2023015096-appb-img-000006
(SNR는 신호대잡음비, R은 응답도, Loss는 반사광의 손실 정도, e는 전자의 전하량, B는 시스템의 주파수 대역폭, i others는 상기 주변광의 노이즈 분산이다)
실시예에 따른 라이다 동작 방법의 분배부는 주변광의 파워의 변화에 따라 분배 비율을 조절하며, 주변광의 파워가 증가하는 경우 x를 증가시키고, 주변광의 파워가 감소하는 경우 x를 감소시키고, 실시간으로 검출된 광신호의 변화에 따라 자동으로 분배 비율을 조절할 수 있다.
실시예에 따른 라이다 장치는 광신호를 출력하는 광 출력 장치(VCSEL, Vertical Cavity Surface Emitting Laser), 광신호를 집광하고, 집광된 광신호를 외부에 출력하는 복수의 렌즈군, 광신호가 관측 대상에 반사되어 생성된 제1 신호 및 주변광인 제2 신호를 검출하는 광 검출 장치(SPAD, Single Photon Avalanche Diode), 광신호 및 제1 신호에 기초하여 관측 대상에 대한 깊이 정보를 생성하는 깊이 정보 생성부, 제1 신호의 세기와 제2 신호의 세기를 비교하여 광신호의 분배 비율을 조절하는 분배부 및 분배 비율의 변화에 따라 조절된 신호대잡음비 대한 데이터를 저장하는 메모리를 포함할 수 있다.
도 8은 실시예에 따른 라이다 장치의 구성도이다.
도 8을 참조하면, 실시예에 따른 라이다 장치(200)는 출력부(210), 수신부(220), 검출부(230), 간섭부(240), 깊이 정보 생성부(250) 및 제어부(140160)를 포함할 수 있다. 라이다 장치(200)에는 본 실시예들과 관련된 구성요소들만이 도시되어 있다. 따라서, 라이다 장치(200)에는 도 8에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음은 당업자에게 자명하다.
실시예에 따른 라이다 장치(200)는 FMCW LIDAR일 수 있다. 또한, 포인트 스캐닝(point scanning) 방식을 사용할 수 있으며, 따라서, 검출부(230)에 수신되는 광의 세기는 다른 방식, 예를 들어, 플래쉬(flash) 방식에 비해 낮을 수 있다. 따라서, 검출부(230)로는 센싱 감도가 높은 애벌런치 포토다이오드(Avalanche Photo Diode, APD) 또는 싱글 포톤 애벌런치 다이오드(Single Photon Avalanche Diode, SPAD)가 채용될 수 있다. 검출부(230)가 APD 또는 SPAD중 어떤 수광소자를 포함하는지에 따라 AFE(Analog Front End), TDC(Time to Digital Converter) 등의 구체적 회로 구성이 달라질 수 있다.
실시예에 따른 라이다 장치(200)는 도플러 효과(Doppler effect)를 이용하여 검출 대상의 거리와 속도를 측정할 수 있다. 광신호가 파동이 움직이는 물체로부터 반사되면 도플러 효과에 의해 주파수의 변화가 발생한다. 이러한 주파수 변화를 감지하여 물체의 속도와 위치를 시간 소모 없이 동시에 측정 가능하다. 도플러 효과는 전자기파(빛)를 방출하는 물체가 관측자 기준으로 가까워지거나 또는 멀어지는 운동을 할 때, 관측자가 측정하는 전자기파의 파장이 실험실 파장과 달라지는 현상이다. 전자기파를 방출하는 물체가 관측자에게 다가올 때는 관측되는 전자기파의 파장이 짧아지고, 그 물체가 관측자로부터 멀어질 때는 관측되는 전자기파의 파장이 길어지는 현상이다.
도 9는 실시예에 따른 라이다 장치의 대략적인 개념도이다.
도 8 및 9를 참조하면, 실시예에 따른 라이다 장치(200)는 광신호를 출력하는 출력부(210), 객체로부터 반사된 후 입력된 객체의 복수의 포인트에 대한 입력광 신호를 수신하는 수신부(220), 입력광 신호와 참조광의 간섭이 발생하여 간섭광 신호를 생성하는 간섭부(240), 입력광 신호를 검출하는 검출부(230), 광신호 및 입력광 신호에 기초하여 객체에 대한 깊이 정보를 생성하는 깊이 정보 생성부(250) 및 광신호의 주파수를 조절하는 제어부(260)를 포함할 수 있다.출력된 광신호를 객체에 조사하는 출력부(210), 객체로부터 반사된 후 입력된 입력광 신호를 수신하는 수신부(220), 입력광 신호를 검출하는 검출부(230) 및 광신호의 주파수를 조절하는 제어부(240)를 포함할 수 있다.
출력부(210)는 광신호를 출력하여 수신부(220)에 송신할 수 있다.
출력부(210)는 측면 발광 레이저(edge emitting laser), 수직 공진형 표면 발광 레이저(vertical-cavity surface emitting laser, VCSEL) 분포궤환형 레이저(distributed feedback laser), LED(light emitting diode) 및 SLD(super luminescent diode) 등의 광원을 포함할 수 있다. 출력부(210)는 복수의 서로 다른 파장 대역의 광을 생성 조사할 수도 있다. 출력부(210)는 펄스광 또는 연속광을 생성할 수 있다.
연속광은 사인파(sinusoid wave)나 사각파(squared wave)의 형태일 수 있다. 출력 광 신호를 펄스광이나 연속광 형태로 생성함으로써, 라이다 장치(200)는 출력부(210)로부터 출력된 출력 광 신호와 객체로부터 반사된 후 수신부(220)로 입력된 입력광 신호 사이의 시간 차 또는 위상 차를 검출할 수 있다. 본 명세서에서, 출력 광 신호는 광 신호라 지칭 될 수 있고, 객체는 관측 대상으로 지칭될 수 있다. 관측 대상 입장에서 출력 광 신호는 입사광이 될 수 있다.
출력부(210)는 광원, 광원 상에 배치된 렌즈군 및 렌즈군 상에 배치된 확산부재를 포함할 수 있다. 광원은 빛을 생성하고, 출력한다. 광원이 생성하는 빛은 파장이 770 내지 3000nm인 적외선 일 수 있다. 또는 광원이 생성하는 빛은 파장이 380 내지 770 nm인 가시광선 일 수 있다. 광원은 발광 다이오드(Light Emitting Diode, LED)를 이용할 수 있으며, 복수의 발광 다이오드가 일정한 패턴에 따라 배열된 형태를 가질 수 있다. 뿐만 아니라, 광원은 유기 발광 다이오드(Organic light emitting diode, OLED)나 레이저 다이오드(Laser diode, LD)를 포함할 수도 있다. 또는, 광원은 VCSEL(Vertical Cavity Surface Emitting Laser)일 수도 있다. VCSEL은 전기 신호를 광 신호로 바꾸어 주는 레이저 다이오드 중 하나이며, 약 800 내지 1000nm인 파장, 예를 들어 약 850nm 또는 약 940nm 파장을 출력할 수 있다. 광원은 일정 시간 간격으로 점멸(on/off)을 반복하여 펄스파 형태나 지속파 형태의 출력광 신호를 생성한다. 일정 시간 간격은 출력광 신호의 주파수일 수 있다.
렌즈군은 광원으로부터 출력된 빛을 집광하고, 집광된 빛을 외부로 출력할 수 있다. 렌즈군은 광원의 상부에서 광원과 이격되어 배치될 수 있다. 여기서, 광원의 상부란 광원으로부터 빛이 출력되는 측을 의미할 수 있다. 렌즈군은 적어도 1매의 렌즈를 포함할 수 있다. 렌즈군이 복수 매의 렌즈를 포함하는 경우, 각 렌즈들은 중심축을 기준으로 정렬하여 광학계를 형성할 수 있다. 여기서, 중심축은 광학계의 광축(Optical axis)과 동일할 수 있다.
확산부재는 광원 및 렌즈군으로부터 출력된 빛을 수신한 후 수신한 빛을 굴절 또는 회절시켜 출력할 수 있다.
출력부(210)가 출력하는 광신호는 제어부(260)에 의해 조절될 수 있다. 출력부(210)는 제어부(260)로부터 광신호의 출력을 조절하는 명령을 수신하여 출력 광신호를 조절할 수 있다. 출력부(210)는 세기, 주기, 주파수 등이 서로 다른 광신호를 출력할 수 있다. 출력부(210)는 출력한 광신호를 수신부(220)에 송신할 수 있다. 출력부(210)는 주파수가 일정 주기에 따라 변조되는 광신호를 출력할 수 있다. 주파수가 변조되는 광신호를 통해 도플러 효과를 이용하여 객체의 거리 및 속도를 동시에 측정할 수 있다.
출력부(210)가 출력하는 광신호는 제어부(260)에 의해 입력광 및 참조광으로 분할될 수 있다. 예를 들어, 출력부(210)와 수신부(220) 사이에 연결되는 스플리터(270)는 광신호를 입력광 및 참조광으로 분할할 수 있다. 여기서 입력광은 수신부(220)에 전달될 수 있고, 참조광은 간섭부(240)에 전달될 수 있다. 객체로부터 반사되어 수신되는 입력광은 참조광의 특성과 다를 수 있고, 간섭부(240)는 입력광과 참조광의 간섭을 발생시켜 특정 광 신호를 출력할 수 있다. 라이다 장치(200)는 간섭의 결과로 생성되는 광 신호를 이용하여 객체의 거리 및 속도를 동시에 측정할 수 있다.
수신부(220)는 광신호를 객체에 방출하거나 객체로부터 반사된 광신호를 수신할 수 있다. 수신부(220)는 스캐너(Scanner)로 지칭될 수 있다.
수신부(220)는 이미지 센서, 이미지 센서 상에 배치되는 필터 및 필터 상에 배치되는 렌즈군을 포함할 수 있다. 객체로부터 반사된 광신호는 렌즈군을 통과할 수 있다. 렌즈군의 광축은 이미지 센서의 광축과 얼라인(align)될 수 있다. 필터는 렌즈군과 이미지 센서 사이에 배치될 수 있다. 필터는 객체와 이미지 센서 사이의 광경로 상에 배치될 수 있다. 필터는 소정 파장 범위를 갖는 빛을 필터링할 수 있다. 필터는 빛의 특정 파장 대역을 투과시킬 수 있다. 필터는 특정 파장의 빛을 통과시킬 수 있다. 예를 들어, 필터는 적외선 대역의 빛을 통과시키고 적외선 대역 이외의 빛을 차단시킬 수 있다. 이미지 센서는 빛을 센싱할 수 있다. 이미지 센서는 광신호를 수신할 수 있다. 이미지 센서는 광신호를 감지하여 전기적 신호로 출력할 수 있다. 이미지 센서는 광원이 출력하는 광의 파장에 대응하는 파장의 광을 감지할 수 있다. 예를 들어, 이미지 센서는 적외선 대역의 빛을 감지할 수 있다. 여기서 이미지 센서는 라이다 장치(200)의 검출부(230)에 해당할 수 있다.
이미지 센서는 복수의 픽셀이 그리드 형태로 배열된 구조로 구성될 수 있다. 이미지 센서는 CMOS(Complementary Metal Oxide Semiconductor) 이미지 센서일 수 있으며, CCD(Charge Coupled Device) 이미지 센서일 수도 있다. 또한, 이미지 센서는 객체로부터 반사된 IR 광을 받아들여 시간 차 또는 위상 차를 이용해 거리를 측정하는 ToF 센서를 포함할 수 있다.
수신부(220)는 출력부(210)로부터 출력된 광신호를 수신할 수 있다. 수신부(220)는 수신한 광신호를 객체에 조사할 수 있다. 수신부(220)는 객체로부터 반사되어 다시 입력된 입력광 신호를 수신할 수 있다. 또한, 수신한 입력광 신호를 검출부(230)에 송신할 수 있다. 수신한 입력광 신호는 간섭부(240)에서 참조광과 간섭되어 검출부(230)에 제공될 수 있다.
수신부(220)는 일정 단위로 분할된 객체의 각 단위에 균일하고 일정하게 광신호를 조사할 수 있다.
수신부(220)는 객체에 균일하게 광신호를 조사하기 위해 위치가 이동되거나 각도를 조절할 수 있으나, 광신호의 조사 방법은 제한되지 않는다.
간섭부(240)는 입사광 신호와 참조광의 간섭을 발생시킬 수 있다. 실시예에 따른 라이다 장치(200)는 광신호의 주파수를 변경함에 따라 입사광 신호와 참조광의 간섭광의 변화를 측정하는 방식이므로 간섭이 발생하는 간섭부(240)가 존재할 수 있다.
간섭부(240)는 수신부(230)로부터 입사광 신호를 수신할 수 있다. 간섭부(240)는 수신한 입사광 신호 및 참조광의 간섭을 발생시킬 수 있다. 또한, 간섭에 의해 발생한 간섭광을 검출부(230)에 송신할 수 있다.
검출부(230)는 광신호를 검출할 수 있다.
검출부(230)는 간섭부(240)로부터 간섭에 의해 발생한 간섭광을 수신하여 검출할 수 있다. 검출부(230)는 복수의 포토다이오드를 포함할 수 있으며, 이는 광 에너지에 의해 전기 신호를 발생시키는 수광 소자일 수 있다. 수광 소자의 종류는 특별히 한정되지 않는다.
검출부(230)는 객체를 복수의 단위로 분할하여 해당 단위 별로 입력광 신호를 검출할 수 있다. 검출부(230)는 객체의 각 단위 별로 광신호를 검출하여 객체의 모든 부분에서 반사되는 입력광 신호를 검출할 수 있다. 검출부(230)는 입력광 신호를 검출하여 객체의 거리와 속도를 동시에 측정할 수 있다.
실시예에 따른 라이다 장치의 깊이 정보 생성부(250)는 복수의 포인트 중 연속하는 일부의 입력광 신호에 대한 데이터를 이용하여 깊이 정보를 생성할 수 있다.
깊이 정보 생성부(250)는 간섭부(240)에 의해 생성된 간섭광을 이용하여 관측 대상의 깊이 정보를 생성할 수 있다. 깊이 정보 생성부(250)는 FMCW 방식으로 주파수가 변하는 빛을 간섭시킨 결과를 이용하여 객체의 위치와 속도에 대한 정보를 생성할 수 있다. 파동이 움직이는 물체로부터 반사되면 도플러 효과에 의해 주파수 변화가 발생하고, 이러한 주파수 변화를 감지하여 물체의 속도와 위치를 시간 소모 없이 동시에 측정 가능하다. FMCW 방식은 광신호의 왕복 시간을 측정하는 dToF 방식 및 크기가 변화하는 광신호를 이용하여 거리를 측정하는 iToF 방식과 차이가 있다.
출력부(210)로부터 출력되는 광신호는 주파수가 변조되는 광신호에 해당할 수 있다. 간섭부(240)에 입사되는 참조광 또한 주파수가 변조되는 광신호에 해당할 수 있고, 객체로부터 반사되어 간섭부(240)에 입사되는 입력광 신호 또한 주파수가 변조되는 광신호에 해당할 수 있다. 여기서, 간섭부(240)에 의해 서로 다른 특성을 갖는 참조광과 입력광 간의 간섭이 발생하게 된다. 즉, 서로 다른 광 신호 간의 도플러 효과가 발생한다. 결과적으로 간섭부(240)로부터 출력되는 간섭광은 특징을 갖게된다. 검출부(230)는 간섭광을 검출할 수 있으며, 깊이 정보 생성부(250)는 검출된 간섭광의 정보를 이용하여 객체의 속도 및 위치를 실시간으로 측정할 수 있다.
실시예에 따른 라이다 장치의 제어부는 광신호의 주파수의 파형을 변조하도록 설정될 수 있다.
제어부(260)는 출력부(210)가 출력하는 광신호를 조절할 수 있다. 제어부(260)는 출력부(210), 수신부(220) 및 깊이 정보 생성부(250)의 구동을 제어한다. 깊이 정보 생성부(250) 및 제어부(260)는 PCB(printed circuit board)의 형태로 구현될 수 있다. 또한, 깊이 정보 생성부(250) 및 제어부(260)는 다른 구성의 형태로 구현될 수도 있다. 또는, 제어부(260)는 본 발명의 실시예에 따른 라이다 장치(200)가 배치된 단말 또는 차량에 포함될 수도 있다. 예를 들어, 제어부(260)는 본 발명의 실시예에 따른 라이다 장치(200)가 탑재된 스마트폰의 어플리케이션 프로세서(Application Processor, AP)의 형태로 구현되거나, 본 발명의 실시예에 따른 라이다 장치(200)가 탑재된 차량의 ECU(electronic control unit)의 형태로 구현될 수 있다.
제어부(260)는 출력 광신호를 조절하는 명령을 출력부(210)에 송신할 수 있다. 제어부(260)는 광신호의 출력 세기, 주기 또는 주파수 등의 조절하는 명령을 송신할 수 있다. 제어부(260)는 검출부로부터 입력광 신호의 검출 데이터를 수신할 수 있다. 해당 데이터에 따라 광신호를 조절하는 명령을 출력부(210)에 송신할 수 있다.
제어부(260)는 광신호의 주파수의 크기를 조절하는 명령을 송신할 수 있다. 또한, 광신호의 주파수의 변화가 일정한 파형을 가지도록 조절할 수 있으며, 해당 파형의 모양 또는 주기 등을 조절할 수 있다.
라이다 장치(200)는 일반적으로 레이저, 스캐너, 포토다이오드의 부품으로 구성될 수 있다. 각 부품은 여러 형태를 가지고 있을 수 있다. 레이저와 스캐너, 스캐너와 관측 대상, 스캐너와 포토다이오드 사이에 여러가지 광 부품이 있을 수 있다. 레이저는 주파수의 변조가 가능할 수 있다. 레이저의 광신호는 스플리터(270)를 통해 입사광과 참조광으로 분배될 수 있다. 입사광은 스캐너를 통해서 관측 대상으로 갔다가 반사되어 돌아올 수 있다. 관측 대상으로부터 반사되어 돌아온 반사광은 Loss만큼 감쇠가 발생할 수 있다. 반사되어 돌아온 반사광과 참조광이 간섭을 일으켜 진동주파수(Beat Frequency)가 생성될 수 있다. 이러한 진동주파수를 기반으로 관측 대상과의 거리 및 속도를 측정할 수 있다.
도 10은 실시예에 따른 라이다 장치의 객체의 분할 방법을 나타내는 이미지이다.
도 10을 참조하면, 실시예에 따른 라이다 장치는 스캐닝 타입 라이다일 수 있다. 실시예에 따른 라이다 장치는 객체의 복수의 포인트에 대한 입력광 신호를 검출할 수 있다. 또한, 실시예에 따른 라이다 장치의 깊이 정보 생성부는 복수의 포인트 중 연속하는 일부의 입력광 신호에 대한 데이터를 이용하여 깊이 정보를 생성할 수 있다.
포인트는 라이다 장치에서 검출하고자 하는 객체를 일정한 단위로 분할하는 단위일 수 있다. 객체의 관측하고자 하는 부분을 일정한 면적과 모양으로 분할한 단위일 수 있다. 또한, 검출부는 각 포인트에 대한 입력광 신호를 검출할 수 있다. 또한, 깊이 정보 생성부는 복수의 포인트 중 연속하는 일부의 입력광 신호에 대한 데이터를 이용하여 깊이 정보를 생성할 수 있다.
수신부(220)는 광신호를 객체에 조사할 수 있으며, 반사된 입사광 신호를 검출부에 송신하게 된다. 수신부(220)는 광신호의 조사 위치를 조절하거나 각도를 조절하는 방법으로 a1, a2, a3, ..., am에 순서대로 일정하게 광신호를 조사할 수 있다. 깊이 정보 생성부는 분할한 포인트 별로 해당 포인트의 입사광 신호에 대한 데이터를 이용하여 깊이 정보를 생성할 수 있다. 분할 포인트의 크기는 제한되지 않는다.
도 11은 실시예에 따른 라이다 장치의 광신호의 주파수의 파형을 나타내는 그래프이다.
실시예에 따른 라이다 장치의 광신호의 주파수는 톱니 파형을 나타낼 수 있다(11-a).
실시예에 따른 라이다 장치의 광신호의 주파수는 삼각 파형을 나타낼 수 있다(11-b).
실시예에 따른 광신호의 주파수는 f0에서 f1의 범위 내에서 시간에 따라 일정하게 변경될 수 있고, 일정한 주기(Tf)를 갖는 파형을 나타낼 수 있다. 다만, 광신호의 주파수의 파형은 제한되지 않는다.
삼각 파형의 경우 라이다 장치의 거리 해상도는 식 7에 따라 결정될 수 있다.
[식 7]
Figure PCTKR2023015096-appb-img-000007
여기서, ΔR은 거리 해상도, c는 광신호의 속도, f1-f0는 광신호의 주파수의 폭, Tf는 한 파형의 주기, Tp는 깊이 정보 생성부의 한 포인트의 노출 시간일 수 있다. (톱니 파형의 경우 식 1은 4 대신 2가 될 수 있다.)
거리 해상도는 평면 거리 단위로 표현되는 두 점 간의 측정 가능한 최소 거리를 의미한다. 거리 해상도가 낮아질수록 라이다 장치의 성능이 향상된다.
삼각 파형의 경우 라이다 장치의 최대 측정 가능 거리는 식 8에 따라 결정될 수 있다.
[식 8]
Figure PCTKR2023015096-appb-img-000008
여기서, Rmax는 최대 측정 거리, f1-f0는 광신호의 주파수의 폭, fs는 샘플링 주파수, c는 광신호의 속도, Tf는 파형의 주기일 수 있다. (톱니 파형의 경우 식 8은 8 대신 4가 될 수 있다.)
최대 측정 거리는 라이다 장치가 객체를 검출할 수 있는 최대 거리를 의미한다. 최대 측정 거리가 증가할수록 라이다 장치의 성능이 향상된다.
삼각 파형의 경우 라이다 장치의 주파수 변조 속도는 식 9에 따라 결정될 수 있다.
[식 9]
Figure PCTKR2023015096-appb-img-000009
여기서, Vf는 주파수 변조 속도, f1-f0는 광신호의 주파수의 폭, Tf는 파형의 주기일 수 있다. (톱니 파형의 경우 식 3은 2 대신 4가 될 수 있다.)
주파수 변조 속도는 라이다 장치가 출력 광신호의 주파수를 변조할 수 있는 속도를 의미한다. 주파수 변조 속도가 감소할수록 라이다 장치의 성능이 향상된다.
도 12는 기존의 라이다 장치의 검출 방법을 나타내는 이미지이다.
도 11 및 12를 참조하면, 깊이 정보 생성부는 객체의 각 포인트(a1, a2, ..., am)의 입력광 신호에 대한 데이터를 이용하여 깊이 정보를 생성할 수 있다. 수신부는 객체를 향하여 일정한 파형과 주기의 주파수를 갖는 광신호를 조사할 수 있다. 수신부는 객체에 일정 파형과 주기의 주파수를 갖는 광신호를 조사하고 반사되는 입력광 신호를 수신할 수 있다. 수신부는 광신호의 조사 위치를 조절하거나 각도를 조절하는 방법으로 객체에 일정하게 광신호를 조사할 수 있다.
광신호의 주파수의 파형의 주기는 Tf로 일정할 수 있다.
깊이 정보 생성부의 각 포인트(a1, a2, a3, ..., am)의 노출 시간은 각각 t1, t2, t3, ..., tm로 일정할 수 있다. 이 경우 노출 시간 tm은 광신호의 주파수의 파형의 주기(Tf)와 동일할 수 있다.
기존의 라이다 장치의 거리 해상도는 식 10에 따라 결정될 수 있다.
[식 10]
Figure PCTKR2023015096-appb-img-000010
기존의 라이다 장치의 최대 측정 거리는 식 11에 따라 결정될 수 있다.
[식 11]
Figure PCTKR2023015096-appb-img-000011
기존의 라이다 장치의 주파수 변조 속도는 식 12에 따라 결정될 수 있다.
[식 12]
Figure PCTKR2023015096-appb-img-000012
기존의 라이다 장치에서, 깊이 정보 생성부는 객체의 포인트로부터 반사된 입력광 신호를 이용하여 객체의 포인트에 대한 깊이 정보 및 속도 정보를 생성할 수 있다. 즉, 깊이 정보 생성부는 하나의 주기에 해당하는 입력광 신호를 이용하여 해당 객체의 포인트에 대한 깊이 정보 및 속도 정보를 생성할 수 있다. 상세히, 라이다 장치는 객체의 포인트로부터 반사된 입력광 신호와 참조광 신호를 간섭한 결과 생성된 간섭광으로부터, 해당 객체의 포인트에 대한 깊이 정보 및 속도 정보를 생성할 수 있다. 이하, 실시예에 따른 라이다 장치(200)의 깊이 정보 및 속도 정보의 검출 방법에 대하여 설명한다.
도 13은 실시예에 따른 라이다 장치의 검출 방법을 나타내는 이미지이다.
도 12 및 13을 참조하면, 실시예에 따른 라이다 장치의 깊이 정보 생성부는 제1 내지 제i 포인트의 입력광 신호에 대한 제1 내지 제i 데이터를 이용하여 제1 픽셀의 깊이 정보를 생성할 수 있다. 여기서 픽셀은 앞서 설명한 포인트와 다른 단위에 해당할 수 있다. 예를 들어, 픽셀의 개수는 포인트의 개수보다 적을 수 있다.
검출부는 기존의 라이다 장치와 동일하게 객체의 각 포인트의 입사광 신호를 검출할 수 있다. 즉, 검출부는 제1 내지 제m 포인트로부터 반사된 입사광 신호와 참조광 신호가 간섭되어 생성된 간섭광 신호를 검출할 수 있다. 해당 동작은 도 1 내지 도 5를 참조하여 설명한 검출부에 대한 설명과 동일하다.
깊이 정보 생성부는 복수의 포인트의 입력광 신호에 대한 복수의 데이터를 이용하여 픽셀(b1, b2, b3, ..., bm-i+1)을 새로운 단위로 하여 깊이 정보를 생성할 수 있다. (i는 1 이상의 정수이며, m은 i이상의 정수이다.) 예를 들어, 도 13을 참조하면, i가 3인 경우 깊이 정보 생성부는 제1 내지 제3 총 3개의 포인트에 대한 입력광 신호를 검출한 제1 내지 제3 데이터를 이용하여 제1 픽셀의 깊이 정보를 생성할 수 있다.
실시예에 따른 라이다 장치의 복수의 포인트 및 데이터는 총 m개이고, i개의 데이터를 이용하여 하나의 픽셀 당 깊이 정보를 생성할 수 있다.
실시예에 따른 라이다 장치의 깊이 정보 생성부는 제2 내지 제i+1 포인트의 입력광 신호에 대한 제2 내지 제i+1 데이터를 이용하여 제2 픽셀의 깊이 정보를 생성할 수 있다.
깊이 정보 생성부는 제1 내지 제i 포인트의 입력광 신호에 대한 데이터를 이용하여 제1 픽셀의 깊이 정보를 생성하는 것과 마찬가지로, 제2 내지 제i+1 포인트의 입력광 신호에 대한 제2 내지 제i+1 데이터를 이용하여 제2 픽셀의 깊이 정보를 생성할 수 있다. 예를 들어, i가 3인 경우 깊이 정보 생성부는 제2 내지 제4 총 3개의 포인트에 대한 입력광 신호를 검출한 제2 내지 제4 데이터를 이용하여 제2 픽셀의 깊이 정보를 생성할 수 있다.
실시예에 따른 라이다 장치의 깊이 정보 생성부는 제2 픽셀부터 제m-i+1 내지 제m 포인트의 상기 입력광 신호에 대한 제m-i+1 내지 제m 데이터를 이용하여 제m-i+1 픽셀의 깊이 정보를 생성할 수 있다.
깊이 정보 생성부는 제2 내지 제i+1 포인트의 입력광 신호에 대한 데이터를 이용하여 제2 픽셀의 깊이 정보를 생성하는 것과 마찬가지로, 제3 픽셀부터 제m-i+1 내지 제m 포인트의 입력광 신호에 대한 제m-i+1 내지 제m 데이터를 이용하여 제m-i+1 픽셀까지의 깊이 정보를 생성할 수 있다. 예를 들어, i가 3이고 m이 100인 경우 깊이 정보 생성부는 제98 내지 제100 포인트의 입력광 신호에 대한 제98 내지 제100 데이터를 이용하여 제98 픽셀까지의 깊이 정보를 생성할 수 있다.
실시예에 따른 라이다 장치의 깊이 정보 생성부는 제1 내지 제m-i+1 픽셀의 깊이 정보를 생성하는 과정을 반복할 수 있다.
실시예에 따른 라이다 장치의 광신호의 주파수의 파형의 주기는 하나의 포인트의 노출 시간과 동일하고, 하나의 픽셀의 노출 시간은 하나의 포인트의 입력광 신호의 노출 시간의 i배일 수 있다.
도 12 및 13을 참조하면, 실시예에 따른 광신호의 주파수의 파형의 주기(T')는 기존의 라이다 장치의 광신호의 주파수의 파형의 주기(Tf)와 동일할 수 있다.(T'=Tf) 또한, 광신호의 주파수의 파형의 주기(T')는 하나의 포인트의 노출 시간(t1, t2, ..., tm)과 동일할 수 있고, 하나의 픽셀의 노출 시간(t'1, t'2, t'3, ..., t'm-i+1)은 하나의 포인트의 입력광 신호의 노출 시간(t1, t2, ..., tm)의 i배일 수 있다.
실시예에 따른 라이다 장치의 거리 해상도는 깊이 정보 생성부가 복수의 포인트로 깊이 정보를 생성하는 경우의 거리 해상도의 1/i배일 수 있다.
실시예에 따른 라이다 장치의 거리 해상도는 식 13에 따라 결정될 수 있다.
[식 13]
Figure PCTKR2023015096-appb-img-000013
(ΔR′은 실시예에 따른 라이다 장치의 거리 해상도 일 수 있다.)
따라서, 식 7에 따라 실시예에 따른 라이다 장치의 거리 해상도는 기존의 깊이 정보 생성부가 복수의 포인트로 깊이 정보를 생성하는 경우의 거리 해상도의 1/i배일 수 있다. 예를 들어, 도 6을 참조하면, t'm은 tm의 3배이므로 실시예에 따른 라이다 장치의 거리 해상도는 기존의 라이다 장치에 따라 검출하는 경우의 1/3배일 수 있다.
하나의 단위를 검출하는 시간이 증가하는 경우 거리 해상도가 낮아져 라이다 장치의 성능이 개선될 수 있다.
도 14는 다른 실시예에 따른 라이다 장치의 검출 방법을 나타내는 이미지이다.
도 12 및 14를 참조하면, 실시예에 따른 라이다 장치의 제어부는 광신호의 주파수의 파형의 주기를 j배 증가시킬 수 있다. 동시에 도 6을 참조하여 설명한 것과 같이, 라이다 장치의 깊이 정보 생성부는 제1 내지 제i 포인트의 입력광 신호에 대한 제1 내지 제i 데이터를 이용하여 제1 픽셀의 깊이 정보를 생성할 수 있다.
실시예에 따른 광신호의 주파수의 파형의 주기(T'')는 기존의 라이다 장치의 광신호의 주파수의 파형의 주기의 i배일 수 있다. 예를 들어, 도 5 및 도 7을 참조하면 실시예에 따른 광신호의 주파수의 파형의 주기(T'')는 기존의 라이다 장치의 광신호의 주파수의 파형의 주기(Tf)의 3배일 수 있다.
실시예에 따른 라이다 장치의 광신호의 주파수의 파형의 주기는 하나의 포인트의 노출 시간과 동일하며, 하나의 픽셀의 노출 시간은 하나의 포인트의 입력광 신호의 노출 시간과 동일할 수 있다.
광신호의 주파수의 파형의 주기(T'')는 하나의 포인트로 입력광 신호의 깊이 정보를 생성하는데 필요한 노출 시간의 i배일 수 있고, 하나의 픽셀(b1, b2, b3, ..., bm-i+1)로 입력광 신호의 깊이 정보를 생성하는데 필요한 노출 시간(t''1, t''2, t''3, ..., t''m-i+1)은 하나의 포인트로 입력광 신호의 깊이 정보를 생성하는데 필요한 노출 시간과 동일할 수 있다.
실시예에 따른 라이다 장치의 최대 측정 거리는 깊이 정보 생성부가 복수의 포인트로 깊이 정보를 생성하는 경우의 최대 측정 거리의 i배일 수 있다.
실시예에 따른 라이다 장치의 최대 측정 거리는 식 14에 따라 결정될 수 있다.
[식 14]
Figure PCTKR2023015096-appb-img-000014
(Rmax''는 실시예에 따른 라이다 장치의 최대 측정 거리일 수 있다.)
실시예에 따른 광신호의 주파수의 파형의 주기는 T''으로 기존의 포인트에 따라 깊이 정보를 생성하는 경우의 라이다 장치의 광신호의 주파수의 파형의 주기의 i배일 수 있다. 예를 들어, 도 12 및 14를 참조하면 T''은 Tf의 3배이므로 실시예에 따른 라이다 장치의 최대 측정 거리는 기존의 라이다 장치의 최대 측정 거리의 3배일 수 있다.
광신호의 주파수의 파형의 주기가 증가할 경우 최대 측정 거리가 증가하여 라이다 장치의 성능이 향상될 수 있다.
실시예에 따른 라이다 장치의 주파수 변조 속도는 깊이 정보 생성부가 복수의 포인트로 깊이 정보를 생성하는 경우의 주파수 변조 속도의 1/i배일 수 있다.
실시예에 따른 라이다 장치의 주파수 변조 속도는 식 15에 따라 결정될 수 있다.
[식 15]
Figure PCTKR2023015096-appb-img-000015
(Vf''는 실시예에 따른 라이다 장치의 주파수 변조 속도일 수 있다.)
주파수 변조 속도는 상기 식 15에 의해 결정될 수 있다. 실시예에 따른 광신호의 주파수의 파형의 주기는 T''으로 기존의 포인트에 따라 깊이 정보를 생성하는 경우의 라이다 장치의 광신호의 주파수의 파형의 주기의 i배일 수 있다. 예를 들어, 도 12 및 14을 참조하면 T''은 Tf의 3배이므로 실시예에 따른 라이다 장치의 최대 측정 거리는 기존의 라이다 장치의 최대 측정 거리의 1/3배일 수 있다.
광신호의 주파수의 파형의 주기가 증가할 경우 주파수 변조 속도가 감소하여 라이다 장치의 성능이 향상될 수 있다.
도 15는 실시예에 따른 라이다 동작 방법의 순서도이다.
도 15를 참조하면, 실시예에 따른 라이다 동작 방법(S2000)은 수신부가 객체의 복수의 포인트에서 반사된 반사광을 수신하는 단계(S2100), 검출부가 제1 내지 제i 포인트에서 반사된 반사광을 검출하는 단계(S2200), 및 깊이 정보 생성부가 제1 내지 제i 포인트에서 반사된 반사광을 검출하여 생성된 제1 내지 제i 데이터를 이용하여 제1 픽셀의 깊이 정보를 생성하는 단계(S2300)를 포함할 수 있다. (i는 1 이상의 정수이다.)
실시예에 따른 라이다 동작 방법(S2000)은 검출부가 제i+1 포인트에서 반사된 반사광을 검출하는 단계(S2400), 및 깊이 정보 생성부가 제2 내지 제i+1 포인트에서 반사된 반사광을 검출하여 생성된 제2 내지 제i+1데이터를 이용하여 제2 픽셀의 깊이 정보를 생성하는 단계(S2500)를 포함할 수 있다.
실시예에 따른 라이다 동작 방법(S2000)은 검출부가 제m 포인트에서 반사된 반사광까지 반복하여 검출하는 단계(S2600), 및 깊이 정보 생성부가 제m-i+1 내지 제m 포인트에서 반사된 반사광을 검출하여 생성된 제m-i+1 내지 제m 데이터를 이용하여 제m-i+1 픽셀까지의 깊이 정보를 반복하여 생성하는 단계(S2700)를 포함할 수 있다. (m은 i이상의 정수이다.)
라이다 장치(200)는 실시간으로 복수의 데이터를 생성하고, 생성된 복수의 데이터를 이용하여 각 픽셀의 깊이 정보를 생성함으로써, 깊이 정보의 계산 시간을 감소시킬 수 있다.
실시예에 따른 라이다 동작 방법의 깊이 정보 생성부는 제1 내지 제m-i+1 픽셀의 깊이 정보를 생성하는 과정을 반복할 수 있다.
실시예에 따른 라이다 동작 방법의 광신호의 주파수의 파형의 주기는 하나의 포인트의 노출 시간과 동일하고, 하나의 픽셀의 노출 시간은 하나의 포인트의 입력광 신호의 노출 시간의 i배일 수 있다.
실시예에 따른 라이다 동작 방법은 제어부가 광신호의 주파수의 파형의 주기를 j 배 증가시키는 단계를 포함할 수 있다.
실시예에 따른 라이다 동작 방법의 광신호의 주파수의 파형의 주기는 하나의 포인트의 노출 시간과 동일하며, 하나의 픽셀의 노출 시간은 하나의 포인트의 입력광 신호의 노출 시간과 동일할 수 있다.
실시예에 따른 라이다 장치는 광신호를 출력하는 광 출력 장치(VCSEL, Vertical Cavity Surface Emitting Laser), 광신호를 집광하고, 집광된 광신호를 외부에 출력하는 복수의 렌즈군, 광신호가 관측 대상의 복수의 포인트에 반사되어 입력된 입력광 신호를 검출하는 광 검출 장치(SPAD, Single Photon Avalanche Diode) 및 광신호 및 입력광 신호에 기초하여 관측 대상에 대한 깊이 정보를 생성하는 깊이 정보 생성부를 포함하며, 깊이 정보 생성부는 복수의 포인트 중 연속하는 일부의 입력광 신호에 대한 데이터를 이용하여 깊이 정보를 생성할 수 있다.
도 16은 본 발명의 실시예에 따른 라이다 장치의 분해도이다.
라이다 장치는 출력부와 수신부를 포함할 수 있다. 다만, 기판(10), 홀더(30) 및 쉴드 캔(50) 등의 구성은 일체로 형성되어 출력부와 수신부에 공용으로 사용되므로 출력부와 수신부로 구분하기 어려울 수 있다. 이 경우 위 구성들 각각이 출력부와 수신부 각각의 구성요소로 이해될 수 있다. 다만, 변형례로 기판(10), 홀더(30) 및 쉴드 캔(50) 등의 공용 구성은 출력부와 수신부에 각각 별도로 제공될 수 있다.
출력부는 기판(10), 광원(20), 홀더(30), 확산부재(41), 디퓨져 링(42) 및 쉴드 캔(50)을 포함할 수 있다. 수신부는 기판(10), 센서(60), 필터(80), 홀더(30), 렌즈(70), 배럴(71) 및 쉴드 캔(50)을 포함할 수 있다.
기판(10)은 인쇄회로기판(PCB, Printed Circuit Board)을 포함할 수 있다. 기판(10)은 FPCB(91)를 통해 커넥터와 연결될 수 있다. 기판(10)과 FPCB(91)는 RFPCB(Rigid Flexible PCB)로 형성될 수 있다. 기판(10)에는 광원(20)과 센서(60)가 배치될 수 있다. 기판(10)은 홀더(30) 아래에 배치될 수 있다. 기판(10)은 단자를 포함할 수 있다. 기판(10)의 단자는 쉴드 캔(50)의 결합부와 결합될 수 있다. 기판(10)의 단자는 복수의 단자를 포함할 수 있다. 기판(10)의 단자는 2개의 단자를 포함할 수 있다.
광원(20)은 기판(10) 상에 배치될 수 있다. 광원(20)은 기판(10)에 접촉하여 배치될 수 있다. 광원(20)은 기판(10) 위에 배치될 수 있다. 광원(20)은 기판(10)에 배치될 수 있다. 광원(20)은 앞서 설명한 출력부(210)에 대응할 수 있다.
홀더(30)는 기판(10) 상에 배치될 수 있다. 홀더(30)는 기판(10)에 접촉하여 배치될 수 있다. 홀더(30)는 기판(10) 위에 배치될 수 있다. 홀더(30)는 기판(10)에 배치될 수 있다. 홀더(30)는 접착제에 의해 기판(10)에 고정될 수 있다. 홀더(30)는 내부에 광원(20), 디퓨져 모듈(40), 센서(60) 및 필터(80)를 수용할 수 있다. 홀더(30)는 플라스틱 사출물일 수 있다. 홀더(30)는 사출에 의해 형성될 수 있다.
디퓨져 모듈(40)은 확산부재(41)와 디퓨져 링(42)을 포함할 수 있다. 디퓨져 모듈(40)은 변형례와 같이 일체로 형성될 수 있으나, 본 실시예에서는 사출 성형시 성형성을 증가시키기 위해 확산부재(41)와 디퓨져 링(42)으로 분리 제조할 수 있다. 확산부재(41)와 디퓨져 링(42)은 서로 분리될 수 있다.
확산부재(41)는 디퓨저 렌즈일 수 있다. 확산부재(41)는 홀더(30) 내에 배치될 수 있다. 확산부재(41)는 홀더(30)에 결합될 수 있다. 확산부재(41)는 홀더(30)에 고정될 수 있다. 확산부재(41)는 광원(20)으로부터 방출되는 빛의 광경로 상에 배치될 수 있다. 확산부재(41)는 광원(20) 상에 배치될 수 있다. 확산부재(41)는 광원(20) 위에 배치될 수 있다. 확산부재(41)는 플라스틱 사출물일 수 있다. 확산부재(41)는 플라스틱 사출에 의해 형성될 수 있다. 확산부재(41)의 상단의 높이는 렌즈(70)의 상단의 높이와 대응할 수 있다. 확산부재(41)는 수직방향 중 상방향으로 삽입되어 홀더(30)와 결합될 수 있다. 이때, 상방향은 홀더(30)의 하부에서 홀더(30)의 상부를 향하는 방향일 수 있다. 확산부재(41)의 일부는 상방향으로 홀더(30)와 오버랩될 수 있다.
디퓨져 링(42)은 홀더(30) 내에 배치될 수 있다. 디퓨져 링(42)은 홀더(30)에 고정될 수 있다. 디퓨져 링(42)은 홀더(30)에 결합될 수 있다. 디퓨져 링(42)은 확산부재(41) 아래에 배치될 수 있다. 디퓨져 링(42)은 확산부재(41)를 지지할 수 있다. 디퓨져 링(42)은 확산부재(41)와 접촉될 수 있다. 디퓨져 링(42)은 플라스틱 사출물일 수 있다. 디퓨져 링(42)은 플라스틱 사출에 의해 형성될 수 있다.
쉴드 캔(50)은 홀더(30)의 몸체부를 커버할 수 있다. 쉴드 캔(50)은 커버(cover)를 포함할 수 있다. 쉴드 캔(50)은 커버 캔(cover can)을 포함할 수 있다. 쉴드 캔(50)은 비자성체일 수 있다. 쉴드 캔(50)은 금속 재질로 형성될 수 있다. 쉴드 캔(50)은 금속의 판재로 형성될 수 있다. 쉴드 캔(50)은 기판(10)과 전기적으로 연결될 수 있다. 쉴드 캔(50)은 솔더볼을 통해 기판(10)과 연결될 수 있다. 이를 통해, 쉴드 캔(50)은 그라운드될 수 있다. 쉴드 캔(50)은 전자 방해 잡음(EMI, electro magnetic interference)을 차단할 수 있다. 이때, 쉴드 캔(50)은 'EMI 쉴드캔'으로 호칭될 수 있다. 본 실시예에서는 광학 장치의 내부에서 높은 전압이 이용됨에 따라 전자 방해 잡음이 커질 수 있는데 쉴드 캔(50)이 전자 방해 잡음을 차단할 수 있다.
센서(60)는 기판(10)에 배치될 수 있다. 센서(60)는 기판(10)에 홀더(30)의 격벽의 타측에 배치될 수 있다. 즉, 센서(60)는 홀더(30)의 격벽을 기준으로 광원(20)의 반대편에 배치될 수 있다. 센서(60)는 적외선을 감지할 수 있다. 센서(60)는 적외선 중 특정 파장의 광을 감지할 수 있다. 센서(60)는 필터(80)를 통과한 광을 감지할 수 있다. 센서(60)는 광원(20)의 파장 대역의 빛을 감지할 수 있다. 이를 통해, 광원(20)으로부터 방출되어 피사체에 반사된 광을 센서(60)가 감지하여 피사체의 3D 이미지 정보를 센싱할 수 있다. 센서(60)의 유효센싱영역은 확산부재(41)와 대응하게 배치되지만 센서(60)는 전체적으로 격벽 쪽으로 치우쳐 배치될 수 있다. 센서(60) 중 격벽 쪽으로 치우친 부분에는 센서(60)의 회로 패턴 등이 배치될 수 있다.
렌즈(70)는 배럴(71) 내에 고정될 수 있다. 렌즈(70)는 플라스틱 사출물일 수 있다. 렌즈(70)는 플라스틱 사출에 의해 형성될 수 있다. 렌즈(70)는 복수의 렌즈를 포함할 수 있다.
필터(80)는 렌즈(70)와 센서(60) 사이에 배치될 수 있다. 필터(80)는 특정 파장 대의 광을 통과시키는 밴드 패스 필터(band pass filter)일 수 있다. 필터(80)는 적외선을 통과시킬 수 있다. 필터(80)는 적외선 중 특정 파장의 광을 통과시킬 수 있다. 필터(80)는 광원(20)이 방출하는 빛의 파장 대역의 빛을 통과시킬 수 있다. 필터(80)는 가시광선을 차단할 수 있다. 필터(80)는 홀더(30)에 결합될 수 있다. 홀더(30)에는 필터(80)와 대응하는 크기의 홈이 형성되고, 필터(80)는 홈에 삽입되어 접착제로 고정될 수 있다. 홀더(30)의 홈에는 필터(80)와 홀더(30) 사이에 접착제를 주입하기 위한 접착제 주입홈이 함께 형성될 수 있다. 필터(80)는 디퓨져 링(42)의 위치보다 낮은 위치에 배치될 수 있다.
이상에서, ToF 방식으로 깊이 정보를 추출하는 라이다 장치를 중심으로 설명하고 있으나, 본 발명의 실시예가 이로 제한되는 것은 아니다. 본 발명의 실시예에 따른 라이다 장치는 구조광 방식을 이용하여 깊이 정보를 추출하는 라이다 장치를 의미할 수도 있다. 즉, 본 발명의 실시예에 따른 라이다 장치는 소정 패턴을 가지는 구조광을 출력 광 신호로 이용하고, 구조광의 디스패리티(disparity)를 이용하여 깊이 정보를 생성할 수도 있다.
개시된 실시예에 따른 동작 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 또한, 본 개시의 실시예는, 무선 통신 방법을 실행하는 명령어들을 포함하는 하나 이상의 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체가 될 수 있다.
그리고 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
여기서, 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체'가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 동작 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 디바이스들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
구체적으로, 개시된 실시예에 따른 동작 방법을 수행하도록 하는 프로그램이 저장된 기록매체를 포함하는 컴퓨터 프로그램 제품으로 구현될 수 있다.
본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.
이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (10)

  1. 광신호를 출력하는 출력부;
    상기 광신호를 제1 광신호 및 제2 광신호로 분배하는 분배부;
    상기 제1 광신호의 객체에 대한 반사광인 제3 광신호를 수신하는 수신부;
    상기 제2 광신호와 상기 제3 광신호의 간섭이 발생하는 간섭부;
    상기 제2 광신호와 상기 제3 광신호의 간섭에 의해 발생한 간섭광인 제4 광신호 또는 노이즈인 제5 광신호를 검출하는 검출부; 및
    상기 광신호에 기초하여 관측 대상에 대한 깊이 정보 및 속도 정보를 생성하는 깊이 정보 생성부;를 포함하며,
    상기 분배부는 상기 제1 광신호 및 제2 광신호의 분배 비율을 조절하는 라이다 장치.
  2. 제1항에 있어서,
    상기 분배 비율은 식 1, 식2, 및 식 3에 따르는 라이다 장치.
    [식 1]
    P0=P1+P2
    [식 2]
    P1=(1-x)P0
    [식 3]
    P2=xP0
    (P0은 광신호의 파워, P1은 제1 광신호의 파워, P2는 제2 광신호의 파워이며 x는 0 이상, 1이하의 변수이다)
  3. 제2항에 있어서,
    상기 분배부는 상기 제5 광신호의 파워에 대한 상기 제4 광신호의 파워의 비율이 소정의 범위 내에 존재하도록 상기 분배 비율을 조절하는 라이다 장치.
  4. 제3항에 있어서,
    상기 제5 광신호의 파워에 대한 상기 제4 광신호의 파워의 비율은 식 4에 따르는 라이다 장치.
    [식 4]
    Figure PCTKR2023015096-appb-img-000016
  5. 제4항에 있어서,
    상기 분배 비율은 상기 식 4에 따른 상기 제5 광신호의 파워에 대한 상기 제4 광신호의 파워의 비율이 최대인 상기 x에 따라 결정되는 라이다 장치.
  6. 제3항에 있어서,
    상기 분배부는 상기 제5 광신호의 변화에 따라 분배 비율을 조절하는 라이다 장치.
  7. 제6항에 있어서,
    상기 분배부는 상기 제5 광신호의 파워가 증가하는 경우 상기 x를 증가시키고, 상기 제5 광신호의 파워가 감소하는 경우 상기 x를 감소시키는 라이다 장치.
  8. 제6항에 있어서,
    상기 검출부는 상기 제5 광신호의 변화를 실시간으로 검출하며,
    상기 분배부는 실시간으로 검출한 상기 제5 광신호의 변화에 따라 자동으로 분배 비율을 조절하는 라이다 장치.
  9. 제1항에 있어서,
    상기 분배부는 제1 분배부 및 제2 분배부를 포함하며,
    상기 광신호는 상기 제1 분배부 및 상기 제2 분배부를 순차적으로 통과하고,
    상기 제1 분배부를 회전시켜 상기 광신호의 편광 각도를 조절하고, 상기 제2 분배부는 상기 제1 분배부를 통과한 상기 광신호의 수직 편광은 통과시키고, 수평 편광은 반사 시킴으로써 상기 분배 비율을 조절하는 라이다 장치.
  10. 제9항에 있어서,
    상기 제1 분배부는 반파장판(HWP, Half Wave Plate)이고, 상기 제2 분배부는 편광 빔 분배기(PBS, Polarizing Beam Splitter)인 라이다 장치.
PCT/KR2023/015096 2022-10-06 2023-09-27 라이다 장치 및 동작 방법 WO2024076110A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020220127538A KR20240048128A (ko) 2022-10-06 2022-10-06 라이다 장치 및 동작 방법
KR10-2022-0127538 2022-10-06
KR1020220132164A KR20240052305A (ko) 2022-10-14 2022-10-14 라이다 장치 및 동작 방법
KR10-2022-0132164 2022-10-14

Publications (1)

Publication Number Publication Date
WO2024076110A1 true WO2024076110A1 (ko) 2024-04-11

Family

ID=90608663

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/015096 WO2024076110A1 (ko) 2022-10-06 2023-09-27 라이다 장치 및 동작 방법

Country Status (1)

Country Link
WO (1) WO2024076110A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001108747A (ja) * 1999-10-08 2001-04-20 Minolta Co Ltd 測距装置
JP2014185956A (ja) * 2013-03-25 2014-10-02 Aisin Seiki Co Ltd 距離測定装置
KR20180083983A (ko) * 2017-01-13 2018-07-24 한국과학기술원 편광 변조 포켈스 셀과 마이크로 편광자 카메라를 사용하는 고 해상도 및 거리정밀도를 갖는 3차원 플래시 라이다 시스템
KR20210108469A (ko) * 2019-01-23 2021-09-02 닛폰세이테츠 가부시키가이샤 측정 장치 및 측정 방법
JP2022101264A (ja) * 2020-12-24 2022-07-06 株式会社トプコン 光干渉測定装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001108747A (ja) * 1999-10-08 2001-04-20 Minolta Co Ltd 測距装置
JP2014185956A (ja) * 2013-03-25 2014-10-02 Aisin Seiki Co Ltd 距離測定装置
KR20180083983A (ko) * 2017-01-13 2018-07-24 한국과학기술원 편광 변조 포켈스 셀과 마이크로 편광자 카메라를 사용하는 고 해상도 및 거리정밀도를 갖는 3차원 플래시 라이다 시스템
KR20210108469A (ko) * 2019-01-23 2021-09-02 닛폰세이테츠 가부시키가이샤 측정 장치 및 측정 방법
JP2022101264A (ja) * 2020-12-24 2022-07-06 株式会社トプコン 光干渉測定装置

Similar Documents

Publication Publication Date Title
WO2019135495A1 (ko) 거리 산출 방법 및 이를 수행하는 라이다 장치
WO2019135494A1 (ko) 라이다 장치
WO2013183955A1 (en) Obstacle sensing module and cleaning robot including the same
WO2017155341A1 (en) Apparatus and method for controlling auto focus of camera module
WO2016167552A1 (ko) 인체 착용 장치 및 이의 동작 방법
WO2018074900A1 (en) Electronic apparatus and method of detecting information about target object by using ultrasound waves
WO2021045529A1 (ko) 라이다 장치
WO2017171388A1 (ko) 카메라 모듈 및 이를 포함하는 광학 기기
WO2021096266A2 (ko) 레이저 출력 어레이 및 이를 이용한 라이다 장치
WO2018084355A1 (ko) 고분해능 테라헤르츠파 집광모듈, 산란광 검출모듈 및 테라헤르츠파 베셀빔을 이용한 고분해능 검사 장치
WO2020060235A1 (ko) 카메라 장치
WO2021235778A1 (ko) 라이다 장치
WO2014109504A1 (ko) 거리 검출 장치, 및 이를 구비하는 영상처리장치
WO2020085873A1 (ko) 카메라, 및 이를 구비하는 단말기
EP3729149A1 (en) Lens curvature variation apparatus for varying lens curvature using sensed temperature information
WO2020050532A1 (ko) 광 스캐닝 홀로그래피 시스템
WO2024076110A1 (ko) 라이다 장치 및 동작 방법
WO2021177692A1 (ko) 거리 측정 카메라 장치
WO2022015032A1 (ko) 잉크젯 다파장 경화기
WO2021117971A1 (ko) 안티 드론 재밍 시스템 및 방법
WO2021187773A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 장치
WO2019112132A1 (en) Lens curvature variation apparatus
WO2023018076A1 (ko) 렌즈 구동장치 및 이를 포함하는 카메라 장치
WO2022102856A1 (ko) 라이다 장치
WO2022097981A1 (ko) 카메라 모듈을 포함하는 전자 장치 및 그 전자 장치의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23875174

Country of ref document: EP

Kind code of ref document: A1