KR20220052408A - Sensor fusion driving route apparatus and method - Google Patents
Sensor fusion driving route apparatus and method Download PDFInfo
- Publication number
- KR20220052408A KR20220052408A KR1020200136054A KR20200136054A KR20220052408A KR 20220052408 A KR20220052408 A KR 20220052408A KR 1020200136054 A KR1020200136054 A KR 1020200136054A KR 20200136054 A KR20200136054 A KR 20200136054A KR 20220052408 A KR20220052408 A KR 20220052408A
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- driving path
- information
- calculating
- sensor
- Prior art date
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 34
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000004364 calculation method Methods 0.000 claims abstract description 19
- 238000005259 measurement Methods 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000015654 memory Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R21/0134—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/04—Systems determining presence of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
- G01S13/581—Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of interrupted pulse modulated waves and based upon the Doppler effect resulting from movement of targets
- G01S13/582—Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of interrupted pulse modulated waves and based upon the Doppler effect resulting from movement of targets adapted for simultaneous range and velocity measurements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B60W2420/42—
-
- B60W2420/52—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/30—Sensors
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Electromagnetism (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
본 개시는 센서 퓨젼 주행 경로 산출 장치 및 방법에 관한 것으로써, 보다 구체적으로, 주행 상황에 따라 주행 경로를 조정하는 센서 퓨젼 주행 경로 산출 장치 및 방법에 관한 것이다.The present disclosure relates to an apparatus and method for calculating a sensor fusion driving path, and more particularly, to an apparatus and method for calculating a sensor fusion driving path for adjusting a driving path according to a driving situation.
자율주행차량은 지도기반의 주행경로를 추종하는 것을 기본으로 한다. 다만, 주행 경로 상에 장애물과 같은 변수가 있을 경우, 자율주행차량은 실시간으로 주행경로를 변경하여 차량이 안전하게 주행할 수 있도록 제어한다. Self-driving vehicles are based on following a map-based driving route. However, if there is a variable such as an obstacle on the driving path, the autonomous driving vehicle changes the driving path in real time to control the vehicle to safely drive.
종래의 자율주행의 차선유지에 필요한 주행경로는 차량용 영상센서(또는 라이다)로 취득한 센서정보와 차량정보(차속, 관성, 조향각/조향토크 등)를 신호처리하여 얻어지는 주행차선과 주행차량과의 상대적 정보값들(이탈각, 이탈거리, 곡률, 도로폭)로써 표현된다. 바꾸어 말하면, 차량용 영상센서(또는 라이다) 및 차량정보만으로 주행 경로를 계산하고 있다.The driving route required for lane maintenance in the conventional autonomous driving is the difference between the driving lane and the driving vehicle, which is obtained by signal processing sensor information acquired by a vehicle image sensor (or lidar) and vehicle information (vehicle speed, inertia, steering angle/steering torque, etc.) It is expressed as relative information values (departure angle, departure distance, curvature, road width). In other words, the driving route is calculated using only the vehicle image sensor (or lidar) and vehicle information.
그러나, 센서 특성에 따라 상황에 따라 오차를 가지고 있어 제어의 어려움이 있었다.However, there was an error in the situation depending on the sensor characteristics, so it was difficult to control.
이러한 배경에서, 본 개시는 레이더 센서와 이미지 센서 등의 결합으로 자차량의 주행 경로를 산출하는 센서 퓨젼 주행 경로 산출 장치 및 방법을 제공하고자 한다.Against this background, the present disclosure intends to provide a sensor fusion driving path calculating apparatus and method for calculating a driving path of the own vehicle by combining a radar sensor and an image sensor.
전술한 과제를 해결하기 위하여, 일 측면에서, 본 개시는 자차량에 탑재된 적어도 하나의 센서로부터 센싱정보를 수신하는 센서부, 센싱정보를 기초로 자차량의 주변 상황을 판단하여 주변정보를 산출하는 주변 상황 판단부 및 주변정보를 기초로 자차량의 주행 경로를 산출하는 주행 경로 산출부를 포함하는 센서 퓨젼 주행 경로 산출 장치를 제공한다. In order to solve the above problems, in one aspect, the present disclosure provides a sensor unit that receives sensing information from at least one sensor mounted on the own vehicle, and calculates the surrounding information by determining the surrounding situation of the own vehicle based on the sensing information It provides a sensor fusion driving path calculating device including a driving path calculating unit for calculating a driving path of the own vehicle based on the surrounding situation determination unit and surrounding information.
다른 측면에서, 본 개시는 자차량에 탑재된 적어도 하나의 센서로부터 센싱정보를 수신하는 센싱정보 수신 단계, 센싱정보를 기초로 자차량의 주변 상황을 판단하여 주변정보를 산출하는 주변 상황 판단 단계 및 주변정보를 기초로 자차량의 주행 경로를 산출하는 주행 경로 산출 단계를 포함하는 센서 퓨젼 주행 경로 산출 방법을 제공한다.In another aspect, the present disclosure provides a sensing information receiving step of receiving sensing information from at least one sensor mounted on the own vehicle, a surrounding situation determining step of calculating surrounding information by determining the surrounding condition of the own vehicle based on the sensing information, and It provides a sensor fusion driving path calculation method including a driving path calculation step of calculating a driving path of the own vehicle based on surrounding information.
본 개시에 의하면, 센서 퓨젼 주행 경로 산출 장치 및 방법은 복수의 센싱정보를 종합하여 주변 상황을 판단함으로써, 객체의 예상 경로를 감안하여 주행 경로를 산출할 수 있고, 객체의 위치 및 크기에 추정의 오차를 줄일 수 있다.According to the present disclosure, the sensor fusion driving path calculating apparatus and method can calculate the driving path in consideration of the predicted path of the object by synthesizing a plurality of sensing information to determine the surrounding situation, and the location and size of the object error can be reduced.
도 1은 본 개시의 일 실시예에 따른 포장 센서 퓨젼 주행 경로 산출 장치를 설명하기 위한 블록도이다.
도 2는 일 실시예에 따른 복수의 센싱정보를 기초로 주변 상황을 판단하는 것을 설명하기 위한 도면이다.
도 3 및 도 4는 일 실시예에 따른 자차량의 주행 경로를 산출하는 것을 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시예에 따른 센서 퓨젼 주행 경로 산출 방법을 설명하는 흐름도이다.1 is a block diagram illustrating an apparatus for calculating a pavement sensor fusion driving route according to an embodiment of the present disclosure.
FIG. 2 is a diagram for explaining determining a surrounding situation based on a plurality of pieces of sensing information according to an exemplary embodiment.
3 and 4 are diagrams for explaining calculating a driving route of the host vehicle according to an exemplary embodiment.
5 is a flowchart illustrating a method of calculating a sensor fusion driving path according to an embodiment of the present disclosure.
이하, 본 개시의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 이하, 이하, 본 개시의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 이하, 본 개시의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성 요소들에 참조부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 기술 사상의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다. 본 명세서 상에서 언급된 "포함한다", "갖는다", "이루어진다" 등이 사용되는 경우 "~만"이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별한 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함할 수 있다.Hereinafter, some embodiments of the present disclosure in detail with reference to illustrative drawings, hereinafter in detail with reference to exemplary drawings, some embodiments of the present disclosure in detail with reference to exemplary drawings to be described in detail. In adding reference numerals to components of each drawing, the same components may have the same reference numerals as much as possible even though they are indicated in different drawings. In addition, in describing the present embodiments, if it is determined that a detailed description of a related well-known configuration or function may obscure the gist of the present technical idea, the detailed description may be omitted. When "includes", "having", "consisting of", etc. mentioned in this specification are used, other parts may be added unless "only" is used. When a component is expressed in the singular, it may include a case in which the plural is included unless otherwise explicitly stated.
또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다. In addition, in describing the components of the present disclosure, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, order, or number of the elements are not limited by the terms.
구성 요소들의 위치 관계에 대한 설명에 있어서, 둘 이상의 구성 요소가 "연결", "결합" 또는 "접속" 등이 된다고 기재된 경우, 둘 이상의 구성 요소가 직접적으로 "연결", "결합" 또는 "접속" 될 수 있지만, 둘 이상의 구성 요소와 다른 구성 요소가 더 "개재"되어 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다. 여기서, 다른 구성 요소는 서로 "연결", "결합" 또는 "접속" 되는 둘 이상의 구성 요소 중 하나 이상에 포함될 수도 있다. In the description of the positional relationship of the components, when it is described that two or more components are "connected", "coupled" or "connected", two or more components are directly "connected", "coupled" or "connected" ", but it will be understood that two or more components and other components may be further "interposed" and "connected," "coupled," or "connected." Here, other components may be included in one or more of two or more components that are “connected”, “coupled” or “connected” to each other.
구성 요소들이나, 동작 방법이나 제작 방법 등과 관련한 시간적 흐름 관계에 대한 설명에 있어서, 예를 들어, "~후에", "~에 이어서", "~다음에", "~전에" 등으로 시간적 선후 관계 또는 흐름적 선후 관계가 설명되는 경우, "바로" 또는 "직접"이 사용되지 않는 이상 연속적이지 않은 경우도 포함할 수 있다.In the description of the temporal flow relationship related to the components, the operation method or the production method, for example, the temporal precedence relationship such as "after", "after", "after", "before", etc. Alternatively, when a flow precedence relationship is described, it may include a case where it is not continuous unless "immediately" or "directly" is used.
한편, 구성 요소에 대한 수치 또는 그 대응 정보(예: 레벨 등)가 언급된 경우, 별도의 명시적 기재가 없더라도, 수치 또는 그 대응 정보는 각종 요인(예: 공정상의 요인, 내부 또는 외부 충격, 노이즈 등)에 의해 발생할 수 있는 오차 범위를 포함하는 것으로 해석될 수 있다.On the other hand, when numerical values or corresponding information (eg, level, etc.) for a component are mentioned, even if there is no separate explicit description, the numerical value or the corresponding information is based on various factors (eg, process factors, internal or external shock, Noise, etc.) may be interpreted as including an error range that may occur.
이하에서는 첨부되는 도면들을 참조하여 본 개시의 일 실시예에 따른 센서 퓨젼 주행 경로 산출 장치(10)를 설명하기로 한다.Hereinafter, the sensor fusion driving
도 1은 본 개시의 일 실시예에 따른 포장 센서 퓨젼 주행 경로 산출 장치(10)를 설명하기 위한 블록도이다.1 is a block diagram for explaining a pavement sensor fusion driving
도 1을 참조하면, 본 개시의 일 실시예에 의한 센서 퓨젼 주행 경로 산출 장치(10)는 센서부(110), 주변 상황 판단부(120) 및 주행 경로 산출부(130) 등을 포함할 수 있다.Referring to FIG. 1 , the sensor fusion driving
센서부(110)는 자차량(20)에 탑재된 적어도 하나의 센서로부터 센싱정보를 수신할 수 있다. 여기서 센서는 예를 들면, 이미지 센서, 레이더(RADAR) 센서, 속도 센서, 조향각 센서 등을 포함할 수 있다. 그러나, 자차량(20)에 탑재되어 주변을 감지할 수 있다면 특정 센서에 한정되지 않는다.The
이에 더하여, 센서는 조향각 센서와 같이 주변뿐만 아니라 자차량(20) 내부를 감지하는 센서도 포함할 수 있다.In addition, the sensor may include a sensor that detects not only the surroundings but also the inside of the
그리고, 센서는 감지 결과를 본 개시의 퓨젼 주행 경로 산출 장치에 포함된 센서부(110)에 전송할 수 있다.In addition, the sensor may transmit the detection result to the
예를 들면, 레이더 센서는 안테나부, 수신부 및 송신부를 포함할 수 있다. 구체적으로, 안테나부는 1 이상의 송신 안테나와 1 이상의 수신 안테나를 포함하며, 각 송수신 안테나는 1 이상의 방사 소자가 급전선로에 의하여 직렬로 연결되는 어레이 안테나 일 수 있으나 그에 한정되는 것은 아니다.For example, the radar sensor may include an antenna unit, a receiver unit, and a transmitter unit. Specifically, the antenna unit includes one or more transmit antennas and one or more receive antennas, and each transmit/receive antenna may be an array antenna in which one or more radiating elements are connected in series by a feed line, but is not limited thereto.
이러한 안테나부는, 복수 개의 송신 안테나 및 복수 개의 수신 안테나를 포함하며, 그 배열 순서 및 배열 간격 등에 따라 여러 형태의 안테나 배열 구조를 가질 수 있다.The antenna unit includes a plurality of transmit antennas and a plurality of receive antennas, and may have various types of antenna array structures according to an arrangement order and an arrangement interval thereof.
송신부는 안테나부에 포함되는 복수 개의 송신 안테나 중 1개로 스위칭(Switching)하여 스위칭 된 송신 안테나를 통해 송신신호를 송신하거나 복수 개의 송신 안테나에 할당된 멀티 송신채널을 통해 송신신호를 송신하는 기능을 할 수 있다.The transmitter may switch to one of a plurality of transmit antennas included in the antenna unit and transmit a transmit signal through the switched transmit antenna or transmit a transmit signal through a multi transmit channel allocated to the plurality of transmit antennas. can
이러한 송신부는, 스위칭 된 송신 안테나에 할당된 한 개의 송신채널 또는 복수 개의 송신 안테나에 할당된 멀티 송신채널에 대한 송신신호를 생성하는 발진부를 포함한다. 이러한 발진부는, 일 예로서, 전압 제어 발진기(VCO: Voltage-Controlled Oscillator) 및 오실레이터(Oscillator) 등을 포함할 수 있다.The transmitter includes an oscillator that generates a transmission signal for one transmission channel allocated to the switched transmission antenna or multiple transmission channels allocated to a plurality of transmission antennas. The oscillator may include, for example, a voltage-controlled oscillator (VCO) and an oscillator.
수신부는 객체(30)에서 반사되어 수신되는 수신신호를 수신안테나를 통하여 수신할 수 있다.The receiver may receive the received signal reflected from the
또한, 수신부는 복수의 수신 안테나 중 한 개로 스위칭하여 스위칭 된 수신 안테나를 통해 송신된 송신신호가 타깃에 의해 반사된 반사신호인 수신신호를 수신하거나 복수 개의 수신 안테나에 할당된 멀티 수신채널을 통해 수신신호를 수신하는 기능을 할 수 있다.In addition, the reception unit switches to one of the plurality of reception antennas to receive a reception signal in which a transmission signal transmitted through the switched reception antenna is a reflected signal reflected by a target or received through a multi reception channel allocated to a plurality of reception antennas. It can function to receive signals.
이러한 수신부는, 스위칭 된 수신 안테나에 할당된 한 개의 수신채널을 통해 수신되거나 복수 개의 송신 안테나에 할당된 티 수신채널을 통해 수신된 수신신호를 저잡음 증폭하는 저잡음 증폭부(LNA: Low Noise Amplifier)와, 저잡음 증폭된 수신신호를 믹싱하는 믹싱부(Mixer)와, 믹싱된 수신신호를 증폭하는 증폭부(Amplifier)와, 증폭된 수신신호를 디지털 변환하여 수신데이터를 생성하는 변환부(ADC: Analog Digital Converter) 등을 포함할 수 있다. The receiving unit includes a low noise amplifier (LNA) for low-noise amplifying a received signal received through one receiving channel assigned to the switched receiving antenna or received through a T receiving channel assigned to a plurality of transmitting antennas; , a mixing unit (Mixer) for mixing the low-noise amplified received signal, an amplifier (Amplifier) for amplifying the mixed received signal, and a conversion unit (ADC: Analog Digital) for digitally converting the amplified received signal to generate received data Converter) and the like.
이에 따라, 센서부(110)는 송신 안테나를 이용하여 객체(30)를 향해 레이더 신호를 송신하도록 제어하는 레이더 신호 송신 모듈 및 객체(30)에서 반사되어 수신되는 수신신호를 수신 안테나를 통하여 수신하는 수신 모듈 등을 포함할 수 있다.Accordingly, the
여기서, 이미지 센서로부터 촬영된 영상정보, 즉, 센싱정보는 이미지 데이터로 구성되므로, 이미지 센서로부터 캡처된 이미지 데이터를 의미할 수 있다. 이하, 본 개시에서는 이미지 센서로부터 촬영된 센싱정보는 이미지 센서로부터 캡처된 이미지 데이터를 의미한다.Here, since the image information captured from the image sensor, that is, the sensing information, is composed of image data, it may mean image data captured from the image sensor. Hereinafter, in the present disclosure, sensing information captured from an image sensor means image data captured from the image sensor.
이미지 센서에 의해 캡처된 이미지 데이터는, 예를 들어, Raw 형태의 AVI, MPEG-4, H.264, DivX, JPEG 중 하나의 포맷으로 생성될 수 있다. 센서에서 캡처된 이미지 주변 상황 판단부(120)에서 처리될 수 있다.The image data captured by the image sensor may be generated in, for example, one of raw format AVI, MPEG-4, H.264, DivX, and JPEG. The image captured by the sensor may be processed by the surrounding
이미지 센서는 화각 및 분해능이 상대적으로 우세한 이미지 센서일 수 있다. 예를 들어, 이미지 센서의 화각은 약 100°이고, 분해능은 약 10μm일 수 있다. 하지만, 이에 한정되는 것은 아니며, 본 개시의 이미지 센서는 구현 가능한 센서들 중 가장 넓은 화각을 구비하는 센서를 의미할 수 있다.The image sensor may be an image sensor having a relatively superior angle of view and resolution. For example, the angle of view of the image sensor may be about 100°, and the resolution may be about 10 μm. However, the present disclosure is not limited thereto, and the image sensor of the present disclosure may mean a sensor having the widest angle of view among achievable sensors.
센싱정보를 기초로 자차량(20)의 주변 상황을 판단하여 주변정보를 산출할 수 있다.It is possible to calculate the surrounding information by determining the surrounding situation of the
구체적으로, 복수의 센서로부터 수신한 센싱정보는 신호 처리를 거쳐 주변정보로 산출할 수 있다. 예를 들면, 수신부에서 수신한 수신신호는 FFT(Fast Fourier Transform) 및 측정치(210)(Measurement) 등을 통해 주변정보로 산출될 수 있다. 이러한 주변정보는 자차량(20) 주변에 객체(30)가 존재하는 경우, 객체(30)의 존재 여부 및 객체(30)의 추정 위치, 속도 등을 포함할 수 있다.Specifically, the sensing information received from the plurality of sensors may be calculated as surrounding information through signal processing. For example, the received signal received by the receiver may be calculated as surrounding information through Fast Fourier Transform (FFT) and the measurement value 210 (Measurement). Such surrounding information may include, when the
또한, 이미지 센서의 경우, 주변 상황 판단부(120)는 자차량(20) 주변을 촬영함으로써, 자차량(20) 주변에 객체(30)의 존재 여부를 판단할 수 있다.In addition, in the case of an image sensor, the surrounding
도 2는 일 실시예에 따른 복수의 센싱정보를 기초로 주변 상황을 판단하는 것을 설명하기 위한 도면이다.FIG. 2 is a diagram for explaining determining a surrounding situation based on a plurality of pieces of sensing information according to an exemplary embodiment.
주변 상황 판단부(120)는 이미지 정보 및 레이더 정보를 기초로 객체(30)의 위치, 크기 및 예상 방향을 산출할 수 있다.The surrounding
도 2를 참조하면, 주변 상황 판단부(120)는 레이더 센서로부터 산출한 측정치(210)의 방향에 이미지 센서로부터 구분된 객체(30)가 위치하는 경우, 주변 상황 판단부(120)는 측정치(210)의 방향에 객체(30)가 위치한다고 판단할 수 있다. 이렇게 산출된 객체(30)의 여부 및 위치로 주변 상황 판단부(120)는 주변 상황을 인식 및 판단할 수 있다.Referring to FIG. 2 , when the
도 2를 참조하며 예를 들면, 센서 퓨젼 주행 경로 산출 장치(10)는 자차량(20)에 탑재된 레이더 센서의 측정치(210)를 통해 객체(30)의 존재 여부를 판단할 수 있고, 객체(30)의 위치 및 각도를 추정할 수 있다. 여기에, 객체(30)의 존재에 대한 신뢰를 더하기 위해 이미지 센서가 촬영한 센싱정보를 더 적용하여 객체(30)의 존재 여부를 판단할 수 있다. 도 2의 이미지 센서에 의해 촬영된 객체(30)에 측정치(210)가 위치하는 경우, 즉, 도 2의 a각도 이내에 측정치(210-1, 210-2, 210-3, 210-4)가 위치하면, 주변 상황 판단부(120)는 객체(30)가 해당 위치에 존재한다고 판단할 수 있다. Referring to FIG. 2 , for example, the sensor fusion driving
이렇게 객체(30)의 존재 여부가 판단되면, 주변 상황 판단부(120)는, 이미지 정보로부터 객체(30)의 너비를 산출하고, 레이더 정보로부터 객체(30)와 자차량(20)과의 거리 및 상대 속도를 산출할 수 있다.When the existence of the
예를 들면, 센서의 동작 주기가 수회 수행되고, 소정의 측정치(210)가 감지되었을 때, 주변 상황 판단부(120)는 누적된 측정치(210)를 클리스터링(Clustering)하여 객체(30)의 크기 및 위치를 산출할 수 있다. 여기서 센서의 동작 주기는 센서가 송신신호를 송신부터 객체(30)에 반사되어 반사신호를 수신하고 반사신호를 처리하고 센싱정보를 산출하고 주변정보를 산출하여 다시 송신신호를 송신하기 전까지의 기간을 의미할 수 있다. 이것이 1회 수행되면 제1 주기, n회 수행되면 제n 주기로 명명할 수 있다.For example, when the operation cycle of the sensor is performed several times and a predetermined measurement value 210 is detected, the surrounding
주변 상황 판단부(120)는 소정의 누적된 측정치(210), 예를 들면, 제n 주기까지 객체(30)를 감지하여 산출된 측정치(210)를 기초로 클러스터링하여 객체(30)의 크기를 산출할 수 있다. 그리고, 클러스터링을 수행하되, 이미지 센서에서 감지한 객체(30)의 범위 이내에 위치하는 측정치(210)를 클러스터링할 수 있고, 이미지 센서에서 감지한 객체(30)에서 소정의 거리 이내에 위치하는 측정치(210)들을 클러스터링할 수 있다. 예를 들면, 소정의 거리는 자차량(20)이 주행하는 차선일 수 있다.The surrounding
다른 예를 들면, 주변 상황 판단부(120)는 이미지 센서에서 산출된 객체(30)의 좌우 너비를 객체(30)의 너비로 산출하고, 레이더 센서에서 산출된 측정치(210)의 클러스터링 결과를 객체(30)의 세로 길이로 산출할 수 있다.For another example, the surrounding
주변 상황 판단부(120)는 이미지 센서로부터 수신한 센싱정보로부터 보다 정확한 객체(30)의 존재 여부와 전술한 레이더 센서로부터 수신한 센서정보로부터 객체(30)의 존재 여부를 이중적으로 판단함으로써, 보다 정확한 자차량(20)의 주변 상황을 판단할 수 있다.The surrounding
도 3 및 도 4는 일 실시예에 따른 자차량(20)의 주행 경로를 산출하는 것을 설명하기 위한 도면이다.3 and 4 are diagrams for explaining calculating a driving route of the
주행 경로 산출부(130)는 주변정보를 기초로 자차량(20)의 주행 경로를 산출할 수 있다.The driving
주행 경로 산출부(130)는 자차량(20)의 현재 위치에서 목표 지점까지 주행 도로에 따른 최단 동선을 자차량(20)의 주행 경로로 설정하고, 주변정보에서 산출된 객체(30-1)의 위치를 일정 거리만큼 유지하며 주행하도록 최단 동선의 주행 경로를 조정할 수 있다.The driving
도 3을 참조하면, 도 3은 일반적인 차량의 센서를 통해 객체(30-1, 30-2)를 감지한 경우, 객체(30-1, 30-2)의 이동 방향 및 종류가 특정되지 않았기 때문에 주행 경로를 설정함에 있어서 현재의 상황만을 중시할 수 있다.Referring to FIG. 3 , in FIG. 3 , when the objects 30-1 and 30-2 are detected through a general vehicle sensor, the moving directions and types of the objects 30-1 and 30-2 are not specified. In setting the driving route, only the current situation can be emphasized.
다만, 도 4를 참조하면, 주변 상황 판단부(120)는 이미지 센서 및 속도 센서를 통해 객체(30)의 종류, 주행 방향 및 속도를 통해 객체(30)의 주행 방향을 예측할 수 있다. 그리고, 주행 경로 산출부(130)는 전술한 예측된 주행 방향을 적용하여 자차량(20)의 주행 경로를 산출할 수 있다.However, referring to FIG. 4 , the surrounding
일 실시예에서, 주행 경로 산출부(130)는 자차량(20)이 객체(30)과 소정의 거리를 유지하며 주행하도록 주행 경로를 산출할 수 있다. 도 4를 참조하며 예를 들면, 주행 경로 산출부(130)는 첫 번째로, 자차량(20)의 현재 위치에서 목표 지점까지 주행 도로에 따른 최단 동선을 자차량(20)의 주행 경로로 설정하고, 주변 상황 판단부(120)에서 산출한 주변정보를 기초로 전술한 최단 동선으로 주행할 때 충돌 위험이 존재하는 경우, 충돌 위험을 유발하는 객체(30)와 소정의 거리를 유지하며 주행하도록 도 4의 a만큼 이격하여 주행하도록 주행 경로를 설정할 수 있다. 이러한 주행 경로는 현재 시점의 스캔 감지에서 객체(30)의 이동 방향을 예측하여 산출한 경과이고, 다음 시점의 스캔 감지에서 감지된 센싱정보를 기초로 주행 경로가 재산출 될 수 있다.In an embodiment, the driving
센서 퓨젼 주행 경로 산출 장치(10) 등의 컴퓨터 시스템(미도시됨)은 하나 이상의 프로세서, 메모리, 저장부, 사용자 인터페이스 입력부 및 사용자 인터페이스 출력부 중 적어도 하나 이상의 요소를 포함할 수 있으며, 이들은 버스를 통해 서로 통신할 수 있다. 또한, 컴퓨터 시스템은 네트워크에 접속하기 위한 네트워크 인터페이스를 또한 포함할 수 있다. 프로세서는 메모리 및/또는 저장소에 저장된 처리 명령어를 실행시키는 CPU 또는 반도체 소자일 수 있다. 메모리 및 저장부는 다양한 유형의 휘발성/비휘발성 기억 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM 및 RAM을 포함할 수 있다.A computer system (not shown) such as the sensor fusion travel
이하에서는 전술한 본 개시를 모두 수행할 수 있는 센서 퓨젼 주행 경로 산출 장치(10)를 이용하는 포장 이력 추적 방법에 대해 설명하기로 한다.Hereinafter, a pavement history tracking method using the sensor fusion driving
도 5는 본 개시의 일 실시예에 따른 센서 퓨젼 주행 경로 산출 방법을 설명하는 흐름도이다.5 is a flowchart illustrating a method for calculating a sensor fusion driving path according to an embodiment of the present disclosure.
도 5를 참조하면, 본 개시에 따른 센서 퓨젼 주행 경로 산출 방법은 자차량(20)에 탑재된 적어도 하나의 센서로부터 센싱정보를 수신하는 센싱정보 수신 단계(S510), 센싱정보를 기초로 자차량(20)의 주변 상황을 판단하여 주변정보를 산출하는 주변 상황 판단 단계(S520) 및 주변정보를 기초로 자차량(20)의 주행 경로를 산출하는 주행 경로 산출 단계(S530)를 포함할 수 있다.Referring to FIG. 5 , the sensor fusion driving route calculation method according to the present disclosure includes a sensing information receiving step of receiving sensing information from at least one sensor mounted on the own vehicle 20 ( S510 ), and the own vehicle based on the sensing information. It may include a surrounding circumstance determination step (S520) of calculating surrounding information by determining the surrounding conditions of (20) and a driving route calculation step (S530) of calculating a driving route of the
센싱정보는 자차량(20)의 주변을 촬영하는 이미지 센서로부터 수신한 이미지 정보 및 자차량(20) 주변의 객체(30)를 감지한 레이더 정보를 포함할 수 있다.The sensing information may include image information received from an image sensor that captures the surroundings of the
주변 상황 판단 단계(S520)는 이미지 정보 및 레이더 정보를 기초로 상기 객체(30)의 위치, 크기 및 예상 방향을 산출할 수 있다.In the surrounding situation determination step S520 , the location, size, and expected direction of the
주변 상황 판단 단계(S520)는 이미지 정보로부터 객체(30)의 너비를 산출하고, 레이더 정보로부터 상기 객체(30)와 자차량(20)과의 거리 및 상대 속도를 산출할 수 있다.In the surrounding situation determination step S520 , the width of the
주행 경로 산출 단계(S520)는 자차량(20)의 현재 위치에서 목표 지점까지 주행 도로에 따른 최단 동선을 자차량(20)의 주행 경로로 설정하고, 주변정보에서 산출된 객체(30)의 위치를 일정 거리만큼 유지하며 주행하도록 최단 동선의 주행 경로를 조정할 수 있다.In the driving path calculation step S520, the shortest moving line along the driving road from the current position of the
이상에서 설명한 바와 같이, 본 개시에 의하면, 센서 퓨젼 주행 경로 산출 장치 및 방법은 복수의 센싱정보를 종합하여 주변 상황을 판단함으로써, 객체(30)의 예상 경로를 감안하여 주행 경로를 산출할 수 있고, 객체(30)의 위치 및 크기에 추정의 오차를 줄일 수 있다.As described above, according to the present disclosure, the sensor fusion driving path calculating apparatus and method can calculate the driving path in consideration of the predicted path of the
이상의 설명은 본 개시의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 기술 사상의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 또한, 본 실시예들은 본 개시의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이므로 이러한 실시예에 의하여 본 기술 사상의 범위가 한정되는 것은 아니다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical spirit of the present disclosure, and those of ordinary skill in the art to which the present disclosure pertains may make various modifications and variations without departing from the essential characteristics of the present disclosure. In addition, the present embodiments are not intended to limit the technical spirit of the present disclosure, but to explain, and thus the scope of the present technical spirit is not limited by these embodiments. The protection scope of the present disclosure should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present disclosure.
10: 센서 퓨젼 주행 경로 산출 장치
20: 자차량
30: 객체
110: 센서부
120: 주변 상황 판단부
130: 주행 경로 산출부10: sensor fusion driving route calculating device 20: own vehicle
30: object 110: sensor unit
120: surrounding situation determination unit 130: driving route calculation unit
Claims (12)
상기 센싱정보를 기초로 상기 자차량의 주변 상황을 판단하여 주변정보를 산출하는 주변 상황 판단부; 및
상기 주변정보를 기초로 자차량의 주행 경로를 산출하는 주행 경로 산출부를 포함하는 센서 퓨젼 주행 경로 산출 장치.a sensor unit configured to receive sensing information from at least one sensor mounted on the own vehicle;
a surrounding situation determination unit for calculating surrounding information by determining surrounding conditions of the own vehicle based on the sensing information; and
A sensor fusion driving path calculating device comprising a driving path calculating unit for calculating a driving path of the own vehicle based on the surrounding information.
상기 센싱정보는,
상기 자차량의 주변을 촬영하는 이미지 센서로부터 수신한 이미지 정보; 및
상기 자차량 주변의 객체를 감지한 레이더 정보를 포함하는 센서 퓨젼 주행 경로 산출 장치.According to claim 1,
The sensing information is
image information received from an image sensor for photographing the surroundings of the own vehicle; and
A sensor fusion driving path calculating device including radar information for detecting an object around the own vehicle.
상기 주변 상황 판단부는,
상기 이미지 정보 및 상기 레이더 정보를 기초로 상기 객체의 위치, 크기 및 예상 방향을 산출하는 센서 퓨젼 주행 경로 산출 장치.3. The method of claim 2,
The surrounding situation determination unit,
A sensor fusion driving path calculating device for calculating the position, size, and expected direction of the object based on the image information and the radar information.
상기 주변 상황 판단부는,
상기 이미지 정보로부터 상기 객체의 너비를 산출하고, 상기 레이더 정보로부터 상기 객체와 상기 자차량과의 거리 및 상대 속도를 산출하는 센서 퓨젼 주행 경로 산출 장치.4. The method of claim 3,
The surrounding situation determination unit,
A sensor fusion driving path calculating device for calculating a width of the object from the image information, and calculating a distance and a relative speed between the object and the own vehicle from the radar information.
상기 주행 경로 산출부는,
상기 자차량의 현재 위치에서 목표 지점까지 주행 도로에 따른 최단 동선을 상기 자차량의 주행 경로로 설정하고, 상기 주변정보에서 산출된 객체의 위치를 일정 거리만큼 유지하며 주행하도록 상기 최단 동선의 주행 경로를 조정하는 센서 퓨젼 주행 경로 산출 장치.According to claim 1,
The travel route calculation unit,
The shortest moving line according to the driving road from the current position of the own vehicle to the target point is set as the driving path of the own vehicle, and the driving path of the shortest moving line is set to maintain the position of the object calculated from the surrounding information by a certain distance A sensor fusion driving route calculation device that adjusts
상기 주행 경로 산출부가 산출한 상기 자차량의 주행 경로를 출력하는 출력부를 더 포함하는 센서 퓨젼 주행 경로 산출 장치.According to claim 1,
The sensor fusion driving path calculating device further comprising an output unit for outputting the driving path of the own vehicle calculated by the driving path calculating unit.
상기 센싱정보를 기초로 상기 자차량의 주변 상황을 판단하여 주변정보를 산출하는 주변 상황 판단 단계; 및
상기 주변정보를 기초로 자차량의 주행 경로를 산출하는 주행 경로 산출 단계를 포함하는 센서 퓨젼 주행 경로 산출 방법.A sensing information receiving step of receiving sensing information from at least one sensor mounted on the own vehicle;
a surrounding situation determination step of calculating surrounding information by judging a surrounding condition of the own vehicle based on the sensing information; and
and a driving path calculation step of calculating a driving path of the own vehicle based on the surrounding information.
상기 센싱정보는,
상기 자차량의 주변을 촬영하는 이미지 센서로부터 수신한 이미지 정보 및
상기 자차량 주변의 객체를 감지한 레이더 정보를 포함하는 센서 퓨젼 주행 경로 산출 방법.8. The method of claim 7,
The sensing information is
image information received from an image sensor that captures the surroundings of the own vehicle; and
A sensor fusion driving path calculation method including radar information that has detected an object around the own vehicle.
상기 주변 상황 판단 단계는,
상기 이미지 정보 및 상기 레이더 정보를 기초로 상기 객체의 위치, 크기 및 예상 방향을 산출하는 센서 퓨젼 주행 경로 산출 방법.9. The method of claim 8,
The step of determining the surrounding situation is
A sensor fusion driving path calculation method for calculating the position, size, and expected direction of the object based on the image information and the radar information.
상기 주변 상황 판단 단계는,
상기 이미지 정보로부터 상기 객체의 너비를 산출하고, 상기 레이더 정보로부터 상기 객체와 상기 자차량과의 거리 및 상대 속도를 산출하는 센서 퓨젼 주행 경로 산출 방법.10. The method of claim 9,
The step of determining the surrounding situation is
A sensor fusion driving path calculation method for calculating a width of the object from the image information, and calculating a distance and a relative speed between the object and the own vehicle from the radar information.
상기 주행 경로 산출 단계는,
상기 자차량의 현재 위치에서 목표 지점까지 주행 도로에 따른 최단 동선을 상기 자차량의 주행 경로로 설정하고, 상기 주변정보에서 산출된 객체의 위치를 일정 거리만큼 유지하며 주행하도록 상기 최단 동선의 주행 경로를 조정하는 센서 퓨젼 주행 경로 산출 방법.8. The method of claim 7,
The driving route calculation step includes:
The shortest moving line according to the driving road from the current position of the own vehicle to the target point is set as the driving path of the own vehicle, and the driving path of the shortest moving line is set to maintain the position of the object calculated from the surrounding information by a certain distance A sensor fusion driving route calculation method that adjusts
상기 주행 경로 산출부가 산출한 상기 자차량의 주행 경로를 출력하는 출력 단계를 더 포함하는 센서 퓨젼 주행 경로 산출 방법.8. The method of claim 7,
The sensor fusion driving path calculation method further comprising an output step of outputting the driving path of the own vehicle calculated by the driving path calculating unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200136054A KR20220052408A (en) | 2020-10-20 | 2020-10-20 | Sensor fusion driving route apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200136054A KR20220052408A (en) | 2020-10-20 | 2020-10-20 | Sensor fusion driving route apparatus and method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220052408A true KR20220052408A (en) | 2022-04-28 |
Family
ID=81448096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200136054A KR20220052408A (en) | 2020-10-20 | 2020-10-20 | Sensor fusion driving route apparatus and method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220052408A (en) |
-
2020
- 2020-10-20 KR KR1020200136054A patent/KR20220052408A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11783699B2 (en) | Intersection information distribution apparatus and intersection information distribution method | |
US11027653B2 (en) | Apparatus, system and method for preventing collision | |
US8401713B2 (en) | Determining relative spatial information between vehicles | |
KR102516365B1 (en) | Method and apparatus for controlling radar of vehicle | |
US10836388B2 (en) | Vehicle control method and apparatus | |
JP2009085951A (en) | Radar sensor for detecting traffic environment in vehicle | |
US20140297063A1 (en) | Vehicle specifying apparatus | |
KR20210001219A (en) | Radar data processing device and method to adjust local resolving power | |
US10800432B2 (en) | Rear-side alert system and method of controlling same | |
US11292481B2 (en) | Method and apparatus for multi vehicle sensor suite diagnosis | |
US20190072659A1 (en) | Artificial-Intelligence Controlled Adaptive Multi-Purpose Beam Forming Automobile Radar | |
KR20170019794A (en) | Vehicle and collision avoidance method for the same | |
US11709261B2 (en) | Radar device for vehicle, controlling method of radar device and radar system for vehicle | |
KR20220052408A (en) | Sensor fusion driving route apparatus and method | |
JP4644590B2 (en) | Peripheral vehicle position detection device and peripheral vehicle position detection method | |
JP2013221893A (en) | Radar control device | |
KR20220052116A (en) | Apparatus and method for detecting object | |
JP2020173155A (en) | Target motion estimating device and target motion estimating method | |
KR20220134175A (en) | Radar control apparatus and method | |
KR20220052110A (en) | Control apparatus and method for detecting and avoiding danger | |
US20230075998A1 (en) | Steering control apparatus and method | |
KR20200040404A (en) | Radar apparatus for vehicle and method for controlling thereof | |
KR20220120232A (en) | Radar control apparatus and method | |
KR102667971B1 (en) | Object size estimation apparatus and method | |
JP7307244B2 (en) | ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, AND PROGRAM |