KR20220052408A - Sensor fusion driving route apparatus and method - Google Patents

Sensor fusion driving route apparatus and method Download PDF

Info

Publication number
KR20220052408A
KR20220052408A KR1020200136054A KR20200136054A KR20220052408A KR 20220052408 A KR20220052408 A KR 20220052408A KR 1020200136054 A KR1020200136054 A KR 1020200136054A KR 20200136054 A KR20200136054 A KR 20200136054A KR 20220052408 A KR20220052408 A KR 20220052408A
Authority
KR
South Korea
Prior art keywords
vehicle
driving path
information
calculating
sensor
Prior art date
Application number
KR1020200136054A
Other languages
Korean (ko)
Inventor
이종언
Original Assignee
이인텔리전스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이인텔리전스 주식회사 filed Critical 이인텔리전스 주식회사
Priority to KR1020200136054A priority Critical patent/KR20220052408A/en
Publication of KR20220052408A publication Critical patent/KR20220052408A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/581Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of interrupted pulse modulated waves and based upon the Doppler effect resulting from movement of targets
    • G01S13/582Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of interrupted pulse modulated waves and based upon the Doppler effect resulting from movement of targets adapted for simultaneous range and velocity measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a sensor fusion driving route calculation apparatus and method. Specifically, the sensor fusion driving route calculation apparatus according to the present disclosure comprises: a sensor unit which receives sensing information from at least one sensor mounted on a host vehicle; a surrounding condition determination unit which determines surrounding condition of the host vehicle based on the sensing information and calculates surrounding information; and a driving route calculation unit which calculates a driving route of the host vehicle based on the surrounding information. The sensor fusion driving route calculation apparatus calculates the driving route of the host vehicle by combination of a radar sensor and an image sensor.

Description

센서 퓨젼 주행 경로 산출 장치 및 방법{SENSOR FUSION DRIVING ROUTE APPARATUS AND METHOD}Sensor fusion driving route calculation device and method {SENSOR FUSION DRIVING ROUTE APPARATUS AND METHOD}

본 개시는 센서 퓨젼 주행 경로 산출 장치 및 방법에 관한 것으로써, 보다 구체적으로, 주행 상황에 따라 주행 경로를 조정하는 센서 퓨젼 주행 경로 산출 장치 및 방법에 관한 것이다.The present disclosure relates to an apparatus and method for calculating a sensor fusion driving path, and more particularly, to an apparatus and method for calculating a sensor fusion driving path for adjusting a driving path according to a driving situation.

자율주행차량은 지도기반의 주행경로를 추종하는 것을 기본으로 한다. 다만, 주행 경로 상에 장애물과 같은 변수가 있을 경우, 자율주행차량은 실시간으로 주행경로를 변경하여 차량이 안전하게 주행할 수 있도록 제어한다. Self-driving vehicles are based on following a map-based driving route. However, if there is a variable such as an obstacle on the driving path, the autonomous driving vehicle changes the driving path in real time to control the vehicle to safely drive.

종래의 자율주행의 차선유지에 필요한 주행경로는 차량용 영상센서(또는 라이다)로 취득한 센서정보와 차량정보(차속, 관성, 조향각/조향토크 등)를 신호처리하여 얻어지는 주행차선과 주행차량과의 상대적 정보값들(이탈각, 이탈거리, 곡률, 도로폭)로써 표현된다. 바꾸어 말하면, 차량용 영상센서(또는 라이다) 및 차량정보만으로 주행 경로를 계산하고 있다.The driving route required for lane maintenance in the conventional autonomous driving is the difference between the driving lane and the driving vehicle, which is obtained by signal processing sensor information acquired by a vehicle image sensor (or lidar) and vehicle information (vehicle speed, inertia, steering angle/steering torque, etc.) It is expressed as relative information values (departure angle, departure distance, curvature, road width). In other words, the driving route is calculated using only the vehicle image sensor (or lidar) and vehicle information.

그러나, 센서 특성에 따라 상황에 따라 오차를 가지고 있어 제어의 어려움이 있었다.However, there was an error in the situation depending on the sensor characteristics, so it was difficult to control.

이러한 배경에서, 본 개시는 레이더 센서와 이미지 센서 등의 결합으로 자차량의 주행 경로를 산출하는 센서 퓨젼 주행 경로 산출 장치 및 방법을 제공하고자 한다.Against this background, the present disclosure intends to provide a sensor fusion driving path calculating apparatus and method for calculating a driving path of the own vehicle by combining a radar sensor and an image sensor.

전술한 과제를 해결하기 위하여, 일 측면에서, 본 개시는 자차량에 탑재된 적어도 하나의 센서로부터 센싱정보를 수신하는 센서부, 센싱정보를 기초로 자차량의 주변 상황을 판단하여 주변정보를 산출하는 주변 상황 판단부 및 주변정보를 기초로 자차량의 주행 경로를 산출하는 주행 경로 산출부를 포함하는 센서 퓨젼 주행 경로 산출 장치를 제공한다. In order to solve the above problems, in one aspect, the present disclosure provides a sensor unit that receives sensing information from at least one sensor mounted on the own vehicle, and calculates the surrounding information by determining the surrounding situation of the own vehicle based on the sensing information It provides a sensor fusion driving path calculating device including a driving path calculating unit for calculating a driving path of the own vehicle based on the surrounding situation determination unit and surrounding information.

다른 측면에서, 본 개시는 자차량에 탑재된 적어도 하나의 센서로부터 센싱정보를 수신하는 센싱정보 수신 단계, 센싱정보를 기초로 자차량의 주변 상황을 판단하여 주변정보를 산출하는 주변 상황 판단 단계 및 주변정보를 기초로 자차량의 주행 경로를 산출하는 주행 경로 산출 단계를 포함하는 센서 퓨젼 주행 경로 산출 방법을 제공한다.In another aspect, the present disclosure provides a sensing information receiving step of receiving sensing information from at least one sensor mounted on the own vehicle, a surrounding situation determining step of calculating surrounding information by determining the surrounding condition of the own vehicle based on the sensing information, and It provides a sensor fusion driving path calculation method including a driving path calculation step of calculating a driving path of the own vehicle based on surrounding information.

본 개시에 의하면, 센서 퓨젼 주행 경로 산출 장치 및 방법은 복수의 센싱정보를 종합하여 주변 상황을 판단함으로써, 객체의 예상 경로를 감안하여 주행 경로를 산출할 수 있고, 객체의 위치 및 크기에 추정의 오차를 줄일 수 있다.According to the present disclosure, the sensor fusion driving path calculating apparatus and method can calculate the driving path in consideration of the predicted path of the object by synthesizing a plurality of sensing information to determine the surrounding situation, and the location and size of the object error can be reduced.

도 1은 본 개시의 일 실시예에 따른 포장 센서 퓨젼 주행 경로 산출 장치를 설명하기 위한 블록도이다.
도 2는 일 실시예에 따른 복수의 센싱정보를 기초로 주변 상황을 판단하는 것을 설명하기 위한 도면이다.
도 3 및 도 4는 일 실시예에 따른 자차량의 주행 경로를 산출하는 것을 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시예에 따른 센서 퓨젼 주행 경로 산출 방법을 설명하는 흐름도이다.
1 is a block diagram illustrating an apparatus for calculating a pavement sensor fusion driving route according to an embodiment of the present disclosure.
FIG. 2 is a diagram for explaining determining a surrounding situation based on a plurality of pieces of sensing information according to an exemplary embodiment.
3 and 4 are diagrams for explaining calculating a driving route of the host vehicle according to an exemplary embodiment.
5 is a flowchart illustrating a method of calculating a sensor fusion driving path according to an embodiment of the present disclosure.

이하, 본 개시의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 이하, 이하, 본 개시의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 이하, 본 개시의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성 요소들에 참조부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 기술 사상의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다. 본 명세서 상에서 언급된 "포함한다", "갖는다", "이루어진다" 등이 사용되는 경우 "~만"이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별한 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함할 수 있다.Hereinafter, some embodiments of the present disclosure in detail with reference to illustrative drawings, hereinafter in detail with reference to exemplary drawings, some embodiments of the present disclosure in detail with reference to exemplary drawings to be described in detail. In adding reference numerals to components of each drawing, the same components may have the same reference numerals as much as possible even though they are indicated in different drawings. In addition, in describing the present embodiments, if it is determined that a detailed description of a related well-known configuration or function may obscure the gist of the present technical idea, the detailed description may be omitted. When "includes", "having", "consisting of", etc. mentioned in this specification are used, other parts may be added unless "only" is used. When a component is expressed in the singular, it may include a case in which the plural is included unless otherwise explicitly stated.

또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다. In addition, in describing the components of the present disclosure, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, order, or number of the elements are not limited by the terms.

구성 요소들의 위치 관계에 대한 설명에 있어서, 둘 이상의 구성 요소가 "연결", "결합" 또는 "접속" 등이 된다고 기재된 경우, 둘 이상의 구성 요소가 직접적으로 "연결", "결합" 또는 "접속" 될 수 있지만, 둘 이상의 구성 요소와 다른 구성 요소가 더 "개재"되어 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다. 여기서, 다른 구성 요소는 서로 "연결", "결합" 또는 "접속" 되는 둘 이상의 구성 요소 중 하나 이상에 포함될 수도 있다. In the description of the positional relationship of the components, when it is described that two or more components are "connected", "coupled" or "connected", two or more components are directly "connected", "coupled" or "connected" ", but it will be understood that two or more components and other components may be further "interposed" and "connected," "coupled," or "connected." Here, other components may be included in one or more of two or more components that are “connected”, “coupled” or “connected” to each other.

구성 요소들이나, 동작 방법이나 제작 방법 등과 관련한 시간적 흐름 관계에 대한 설명에 있어서, 예를 들어, "~후에", "~에 이어서", "~다음에", "~전에" 등으로 시간적 선후 관계 또는 흐름적 선후 관계가 설명되는 경우, "바로" 또는 "직접"이 사용되지 않는 이상 연속적이지 않은 경우도 포함할 수 있다.In the description of the temporal flow relationship related to the components, the operation method or the production method, for example, the temporal precedence relationship such as "after", "after", "after", "before", etc. Alternatively, when a flow precedence relationship is described, it may include a case where it is not continuous unless "immediately" or "directly" is used.

한편, 구성 요소에 대한 수치 또는 그 대응 정보(예: 레벨 등)가 언급된 경우, 별도의 명시적 기재가 없더라도, 수치 또는 그 대응 정보는 각종 요인(예: 공정상의 요인, 내부 또는 외부 충격, 노이즈 등)에 의해 발생할 수 있는 오차 범위를 포함하는 것으로 해석될 수 있다.On the other hand, when numerical values or corresponding information (eg, level, etc.) for a component are mentioned, even if there is no separate explicit description, the numerical value or the corresponding information is based on various factors (eg, process factors, internal or external shock, Noise, etc.) may be interpreted as including an error range that may occur.

이하에서는 첨부되는 도면들을 참조하여 본 개시의 일 실시예에 따른 센서 퓨젼 주행 경로 산출 장치(10)를 설명하기로 한다.Hereinafter, the sensor fusion driving path calculating device 10 according to an embodiment of the present disclosure will be described with reference to the accompanying drawings.

도 1은 본 개시의 일 실시예에 따른 포장 센서 퓨젼 주행 경로 산출 장치(10)를 설명하기 위한 블록도이다.1 is a block diagram for explaining a pavement sensor fusion driving path calculating device 10 according to an embodiment of the present disclosure.

도 1을 참조하면, 본 개시의 일 실시예에 의한 센서 퓨젼 주행 경로 산출 장치(10)는 센서부(110), 주변 상황 판단부(120) 및 주행 경로 산출부(130) 등을 포함할 수 있다.Referring to FIG. 1 , the sensor fusion driving path calculating device 10 according to an embodiment of the present disclosure may include a sensor unit 110 , a surrounding situation determining unit 120 , and a driving path calculating unit 130 , etc. there is.

센서부(110)는 자차량(20)에 탑재된 적어도 하나의 센서로부터 센싱정보를 수신할 수 있다. 여기서 센서는 예를 들면, 이미지 센서, 레이더(RADAR) 센서, 속도 센서, 조향각 센서 등을 포함할 수 있다. 그러나, 자차량(20)에 탑재되어 주변을 감지할 수 있다면 특정 센서에 한정되지 않는다.The sensor unit 110 may receive sensing information from at least one sensor mounted on the own vehicle 20 . Here, the sensor may include, for example, an image sensor, a radar (RADAR) sensor, a speed sensor, a steering angle sensor, and the like. However, it is not limited to a specific sensor as long as it is mounted on the own vehicle 20 to sense the surroundings.

이에 더하여, 센서는 조향각 센서와 같이 주변뿐만 아니라 자차량(20) 내부를 감지하는 센서도 포함할 수 있다.In addition, the sensor may include a sensor that detects not only the surroundings but also the inside of the own vehicle 20, such as a steering angle sensor.

그리고, 센서는 감지 결과를 본 개시의 퓨젼 주행 경로 산출 장치에 포함된 센서부(110)에 전송할 수 있다.In addition, the sensor may transmit the detection result to the sensor unit 110 included in the fusion driving route calculating device of the present disclosure.

예를 들면, 레이더 센서는 안테나부, 수신부 및 송신부를 포함할 수 있다. 구체적으로, 안테나부는 1 이상의 송신 안테나와 1 이상의 수신 안테나를 포함하며, 각 송수신 안테나는 1 이상의 방사 소자가 급전선로에 의하여 직렬로 연결되는 어레이 안테나 일 수 있으나 그에 한정되는 것은 아니다.For example, the radar sensor may include an antenna unit, a receiver unit, and a transmitter unit. Specifically, the antenna unit includes one or more transmit antennas and one or more receive antennas, and each transmit/receive antenna may be an array antenna in which one or more radiating elements are connected in series by a feed line, but is not limited thereto.

이러한 안테나부는, 복수 개의 송신 안테나 및 복수 개의 수신 안테나를 포함하며, 그 배열 순서 및 배열 간격 등에 따라 여러 형태의 안테나 배열 구조를 가질 수 있다.The antenna unit includes a plurality of transmit antennas and a plurality of receive antennas, and may have various types of antenna array structures according to an arrangement order and an arrangement interval thereof.

송신부는 안테나부에 포함되는 복수 개의 송신 안테나 중 1개로 스위칭(Switching)하여 스위칭 된 송신 안테나를 통해 송신신호를 송신하거나 복수 개의 송신 안테나에 할당된 멀티 송신채널을 통해 송신신호를 송신하는 기능을 할 수 있다.The transmitter may switch to one of a plurality of transmit antennas included in the antenna unit and transmit a transmit signal through the switched transmit antenna or transmit a transmit signal through a multi transmit channel allocated to the plurality of transmit antennas. can

이러한 송신부는, 스위칭 된 송신 안테나에 할당된 한 개의 송신채널 또는 복수 개의 송신 안테나에 할당된 멀티 송신채널에 대한 송신신호를 생성하는 발진부를 포함한다. 이러한 발진부는, 일 예로서, 전압 제어 발진기(VCO: Voltage-Controlled Oscillator) 및 오실레이터(Oscillator) 등을 포함할 수 있다.The transmitter includes an oscillator that generates a transmission signal for one transmission channel allocated to the switched transmission antenna or multiple transmission channels allocated to a plurality of transmission antennas. The oscillator may include, for example, a voltage-controlled oscillator (VCO) and an oscillator.

수신부는 객체(30)에서 반사되어 수신되는 수신신호를 수신안테나를 통하여 수신할 수 있다.The receiver may receive the received signal reflected from the object 30 through the receiving antenna.

또한, 수신부는 복수의 수신 안테나 중 한 개로 스위칭하여 스위칭 된 수신 안테나를 통해 송신된 송신신호가 타깃에 의해 반사된 반사신호인 수신신호를 수신하거나 복수 개의 수신 안테나에 할당된 멀티 수신채널을 통해 수신신호를 수신하는 기능을 할 수 있다.In addition, the reception unit switches to one of the plurality of reception antennas to receive a reception signal in which a transmission signal transmitted through the switched reception antenna is a reflected signal reflected by a target or received through a multi reception channel allocated to a plurality of reception antennas. It can function to receive signals.

이러한 수신부는, 스위칭 된 수신 안테나에 할당된 한 개의 수신채널을 통해 수신되거나 복수 개의 송신 안테나에 할당된 티 수신채널을 통해 수신된 수신신호를 저잡음 증폭하는 저잡음 증폭부(LNA: Low Noise Amplifier)와, 저잡음 증폭된 수신신호를 믹싱하는 믹싱부(Mixer)와, 믹싱된 수신신호를 증폭하는 증폭부(Amplifier)와, 증폭된 수신신호를 디지털 변환하여 수신데이터를 생성하는 변환부(ADC: Analog Digital Converter) 등을 포함할 수 있다. The receiving unit includes a low noise amplifier (LNA) for low-noise amplifying a received signal received through one receiving channel assigned to the switched receiving antenna or received through a T receiving channel assigned to a plurality of transmitting antennas; , a mixing unit (Mixer) for mixing the low-noise amplified received signal, an amplifier (Amplifier) for amplifying the mixed received signal, and a conversion unit (ADC: Analog Digital) for digitally converting the amplified received signal to generate received data Converter) and the like.

이에 따라, 센서부(110)는 송신 안테나를 이용하여 객체(30)를 향해 레이더 신호를 송신하도록 제어하는 레이더 신호 송신 모듈 및 객체(30)에서 반사되어 수신되는 수신신호를 수신 안테나를 통하여 수신하는 수신 모듈 등을 포함할 수 있다.Accordingly, the sensor unit 110 receives a radar signal transmission module that controls to transmit a radar signal toward the object 30 using a transmission antenna and a reception signal reflected from the object 30 through the reception antenna. It may include a receiving module and the like.

여기서, 이미지 센서로부터 촬영된 영상정보, 즉, 센싱정보는 이미지 데이터로 구성되므로, 이미지 센서로부터 캡처된 이미지 데이터를 의미할 수 있다. 이하, 본 개시에서는 이미지 센서로부터 촬영된 센싱정보는 이미지 센서로부터 캡처된 이미지 데이터를 의미한다.Here, since the image information captured from the image sensor, that is, the sensing information, is composed of image data, it may mean image data captured from the image sensor. Hereinafter, in the present disclosure, sensing information captured from an image sensor means image data captured from the image sensor.

이미지 센서에 의해 캡처된 이미지 데이터는, 예를 들어, Raw 형태의 AVI, MPEG-4, H.264, DivX, JPEG 중 하나의 포맷으로 생성될 수 있다. 센서에서 캡처된 이미지 주변 상황 판단부(120)에서 처리될 수 있다.The image data captured by the image sensor may be generated in, for example, one of raw format AVI, MPEG-4, H.264, DivX, and JPEG. The image captured by the sensor may be processed by the surrounding situation determination unit 120 .

이미지 센서는 화각 및 분해능이 상대적으로 우세한 이미지 센서일 수 있다. 예를 들어, 이미지 센서의 화각은 약 100°이고, 분해능은 약 10μm일 수 있다. 하지만, 이에 한정되는 것은 아니며, 본 개시의 이미지 센서는 구현 가능한 센서들 중 가장 넓은 화각을 구비하는 센서를 의미할 수 있다.The image sensor may be an image sensor having a relatively superior angle of view and resolution. For example, the angle of view of the image sensor may be about 100°, and the resolution may be about 10 μm. However, the present disclosure is not limited thereto, and the image sensor of the present disclosure may mean a sensor having the widest angle of view among achievable sensors.

센싱정보를 기초로 자차량(20)의 주변 상황을 판단하여 주변정보를 산출할 수 있다.It is possible to calculate the surrounding information by determining the surrounding situation of the own vehicle 20 based on the sensing information.

구체적으로, 복수의 센서로부터 수신한 센싱정보는 신호 처리를 거쳐 주변정보로 산출할 수 있다. 예를 들면, 수신부에서 수신한 수신신호는 FFT(Fast Fourier Transform) 및 측정치(210)(Measurement) 등을 통해 주변정보로 산출될 수 있다. 이러한 주변정보는 자차량(20) 주변에 객체(30)가 존재하는 경우, 객체(30)의 존재 여부 및 객체(30)의 추정 위치, 속도 등을 포함할 수 있다.Specifically, the sensing information received from the plurality of sensors may be calculated as surrounding information through signal processing. For example, the received signal received by the receiver may be calculated as surrounding information through Fast Fourier Transform (FFT) and the measurement value 210 (Measurement). Such surrounding information may include, when the object 30 exists around the own vehicle 20 , whether the object 30 exists, and an estimated position and speed of the object 30 .

또한, 이미지 센서의 경우, 주변 상황 판단부(120)는 자차량(20) 주변을 촬영함으로써, 자차량(20) 주변에 객체(30)의 존재 여부를 판단할 수 있다.In addition, in the case of an image sensor, the surrounding situation determination unit 120 may determine whether the object 30 exists around the own vehicle 20 by photographing the surroundings of the own vehicle 20 .

도 2는 일 실시예에 따른 복수의 센싱정보를 기초로 주변 상황을 판단하는 것을 설명하기 위한 도면이다.FIG. 2 is a diagram for explaining determining a surrounding situation based on a plurality of pieces of sensing information according to an exemplary embodiment.

주변 상황 판단부(120)는 이미지 정보 및 레이더 정보를 기초로 객체(30)의 위치, 크기 및 예상 방향을 산출할 수 있다.The surrounding situation determination unit 120 may calculate the position, size, and expected direction of the object 30 based on the image information and the radar information.

도 2를 참조하면, 주변 상황 판단부(120)는 레이더 센서로부터 산출한 측정치(210)의 방향에 이미지 센서로부터 구분된 객체(30)가 위치하는 경우, 주변 상황 판단부(120)는 측정치(210)의 방향에 객체(30)가 위치한다고 판단할 수 있다. 이렇게 산출된 객체(30)의 여부 및 위치로 주변 상황 판단부(120)는 주변 상황을 인식 및 판단할 수 있다.Referring to FIG. 2 , when the object 30 separated from the image sensor is located in the direction of the measurement value 210 calculated from the radar sensor, the surrounding situation determination unit 120 determines the surrounding situation ( 120 ) It may be determined that the object 30 is located in the direction of the 210 . With the presence and location of the object 30 calculated in this way, the surrounding situation determination unit 120 may recognize and determine the surrounding situation.

도 2를 참조하며 예를 들면, 센서 퓨젼 주행 경로 산출 장치(10)는 자차량(20)에 탑재된 레이더 센서의 측정치(210)를 통해 객체(30)의 존재 여부를 판단할 수 있고, 객체(30)의 위치 및 각도를 추정할 수 있다. 여기에, 객체(30)의 존재에 대한 신뢰를 더하기 위해 이미지 센서가 촬영한 센싱정보를 더 적용하여 객체(30)의 존재 여부를 판단할 수 있다. 도 2의 이미지 센서에 의해 촬영된 객체(30)에 측정치(210)가 위치하는 경우, 즉, 도 2의 a각도 이내에 측정치(210-1, 210-2, 210-3, 210-4)가 위치하면, 주변 상황 판단부(120)는 객체(30)가 해당 위치에 존재한다고 판단할 수 있다. Referring to FIG. 2 , for example, the sensor fusion driving path calculating device 10 may determine the existence of the object 30 through the measurement value 210 of the radar sensor mounted on the own vehicle 20 , and the object The position and angle of (30) can be estimated. Here, in order to increase trust in the existence of the object 30 , the existence of the object 30 may be determined by further applying sensing information photographed by the image sensor. When the measurement value 210 is located in the object 30 photographed by the image sensor of FIG. When located, the surrounding situation determination unit 120 may determine that the object 30 exists at the corresponding location.

이렇게 객체(30)의 존재 여부가 판단되면, 주변 상황 판단부(120)는, 이미지 정보로부터 객체(30)의 너비를 산출하고, 레이더 정보로부터 객체(30)와 자차량(20)과의 거리 및 상대 속도를 산출할 수 있다.When the existence of the object 30 is determined in this way, the surrounding situation determination unit 120 calculates the width of the object 30 from the image information, and the distance between the object 30 and the own vehicle 20 from the radar information. and relative velocity.

예를 들면, 센서의 동작 주기가 수회 수행되고, 소정의 측정치(210)가 감지되었을 때, 주변 상황 판단부(120)는 누적된 측정치(210)를 클리스터링(Clustering)하여 객체(30)의 크기 및 위치를 산출할 수 있다. 여기서 센서의 동작 주기는 센서가 송신신호를 송신부터 객체(30)에 반사되어 반사신호를 수신하고 반사신호를 처리하고 센싱정보를 산출하고 주변정보를 산출하여 다시 송신신호를 송신하기 전까지의 기간을 의미할 수 있다. 이것이 1회 수행되면 제1 주기, n회 수행되면 제n 주기로 명명할 수 있다.For example, when the operation cycle of the sensor is performed several times and a predetermined measurement value 210 is detected, the surrounding situation determination unit 120 clusters the accumulated measurement value 210 to Size and location can be calculated. Here, the operation period of the sensor is the period from when the sensor transmits a transmission signal to being reflected by the object 30, receiving the reflected signal, processing the reflected signal, calculating the sensing information, calculating the surrounding information, and transmitting the transmission signal again. can mean When this is performed once, it can be called a first cycle, and when it is performed n times, it can be called an nth cycle.

주변 상황 판단부(120)는 소정의 누적된 측정치(210), 예를 들면, 제n 주기까지 객체(30)를 감지하여 산출된 측정치(210)를 기초로 클러스터링하여 객체(30)의 크기를 산출할 수 있다. 그리고, 클러스터링을 수행하되, 이미지 센서에서 감지한 객체(30)의 범위 이내에 위치하는 측정치(210)를 클러스터링할 수 있고, 이미지 센서에서 감지한 객체(30)에서 소정의 거리 이내에 위치하는 측정치(210)들을 클러스터링할 수 있다. 예를 들면, 소정의 거리는 자차량(20)이 주행하는 차선일 수 있다.The surrounding situation determination unit 120 determines the size of the object 30 by clustering based on a predetermined accumulated measurement value 210, for example, the measurement value 210 calculated by detecting the object 30 up to the n-th period. can be calculated. In addition, although clustering is performed, the measurement values 210 located within the range of the object 30 detected by the image sensor may be clustered, and the measurement values 210 located within a predetermined distance from the object 30 detected by the image sensor. ) can be clustered. For example, the predetermined distance may be a lane in which the host vehicle 20 travels.

다른 예를 들면, 주변 상황 판단부(120)는 이미지 센서에서 산출된 객체(30)의 좌우 너비를 객체(30)의 너비로 산출하고, 레이더 센서에서 산출된 측정치(210)의 클러스터링 결과를 객체(30)의 세로 길이로 산출할 수 있다.For another example, the surrounding situation determination unit 120 calculates the left and right widths of the object 30 calculated by the image sensor as the width of the object 30 , and calculates the clustering result of the measured values 210 calculated by the radar sensor as the object. It can be calculated with the vertical length of (30).

주변 상황 판단부(120)는 이미지 센서로부터 수신한 센싱정보로부터 보다 정확한 객체(30)의 존재 여부와 전술한 레이더 센서로부터 수신한 센서정보로부터 객체(30)의 존재 여부를 이중적으로 판단함으로써, 보다 정확한 자차량(20)의 주변 상황을 판단할 수 있다.The surrounding situation determination unit 120 determines the existence of the object 30 more accurately from the sensing information received from the image sensor and the existence of the object 30 from the sensor information received from the above-described radar sensor. It is possible to accurately determine the surrounding situation of the host vehicle 20 .

도 3 및 도 4는 일 실시예에 따른 자차량(20)의 주행 경로를 산출하는 것을 설명하기 위한 도면이다.3 and 4 are diagrams for explaining calculating a driving route of the host vehicle 20 according to an exemplary embodiment.

주행 경로 산출부(130)는 주변정보를 기초로 자차량(20)의 주행 경로를 산출할 수 있다.The driving path calculating unit 130 may calculate the driving path of the own vehicle 20 based on the surrounding information.

주행 경로 산출부(130)는 자차량(20)의 현재 위치에서 목표 지점까지 주행 도로에 따른 최단 동선을 자차량(20)의 주행 경로로 설정하고, 주변정보에서 산출된 객체(30-1)의 위치를 일정 거리만큼 유지하며 주행하도록 최단 동선의 주행 경로를 조정할 수 있다.The driving path calculating unit 130 sets the shortest moving line along the driving road from the current position of the own vehicle 20 to the target point as the driving path of the own vehicle 20, and the object 30-1 calculated from the surrounding information It is possible to adjust the driving route of the shortest moving line to keep the position of a certain distance.

도 3을 참조하면, 도 3은 일반적인 차량의 센서를 통해 객체(30-1, 30-2)를 감지한 경우, 객체(30-1, 30-2)의 이동 방향 및 종류가 특정되지 않았기 때문에 주행 경로를 설정함에 있어서 현재의 상황만을 중시할 수 있다.Referring to FIG. 3 , in FIG. 3 , when the objects 30-1 and 30-2 are detected through a general vehicle sensor, the moving directions and types of the objects 30-1 and 30-2 are not specified. In setting the driving route, only the current situation can be emphasized.

다만, 도 4를 참조하면, 주변 상황 판단부(120)는 이미지 센서 및 속도 센서를 통해 객체(30)의 종류, 주행 방향 및 속도를 통해 객체(30)의 주행 방향을 예측할 수 있다. 그리고, 주행 경로 산출부(130)는 전술한 예측된 주행 방향을 적용하여 자차량(20)의 주행 경로를 산출할 수 있다.However, referring to FIG. 4 , the surrounding situation determination unit 120 may predict the traveling direction of the object 30 through the type, traveling direction, and speed of the object 30 through the image sensor and the speed sensor. In addition, the driving path calculating unit 130 may calculate the driving path of the host vehicle 20 by applying the above-described predicted driving direction.

일 실시예에서, 주행 경로 산출부(130)는 자차량(20)이 객체(30)과 소정의 거리를 유지하며 주행하도록 주행 경로를 산출할 수 있다. 도 4를 참조하며 예를 들면, 주행 경로 산출부(130)는 첫 번째로, 자차량(20)의 현재 위치에서 목표 지점까지 주행 도로에 따른 최단 동선을 자차량(20)의 주행 경로로 설정하고, 주변 상황 판단부(120)에서 산출한 주변정보를 기초로 전술한 최단 동선으로 주행할 때 충돌 위험이 존재하는 경우, 충돌 위험을 유발하는 객체(30)와 소정의 거리를 유지하며 주행하도록 도 4의 a만큼 이격하여 주행하도록 주행 경로를 설정할 수 있다. 이러한 주행 경로는 현재 시점의 스캔 감지에서 객체(30)의 이동 방향을 예측하여 산출한 경과이고, 다음 시점의 스캔 감지에서 감지된 센싱정보를 기초로 주행 경로가 재산출 될 수 있다.In an embodiment, the driving path calculator 130 may calculate a driving path so that the host vehicle 20 travels while maintaining a predetermined distance from the object 30 . Referring to FIG. 4 , for example, the driving path calculating unit 130 first sets the shortest moving line along the driving road from the current position of the own vehicle 20 to the target point as the driving path of the own vehicle 20 . And, if there is a risk of collision when driving on the shortest moving line as described above based on the surrounding information calculated by the surrounding situation determination unit 120, the vehicle is driven while maintaining a predetermined distance from the object 30 causing the collision risk. A driving path may be set to travel as far as a distance from FIG. 4A . Such a travel path is the elapsed time calculated by predicting the moving direction of the object 30 in the scan detection at the current time point, and the travel path may be recalculated based on the sensing information detected in the scan detection at the next time point.

센서 퓨젼 주행 경로 산출 장치(10) 등의 컴퓨터 시스템(미도시됨)은 하나 이상의 프로세서, 메모리, 저장부, 사용자 인터페이스 입력부 및 사용자 인터페이스 출력부 중 적어도 하나 이상의 요소를 포함할 수 있으며, 이들은 버스를 통해 서로 통신할 수 있다. 또한, 컴퓨터 시스템은 네트워크에 접속하기 위한 네트워크 인터페이스를 또한 포함할 수 있다. 프로세서는 메모리 및/또는 저장소에 저장된 처리 명령어를 실행시키는 CPU 또는 반도체 소자일 수 있다. 메모리 및 저장부는 다양한 유형의 휘발성/비휘발성 기억 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM 및 RAM을 포함할 수 있다.A computer system (not shown) such as the sensor fusion travel route calculating device 10 may include at least one or more elements of one or more processors, memories, storage, user interface inputs and user interface outputs, which may include a bus can communicate with each other through Further, the computer system may also include a network interface for connecting to the network. The processor may be a CPU or a semiconductor device that executes processing instructions stored in memory and/or storage. Memory and storage may include various types of volatile/non-volatile storage media. For example, memory may include ROM and RAM.

이하에서는 전술한 본 개시를 모두 수행할 수 있는 센서 퓨젼 주행 경로 산출 장치(10)를 이용하는 포장 이력 추적 방법에 대해 설명하기로 한다.Hereinafter, a pavement history tracking method using the sensor fusion driving path calculating device 10 capable of performing all of the above-described present disclosure will be described.

도 5는 본 개시의 일 실시예에 따른 센서 퓨젼 주행 경로 산출 방법을 설명하는 흐름도이다.5 is a flowchart illustrating a method for calculating a sensor fusion driving path according to an embodiment of the present disclosure.

도 5를 참조하면, 본 개시에 따른 센서 퓨젼 주행 경로 산출 방법은 자차량(20)에 탑재된 적어도 하나의 센서로부터 센싱정보를 수신하는 센싱정보 수신 단계(S510), 센싱정보를 기초로 자차량(20)의 주변 상황을 판단하여 주변정보를 산출하는 주변 상황 판단 단계(S520) 및 주변정보를 기초로 자차량(20)의 주행 경로를 산출하는 주행 경로 산출 단계(S530)를 포함할 수 있다.Referring to FIG. 5 , the sensor fusion driving route calculation method according to the present disclosure includes a sensing information receiving step of receiving sensing information from at least one sensor mounted on the own vehicle 20 ( S510 ), and the own vehicle based on the sensing information. It may include a surrounding circumstance determination step (S520) of calculating surrounding information by determining the surrounding conditions of (20) and a driving route calculation step (S530) of calculating a driving route of the own vehicle 20 based on the surrounding information. .

센싱정보는 자차량(20)의 주변을 촬영하는 이미지 센서로부터 수신한 이미지 정보 및 자차량(20) 주변의 객체(30)를 감지한 레이더 정보를 포함할 수 있다.The sensing information may include image information received from an image sensor that captures the surroundings of the own vehicle 20 and radar information that detects the object 30 around the own vehicle 20 .

주변 상황 판단 단계(S520)는 이미지 정보 및 레이더 정보를 기초로 상기 객체(30)의 위치, 크기 및 예상 방향을 산출할 수 있다.In the surrounding situation determination step S520 , the location, size, and expected direction of the object 30 may be calculated based on image information and radar information.

주변 상황 판단 단계(S520)는 이미지 정보로부터 객체(30)의 너비를 산출하고, 레이더 정보로부터 상기 객체(30)와 자차량(20)과의 거리 및 상대 속도를 산출할 수 있다.In the surrounding situation determination step S520 , the width of the object 30 may be calculated from image information, and the distance and relative speed between the object 30 and the host vehicle 20 may be calculated from the radar information.

주행 경로 산출 단계(S520)는 자차량(20)의 현재 위치에서 목표 지점까지 주행 도로에 따른 최단 동선을 자차량(20)의 주행 경로로 설정하고, 주변정보에서 산출된 객체(30)의 위치를 일정 거리만큼 유지하며 주행하도록 최단 동선의 주행 경로를 조정할 수 있다.In the driving path calculation step S520, the shortest moving line along the driving road from the current position of the own vehicle 20 to the target point is set as the driving path of the own vehicle 20, and the position of the object 30 calculated from the surrounding information It is possible to adjust the driving route of the shortest moving line so that the vehicle travels while maintaining a certain distance.

이상에서 설명한 바와 같이, 본 개시에 의하면, 센서 퓨젼 주행 경로 산출 장치 및 방법은 복수의 센싱정보를 종합하여 주변 상황을 판단함으로써, 객체(30)의 예상 경로를 감안하여 주행 경로를 산출할 수 있고, 객체(30)의 위치 및 크기에 추정의 오차를 줄일 수 있다.As described above, according to the present disclosure, the sensor fusion driving path calculating apparatus and method can calculate the driving path in consideration of the predicted path of the object 30 by synthesizing a plurality of sensing information and determining the surrounding situation, , it is possible to reduce the error of estimation in the position and size of the object 30 .

이상의 설명은 본 개시의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 기술 사상의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 또한, 본 실시예들은 본 개시의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이므로 이러한 실시예에 의하여 본 기술 사상의 범위가 한정되는 것은 아니다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical spirit of the present disclosure, and those of ordinary skill in the art to which the present disclosure pertains may make various modifications and variations without departing from the essential characteristics of the present disclosure. In addition, the present embodiments are not intended to limit the technical spirit of the present disclosure, but to explain, and thus the scope of the present technical spirit is not limited by these embodiments. The protection scope of the present disclosure should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present disclosure.

10: 센서 퓨젼 주행 경로 산출 장치 20: 자차량
30: 객체 110: 센서부
120: 주변 상황 판단부 130: 주행 경로 산출부
10: sensor fusion driving route calculating device 20: own vehicle
30: object 110: sensor unit
120: surrounding situation determination unit 130: driving route calculation unit

Claims (12)

자차량에 탑재된 적어도 하나의 센서로부터 센싱정보를 수신하는 센서부;
상기 센싱정보를 기초로 상기 자차량의 주변 상황을 판단하여 주변정보를 산출하는 주변 상황 판단부; 및
상기 주변정보를 기초로 자차량의 주행 경로를 산출하는 주행 경로 산출부를 포함하는 센서 퓨젼 주행 경로 산출 장치.
a sensor unit configured to receive sensing information from at least one sensor mounted on the own vehicle;
a surrounding situation determination unit for calculating surrounding information by determining surrounding conditions of the own vehicle based on the sensing information; and
A sensor fusion driving path calculating device comprising a driving path calculating unit for calculating a driving path of the own vehicle based on the surrounding information.
제1항에 있어서,
상기 센싱정보는,
상기 자차량의 주변을 촬영하는 이미지 센서로부터 수신한 이미지 정보; 및
상기 자차량 주변의 객체를 감지한 레이더 정보를 포함하는 센서 퓨젼 주행 경로 산출 장치.
According to claim 1,
The sensing information is
image information received from an image sensor for photographing the surroundings of the own vehicle; and
A sensor fusion driving path calculating device including radar information for detecting an object around the own vehicle.
제2항에 있어서,
상기 주변 상황 판단부는,
상기 이미지 정보 및 상기 레이더 정보를 기초로 상기 객체의 위치, 크기 및 예상 방향을 산출하는 센서 퓨젼 주행 경로 산출 장치.
3. The method of claim 2,
The surrounding situation determination unit,
A sensor fusion driving path calculating device for calculating the position, size, and expected direction of the object based on the image information and the radar information.
제3항에 있어서,
상기 주변 상황 판단부는,
상기 이미지 정보로부터 상기 객체의 너비를 산출하고, 상기 레이더 정보로부터 상기 객체와 상기 자차량과의 거리 및 상대 속도를 산출하는 센서 퓨젼 주행 경로 산출 장치.
4. The method of claim 3,
The surrounding situation determination unit,
A sensor fusion driving path calculating device for calculating a width of the object from the image information, and calculating a distance and a relative speed between the object and the own vehicle from the radar information.
제1항에 있어서,
상기 주행 경로 산출부는,
상기 자차량의 현재 위치에서 목표 지점까지 주행 도로에 따른 최단 동선을 상기 자차량의 주행 경로로 설정하고, 상기 주변정보에서 산출된 객체의 위치를 일정 거리만큼 유지하며 주행하도록 상기 최단 동선의 주행 경로를 조정하는 센서 퓨젼 주행 경로 산출 장치.
According to claim 1,
The travel route calculation unit,
The shortest moving line according to the driving road from the current position of the own vehicle to the target point is set as the driving path of the own vehicle, and the driving path of the shortest moving line is set to maintain the position of the object calculated from the surrounding information by a certain distance A sensor fusion driving route calculation device that adjusts
제1항에 있어서,
상기 주행 경로 산출부가 산출한 상기 자차량의 주행 경로를 출력하는 출력부를 더 포함하는 센서 퓨젼 주행 경로 산출 장치.
According to claim 1,
The sensor fusion driving path calculating device further comprising an output unit for outputting the driving path of the own vehicle calculated by the driving path calculating unit.
자차량에 탑재된 적어도 하나의 센서로부터 센싱정보를 수신하는 센싱정보 수신 단계;
상기 센싱정보를 기초로 상기 자차량의 주변 상황을 판단하여 주변정보를 산출하는 주변 상황 판단 단계; 및
상기 주변정보를 기초로 자차량의 주행 경로를 산출하는 주행 경로 산출 단계를 포함하는 센서 퓨젼 주행 경로 산출 방법.
A sensing information receiving step of receiving sensing information from at least one sensor mounted on the own vehicle;
a surrounding situation determination step of calculating surrounding information by judging a surrounding condition of the own vehicle based on the sensing information; and
and a driving path calculation step of calculating a driving path of the own vehicle based on the surrounding information.
제7항에 있어서,
상기 센싱정보는,
상기 자차량의 주변을 촬영하는 이미지 센서로부터 수신한 이미지 정보 및
상기 자차량 주변의 객체를 감지한 레이더 정보를 포함하는 센서 퓨젼 주행 경로 산출 방법.
8. The method of claim 7,
The sensing information is
image information received from an image sensor that captures the surroundings of the own vehicle; and
A sensor fusion driving path calculation method including radar information that has detected an object around the own vehicle.
제8항에 있어서,
상기 주변 상황 판단 단계는,
상기 이미지 정보 및 상기 레이더 정보를 기초로 상기 객체의 위치, 크기 및 예상 방향을 산출하는 센서 퓨젼 주행 경로 산출 방법.
9. The method of claim 8,
The step of determining the surrounding situation is
A sensor fusion driving path calculation method for calculating the position, size, and expected direction of the object based on the image information and the radar information.
제9항에 있어서,
상기 주변 상황 판단 단계는,
상기 이미지 정보로부터 상기 객체의 너비를 산출하고, 상기 레이더 정보로부터 상기 객체와 상기 자차량과의 거리 및 상대 속도를 산출하는 센서 퓨젼 주행 경로 산출 방법.
10. The method of claim 9,
The step of determining the surrounding situation is
A sensor fusion driving path calculation method for calculating a width of the object from the image information, and calculating a distance and a relative speed between the object and the own vehicle from the radar information.
제7항에 있어서,
상기 주행 경로 산출 단계는,
상기 자차량의 현재 위치에서 목표 지점까지 주행 도로에 따른 최단 동선을 상기 자차량의 주행 경로로 설정하고, 상기 주변정보에서 산출된 객체의 위치를 일정 거리만큼 유지하며 주행하도록 상기 최단 동선의 주행 경로를 조정하는 센서 퓨젼 주행 경로 산출 방법.
8. The method of claim 7,
The driving route calculation step includes:
The shortest moving line according to the driving road from the current position of the own vehicle to the target point is set as the driving path of the own vehicle, and the driving path of the shortest moving line is set to maintain the position of the object calculated from the surrounding information by a certain distance A sensor fusion driving route calculation method that adjusts
제7항에 있어서,
상기 주행 경로 산출부가 산출한 상기 자차량의 주행 경로를 출력하는 출력 단계를 더 포함하는 센서 퓨젼 주행 경로 산출 방법.
8. The method of claim 7,
The sensor fusion driving path calculation method further comprising an output step of outputting the driving path of the own vehicle calculated by the driving path calculating unit.
KR1020200136054A 2020-10-20 2020-10-20 Sensor fusion driving route apparatus and method KR20220052408A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200136054A KR20220052408A (en) 2020-10-20 2020-10-20 Sensor fusion driving route apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200136054A KR20220052408A (en) 2020-10-20 2020-10-20 Sensor fusion driving route apparatus and method

Publications (1)

Publication Number Publication Date
KR20220052408A true KR20220052408A (en) 2022-04-28

Family

ID=81448096

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200136054A KR20220052408A (en) 2020-10-20 2020-10-20 Sensor fusion driving route apparatus and method

Country Status (1)

Country Link
KR (1) KR20220052408A (en)

Similar Documents

Publication Publication Date Title
US11783699B2 (en) Intersection information distribution apparatus and intersection information distribution method
US11027653B2 (en) Apparatus, system and method for preventing collision
US8401713B2 (en) Determining relative spatial information between vehicles
KR102516365B1 (en) Method and apparatus for controlling radar of vehicle
US10836388B2 (en) Vehicle control method and apparatus
JP2009085951A (en) Radar sensor for detecting traffic environment in vehicle
US20140297063A1 (en) Vehicle specifying apparatus
KR20210001219A (en) Radar data processing device and method to adjust local resolving power
US10800432B2 (en) Rear-side alert system and method of controlling same
US11292481B2 (en) Method and apparatus for multi vehicle sensor suite diagnosis
US20190072659A1 (en) Artificial-Intelligence Controlled Adaptive Multi-Purpose Beam Forming Automobile Radar
KR20170019794A (en) Vehicle and collision avoidance method for the same
US11709261B2 (en) Radar device for vehicle, controlling method of radar device and radar system for vehicle
KR20220052408A (en) Sensor fusion driving route apparatus and method
JP4644590B2 (en) Peripheral vehicle position detection device and peripheral vehicle position detection method
JP2013221893A (en) Radar control device
KR20220052116A (en) Apparatus and method for detecting object
JP2020173155A (en) Target motion estimating device and target motion estimating method
KR20220134175A (en) Radar control apparatus and method
KR20220052110A (en) Control apparatus and method for detecting and avoiding danger
US20230075998A1 (en) Steering control apparatus and method
KR20200040404A (en) Radar apparatus for vehicle and method for controlling thereof
KR20220120232A (en) Radar control apparatus and method
KR102667971B1 (en) Object size estimation apparatus and method
JP7307244B2 (en) ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, AND PROGRAM