KR20220052116A - Apparatus and method for detecting object - Google Patents

Apparatus and method for detecting object Download PDF

Info

Publication number
KR20220052116A
KR20220052116A KR1020200136083A KR20200136083A KR20220052116A KR 20220052116 A KR20220052116 A KR 20220052116A KR 1020200136083 A KR1020200136083 A KR 1020200136083A KR 20200136083 A KR20200136083 A KR 20200136083A KR 20220052116 A KR20220052116 A KR 20220052116A
Authority
KR
South Korea
Prior art keywords
interest
region
information
track
setting
Prior art date
Application number
KR1020200136083A
Other languages
Korean (ko)
Inventor
김웅태
Original Assignee
이인텔리전스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이인텔리전스 주식회사 filed Critical 이인텔리전스 주식회사
Priority to KR1020200136083A priority Critical patent/KR20220052116A/en
Publication of KR20220052116A publication Critical patent/KR20220052116A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0132Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to vehicle motion parameters, e.g. to vehicle longitudinal or transversal deceleration or speed value
    • B60R21/01332Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to vehicle motion parameters, e.g. to vehicle longitudinal or transversal deceleration or speed value by frequency or waveform analysis
    • B60R21/01336Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to vehicle motion parameters, e.g. to vehicle longitudinal or transversal deceleration or speed value by frequency or waveform analysis using filtering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0052Filtering, filters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

The present disclosure relates to a device and a method for objecting an object. More specifically, according to the present disclosure, the device for detecting an object comprises: an information reception unit receiving sensing information detecting a periphery of a vehicle from at least one sensor mounted in the vehicle; a track setting unit calculating object information based on the sensing information and setting a track about an object based on the object information; an interest area setting unit setting an interest area including the track based on information of the track; and a filtering unit filtering the sensing information included in the interest area.

Description

객체 감지 장치 및 방법{APPARATUS AND METHOD FOR DETECTING OBJECT}Object detection device and method {APPARATUS AND METHOD FOR DETECTING OBJECT}

본 개시는 객체 감지 장치 및 방법에 관한 것으로써, 보다 구체적으로, 부분적으로 필터링하는 객체 감지 장치 및 방법에 관한 것이다.The present disclosure relates to an object detecting apparatus and method, and more particularly, to an object detecting apparatus and method for partially filtering.

최근 차량의 안전한 운행을 위한 다양한 장치들이 개발되고 있으며 그 중에 전방 충돌위험성이 예견되면 운전자에게 충돌위험성을 알려주고, 운전자의 응답이 없어도 충돌이 예견되면 스스로 브레이크를 작동시키는 자동긴급 브레이크(Autonomous Emergency Braking; AEB)나 전방의 차량이나 물체를 감지하여 자동으로 차량의 속도 등을 제어하면서 자동차의 운항을 제어하는 적응형 순항 제어장치(Smart Cruise Control; SCC)와 같은 장치가 있다.Recently, various devices for safe driving of a vehicle have been developed. Among them, automatic emergency braking that informs the driver of the risk of a collision when a risk of forward collision is predicted, and applies the brake by itself when a collision is predicted even if there is no response from the driver (Autonomous Emergency Braking; There is a device such as AEB) or an Adaptive Cruise Control (SCC) that controls the operation of a vehicle while automatically controlling the speed of the vehicle by detecting a vehicle or object in front.

이러한 AEB나 SCC의 경우 전방의 타차량을 인식할 수 있는 장치를 반드시 필요로 하며, 이를 위해, 물체의 인식 가능성을 높일 필요가 있다.In the case of such AEB or SCC, a device capable of recognizing other vehicles in front is necessarily required, and for this purpose, it is necessary to increase the possibility of recognizing an object.

이러한 배경에서, 본 개시는 관심영역을 설정하고, 관심영역에 대해 필터링을 수행하는 객체 감지 장치 및 방법을 제공하고자 한다.Against this background, the present disclosure intends to provide an object detection apparatus and method for setting a region of interest and performing filtering on the region of interest.

전술한 과제를 해결하기 위하여, 일 측면에서, 본 개시는 자차량에 탑재된 적어도 하나의 센서로부터 자차량의 주변을 감지한 센싱정보를 수신하는 정보 수신부, 센싱정보를 기초로 객체정보를 산출하고, 객체정보를 기초로 객체에 대한 트랙을 설정하는 트랙 설정부, 트랙의 정보를 기초로 트랙을 포함하는 관심영역을 설정하는 관심영역 설정부 및 관심영역에 포함되는 센싱정보를 필터링하는 필터링부를 포함하는 객체 감지 장치를 제공한다. In order to solve the above problems, in one aspect, the present disclosure provides an information receiving unit for receiving sensing information sensing the surroundings of the own vehicle from at least one sensor mounted on the own vehicle, calculating object information based on the sensing information and , a track setting unit for setting a track for an object based on object information, a region of interest setting unit for setting a region of interest including a track based on information on the track, and a filtering unit for filtering sensing information included in the region of interest An object detection device is provided.

다른 측면에서, 본 개시는 자차량에 탑재된 적어도 하나의 센서로부터 자차량의 주변을 감지한 센싱정보를 수신하는 센싱정보 수신 단계, 센싱정보를 기초로 객체정보를 산출하고, 객체정보를 기초로 객체에 대한 트랙을 설정하는 트랙 설정 단계, 트랙의 정보를 기초로 트랙을 포함하는 관심영역을 설정하는 관심영역 설정 단계 및 관심영역에 포함되는 센싱정보를 필터링하는 필터링 단계를 포함하는 객체 감지 방법을 제공한다.In another aspect, the present disclosure provides a sensing information receiving step of receiving sensing information for sensing the surroundings of the own vehicle from at least one sensor mounted on the own vehicle, calculating object information based on the sensing information, and based on the object information An object detection method comprising a track setting step of setting a track for an object, a region of interest setting step of setting a region of interest including a track based on information on the track, and a filtering step of filtering sensing information included in the region of interest to provide.

본 개시에 의하면, 객체 감지 장치 및 방법은 트랙 정보를 기초로 설정된 관심영역에서 필터링을 활용함으로써, 중요도가 높은 영역에 대해 인식률을 높이고 하드웨어 리소스를 줄일 수 있다.According to the present disclosure, an apparatus and method for detecting an object may increase a recognition rate for an area of high importance and reduce hardware resources by utilizing filtering in a region of interest set based on track information.

도 1은 본 개시의 일 실시예에 따른 객체 감지 장치를 설명하기 위한 블록도이다.
도 2는 일 실시예에 따른 관심영역이 설정되는 것을 설명하기 위한 도면이다.
도 3 및 도 4는 일 실시예에 따른 관심영역이 거리에 따라 크기가 다르게 설정되는 것을 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시예에 따른 객체 감지 방법을 설명하는 흐름도이다.
1 is a block diagram illustrating an apparatus for detecting an object according to an embodiment of the present disclosure.
2 is a diagram for explaining that a region of interest is set according to an exemplary embodiment.
3 and 4 are diagrams for explaining that a size of a region of interest is set differently according to a distance, according to an exemplary embodiment.
5 is a flowchart illustrating an object detection method according to an embodiment of the present disclosure.

이하, 본 개시의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 이하, 이하, 본 개시의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 이하, 본 개시의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성 요소들에 참조부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 기술 사상의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다. 본 명세서 상에서 언급된 "포함한다", "갖는다", "이루어진다" 등이 사용되는 경우 "~만"이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별한 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함할 수 있다.Hereinafter, some embodiments of the present disclosure in detail with reference to illustrative drawings, hereinafter in detail with reference to exemplary drawings, some embodiments of the present disclosure in detail with reference to exemplary drawings to be described in detail. In adding reference numerals to components of each drawing, the same components may have the same reference numerals as much as possible even though they are indicated in different drawings. In addition, in describing the present embodiments, if it is determined that a detailed description of a related well-known configuration or function may obscure the gist of the present technical idea, the detailed description may be omitted. When "includes", "has", "consisting of", etc. mentioned in this specification are used, other parts may be added unless "only" is used. When a component is expressed in the singular, it may include a case in which the plural is included unless otherwise explicitly stated.

또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다. In addition, in describing the components of the present disclosure, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, order, or number of the elements are not limited by the terms.

구성 요소들의 위치 관계에 대한 설명에 있어서, 둘 이상의 구성 요소가 "연결", "결합" 또는 "접속" 등이 된다고 기재된 경우, 둘 이상의 구성 요소가 직접적으로 "연결", "결합" 또는 "접속" 될 수 있지만, 둘 이상의 구성 요소와 다른 구성 요소가 더 "개재"되어 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다. 여기서, 다른 구성 요소는 서로 "연결", "결합" 또는 "접속" 되는 둘 이상의 구성 요소 중 하나 이상에 포함될 수도 있다. In the description of the positional relationship of the components, when it is described that two or more components are "connected", "coupled" or "connected", two or more components are directly "connected", "coupled" or "connected" ", but it will be understood that two or more components and other components may be further "interposed" and "connected," "coupled," or "connected." Here, other components may be included in one or more of two or more components that are “connected”, “coupled” or “connected” to each other.

구성 요소들이나, 동작 방법이나 제작 방법 등과 관련한 시간적 흐름 관계에 대한 설명에 있어서, 예를 들어, "~후에", "~에 이어서", "~다음에", "~전에" 등으로 시간적 선후 관계 또는 흐름적 선후 관계가 설명되는 경우, "바로" 또는 "직접"이 사용되지 않는 이상 연속적이지 않은 경우도 포함할 수 있다.In the description of the temporal flow relationship related to the components, the operation method or the production method, for example, the temporal precedence relationship such as "after", "after", "after", "before", etc. Alternatively, when a flow precedence relationship is described, it may include a case where it is not continuous unless "immediately" or "directly" is used.

한편, 구성 요소에 대한 수치 또는 그 대응 정보(예: 레벨 등)가 언급된 경우, 별도의 명시적 기재가 없더라도, 수치 또는 그 대응 정보는 각종 요인(예: 공정상의 요인, 내부 또는 외부 충격, 노이즈 등)에 의해 발생할 수 있는 오차 범위를 포함하는 것으로 해석될 수 있다.On the other hand, when numerical values or corresponding information (eg, level, etc.) for a component are mentioned, even if there is no separate explicit description, the numerical value or the corresponding information is based on various factors (eg, process factors, internal or external shock, Noise, etc.) may be interpreted as including an error range that may occur.

이하에서는 첨부되는 도면들을 참조하여 본 개시의 일 실시예에 따른 객체 감지 장치(10)를 설명하기로 한다.Hereinafter, an object detecting apparatus 10 according to an embodiment of the present disclosure will be described with reference to the accompanying drawings.

도 1은 본 개시의 일 실시예에 따른 객체 감지 장치(10)를 설명하기 위한 블록도이다.1 is a block diagram illustrating an object detecting apparatus 10 according to an embodiment of the present disclosure.

도 1을 참조하면, 객체 감지 장치(10)는 정보 수신부(110), 트랙 설정부(120), 관심영역 설정부(130) 및 필터링부(140) 등을 포함할 수 있다.Referring to FIG. 1 , the object detecting apparatus 10 may include an information receiving unit 110 , a track setting unit 120 , an ROI setting unit 130 , and a filtering unit 140 .

정보 수신부(110)는 자차량(20)에 탑재된 적어도 하나의 센서로부터 자차량(20)의 주변을 감지한 센싱정보를 수신할 수 있다. 여기서 센서는 예를 들면, 이미지 센서, 레이더(RADAR) 센서, 속도 센서, 라이더 센서(RiDAR) 및 조향각 센서 등을 포함할 수 있다. 그러나, 자차량(20)에 탑재되어 주변을 감지할 수 있다면 특정 센서에 한정되지 않는다.The information receiving unit 110 may receive sensing information for detecting the surroundings of the own vehicle 20 from at least one sensor mounted on the own vehicle 20 . Here, the sensor may include, for example, an image sensor, a radar (RADAR) sensor, a speed sensor, a lidar sensor (RiDAR), and a steering angle sensor. However, it is not limited to a specific sensor as long as it is mounted on the own vehicle 20 to sense the surroundings.

이에 더하여, 센서는 조향각 센서와 같이 주변뿐만 아니라 자차량(20) 내부를 감지하는 센서도 포함할 수 있다.In addition, the sensor may include a sensor that detects not only the surroundings but also the inside of the own vehicle 20, such as a steering angle sensor.

그리고, 센서는 감지 결과를 본 개시의 객체 감지 장치(10)에 포함된 정수 수신부에 전송할 수 있다.In addition, the sensor may transmit the detection result to the integer receiver included in the object detection apparatus 10 of the present disclosure.

예를 들면, 센서는 안테나부, 수신부 및 송신부 등을 포함할 수 있다. 구체적으로, 안테나부는 1 이상의 송신 안테나와 1 이상의 수신 안테나를 포함하며, 각 송수신 안테나는 1 이상의 방사 소자가 급전선로에 의하여 직렬로 연결되는 어레이 안테나 일 수 있으나 그에 한정되는 것은 아니다.For example, the sensor may include an antenna unit, a receiver unit, and a transmitter unit. Specifically, the antenna unit includes one or more transmit antennas and one or more receive antennas, and each transmit/receive antenna may be an array antenna in which one or more radiating elements are connected in series by a feed line, but is not limited thereto.

이러한 안테나부는, 복수 개의 송신 안테나 및 복수 개의 수신 안테나를 포함하며, 그 배열 순서 및 배열 간격 등에 따라 여러 형태의 안테나 배열 구조를 가질 수 있다.The antenna unit includes a plurality of transmit antennas and a plurality of receive antennas, and may have various types of antenna array structures according to an arrangement order and an arrangement interval thereof.

송신부는 안테나부에 포함되는 복수 개의 송신 안테나 중 1개로 스위칭(Switching)하여 스위칭 된 송신 안테나를 통해 송신신호를 송신하거나 복수 개의 송신 안테나에 할당된 멀티 송신채널을 통해 송신신호를 송신하는 기능을 할 수 있다.The transmitter may switch to one of a plurality of transmit antennas included in the antenna unit and transmit a transmit signal through the switched transmit antenna or transmit a transmit signal through a multi transmit channel allocated to the plurality of transmit antennas. can

이러한 송신부는, 스위칭 된 송신 안테나에 할당된 한 개의 송신채널 또는 복수 개의 송신 안테나에 할당된 멀티 송신채널에 대한 송신신호를 생성하는 발진부를 포함한다. 이러한 발진부는, 일 예로서, 전압 제어 발진기(VCO: Voltage-Controlled Oscillator) 및 오실레이터(Oscillator) 등을 포함할 수 있다.The transmitter includes an oscillator that generates a transmission signal for one transmission channel allocated to the switched transmission antenna or multiple transmission channels allocated to a plurality of transmission antennas. The oscillator may include, for example, a voltage-controlled oscillator (VCO) and an oscillator.

수신부는 객체(30)에서 반사되어 수신되는 수신신호를 수신안테나를 통하여 수신할 수 있다.The receiver may receive the received signal reflected from the object 30 through the receiving antenna.

또한, 수신부는 복수의 수신 안테나 중 한 개로 스위칭하여 스위칭 된 수신 안테나를 통해 송신된 송신신호가 타깃에 의해 반사된 반사신호인 수신신호를 수신하거나 복수 개의 수신 안테나에 할당된 멀티 수신채널을 통해 수신신호를 수신하는 기능을 할 수 있다.In addition, the reception unit switches to one of the plurality of reception antennas to receive a reception signal in which a transmission signal transmitted through the switched reception antenna is a reflected signal reflected by a target or received through a multi reception channel allocated to a plurality of reception antennas. It can function to receive signals.

이러한 수신부는, 스위칭 된 수신 안테나에 할당된 한 개의 수신채널을 통해 수신되거나 복수 개의 송신 안테나에 할당된 티 수신채널을 통해 수신된 수신신호를 저잡음 증폭하는 저잡음 증폭부(LNA: Low Noise Amplifier)와, 저잡음 증폭된 수신신호를 믹싱하는 믹싱부(Mixer)와, 믹싱된 수신신호를 증폭하는 증폭부(Amplifier)와, 증폭된 수신신호를 디지털 변환하여 수신데이터를 생성하는 변환부(ADC: Analog Digital Converter) 등을 포함할 수 있다. The receiving unit includes a low noise amplifier (LNA) for low-noise amplifying a received signal received through one receiving channel assigned to the switched receiving antenna or received through a T receiving channel assigned to a plurality of transmitting antennas; , a mixing unit (Mixer) for mixing the low-noise amplified received signal, an amplifier (Amplifier) for amplifying the mixed received signal, and a conversion unit (ADC: Analog Digital) for digitally converting the amplified received signal to generate received data Converter) and the like.

이에 따라, 정보 수신부(110)는 송신 안테나를 이용하여 객체(30)를 향해 레이더 신호를 송신하도록 제어하는 레이더 신호 송신 모듈 및 객체(30)에서 반사되어 수신되는 수신신호를 수신 안테나를 통하여 수신하는 수신 모듈 등을 포함할 수 있다.Accordingly, the information receiving unit 110 receives the radar signal transmission module that controls to transmit the radar signal toward the object 30 using the transmission antenna and the received signal reflected from the object 30 through the reception antenna. It may include a receiving module and the like.

여기서, 이미지 센서부터 촬영된 영상정보, 즉, 센싱정보는 이미지 데이터로 구성되므로, 이미지 센서로부터 캡처된 이미지 데이터를 의미할 수 있다. 이하, 본 개시에서는 이미지 센서로부터 촬영된 센싱정보는 이미지 센서로부터 캡처된 이미지 데이터를 의미한다.Here, since image information photographed from the image sensor, that is, sensing information, is composed of image data, it may mean image data captured from the image sensor. Hereinafter, in the present disclosure, sensing information captured from an image sensor means image data captured from the image sensor.

이미지 센서에 의해 캡처된 이미지 데이터는, 예를 들어, Raw 형태의 AVI, MPEG-4, H.264, DivX, JPEG 중 하나의 포맷으로 생성될 수 있다. 센서에서 캡처된 이미지 주변 상황 판단부(120)에서 처리될 수 있다.The image data captured by the image sensor may be generated in, for example, one of raw format AVI, MPEG-4, H.264, DivX, and JPEG. The image captured by the sensor may be processed by the surrounding situation determination unit 120 .

이미지 센서는 화각 및 분해능이 상대적으로 우세한 이미지 센서일 수 있다. 예를 들어, 이미지 센서의 화각은 약 100°이고, 분해능은 약 10μm일 수 있다. 하지만, 이에 한정되는 것은 아니며, 본 개시의 이미지 센서는 구현 가능한 센서들 중 가장 넓은 화각을 구비하는 센서를 의미할 수 있다.The image sensor may be an image sensor having a relatively superior angle of view and resolution. For example, the angle of view of the image sensor may be about 100°, and the resolution may be about 10 μm. However, the present disclosure is not limited thereto, and the image sensor of the present disclosure may mean a sensor having the widest angle of view among achievable sensors.

여기서, 이미지 센서는 예를 들어, 카메라, 라이더 센서 일 수 있다.Here, the image sensor may be, for example, a camera or a lidar sensor.

트랙 설정부(120)는 센싱정보를 기초로 객체정보를 산출하고, 객체정보를 기초로 객체(30)에 대한 트랙(210)(Track)을 설정할 수 있다.The track setting unit 120 may calculate object information based on the sensing information, and set a track 210 (Track) for the object 30 based on the object information.

구체적으로, 복수의 센서로부터 수신한 센싱정보는 신호 처리를 거쳐 주변정보로 산출될 수 있다. 예를 들면, 정보 수신부(110)에서 수신한 수신신호는 FFT(Fast Fourier Transform) 및 측정치(Measurement) 등을 통해 객체정보로 산출될 수 있다. 이러한 객체정보는 객체(30)의 존재 여부 및 객체(30)의 추정 위치, 속도 등을 포함할 수 있다.Specifically, the sensing information received from the plurality of sensors may be calculated as surrounding information through signal processing. For example, the received signal received by the information receiving unit 110 may be calculated as object information through FFT (Fast Fourier Transform) and a measurement value (Measurement). Such object information may include the existence of the object 30 and the estimated position and speed of the object 30 .

한편, 이미지 센서의 경우, 주변 상황 판단부는 자차량(20) 주변을 촬영함으로써 산출된 이미지 데이터를 기초로 자차량(20) 주변에 객체(30)의 존재 여부를 판단할 수 있다.Meanwhile, in the case of an image sensor, the surrounding situation determination unit may determine whether the object 30 exists in the vicinity of the own vehicle 20 based on image data calculated by photographing the surroundings of the own vehicle 20 .

트랙 설정부(120)는 산출된 객체정보를 기초로 감지된 객체(30)에 대한 트랙(210)을 설정할 수 있다. 예를 들면, 레이더 센서의 센싱정보로부터 산출한 측정치의 위치를 기초로 트랙(210)을 설정할 수 있다. The track setting unit 120 may set the track 210 for the detected object 30 based on the calculated object information. For example, the track 210 may be set based on the position of the measured value calculated from the sensing information of the radar sensor.

일 실시예에서, 센서의 동작 주기가 수회 수행되고, 소정의 측정치가 감지되었을 때, 트랙 설정부(120)는 누적된 측정치를 클리스터링(Clustering)하여 객체(30)에 대한 트랙(210)을 설정할 수 있다. 여기서 센서의 동작 주기는 센서가 송신신호를 송신부터 객체(30)에 반사되어 반사신호를 수신하고 반사신호를 처리하고 센싱정보를 산출하고 객체정보를 산출하여 다시 송신신호를 송신하기 전까지의 기간을 의미할 수 있다. 이것이 1회 수행되면 제1 주기, n회 수행되면 제n 주기로 명명할 수 있다.In one embodiment, when the operation cycle of the sensor is performed several times and a predetermined measurement value is detected, the track setting unit 120 clusters the accumulated measurement values to set the track 210 for the object 30 . can be set. Here, the operation period of the sensor is the period from when the sensor transmits a transmission signal to the object 30 reflected, receives the reflected signal, processes the reflected signal, calculates sensing information, calculates object information, and transmits the transmission signal again. can mean When this is performed once, it can be called a first cycle, and when it is performed n times, it can be called an nth cycle.

트랙 설정부(120)는 소정의 누적된 측정치, 예를 들면, 제n 주기까지 객체(30)를 감지하여 산출된 측정치를 기초로 클러스터링하여 객체(30)에 대한 트랙(210)을 설정할 수 있다. 그리고, 트랙 설정부(120)는 클러스터링을 수행하되, 이미지 센서에서 감지한 객체(30)의 범위 이내에 위치하는 측정치를 클러스터링할 수 있고, 이미지 센서에서 감지한 객체(30)의 범위보다 소정의 거리 이내에 위치하는 측정치들을 클러스터링할 수 있다. 예를 들면, 소정의 거리는 자차량(20)이 주행하는 차선일 수 있다.The track setting unit 120 may set the track 210 for the object 30 by clustering based on a predetermined accumulated measurement value, for example, a measurement value calculated by detecting the object 30 up to the n-th period. . In addition, the track setting unit 120 performs clustering, but may cluster measurement values located within the range of the object 30 detected by the image sensor, and a predetermined distance from the range of the object 30 detected by the image sensor Measurements located within can be clustered. For example, the predetermined distance may be a lane in which the host vehicle 20 travels.

다른 예를 들면, 트랙 설정부(120)는 이미지 센서에서 산출된 객체(30)의 좌우 너비를 객체(30)에 대한 트랙(210)의 너비로 산출하고, 레이더 센서에서 산출된 측정치의 클러스터링 결과를 객체(30)의 대한 트랙(210)의 세로 길이로 산출할 수 있다.As another example, the track setting unit 120 calculates the left and right widths of the object 30 calculated by the image sensor as the width of the track 210 with respect to the object 30 , and a clustering result of the measured values calculated by the radar sensor can be calculated as the vertical length of the track 210 for the object 30 .

또 다른 예를 들면, 라이다에 의해 감지된 객체(30)의 이미지를 기초로 객체(30)에 대한 트랙(210)을 설정할 수 있다.As another example, the track 210 for the object 30 may be set based on the image of the object 30 detected by the lidar.

도 2는 일 실시예에 따른 관심영역(220)이 설정되는 것을 설명하기 위한 도면이다.FIG. 2 is a diagram for explaining that a region of interest 220 is set according to an exemplary embodiment.

도 2를 참조하면, 관심영역 설정부(130)는 설정된 트랙(210)의 정보를 기초로 트랙(210)을 포함하는 관심영역(220)을 설정할 수 있다.Referring to FIG. 2 , the region of interest setting unit 130 may set the region of interest 220 including the track 210 based on information on the set track 210 .

관심영역 설정부(130)는 소정의 거리를 기준치로 삼아 관심영역(220)을 설정할 수 있다.The region of interest setting unit 130 may set the region of interest 220 using a predetermined distance as a reference value.

도 2를 참조하며 예를 들면, 객체 감지 장치(10)가 탑재된 자차량(20)과 감지된 객체(30)와의 거리는 기준치인 a로, 관심영역 설정부(130)는 기준치에 대응하는 관심영역(220)의 크기로 트랙(210)을 포함하여 설정할 수 있다. 이러한 관심영역(220)의 크기는 미리 설정된 거리에 대응하는 관심영역(220)이 설정된 데이터 테이블에 따라 설정될 수 있다.Referring to FIG. 2 , for example, the distance between the own vehicle 20 on which the object detection device 10 is mounted and the detected object 30 is a reference value a, and the region of interest setting unit 130 sets the interest corresponding to the reference value. The size of the region 220 may be set including the track 210 . The size of the region of interest 220 may be set according to a data table in which the region of interest 220 corresponding to a preset distance is set.

도 3 및 도 4는 일 실시예에 따른 관심영역(220)이 거리에 따라 크기가 다르게 설정되는 것을 설명하기 위한 도면이다.3 and 4 are diagrams for explaining that the size of the region of interest 220 is set differently according to a distance, according to an exemplary embodiment.

관심영역 설정부(130)는 객체(30)와 자차량(20)과의 거리가 멀어질수록 관심영역(220)을 좁게 설정하고, 객체(30)와 자차량(20)과의 거리가 가까워질수록 관심영역(220)을 넓게 설정할 수 있다.The region of interest setting unit 130 sets the region of interest 220 to be narrower as the distance between the object 30 and the own vehicle 20 increases, and the distance between the object 30 and the own vehicle 20 is closer. As the number increases, the region of interest 220 can be set wider.

도 3을 참조하면, 객체 감지 장치(10)가 탑재된 자차량(20)과 객체(30)와의 거리가 기준치인 a보다 멀리 위치하는 경우, 해당 거리에 대응하여 관심영역(220)의 넓이가 결정될 수 있다. 즉, 관심영역(220)은 객체(30)와 자차량(20)과의 거리가 멀어질수록 관심영역(220)이 좁게 설정될 수 있다.Referring to FIG. 3 , when the distance between the own vehicle 20 on which the object detection device 10 is mounted and the object 30 is located farther than a reference value a, the area of interest 220 corresponds to the distance. can be decided. That is, as the distance between the object 30 and the host vehicle 20 increases, the region of interest 220 may be set to be narrower.

반대로, 도 4를 참조하면, 자차량(20)과 객체(30)와의 거리가 기준치인 a보다 가까운 거리에 위치하는 경우, 해당 거리에 대응하여 관심영역(220)의 넓이가 결정될 수 있다. 즉, 관심영역(220)은 객체(30)와 자차량(20)과의 거리가 가까워질수록 관심영역(220)이 넓게 설정될 수 있다.Conversely, referring to FIG. 4 , when the distance between the own vehicle 20 and the object 30 is located at a distance closer than a, which is a reference value, the area of the ROI 220 may be determined corresponding to the distance. That is, as the distance between the object 30 and the own vehicle 20 increases, the region of interest 220 may be set wider.

관심영역 설정부(130)는 복수의 객체(30)가 감지되어 객체(30)에 대응하는 트랙(210)도 복수개인 경우, 관심영역 설정부(130)는 미리 정해진 우선순위에 따라 관심영역(220)의 크기를 설정할 수 있다. 예를 들면, 관심영역 설정부(130)는 차선 밖에 위치하는 객체(30)보다 차선 안에 위치하는 객체(30)의 관심영역(220)을 더 크게 설정할 수 있다. 다른 예를 들면, 관심영역 설정부(130)는 차선 안에 복수개의 객체(30)가 위치하는 경우 동일한 우선순위로 관심영역(220)을 설정하고 이 경우 각각의 관심영역(220)은 자차량(20)과의 거리에 따라 크기가 결정될 수 있다.When a plurality of objects 30 are detected and a plurality of tracks 210 corresponding to the objects 30 are detected, the region of interest setting unit 130 sets the region of interest 130 according to a predetermined priority. 220) can be set. For example, the region of interest setting unit 130 may set the region of interest 220 of the object 30 located in the lane to be larger than the object 30 located outside the lane. For another example, the region of interest setting unit 130 sets the region of interest 220 with the same priority when a plurality of objects 30 are located in the lane, and in this case, each region of interest 220 is the own vehicle ( 20) and the size can be determined according to the distance.

필터링부(140)는 관심영역(220)에 포함되는 센싱정보를 필터링할 수 있다.The filtering unit 140 may filter the sensing information included in the region of interest 220 .

구체적으로, 필터링부(140)는 관심영역(220) 내에서 감지되는 센싱정보를 칼만필터(Kalman filter)를 통해 필터링할 수 있다. 필터링부(140)는 이전시점에서의 측정치에서 현재시점의 추정치를 산출할 수 있다. 이에 따라 필터링부(140)에서 필터링을 수행함에 따라 관심영역(220) 내에 감지되는 객체(30)에 대한 오차를 줄일 수 있어 보다 정확한 객체(30) 위치를 추정할 수 있다.Specifically, the filtering unit 140 may filter the sensing information sensed within the ROI 220 through a Kalman filter. The filtering unit 140 may calculate an estimate of the current time from the measured values of the previous time. Accordingly, as the filtering unit 140 performs filtering, it is possible to reduce an error with respect to the object 30 sensed within the region of interest 220 , thereby estimating the position of the object 30 more accurately.

객체(30) 주정 장치는 관심영역 설정부(130)가 설정한 관심영역(220)을 출력하는 출력부를 더 포함할 수 있다. 여기서, 출력부는 관심영역(220)을 포함하는 정보를 수신하여 디스플레이 등과 같은 시각정보를 전달하는 모듈을 통해 관심영역(220)을 출력할 수 있다.The object 30 drinking apparatus may further include an output unit for outputting the region of interest 220 set by the region of interest setting unit 130 . Here, the output unit may receive information including the region of interest 220 and output the region of interest 220 through a module that transmits visual information such as a display.

전술한 바에 의하면, 객체(30) 추정 장치는 센서 퓨전을 이용하여 레이더 센서의 관심영역(220) 설정을 제어하고, 레이더 센서의 노이즈 및 불필요한 처리에 사용되는 하드웨어 리소스를 줄여 인식율을 향상시킬 수 있다.As described above, the object 30 estimation apparatus controls the setting of the region of interest 220 of the radar sensor using sensor fusion, and reduces noise of the radar sensor and hardware resources used for unnecessary processing, thereby improving the recognition rate. .

본 개시의 일 실시예에 따른 객체 감지 장치(10)는 자차량(20)에 탑재되어 자차량(20)의 주행에 도움을 주는 정보를 제공하거나, 운전자의 자차량(20) 제어에 도움을 제공하는 ADAS(Advance Driver Assistance Systems)일 수 있다. The object detecting apparatus 10 according to an embodiment of the present disclosure is mounted on the own vehicle 20 to provide information to help the driving of the own vehicle 20 or to assist the driver in controlling the own vehicle 20 . ADAS (Advanced Driver Assistance Systems) may be provided.

여기서, ADAS는 다양한 종류의 첨단 운전자 보조 시스템을 의미할 수 있으며, 운전자 보조 시스템으로는 예를 들면, 긴급 제동 시스템(Autonomous Emergency Braking), 스마트 주차 보조 시스템(SPAS: Smart Parking Assistance System), 사각 감지(BSD: Blind Spot Detection) 시스템, 적응형 크루즈 컨트롤(ACC: Adaptive Cruise Control) 시스템, 차선 이탈 경고 시스템(LDWS: Lane Departure Warning System), 차선 유지 보조 시스템(LKAS: Lane Keeping Assist System), 차선 변경 보조 시스템(LCAS: Lane Change Assist System) 등을 포함할 수 있다. 하지만, 이에 한정되는 것은 아니다.Here, ADAS may refer to various types of advanced driver assistance systems, and the driver assistance systems include, for example, an Autonomous Emergency Braking, a Smart Parking Assistance System (SPAS), and blind spot detection. (BSD: Blind Spot Detection) system, Adaptive Cruise Control (ACC) system, Lane Departure Warning System (LDWS), Lane Keeping Assist System (LKAS), Lane Change It may include a Lane Change Assist System (LCAS) and the like. However, the present invention is not limited thereto.

따라서, 자차량(20)에 탑재된 모듈로부터 정보를 수신하여, 이를 기초로 운전자의 제어에 도움을 주거나 자차량(20)의 주행에 도움을 주는 정보를 제공할 수 있다.Accordingly, it is possible to receive information from a module mounted on the own vehicle 20 , and provide information that helps the driver to control or drive the own vehicle 20 based on the information.

객체 감지 장치(10) 등의 컴퓨터 시스템(미도시됨)은 하나 이상의 프로세서, 메모리, 저장부, 사용자 인터페이스 입력부 및 사용자 인터페이스 출력부 중 적어도 하나 이상의 요소를 포함할 수 있으며, 이들은 버스를 통해 서로 통신할 수 있다. 또한, 컴퓨터 시스템은 네트워크에 접속하기 위한 네트워크 인터페이스를 또한 포함할 수 있다. 프로세서는 메모리 및/또는 저장소에 저장된 처리 명령어를 실행시키는 CPU 또는 반도체 소자일 수 있다. 메모리 및 저장부는 다양한 유형의 휘발성/비휘발성 기억 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM 및 RAM을 포함할 수 있다.A computer system (not shown), such as object sensing device 10, may include at least one or more elements of one or more processors, memories, storage, user interface inputs and user interface outputs, which communicate with each other via a bus. can do. Further, the computer system may also include a network interface for connecting to the network. The processor may be a CPU or a semiconductor device that executes processing instructions stored in memory and/or storage. Memory and storage may include various types of volatile/non-volatile storage media. For example, memory may include ROM and RAM.

이하에서는 전술한 본 개시를 모두 수행할 수 있는 객체 감지 장치(10)를 이용하는 위험 감지 및 회피하기 위한 제어 방법에 대해 설명하기로 한다.Hereinafter, a control method for detecting and avoiding a risk using the object detecting apparatus 10 capable of performing all of the above-described present disclosure will be described.

도 5는 본 개시의 일 실시예에 따른 객체(30) 감지 방법을 설명하는 흐름도이다.5 is a flowchart illustrating a method for detecting an object 30 according to an embodiment of the present disclosure.

도 5를 참조하면, 본 개시에 따른 객체 감지 방법은 자차량(20)에 탑재된 적어도 하나의 센서로부터 자차량(20)의 주변을 감지한 센싱정보를 수신하는 센싱정보 수신 단계(S510), 센싱정보를 기초로 객체정보를 산출하고, 객체정보를 기초로 객체(30)에 대한 트랙(210)을 설정하는 트랙(210) 설정 단계(S520), 트랙(210)의 정보를 기초로 트랙(210)을 포함하는 관심영역(220)을 설정하는 관심영역 설정 단계(S530) 및 관심영역(220)에 포함되는 센싱정보를 필터링하는 필터링 단계(S540)를 포함할 수 있다.Referring to FIG. 5 , the object detection method according to the present disclosure includes a sensing information receiving step (S510) of receiving sensing information for sensing the surroundings of the own vehicle 20 from at least one sensor mounted on the own vehicle 20; Calculating object information based on the sensing information, and setting the track 210 for the object 30 based on the object information, the track 210 setting step S520, and the track 210 based on the information of the track 210 The ROI setting step S530 of setting the ROI 220 including the 210 , and a filtering step S540 of filtering the sensing information included in the ROI 220 may be included.

여기서, 센싱정보는 레이더 센서 및 라이더 센서가 자차량(20)의 주변을 감지한 결과일 수 있다.Here, the sensing information may be a result of detecting the surroundings of the own vehicle 20 by the radar sensor and the lidar sensor.

관심영역 설정 단계(S530)는 객체(30)와 자차량(20)과의 거리가 멀어질수록 관심영역(220)을 좁게 설정하고, 객체(30)와 자차량(20)과의 거리가 가까워질수록 관심영역(220)을 넓게 설정할 수 있다.The region of interest setting step S530 sets the region of interest 220 to be narrower as the distance between the object 30 and the own vehicle 20 increases, and the distance between the object 30 and the own vehicle 20 is closer. As the number increases, the region of interest 220 can be set wider.

필터링 단계(S540)는 관심영역(220)에 포함된 레이더 센서의 센싱정보를 필터링할 수 있다. 여기서, 필터링 단계(S540)는 센싱정보를 칼만필터(Kalman filter)를 통해 필터링 할 수 있다.In the filtering step ( S540 ), sensing information of the radar sensor included in the region of interest 220 may be filtered. Here, in the filtering step S540, the sensing information may be filtered through a Kalman filter.

객체 감지 방법는 관심영역 설정부(130)가 설정한 관심영역(220)을 출력하는 출력 단계를 더 포함할 수 있다.The object detection method may further include an output step of outputting the region of interest 220 set by the region of interest setting unit 130 .

이상에서 설명한 바와 같이, 본 개시에 의하면, 객체 감지 장치 및 방법은 트랙 정보를 기초로 설정된 관심영역(220)에서 필터링을 활용함으로써, 중요도가 높은 영역에 대해 인식률을 높이고 하드웨어 리소스를 줄일 수 있다.As described above, according to the present disclosure, the object detecting apparatus and method utilizes filtering in the region of interest 220 set based on track information, thereby increasing the recognition rate and reducing hardware resources for the region of high importance.

이상의 설명은 본 개시의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 기술 사상의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 또한, 본 실시예들은 본 개시의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이므로 이러한 실시예에 의하여 본 기술 사상의 범위가 한정되는 것은 아니다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical spirit of the present disclosure, and various modifications and variations will be possible without departing from the essential characteristics of the present disclosure by those skilled in the art to which the present disclosure pertains. In addition, the present embodiments are not intended to limit the technical spirit of the present disclosure, but to explain, and thus the scope of the present technical spirit is not limited by these embodiments. The protection scope of the present disclosure should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present disclosure.

10: 객체 감지 장치 20: 자차량
30: 객체 110: 정보 수신부
120: 트랙 설정부 130: 관심영역 설정부
140: 필터링부
10: object detection device 20: own vehicle
30: object 110: information receiver
120: track setting unit 130: region of interest setting unit
140: filtering unit

Claims (12)

자차량에 탑재된 적어도 하나의 센서로부터 상기 자차량의 주변을 감지한 센싱정보를 수신하는 정보 수신부;
상기 센싱정보를 기초로 객체정보를 산출하고, 상기 객체정보를 기초로 상기 객체에 대한 트랙을 설정하는 트랙 설정부;
상기 트랙의 정보를 기초로 상기 트랙을 포함하는 관심영역을 설정하는 관심영역 설정부; 및
상기 관심영역에 포함되는 센싱정보를 필터링하는 필터링부를 포함하는 객체 감지 장치.
an information receiving unit configured to receive sensing information for sensing the surroundings of the own vehicle from at least one sensor mounted on the own vehicle;
a track setting unit calculating object information based on the sensing information and setting a track for the object based on the object information;
a region of interest setting unit configured to set a region of interest including the track based on information on the track; and
and a filtering unit configured to filter the sensing information included in the region of interest.
제1항에 있어서,
상기 관심영역 설정부는,
상기 객체와 상기 자차량과의 거리가 멀어질수록 관심영역을 좁게 설정하고, 상기 객체와 상기 자차량과의 거리가 가까워질수록 관심영역을 넓게 설정하는 객체 감지 장치.
According to claim 1,
The region of interest setting unit,
An object detecting apparatus for setting a region of interest narrower as the distance between the object and the own vehicle increases, and setting a wider region of interest as the distance between the object and the own vehicle increases.
제1항에 있어서,
상기 센싱정보는,
레이더 센서 및 라이더 센서가 상기 자차량 주변을 감지한 결과인 객체 감지 장치.
According to claim 1,
The sensing information is
An object detection device that is a result of the radar sensor and the lidar sensor detecting the surroundings of the own vehicle.
제3항에 있어서,
상기 필터링부는,
상기 관심영역에 포함된 레이더 센서의 센싱정보를 필터링하는 객체 감지 장치.
4. The method of claim 3,
The filtering unit,
An object detection apparatus for filtering sensing information of a radar sensor included in the region of interest.
제1항에 있어서,
상기 필터링부는,
상기 센싱정보를 칼만필터(Kalman filter)를 통해 필터링하는 객체 감지 장치.
According to claim 1,
The filtering unit,
An object detection apparatus for filtering the sensing information through a Kalman filter.
제1항에 있어서,
상기 관심영역 설정부가 설정한 관심영역을 출력하는 출력부를 더 포함하는 객체 감지 장치.
According to claim 1,
The object detection apparatus further comprising an output unit for outputting the region of interest set by the region of interest setting unit.
자차량에 탑재된 적어도 하나의 센서로부터 상기 자차량의 주변을 감지한 센싱정보를 수신하는 센싱정보 수신 단계;
상기 센싱정보를 기초로 객체정보를 산출하고, 상기 객체정보를 기초로 상기 객체에 대한 트랙을 설정하는 트랙 설정 단계;
상기 트랙의 정보를 기초로 상기 트랙을 포함하는 관심영역을 설정하는 관심영역 설정 단계; 및
상기 관심영역에 포함되는 센싱정보를 필터링하는 필터링 단계를 포함하는 객체 감지 방법.
A sensing information receiving step of receiving sensing information for sensing the surroundings of the own vehicle from at least one sensor mounted on the own vehicle;
a track setting step of calculating object information based on the sensing information and setting a track for the object based on the object information;
a region of interest setting step of setting a region of interest including the track based on the information on the track; and
and a filtering step of filtering the sensing information included in the region of interest.
제7항에 있어서,
상기 관심영역 설정 단계는,
상기 객체와 상기 자차량과의 거리가 멀어질수록 관심영역을 좁게 설정하고, 상기 객체와 상기 자차량과의 거리가 가까워질수록 관심영역을 넓게 설정하는 객체 감지 방법.
8. The method of claim 7,
The step of setting the region of interest is
An object detection method for setting a region of interest narrower as the distance between the object and the own vehicle increases, and setting a wider region of interest as the distance between the object and the own vehicle increases.
제7항에 있어서,
상기 센싱정보는,
레이더 센서 및 라이더 센서가 상기 자차량 주변을 감지한 결과인 객체 감지 방법.
8. The method of claim 7,
The sensing information is
An object detection method that is a result of a radar sensor and a lidar sensor detecting the surroundings of the own vehicle.
제9항에 있어서,
상기 필터링 단계는,
상기 관심영역에 포함된 레이더 센서의 센싱정보를 필터링하는 객체 감지 방법.
10. The method of claim 9,
The filtering step is
An object detection method for filtering sensing information of a radar sensor included in the region of interest.
제7항에 있어서,
상기 필터링 단계는,
상기 센싱정보를 칼만필터(Kalman filter)를 통해 필터링하는 객체 감지 방법.
8. The method of claim 7,
The filtering step is
An object detection method for filtering the sensing information through a Kalman filter.
제7항에 있어서,
상기 관심영역 설정부가 설정한 관심영역을 출력하는 출력 단계를 더 포함하는 객체 감지 방법.
8. The method of claim 7,
The method of detecting an object further comprising an output step of outputting the region of interest set by the region of interest setting unit.
KR1020200136083A 2020-10-20 2020-10-20 Apparatus and method for detecting object KR20220052116A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200136083A KR20220052116A (en) 2020-10-20 2020-10-20 Apparatus and method for detecting object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200136083A KR20220052116A (en) 2020-10-20 2020-10-20 Apparatus and method for detecting object

Publications (1)

Publication Number Publication Date
KR20220052116A true KR20220052116A (en) 2022-04-27

Family

ID=81391128

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200136083A KR20220052116A (en) 2020-10-20 2020-10-20 Apparatus and method for detecting object

Country Status (1)

Country Link
KR (1) KR20220052116A (en)

Similar Documents

Publication Publication Date Title
EP3364394B1 (en) Information processing apparatus
US9623869B2 (en) Vehicle driving support control apparatus
US10836388B2 (en) Vehicle control method and apparatus
US9223311B2 (en) Vehicle driving support control apparatus
US10800432B2 (en) Rear-side alert system and method of controlling same
KR101964858B1 (en) Collision avoidance apparatus and collision avoidance method
JP2018072105A (en) Object detection device
EP3834008B1 (en) An apparatus and method for providing driver assistance of a vehicle
KR101954319B1 (en) Apparatus and method for avoiding blind spot of side lane vehicles
US11163061B2 (en) Object detection apparatus and object detection method
US20230219541A1 (en) Driving support device for vehicle and method for the same
CN210617998U (en) Blind area detection equipment for freight transport and passenger transport vehicles
KR20220052116A (en) Apparatus and method for detecting object
EP3217357B1 (en) Estimation of movement of a target object
KR102662224B1 (en) RaDAR apparatus, recognizing target Method of RaDAR apparatus, and system for controlling vehicle including it
KR20220052408A (en) Sensor fusion driving route apparatus and method
US20230075998A1 (en) Steering control apparatus and method
US20220308207A1 (en) Radar control device and method
KR20240069925A (en) Headlite control apparatus and method
KR20220120232A (en) Radar control apparatus and method
US20230251369A1 (en) Radar control apparatus and method
KR20220118728A (en) Radar control apparatus and method
EP3936411A1 (en) Method and apparatus for controlling parking of vehicle
US20220227363A1 (en) Control device for controlling safety device in vehicle
US20230161030A1 (en) Radar control device and method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application