KR20220052116A - Apparatus and method for detecting object - Google Patents
Apparatus and method for detecting object Download PDFInfo
- Publication number
- KR20220052116A KR20220052116A KR1020200136083A KR20200136083A KR20220052116A KR 20220052116 A KR20220052116 A KR 20220052116A KR 1020200136083 A KR1020200136083 A KR 1020200136083A KR 20200136083 A KR20200136083 A KR 20200136083A KR 20220052116 A KR20220052116 A KR 20220052116A
- Authority
- KR
- South Korea
- Prior art keywords
- interest
- region
- information
- track
- setting
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000001914 filtration Methods 0.000 claims abstract description 32
- 238000001514 detection method Methods 0.000 claims description 21
- 230000005540 biological transmission Effects 0.000 description 9
- 238000005259 measurement Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000015654 memory Effects 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000035622 drinking Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R21/0132—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to vehicle motion parameters, e.g. to vehicle longitudinal or transversal deceleration or speed value
- B60R21/01332—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to vehicle motion parameters, e.g. to vehicle longitudinal or transversal deceleration or speed value by frequency or waveform analysis
- B60R21/01336—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to vehicle motion parameters, e.g. to vehicle longitudinal or transversal deceleration or speed value by frequency or waveform analysis using filtering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R21/0134—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0043—Signal treatments, identification of variables or parameters, parameter estimation or state estimation
- B60W2050/0052—Filtering, filters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B60W2420/52—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Description
본 개시는 객체 감지 장치 및 방법에 관한 것으로써, 보다 구체적으로, 부분적으로 필터링하는 객체 감지 장치 및 방법에 관한 것이다.The present disclosure relates to an object detecting apparatus and method, and more particularly, to an object detecting apparatus and method for partially filtering.
최근 차량의 안전한 운행을 위한 다양한 장치들이 개발되고 있으며 그 중에 전방 충돌위험성이 예견되면 운전자에게 충돌위험성을 알려주고, 운전자의 응답이 없어도 충돌이 예견되면 스스로 브레이크를 작동시키는 자동긴급 브레이크(Autonomous Emergency Braking; AEB)나 전방의 차량이나 물체를 감지하여 자동으로 차량의 속도 등을 제어하면서 자동차의 운항을 제어하는 적응형 순항 제어장치(Smart Cruise Control; SCC)와 같은 장치가 있다.Recently, various devices for safe driving of a vehicle have been developed. Among them, automatic emergency braking that informs the driver of the risk of a collision when a risk of forward collision is predicted, and applies the brake by itself when a collision is predicted even if there is no response from the driver (Autonomous Emergency Braking; There is a device such as AEB) or an Adaptive Cruise Control (SCC) that controls the operation of a vehicle while automatically controlling the speed of the vehicle by detecting a vehicle or object in front.
이러한 AEB나 SCC의 경우 전방의 타차량을 인식할 수 있는 장치를 반드시 필요로 하며, 이를 위해, 물체의 인식 가능성을 높일 필요가 있다.In the case of such AEB or SCC, a device capable of recognizing other vehicles in front is necessarily required, and for this purpose, it is necessary to increase the possibility of recognizing an object.
이러한 배경에서, 본 개시는 관심영역을 설정하고, 관심영역에 대해 필터링을 수행하는 객체 감지 장치 및 방법을 제공하고자 한다.Against this background, the present disclosure intends to provide an object detection apparatus and method for setting a region of interest and performing filtering on the region of interest.
전술한 과제를 해결하기 위하여, 일 측면에서, 본 개시는 자차량에 탑재된 적어도 하나의 센서로부터 자차량의 주변을 감지한 센싱정보를 수신하는 정보 수신부, 센싱정보를 기초로 객체정보를 산출하고, 객체정보를 기초로 객체에 대한 트랙을 설정하는 트랙 설정부, 트랙의 정보를 기초로 트랙을 포함하는 관심영역을 설정하는 관심영역 설정부 및 관심영역에 포함되는 센싱정보를 필터링하는 필터링부를 포함하는 객체 감지 장치를 제공한다. In order to solve the above problems, in one aspect, the present disclosure provides an information receiving unit for receiving sensing information sensing the surroundings of the own vehicle from at least one sensor mounted on the own vehicle, calculating object information based on the sensing information and , a track setting unit for setting a track for an object based on object information, a region of interest setting unit for setting a region of interest including a track based on information on the track, and a filtering unit for filtering sensing information included in the region of interest An object detection device is provided.
다른 측면에서, 본 개시는 자차량에 탑재된 적어도 하나의 센서로부터 자차량의 주변을 감지한 센싱정보를 수신하는 센싱정보 수신 단계, 센싱정보를 기초로 객체정보를 산출하고, 객체정보를 기초로 객체에 대한 트랙을 설정하는 트랙 설정 단계, 트랙의 정보를 기초로 트랙을 포함하는 관심영역을 설정하는 관심영역 설정 단계 및 관심영역에 포함되는 센싱정보를 필터링하는 필터링 단계를 포함하는 객체 감지 방법을 제공한다.In another aspect, the present disclosure provides a sensing information receiving step of receiving sensing information for sensing the surroundings of the own vehicle from at least one sensor mounted on the own vehicle, calculating object information based on the sensing information, and based on the object information An object detection method comprising a track setting step of setting a track for an object, a region of interest setting step of setting a region of interest including a track based on information on the track, and a filtering step of filtering sensing information included in the region of interest to provide.
본 개시에 의하면, 객체 감지 장치 및 방법은 트랙 정보를 기초로 설정된 관심영역에서 필터링을 활용함으로써, 중요도가 높은 영역에 대해 인식률을 높이고 하드웨어 리소스를 줄일 수 있다.According to the present disclosure, an apparatus and method for detecting an object may increase a recognition rate for an area of high importance and reduce hardware resources by utilizing filtering in a region of interest set based on track information.
도 1은 본 개시의 일 실시예에 따른 객체 감지 장치를 설명하기 위한 블록도이다.
도 2는 일 실시예에 따른 관심영역이 설정되는 것을 설명하기 위한 도면이다.
도 3 및 도 4는 일 실시예에 따른 관심영역이 거리에 따라 크기가 다르게 설정되는 것을 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시예에 따른 객체 감지 방법을 설명하는 흐름도이다.1 is a block diagram illustrating an apparatus for detecting an object according to an embodiment of the present disclosure.
2 is a diagram for explaining that a region of interest is set according to an exemplary embodiment.
3 and 4 are diagrams for explaining that a size of a region of interest is set differently according to a distance, according to an exemplary embodiment.
5 is a flowchart illustrating an object detection method according to an embodiment of the present disclosure.
이하, 본 개시의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 이하, 이하, 본 개시의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 이하, 본 개시의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성 요소들에 참조부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 기술 사상의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다. 본 명세서 상에서 언급된 "포함한다", "갖는다", "이루어진다" 등이 사용되는 경우 "~만"이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별한 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함할 수 있다.Hereinafter, some embodiments of the present disclosure in detail with reference to illustrative drawings, hereinafter in detail with reference to exemplary drawings, some embodiments of the present disclosure in detail with reference to exemplary drawings to be described in detail. In adding reference numerals to components of each drawing, the same components may have the same reference numerals as much as possible even though they are indicated in different drawings. In addition, in describing the present embodiments, if it is determined that a detailed description of a related well-known configuration or function may obscure the gist of the present technical idea, the detailed description may be omitted. When "includes", "has", "consisting of", etc. mentioned in this specification are used, other parts may be added unless "only" is used. When a component is expressed in the singular, it may include a case in which the plural is included unless otherwise explicitly stated.
또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다. In addition, in describing the components of the present disclosure, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, order, or number of the elements are not limited by the terms.
구성 요소들의 위치 관계에 대한 설명에 있어서, 둘 이상의 구성 요소가 "연결", "결합" 또는 "접속" 등이 된다고 기재된 경우, 둘 이상의 구성 요소가 직접적으로 "연결", "결합" 또는 "접속" 될 수 있지만, 둘 이상의 구성 요소와 다른 구성 요소가 더 "개재"되어 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다. 여기서, 다른 구성 요소는 서로 "연결", "결합" 또는 "접속" 되는 둘 이상의 구성 요소 중 하나 이상에 포함될 수도 있다. In the description of the positional relationship of the components, when it is described that two or more components are "connected", "coupled" or "connected", two or more components are directly "connected", "coupled" or "connected" ", but it will be understood that two or more components and other components may be further "interposed" and "connected," "coupled," or "connected." Here, other components may be included in one or more of two or more components that are “connected”, “coupled” or “connected” to each other.
구성 요소들이나, 동작 방법이나 제작 방법 등과 관련한 시간적 흐름 관계에 대한 설명에 있어서, 예를 들어, "~후에", "~에 이어서", "~다음에", "~전에" 등으로 시간적 선후 관계 또는 흐름적 선후 관계가 설명되는 경우, "바로" 또는 "직접"이 사용되지 않는 이상 연속적이지 않은 경우도 포함할 수 있다.In the description of the temporal flow relationship related to the components, the operation method or the production method, for example, the temporal precedence relationship such as "after", "after", "after", "before", etc. Alternatively, when a flow precedence relationship is described, it may include a case where it is not continuous unless "immediately" or "directly" is used.
한편, 구성 요소에 대한 수치 또는 그 대응 정보(예: 레벨 등)가 언급된 경우, 별도의 명시적 기재가 없더라도, 수치 또는 그 대응 정보는 각종 요인(예: 공정상의 요인, 내부 또는 외부 충격, 노이즈 등)에 의해 발생할 수 있는 오차 범위를 포함하는 것으로 해석될 수 있다.On the other hand, when numerical values or corresponding information (eg, level, etc.) for a component are mentioned, even if there is no separate explicit description, the numerical value or the corresponding information is based on various factors (eg, process factors, internal or external shock, Noise, etc.) may be interpreted as including an error range that may occur.
이하에서는 첨부되는 도면들을 참조하여 본 개시의 일 실시예에 따른 객체 감지 장치(10)를 설명하기로 한다.Hereinafter, an
도 1은 본 개시의 일 실시예에 따른 객체 감지 장치(10)를 설명하기 위한 블록도이다.1 is a block diagram illustrating an
도 1을 참조하면, 객체 감지 장치(10)는 정보 수신부(110), 트랙 설정부(120), 관심영역 설정부(130) 및 필터링부(140) 등을 포함할 수 있다.Referring to FIG. 1 , the
정보 수신부(110)는 자차량(20)에 탑재된 적어도 하나의 센서로부터 자차량(20)의 주변을 감지한 센싱정보를 수신할 수 있다. 여기서 센서는 예를 들면, 이미지 센서, 레이더(RADAR) 센서, 속도 센서, 라이더 센서(RiDAR) 및 조향각 센서 등을 포함할 수 있다. 그러나, 자차량(20)에 탑재되어 주변을 감지할 수 있다면 특정 센서에 한정되지 않는다.The
이에 더하여, 센서는 조향각 센서와 같이 주변뿐만 아니라 자차량(20) 내부를 감지하는 센서도 포함할 수 있다.In addition, the sensor may include a sensor that detects not only the surroundings but also the inside of the
그리고, 센서는 감지 결과를 본 개시의 객체 감지 장치(10)에 포함된 정수 수신부에 전송할 수 있다.In addition, the sensor may transmit the detection result to the integer receiver included in the
예를 들면, 센서는 안테나부, 수신부 및 송신부 등을 포함할 수 있다. 구체적으로, 안테나부는 1 이상의 송신 안테나와 1 이상의 수신 안테나를 포함하며, 각 송수신 안테나는 1 이상의 방사 소자가 급전선로에 의하여 직렬로 연결되는 어레이 안테나 일 수 있으나 그에 한정되는 것은 아니다.For example, the sensor may include an antenna unit, a receiver unit, and a transmitter unit. Specifically, the antenna unit includes one or more transmit antennas and one or more receive antennas, and each transmit/receive antenna may be an array antenna in which one or more radiating elements are connected in series by a feed line, but is not limited thereto.
이러한 안테나부는, 복수 개의 송신 안테나 및 복수 개의 수신 안테나를 포함하며, 그 배열 순서 및 배열 간격 등에 따라 여러 형태의 안테나 배열 구조를 가질 수 있다.The antenna unit includes a plurality of transmit antennas and a plurality of receive antennas, and may have various types of antenna array structures according to an arrangement order and an arrangement interval thereof.
송신부는 안테나부에 포함되는 복수 개의 송신 안테나 중 1개로 스위칭(Switching)하여 스위칭 된 송신 안테나를 통해 송신신호를 송신하거나 복수 개의 송신 안테나에 할당된 멀티 송신채널을 통해 송신신호를 송신하는 기능을 할 수 있다.The transmitter may switch to one of a plurality of transmit antennas included in the antenna unit and transmit a transmit signal through the switched transmit antenna or transmit a transmit signal through a multi transmit channel allocated to the plurality of transmit antennas. can
이러한 송신부는, 스위칭 된 송신 안테나에 할당된 한 개의 송신채널 또는 복수 개의 송신 안테나에 할당된 멀티 송신채널에 대한 송신신호를 생성하는 발진부를 포함한다. 이러한 발진부는, 일 예로서, 전압 제어 발진기(VCO: Voltage-Controlled Oscillator) 및 오실레이터(Oscillator) 등을 포함할 수 있다.The transmitter includes an oscillator that generates a transmission signal for one transmission channel allocated to the switched transmission antenna or multiple transmission channels allocated to a plurality of transmission antennas. The oscillator may include, for example, a voltage-controlled oscillator (VCO) and an oscillator.
수신부는 객체(30)에서 반사되어 수신되는 수신신호를 수신안테나를 통하여 수신할 수 있다.The receiver may receive the received signal reflected from the
또한, 수신부는 복수의 수신 안테나 중 한 개로 스위칭하여 스위칭 된 수신 안테나를 통해 송신된 송신신호가 타깃에 의해 반사된 반사신호인 수신신호를 수신하거나 복수 개의 수신 안테나에 할당된 멀티 수신채널을 통해 수신신호를 수신하는 기능을 할 수 있다.In addition, the reception unit switches to one of the plurality of reception antennas to receive a reception signal in which a transmission signal transmitted through the switched reception antenna is a reflected signal reflected by a target or received through a multi reception channel allocated to a plurality of reception antennas. It can function to receive signals.
이러한 수신부는, 스위칭 된 수신 안테나에 할당된 한 개의 수신채널을 통해 수신되거나 복수 개의 송신 안테나에 할당된 티 수신채널을 통해 수신된 수신신호를 저잡음 증폭하는 저잡음 증폭부(LNA: Low Noise Amplifier)와, 저잡음 증폭된 수신신호를 믹싱하는 믹싱부(Mixer)와, 믹싱된 수신신호를 증폭하는 증폭부(Amplifier)와, 증폭된 수신신호를 디지털 변환하여 수신데이터를 생성하는 변환부(ADC: Analog Digital Converter) 등을 포함할 수 있다. The receiving unit includes a low noise amplifier (LNA) for low-noise amplifying a received signal received through one receiving channel assigned to the switched receiving antenna or received through a T receiving channel assigned to a plurality of transmitting antennas; , a mixing unit (Mixer) for mixing the low-noise amplified received signal, an amplifier (Amplifier) for amplifying the mixed received signal, and a conversion unit (ADC: Analog Digital) for digitally converting the amplified received signal to generate received data Converter) and the like.
이에 따라, 정보 수신부(110)는 송신 안테나를 이용하여 객체(30)를 향해 레이더 신호를 송신하도록 제어하는 레이더 신호 송신 모듈 및 객체(30)에서 반사되어 수신되는 수신신호를 수신 안테나를 통하여 수신하는 수신 모듈 등을 포함할 수 있다.Accordingly, the
여기서, 이미지 센서부터 촬영된 영상정보, 즉, 센싱정보는 이미지 데이터로 구성되므로, 이미지 센서로부터 캡처된 이미지 데이터를 의미할 수 있다. 이하, 본 개시에서는 이미지 센서로부터 촬영된 센싱정보는 이미지 센서로부터 캡처된 이미지 데이터를 의미한다.Here, since image information photographed from the image sensor, that is, sensing information, is composed of image data, it may mean image data captured from the image sensor. Hereinafter, in the present disclosure, sensing information captured from an image sensor means image data captured from the image sensor.
이미지 센서에 의해 캡처된 이미지 데이터는, 예를 들어, Raw 형태의 AVI, MPEG-4, H.264, DivX, JPEG 중 하나의 포맷으로 생성될 수 있다. 센서에서 캡처된 이미지 주변 상황 판단부(120)에서 처리될 수 있다.The image data captured by the image sensor may be generated in, for example, one of raw format AVI, MPEG-4, H.264, DivX, and JPEG. The image captured by the sensor may be processed by the surrounding
이미지 센서는 화각 및 분해능이 상대적으로 우세한 이미지 센서일 수 있다. 예를 들어, 이미지 센서의 화각은 약 100°이고, 분해능은 약 10μm일 수 있다. 하지만, 이에 한정되는 것은 아니며, 본 개시의 이미지 센서는 구현 가능한 센서들 중 가장 넓은 화각을 구비하는 센서를 의미할 수 있다.The image sensor may be an image sensor having a relatively superior angle of view and resolution. For example, the angle of view of the image sensor may be about 100°, and the resolution may be about 10 μm. However, the present disclosure is not limited thereto, and the image sensor of the present disclosure may mean a sensor having the widest angle of view among achievable sensors.
여기서, 이미지 센서는 예를 들어, 카메라, 라이더 센서 일 수 있다.Here, the image sensor may be, for example, a camera or a lidar sensor.
트랙 설정부(120)는 센싱정보를 기초로 객체정보를 산출하고, 객체정보를 기초로 객체(30)에 대한 트랙(210)(Track)을 설정할 수 있다.The
구체적으로, 복수의 센서로부터 수신한 센싱정보는 신호 처리를 거쳐 주변정보로 산출될 수 있다. 예를 들면, 정보 수신부(110)에서 수신한 수신신호는 FFT(Fast Fourier Transform) 및 측정치(Measurement) 등을 통해 객체정보로 산출될 수 있다. 이러한 객체정보는 객체(30)의 존재 여부 및 객체(30)의 추정 위치, 속도 등을 포함할 수 있다.Specifically, the sensing information received from the plurality of sensors may be calculated as surrounding information through signal processing. For example, the received signal received by the
한편, 이미지 센서의 경우, 주변 상황 판단부는 자차량(20) 주변을 촬영함으로써 산출된 이미지 데이터를 기초로 자차량(20) 주변에 객체(30)의 존재 여부를 판단할 수 있다.Meanwhile, in the case of an image sensor, the surrounding situation determination unit may determine whether the
트랙 설정부(120)는 산출된 객체정보를 기초로 감지된 객체(30)에 대한 트랙(210)을 설정할 수 있다. 예를 들면, 레이더 센서의 센싱정보로부터 산출한 측정치의 위치를 기초로 트랙(210)을 설정할 수 있다. The
일 실시예에서, 센서의 동작 주기가 수회 수행되고, 소정의 측정치가 감지되었을 때, 트랙 설정부(120)는 누적된 측정치를 클리스터링(Clustering)하여 객체(30)에 대한 트랙(210)을 설정할 수 있다. 여기서 센서의 동작 주기는 센서가 송신신호를 송신부터 객체(30)에 반사되어 반사신호를 수신하고 반사신호를 처리하고 센싱정보를 산출하고 객체정보를 산출하여 다시 송신신호를 송신하기 전까지의 기간을 의미할 수 있다. 이것이 1회 수행되면 제1 주기, n회 수행되면 제n 주기로 명명할 수 있다.In one embodiment, when the operation cycle of the sensor is performed several times and a predetermined measurement value is detected, the
트랙 설정부(120)는 소정의 누적된 측정치, 예를 들면, 제n 주기까지 객체(30)를 감지하여 산출된 측정치를 기초로 클러스터링하여 객체(30)에 대한 트랙(210)을 설정할 수 있다. 그리고, 트랙 설정부(120)는 클러스터링을 수행하되, 이미지 센서에서 감지한 객체(30)의 범위 이내에 위치하는 측정치를 클러스터링할 수 있고, 이미지 센서에서 감지한 객체(30)의 범위보다 소정의 거리 이내에 위치하는 측정치들을 클러스터링할 수 있다. 예를 들면, 소정의 거리는 자차량(20)이 주행하는 차선일 수 있다.The
다른 예를 들면, 트랙 설정부(120)는 이미지 센서에서 산출된 객체(30)의 좌우 너비를 객체(30)에 대한 트랙(210)의 너비로 산출하고, 레이더 센서에서 산출된 측정치의 클러스터링 결과를 객체(30)의 대한 트랙(210)의 세로 길이로 산출할 수 있다.As another example, the
또 다른 예를 들면, 라이다에 의해 감지된 객체(30)의 이미지를 기초로 객체(30)에 대한 트랙(210)을 설정할 수 있다.As another example, the
도 2는 일 실시예에 따른 관심영역(220)이 설정되는 것을 설명하기 위한 도면이다.FIG. 2 is a diagram for explaining that a region of
도 2를 참조하면, 관심영역 설정부(130)는 설정된 트랙(210)의 정보를 기초로 트랙(210)을 포함하는 관심영역(220)을 설정할 수 있다.Referring to FIG. 2 , the region of
관심영역 설정부(130)는 소정의 거리를 기준치로 삼아 관심영역(220)을 설정할 수 있다.The region of
도 2를 참조하며 예를 들면, 객체 감지 장치(10)가 탑재된 자차량(20)과 감지된 객체(30)와의 거리는 기준치인 a로, 관심영역 설정부(130)는 기준치에 대응하는 관심영역(220)의 크기로 트랙(210)을 포함하여 설정할 수 있다. 이러한 관심영역(220)의 크기는 미리 설정된 거리에 대응하는 관심영역(220)이 설정된 데이터 테이블에 따라 설정될 수 있다.Referring to FIG. 2 , for example, the distance between the
도 3 및 도 4는 일 실시예에 따른 관심영역(220)이 거리에 따라 크기가 다르게 설정되는 것을 설명하기 위한 도면이다.3 and 4 are diagrams for explaining that the size of the region of
관심영역 설정부(130)는 객체(30)와 자차량(20)과의 거리가 멀어질수록 관심영역(220)을 좁게 설정하고, 객체(30)와 자차량(20)과의 거리가 가까워질수록 관심영역(220)을 넓게 설정할 수 있다.The region of
도 3을 참조하면, 객체 감지 장치(10)가 탑재된 자차량(20)과 객체(30)와의 거리가 기준치인 a보다 멀리 위치하는 경우, 해당 거리에 대응하여 관심영역(220)의 넓이가 결정될 수 있다. 즉, 관심영역(220)은 객체(30)와 자차량(20)과의 거리가 멀어질수록 관심영역(220)이 좁게 설정될 수 있다.Referring to FIG. 3 , when the distance between the
반대로, 도 4를 참조하면, 자차량(20)과 객체(30)와의 거리가 기준치인 a보다 가까운 거리에 위치하는 경우, 해당 거리에 대응하여 관심영역(220)의 넓이가 결정될 수 있다. 즉, 관심영역(220)은 객체(30)와 자차량(20)과의 거리가 가까워질수록 관심영역(220)이 넓게 설정될 수 있다.Conversely, referring to FIG. 4 , when the distance between the
관심영역 설정부(130)는 복수의 객체(30)가 감지되어 객체(30)에 대응하는 트랙(210)도 복수개인 경우, 관심영역 설정부(130)는 미리 정해진 우선순위에 따라 관심영역(220)의 크기를 설정할 수 있다. 예를 들면, 관심영역 설정부(130)는 차선 밖에 위치하는 객체(30)보다 차선 안에 위치하는 객체(30)의 관심영역(220)을 더 크게 설정할 수 있다. 다른 예를 들면, 관심영역 설정부(130)는 차선 안에 복수개의 객체(30)가 위치하는 경우 동일한 우선순위로 관심영역(220)을 설정하고 이 경우 각각의 관심영역(220)은 자차량(20)과의 거리에 따라 크기가 결정될 수 있다.When a plurality of
필터링부(140)는 관심영역(220)에 포함되는 센싱정보를 필터링할 수 있다.The
구체적으로, 필터링부(140)는 관심영역(220) 내에서 감지되는 센싱정보를 칼만필터(Kalman filter)를 통해 필터링할 수 있다. 필터링부(140)는 이전시점에서의 측정치에서 현재시점의 추정치를 산출할 수 있다. 이에 따라 필터링부(140)에서 필터링을 수행함에 따라 관심영역(220) 내에 감지되는 객체(30)에 대한 오차를 줄일 수 있어 보다 정확한 객체(30) 위치를 추정할 수 있다.Specifically, the
객체(30) 주정 장치는 관심영역 설정부(130)가 설정한 관심영역(220)을 출력하는 출력부를 더 포함할 수 있다. 여기서, 출력부는 관심영역(220)을 포함하는 정보를 수신하여 디스플레이 등과 같은 시각정보를 전달하는 모듈을 통해 관심영역(220)을 출력할 수 있다.The
전술한 바에 의하면, 객체(30) 추정 장치는 센서 퓨전을 이용하여 레이더 센서의 관심영역(220) 설정을 제어하고, 레이더 센서의 노이즈 및 불필요한 처리에 사용되는 하드웨어 리소스를 줄여 인식율을 향상시킬 수 있다.As described above, the
본 개시의 일 실시예에 따른 객체 감지 장치(10)는 자차량(20)에 탑재되어 자차량(20)의 주행에 도움을 주는 정보를 제공하거나, 운전자의 자차량(20) 제어에 도움을 제공하는 ADAS(Advance Driver Assistance Systems)일 수 있다. The
여기서, ADAS는 다양한 종류의 첨단 운전자 보조 시스템을 의미할 수 있으며, 운전자 보조 시스템으로는 예를 들면, 긴급 제동 시스템(Autonomous Emergency Braking), 스마트 주차 보조 시스템(SPAS: Smart Parking Assistance System), 사각 감지(BSD: Blind Spot Detection) 시스템, 적응형 크루즈 컨트롤(ACC: Adaptive Cruise Control) 시스템, 차선 이탈 경고 시스템(LDWS: Lane Departure Warning System), 차선 유지 보조 시스템(LKAS: Lane Keeping Assist System), 차선 변경 보조 시스템(LCAS: Lane Change Assist System) 등을 포함할 수 있다. 하지만, 이에 한정되는 것은 아니다.Here, ADAS may refer to various types of advanced driver assistance systems, and the driver assistance systems include, for example, an Autonomous Emergency Braking, a Smart Parking Assistance System (SPAS), and blind spot detection. (BSD: Blind Spot Detection) system, Adaptive Cruise Control (ACC) system, Lane Departure Warning System (LDWS), Lane Keeping Assist System (LKAS), Lane Change It may include a Lane Change Assist System (LCAS) and the like. However, the present invention is not limited thereto.
따라서, 자차량(20)에 탑재된 모듈로부터 정보를 수신하여, 이를 기초로 운전자의 제어에 도움을 주거나 자차량(20)의 주행에 도움을 주는 정보를 제공할 수 있다.Accordingly, it is possible to receive information from a module mounted on the
객체 감지 장치(10) 등의 컴퓨터 시스템(미도시됨)은 하나 이상의 프로세서, 메모리, 저장부, 사용자 인터페이스 입력부 및 사용자 인터페이스 출력부 중 적어도 하나 이상의 요소를 포함할 수 있으며, 이들은 버스를 통해 서로 통신할 수 있다. 또한, 컴퓨터 시스템은 네트워크에 접속하기 위한 네트워크 인터페이스를 또한 포함할 수 있다. 프로세서는 메모리 및/또는 저장소에 저장된 처리 명령어를 실행시키는 CPU 또는 반도체 소자일 수 있다. 메모리 및 저장부는 다양한 유형의 휘발성/비휘발성 기억 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM 및 RAM을 포함할 수 있다.A computer system (not shown), such as
이하에서는 전술한 본 개시를 모두 수행할 수 있는 객체 감지 장치(10)를 이용하는 위험 감지 및 회피하기 위한 제어 방법에 대해 설명하기로 한다.Hereinafter, a control method for detecting and avoiding a risk using the
도 5는 본 개시의 일 실시예에 따른 객체(30) 감지 방법을 설명하는 흐름도이다.5 is a flowchart illustrating a method for detecting an
도 5를 참조하면, 본 개시에 따른 객체 감지 방법은 자차량(20)에 탑재된 적어도 하나의 센서로부터 자차량(20)의 주변을 감지한 센싱정보를 수신하는 센싱정보 수신 단계(S510), 센싱정보를 기초로 객체정보를 산출하고, 객체정보를 기초로 객체(30)에 대한 트랙(210)을 설정하는 트랙(210) 설정 단계(S520), 트랙(210)의 정보를 기초로 트랙(210)을 포함하는 관심영역(220)을 설정하는 관심영역 설정 단계(S530) 및 관심영역(220)에 포함되는 센싱정보를 필터링하는 필터링 단계(S540)를 포함할 수 있다.Referring to FIG. 5 , the object detection method according to the present disclosure includes a sensing information receiving step (S510) of receiving sensing information for sensing the surroundings of the
여기서, 센싱정보는 레이더 센서 및 라이더 센서가 자차량(20)의 주변을 감지한 결과일 수 있다.Here, the sensing information may be a result of detecting the surroundings of the
관심영역 설정 단계(S530)는 객체(30)와 자차량(20)과의 거리가 멀어질수록 관심영역(220)을 좁게 설정하고, 객체(30)와 자차량(20)과의 거리가 가까워질수록 관심영역(220)을 넓게 설정할 수 있다.The region of interest setting step S530 sets the region of
필터링 단계(S540)는 관심영역(220)에 포함된 레이더 센서의 센싱정보를 필터링할 수 있다. 여기서, 필터링 단계(S540)는 센싱정보를 칼만필터(Kalman filter)를 통해 필터링 할 수 있다.In the filtering step ( S540 ), sensing information of the radar sensor included in the region of
객체 감지 방법는 관심영역 설정부(130)가 설정한 관심영역(220)을 출력하는 출력 단계를 더 포함할 수 있다.The object detection method may further include an output step of outputting the region of
이상에서 설명한 바와 같이, 본 개시에 의하면, 객체 감지 장치 및 방법은 트랙 정보를 기초로 설정된 관심영역(220)에서 필터링을 활용함으로써, 중요도가 높은 영역에 대해 인식률을 높이고 하드웨어 리소스를 줄일 수 있다.As described above, according to the present disclosure, the object detecting apparatus and method utilizes filtering in the region of
이상의 설명은 본 개시의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 기술 사상의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 또한, 본 실시예들은 본 개시의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이므로 이러한 실시예에 의하여 본 기술 사상의 범위가 한정되는 것은 아니다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical spirit of the present disclosure, and various modifications and variations will be possible without departing from the essential characteristics of the present disclosure by those skilled in the art to which the present disclosure pertains. In addition, the present embodiments are not intended to limit the technical spirit of the present disclosure, but to explain, and thus the scope of the present technical spirit is not limited by these embodiments. The protection scope of the present disclosure should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present disclosure.
10: 객체 감지 장치
20: 자차량
30: 객체
110: 정보 수신부
120: 트랙 설정부
130: 관심영역 설정부
140: 필터링부10: object detection device 20: own vehicle
30: object 110: information receiver
120: track setting unit 130: region of interest setting unit
140: filtering unit
Claims (12)
상기 센싱정보를 기초로 객체정보를 산출하고, 상기 객체정보를 기초로 상기 객체에 대한 트랙을 설정하는 트랙 설정부;
상기 트랙의 정보를 기초로 상기 트랙을 포함하는 관심영역을 설정하는 관심영역 설정부; 및
상기 관심영역에 포함되는 센싱정보를 필터링하는 필터링부를 포함하는 객체 감지 장치.an information receiving unit configured to receive sensing information for sensing the surroundings of the own vehicle from at least one sensor mounted on the own vehicle;
a track setting unit calculating object information based on the sensing information and setting a track for the object based on the object information;
a region of interest setting unit configured to set a region of interest including the track based on information on the track; and
and a filtering unit configured to filter the sensing information included in the region of interest.
상기 관심영역 설정부는,
상기 객체와 상기 자차량과의 거리가 멀어질수록 관심영역을 좁게 설정하고, 상기 객체와 상기 자차량과의 거리가 가까워질수록 관심영역을 넓게 설정하는 객체 감지 장치.According to claim 1,
The region of interest setting unit,
An object detecting apparatus for setting a region of interest narrower as the distance between the object and the own vehicle increases, and setting a wider region of interest as the distance between the object and the own vehicle increases.
상기 센싱정보는,
레이더 센서 및 라이더 센서가 상기 자차량 주변을 감지한 결과인 객체 감지 장치.According to claim 1,
The sensing information is
An object detection device that is a result of the radar sensor and the lidar sensor detecting the surroundings of the own vehicle.
상기 필터링부는,
상기 관심영역에 포함된 레이더 센서의 센싱정보를 필터링하는 객체 감지 장치.4. The method of claim 3,
The filtering unit,
An object detection apparatus for filtering sensing information of a radar sensor included in the region of interest.
상기 필터링부는,
상기 센싱정보를 칼만필터(Kalman filter)를 통해 필터링하는 객체 감지 장치.According to claim 1,
The filtering unit,
An object detection apparatus for filtering the sensing information through a Kalman filter.
상기 관심영역 설정부가 설정한 관심영역을 출력하는 출력부를 더 포함하는 객체 감지 장치.According to claim 1,
The object detection apparatus further comprising an output unit for outputting the region of interest set by the region of interest setting unit.
상기 센싱정보를 기초로 객체정보를 산출하고, 상기 객체정보를 기초로 상기 객체에 대한 트랙을 설정하는 트랙 설정 단계;
상기 트랙의 정보를 기초로 상기 트랙을 포함하는 관심영역을 설정하는 관심영역 설정 단계; 및
상기 관심영역에 포함되는 센싱정보를 필터링하는 필터링 단계를 포함하는 객체 감지 방법.A sensing information receiving step of receiving sensing information for sensing the surroundings of the own vehicle from at least one sensor mounted on the own vehicle;
a track setting step of calculating object information based on the sensing information and setting a track for the object based on the object information;
a region of interest setting step of setting a region of interest including the track based on the information on the track; and
and a filtering step of filtering the sensing information included in the region of interest.
상기 관심영역 설정 단계는,
상기 객체와 상기 자차량과의 거리가 멀어질수록 관심영역을 좁게 설정하고, 상기 객체와 상기 자차량과의 거리가 가까워질수록 관심영역을 넓게 설정하는 객체 감지 방법.8. The method of claim 7,
The step of setting the region of interest is
An object detection method for setting a region of interest narrower as the distance between the object and the own vehicle increases, and setting a wider region of interest as the distance between the object and the own vehicle increases.
상기 센싱정보는,
레이더 센서 및 라이더 센서가 상기 자차량 주변을 감지한 결과인 객체 감지 방법.8. The method of claim 7,
The sensing information is
An object detection method that is a result of a radar sensor and a lidar sensor detecting the surroundings of the own vehicle.
상기 필터링 단계는,
상기 관심영역에 포함된 레이더 센서의 센싱정보를 필터링하는 객체 감지 방법.10. The method of claim 9,
The filtering step is
An object detection method for filtering sensing information of a radar sensor included in the region of interest.
상기 필터링 단계는,
상기 센싱정보를 칼만필터(Kalman filter)를 통해 필터링하는 객체 감지 방법.8. The method of claim 7,
The filtering step is
An object detection method for filtering the sensing information through a Kalman filter.
상기 관심영역 설정부가 설정한 관심영역을 출력하는 출력 단계를 더 포함하는 객체 감지 방법.8. The method of claim 7,
The method of detecting an object further comprising an output step of outputting the region of interest set by the region of interest setting unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200136083A KR20220052116A (en) | 2020-10-20 | 2020-10-20 | Apparatus and method for detecting object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200136083A KR20220052116A (en) | 2020-10-20 | 2020-10-20 | Apparatus and method for detecting object |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220052116A true KR20220052116A (en) | 2022-04-27 |
Family
ID=81391128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200136083A KR20220052116A (en) | 2020-10-20 | 2020-10-20 | Apparatus and method for detecting object |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220052116A (en) |
-
2020
- 2020-10-20 KR KR1020200136083A patent/KR20220052116A/en not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3364394B1 (en) | Information processing apparatus | |
US9623869B2 (en) | Vehicle driving support control apparatus | |
US10836388B2 (en) | Vehicle control method and apparatus | |
US9223311B2 (en) | Vehicle driving support control apparatus | |
US10800432B2 (en) | Rear-side alert system and method of controlling same | |
KR101964858B1 (en) | Collision avoidance apparatus and collision avoidance method | |
JP2018072105A (en) | Object detection device | |
EP3834008B1 (en) | An apparatus and method for providing driver assistance of a vehicle | |
KR101954319B1 (en) | Apparatus and method for avoiding blind spot of side lane vehicles | |
US11163061B2 (en) | Object detection apparatus and object detection method | |
US20230219541A1 (en) | Driving support device for vehicle and method for the same | |
CN210617998U (en) | Blind area detection equipment for freight transport and passenger transport vehicles | |
KR20220052116A (en) | Apparatus and method for detecting object | |
EP3217357B1 (en) | Estimation of movement of a target object | |
KR102662224B1 (en) | RaDAR apparatus, recognizing target Method of RaDAR apparatus, and system for controlling vehicle including it | |
KR20220052408A (en) | Sensor fusion driving route apparatus and method | |
US20230075998A1 (en) | Steering control apparatus and method | |
US20220308207A1 (en) | Radar control device and method | |
KR20240069925A (en) | Headlite control apparatus and method | |
KR20220120232A (en) | Radar control apparatus and method | |
US20230251369A1 (en) | Radar control apparatus and method | |
KR20220118728A (en) | Radar control apparatus and method | |
EP3936411A1 (en) | Method and apparatus for controlling parking of vehicle | |
US20220227363A1 (en) | Control device for controlling safety device in vehicle | |
US20230161030A1 (en) | Radar control device and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |