KR102535618B1 - 융합형 물체 감지 정보를 이용한 운전자 보조 시스템 및 방법 - Google Patents

융합형 물체 감지 정보를 이용한 운전자 보조 시스템 및 방법 Download PDF

Info

Publication number
KR102535618B1
KR102535618B1 KR1020160053985A KR20160053985A KR102535618B1 KR 102535618 B1 KR102535618 B1 KR 102535618B1 KR 1020160053985 A KR1020160053985 A KR 1020160053985A KR 20160053985 A KR20160053985 A KR 20160053985A KR 102535618 B1 KR102535618 B1 KR 102535618B1
Authority
KR
South Korea
Prior art keywords
information
sensing
unit
detection information
fusion
Prior art date
Application number
KR1020160053985A
Other languages
English (en)
Other versions
KR20170124287A (ko
Inventor
김기석
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020160053985A priority Critical patent/KR102535618B1/ko
Publication of KR20170124287A publication Critical patent/KR20170124287A/ko
Application granted granted Critical
Publication of KR102535618B1 publication Critical patent/KR102535618B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • B60W2420/62

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Transportation (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

융합형 감지 정보를 이용한 차량 주변 상황 인식 처리 시, 기설정된 제1 센싱을 통해 차량 주변의 물체를 감지하여 제 1 물체 감지 정보를 생성하고, 제 1 센싱과 상이한 제 2 센싱을 통해 차량 주변의 물체를 감지하여 제 2 물체 감지 정보를 생성하고, 제 1 및 제 2 물체 감지 정보에 포함된 위치 정보에 기초하여 둘 이상의 센서부 중 어느 하나에서는 감지되고 다른 하나에서는 감지되지 않은 물체를 판별하고, 판별의 결과에 따른 융합형 감지 정보를 설정하고, 융합형 감지 정보에 기초하여 감지된 물체에 대한 위험도를 판단하는 상황 인지 처리를 수행하고, 위험도에 따라 경고를 출력하되, 판별된 물체가 감지되지 않은 센서부로 판별된 물체에 대한 정보를 전송한 결과로서 재감지된 적어도 하나의 재감지 물체 감지 정보에 기초하여 융합형 감지 정보를 설정한다.

Description

융합형 물체 감지 정보를 이용한 운전자 보조 시스템 및 방법{DRIVER ASSISTANCE SYSTEM FOR DETECTING OBSTACLE USING FUSION OBJECT SENSING INFORMATION AND METHOD THEREOF}
본 발명은 차량에 구비되어 차량 주변의 장애물을 감지하고, 감지한 장애물 감지 정보를 이용하여 주변 상황을 인지하는 운전자 보조 시스템 및 그 방법에 관한 것이다.
차량에 장착되는 운전자 보조 시스템으로서 지능형운전자보조시스템(Advanced Driver Assisted System, ADAS)이 사용되고 있다. 이러한 ADAS는 기본적으로 차량 주변의 물체(즉, 차량 또는 보행자 등)를 감지하는 기능이 있으며, ADAS를 활용하여 제공되는 서비스로는 자동긴급제어장치(Automatic Emergency Break, AEB) 또는 후/측방경보시스템(Blind Spot Detection, BSD) 등이 있다.
한편, 운전자 보조 시스템은 레이더(radar) 장치, 비전(Vision) 장치, 라이다(Light Detection And Ranging, LiDAR) 장치 등의 다양한 센서 장치를 이용하여 물체 감지 기능을 수행한다. 구체적으로, 운전자 보조 시스템은 레이더장치 또는 카메라 장치 등을 이용하여, 운전자가 인지하지 못하는 순간에도 주변 차량과 보행자를 감지하고, 이에 따라 사고 위험성을 판단한다. 이때, 운전자 보조 시스템은 사고 위험성이 고조되는 경우, 운전자에게 경고 신호를 제공하거나 브레이크 장치 또는 조향 장치를 제어하여 충돌 등의 사고를 예방한다.
이와 관련하여, 한국공개특허 제 10-2014-0136165 호(발명의 명칭: 차량 레이더 장치 및 이를 이용한 목표물 검출방법)는, 차량 레이더 수신 신호에 포함된 간섭 신호를 제거하기 위한 것으로서, 레이더 신호를 송신하는 차량 레이더 신호 송신부, 송신된 차량 레이더 신호가 목표물에 의해 반사된 신호를 수신하는 차량 레이더 신호 수신부, 수신된 차량 레이더 신호를 기저장된 간섭특성과 비교하여 간섭 신호의 유무를 검출하는 간섭 신호 검출부, 검출된 간섭신호를 제거하여 원 신호로 복원하는 차량 레이더 신호 복원부, 및 상기 송신된 차량 레이더 신호와 복원된 차량 레이더 신호에 기초하여 상기 목표물을 검출하는 목표물 검출부를 포함하는 차량 레이더 장치 및 목표물 검출방법을 개시하고 있다.
이처럼, 종래의 운전자 보조 시스템은, 단일 센서 장치에 기반한 물체 감지 방식이 일반적이었다. 하나의 센서 장치에서 감지된 물체 감지 정보를 제어 장치가 수신하여 처리함으로써 차량 주변 상황의 위험성을 판단하였다. 그리고, 제어 장치는 위험성 수준이 일정 수준 이상인 경우에는 경고 장치를 통해 운전자에게 위험 상황을 통보하였다.
그러나, 운전자 보조 시스템에 이용되는 센서 장치 중 레이더 장치는 장거리의 물체를 감지할 수 있고 환경 요인에 강인성을 갖는 장점이 있으나, 물체의 식별이 불가능하다는 한계가 있다. 또한, 카메라를 이용한 비전 장치는 물체의 식별은 가능하나, 환경 요인에 따라 성능의 차이가 많이 발생하여 신뢰성을 보장할 수 없다는 단점이 있다. 이와 같은 운전자 보조 시스템에서 센서 장치를 단일 장치로 구성할 경우의 단점을 극복하기 위하여, 최근에는 둘 이상의 센서 장치를 구비한 융합형 운전자 보조 시스템이 개발되고 있다.
이러한 복수의 센서 장치를 구비한 운전자 보조 시스템은, 레이더 장치의 감지 정보를 비전 장치로 제공하고, 레이더 감지 정보를 기반으로 비전 장치에서 물체를 식별하는 방식이 일반적이다.
이와 관련하여, 한국공개특허 제 10-2007-0067241 호(발명의 명칭: 레이다 센서 및 비젼 센서를 갖는 센서 시스템)는, 차량 충돌을 검출하기 위한 센서 시스템에 있어서, 차량에 의해 이송되며, 차량에 대한 물체의 레이다 접근 속도와 레이다 범위 측정값을 포함하는 다수의 레이다 측정값에 기초하여 레이다 출력값을 제공하는 레이다 센서;와 차량에 의해 이송되며, 차량에 대한 물체의 베어링 값과 비젼 범위 측정값을 포함하는 다수의 비젼 측정값에 기초하여 비젼 출력값을 제공하는 비젼 센서;와, 레이다 출력값 및 비젼 출력값을 수용하고, 레이다 출력값 및 비젼 출력값의 평가에 의존하는 안전장치를 위한 전개 신호를 생성하는 전자제어모듈을 포함하는 센서 시스템을 개시하고 있다.
그러나 이러한 융합형 운전자 보조 시스템은, 어느 하나의 센서 장치(예: 레이더 장치)가 누락한 감지 정보를 재-탐색할 수 없는 경우가 발생하여 전반적으로 신뢰성이 떨어진다는 문제가 있다. 또한, 기존의 운전자 보조 시스템은 복수의 센서 장치의 센싱 정보를 처리하는데 시간이 많이 소요되거나 감지 성능 및 신뢰성이 낮다는 한계가 있었다. 이에 따라, 융합형 센싱 방식을 개선하여 향상된 성능 및 신뢰성을 보장할 수 있는 운전자 보조 시스템이 필요하다.
본 발명의 일 실시예는, 둘 이상의 차량용 센서 장치의 센싱 정보를 융합한 융합형 물체 감지 정보를 이용하여 차량의 주변 상황을 인지하여 안전 운전을 지원할 수 있는 융합형 물체 감지 정보를 이용한 운전자 보조 시스템 및 방법을 제공하고자 한다.
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일측면에 따른 차량에 구비되는 운전자 보조 시스템은, 기설정된 제1 센싱을 통해 상기 차량 주변의 물체를 감지하여 제 1 물체 감지 정보를 생성하는 제 1 센서부; 상기 제 1 센싱과 상이한 제 2 센싱을 통해 상기 차량 주변의 물체를 감지하여 제 2 물체 감지 정보를 생성하는 제 2 센서부; 상기 제 1 및 제 2 물체 감지 정보를 획득하고, 상기 제 1 및 제 2 물체 감지 정보에 포함된 위치 정보에 기초하여 상기 제 1 및 제 2 센서부 중 어느 하나에서는 감지되고 다른 하나에서는 감지되지 않은 물체를 판별하고, 상기 판별의 결과에 따른 융합형 감지 정보를 설정하는 감지 정보 융합부; 및 상기 융합형 감지 정보에 기초하여 감지된 물체에 대한 위험도를 판단하는 상황 인지 처리를 수행하고, 상기 위험 발생 여부 및 위험 정도에 따라 경고를 출력하도록 제어하는 차량 제어부를 포함하며, 상기 감지 정보 융합부는, 상기 판별된 물체가 감지되지 않은 센서부로 상기 판별된 물체에 대한 정보를 전송하고, 상기 판별된 물체에 대한 정보에 대응하여 상기 제 1 센서부 및 제 2 센서부 중 적어도 하나로부터 재검출 물체 감지 정보를 수신하고, 상기 재검출 물체 감지 정보에 기초하여 상기 융합형 감지 정보를 설정한다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 차량의 주변 상황 인지를 위한 물체 감지 처리 시, 처리 속도, 감지 성능 및 신뢰성을 크게 향상시킬 수 있다. 이러한 융합형 물체 감지 기능을 자율주행자동차 등에 적용할 경우 개선되고 성능이 향상된 안전 운전 지원이 가능하다.
도 1 은 본 발명의 일 실시예에 따른 장치의 구성을 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 차량용 융합형 센싱 방식을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 융합형 물체 감지 정보를 이용한 차량 주변 상황 인지 처리 방법을 설명하기 위한 데이터 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에 있어서 '부(部)'란, 하드웨어 또는 소프트웨어에 의해 실현되는 유닛(unit), 양방을 이용하여 실현되는 유닛을 포함하며, 하나의 유닛이 둘 이상의 하드웨어를 이용하여 실현되어도 되고, 둘 이상의 유닛이 하나의 하드웨어에 의해 실현되어도 된다.
이하에서는, 도면을 참조하여 본 발명의 일 실시예에 따른 융합형 물체 감지 장치 및 그 방법에 대하여 상세히 설명하도록 한다
도 1은 본 발명의 일 실시예에 따른 운전자 보조 시스템의 구성도이다. 그리고 도 2는 본 발명의 일 실시예에 따른 차량용 융합형 센싱 방식을 설명하기 위한 도면이다.
도 1에 도시한 바와 같이, 본 발명의 일 실시예에 따른 운전자 보조 시스템(100)은 제 1 센서부(110), 제 2 센서부(120), 감지 정보 융합부(130), 차량 제어부(140) 및 경고 제공부(150)를 포함한다.
장치에서 각 센서는 감지 영역을 달리할 수 있지만, 융합형 장치에서는 공통된 영역을 포함하고 있으며, 공통된 영역에서의 융합형 감지 기능을 수행함을 의미 한다. 또한, 각 센서는 감지 물체를 위치정보를 표현하기 위한 기준 좌표를 달리 할 수 있지만, 통상적으로 캘리브레이션 과정을 수행하여 좌표 변환자를 설정하여 활용하며 물체의 위치를 표현함에 있어 자기차량의 좌표계를 기반으로 한다. 본 특허에서는 이러한 과정의 설명을 생략한다.
본 발명의 일 실시예에 따른 운전자 보조 시스템(100)은 차량에 구비된 둘 이상의 센서 장치로부터 각각 센싱된 물체 감지 정보를 융합한 융합형 물체 감지 정보에 기반하여 차량의 주변 상황을 인지 처리한다. 이때, 도 1에서는, 본 발명의 일 실시예에 따른 운전자 보조 시스템(100)에 복수의 센서 장치로서 제 1 센서부(110) 및 제 2 센서부(120)가 포함된 것을 나타내었으며, 이러한 센서 장치의 개수 및 종류는 한정되지 않는다. 즉, 운전자 보조 시스템(100)에 포함되는 센서 장치는, 차량에서 사용할 수 있는 다양한 센서 장치로서, 카메라를 이용하는 비전 장치, 레이더를 이용하는 레이더 장치, 레이저 레이더를 이용하는 라이다(Lidar)장치 및 초음파를 이용한 초음파 장치 등이 포함될 수 있다.
이하에서는, 운전자 보조 시스템(100)의 제 1 센서부(110)로서 레이더 장치(110)가 구비되고, 제 2 센서부(120)로서 비전 장치(120)가 구비된 것을 설명하도록 한다. 이외에도, 운전자 보조 시스템(100)은 둘 이상의 센서 장치로서 라이다 장치와 및 비전 장치, 라이다 장치 및 레이더 장치와 같이 다양한 조합을 사용할 수 있으며, 센서 장치의 조합에는 세 종류 이상의 센서 장치가 포함될 수도 있다.
제 1 센서부(110)는 레이더(111) 및 레이더 제어부(112)를 포함한다.
레이더(111)는 레이더 제어부(112)의 제어를 통해 차량의 주변을 스캔하며, 레이더 제어부(112)는 레이더(111)를 통해 센싱된 정보를 처리하여 물체 감지 정보를 생성한 후 이를 감지 정보 융합부(130)로 실시간 전송한다.
이때, 제 1 센서부(110)는 기설정된 주기(T1)에 따라 차량 주변의 물체 유무를 검사하고, 감지된 물체의 감지 정보를 감지 정보 융합부(130)로 전송할 수 있다. 참고로, 제 1 센서부(110)는 실시간으로 차량 주변에 대한 센싱 동작을 수행할 수도 있다.
제 2 센서부(120)는 카메라(121) 및 비전 제어부(122)를 포함한다.
카메라(121)는 비전 제어부(122)의 제어를 통해 차량 주변을 실시간으로 촬영한다. 비전 제어부(122)는 카메라(121)를 통해 촬영된 영상(이미지)을 영상신호처리를 통하여 물체를 감지하고, 이에 따른 물체 감지 정보를 생성하여 감지 정보 융합부(130)로 실시간 전송한다. 또한, 비전 제어부(122)는 촬영된 이미지를 설정된 방식으로 이미지 신호 처리를 통하여, 배경과 정지 또는 움직이는 물체를 구분하여 물체를 감지하거나, 배경 내 주요 물체를 감지하여 물체 감지 정보를 생성할 수도 있다.
제 1 및 제 2 센서부(110, 120)를 통해 센싱된 물체 감지 정보는 각각 감지한 물체의 위치(예: 좌표 정보), 차량(또는 센서)와의 거리, 크기, 각도, 이동성, 수신 신호 감도 등을 포함할 수 있다.
감지 정보 융합부(130)는 수신된 상이한 종류의 물체 감지 정보를 융합 처리하여 융합형 감지 정보를 생성한다. 이때, 감지 정보 융합부(130)는 제 1 및 제 2 센서부(110, 120)로부터 각각 물체 감지 정보를 수신하되, 두 물체 감지 정보를 동기적 또는 비동기적으로 수신할 수 있다. 구체적으로, 감지 정보 융합부(130)는 수신된 물체 감지 정보를 저장한다. 이때, 감지 정보 융합부(130)는 각 센서부(110, 120)로부터 수신된 물체 감지 정보를 시간 또는 위치에 기초하여 매칭하여 저장할 수 있다. 예를 들어, 감지 정보 융합부(130)는 제 1 센서부(110)의 센싱 주기(T1)의 회차와 제 2 센서부(120)의 센싱 주기(T1)의 회차가 대응되도록 두 센서부의 물체 감지 정보를 저장할 수 있다.
그리고, 감지 정보 융합부(130)는 감지 정보를 바탕으로 융합 감지 정보를 생성한다. 여기서 융합형 물체 감지 정보는, 모든 센서부를 통해 공통적으로 감지된 물체에 대한 감지 정보와 더불어, 적어도 하나의 센서부를 통해서만 감지된 후 다른 센서부를 통해 재감지된 물체에 대한 감지 정보를 포함한다.
이처럼, 복수의 센서부들로부터 각각 감지된 물체들을 비교하기 위하여, 감지 정보 융합부(130)는 물체 감지 정보 별로 포함된 기준 영역 정보에 기초하여 융합 처리를 수행한다.
제 1 센서부(110)의 기준 좌표, 제 2 센서부(120)의 기준 좌표 및 차량의 기준 좌표 중 상이한 좌표가 존재하는 경우, 감지 정보 융합부(130)는 제 1 및 제 2 센서부(110, 120)에 의한 물체 감지 정보에 포함된 위치 정보를 다른 기준 좌표에 기초하여 좌표 변환 처리할 수 있다. 예를 들어, 감지 정보 융합부(130)는 차량의 기준 좌표에 대응하도록 제 1 및 제 2 센서부(110, 120) 중 적어도 하나의 기준 좌표를 전환하여 기준 영역 정보를 매칭시킬 수 있다.
이하에서는, 설명의 편의상 제 1 센서부(110)를 통해 센싱된 물체 감지 정보를 레이더 감지 정보라 지칭하고, 제 2 센서부(120)를 통해 센싱된 물체 감지 정보를 비전 감지 정보라 지칭하도록 한다.
감지 정보 융합부(130)는 레이더 감지 정보와 비전 감지 정보에 포함된 물체의 위치 정보를 이용하여, 동일한 물체로 판단된 물체에 대한 정보 A를 설정하여 차량 제어부(140)로 전송한다. 구체적으로, 감지 정보 융합부(130)는, 도 2에 도시된 물체 "RnV_object"를 감지하여 그에 대한 정보 A를 차량 제어부(140)로 전송한다. 이때, 물체 "RnV_object"는 제 1 센서부(110) 및 제 2 센서부(120) 둘 다에서 감지된 물체를 의미한다.
또한, 감지 정보 융합부(130)는 레이더 감지 정보와 비전 감지 정보에 포함된 물체의 위치정보를 이용하여, 어느 하나의 센서부의 감지 정보(예: 비전 감지 정보)에 포함되어 있지만 다른 센서부의 감지 정보(예: 레이더 감지 정보)에는 포함되지 않은 물체이되, 상기 다른 센서부의 감지 기준 영역 내에 존재하는 물체에 대한 정보 B를 설정하여 상기 다른 센서부로 전송한다. 즉, 감지 정보 융합부(130)는 제 2 센서부(120)를 통해서 감지되었으나 제 1 센서부(110)에서는 감지되지 않은 물체 중 제 1 센서부(110)의 기준 영역 내 존재하는 물체에 대한 정보를 제 1 센서부(110)로 전송한다. 구체적으로, 감지 정보 융합부(130)는, 도 2에 도시된 물체 "!RnV_object"를 감지하여 그에 대한 정보 B를 해당 물체를 감지하지 못한 센서부로 전송한다. 이때, 물체 "!RnV"는 제 1 센서부(110)에서는 감지되지 않았으나, 제 2 센서부(120)에서는 감지된 물체를 의미한다.
이에 따라, 제 1 센서부(110)는 정보 B에 포함된 위치 정보를 이용하여 해당 위치에 물체가 있는지를 재검사하고 판단한다. 이러한 재검사는 기존의 레이더의 로데이터(Raw data)를 이용할 수 있으며, 또는 새로운 레이더 전체 스캔을 수행하여 획득된 로데이터를 이용할 수도 있다. 또한, 별도로 해당 위치에 대응하는 레이더 빔포밍 스캔을 수행하여 획득한 로데이터를 이용하는 것도 가능하다. 이처럼, 제 1 센서부(110)는 정보 B를 이용한 재검사 후, 그 결과로서 물체가 감지되면 추가 물체 감지 정보를 생성하여 감지 정보 융합부(130)로 전송한다.
한편, 이와 반대의 경우도 처리될 수 있다. 즉, 감지 정보 융합부(130)는 레이더 감지 정보와 비전 감지 정보에 포함된 물체의 위치 정보를 이용하여, 제 1 센서부(110)의 감지 정보(즉, 레이더 감지 정보)에는 포함되어 있지만 제 2 센서부(120)의 감지 정보(즉, 비전 감지 정보)에는 포함되지 않은 물체이되, 제 2 센서부(120)의 감지 기준 영역 내에 존재하는 물체에 대한 정보 C를 설정하여 제 2 센서부(120)로 제공한다. 구체적으로, 감지 정보 융합부(130)는, 도 2에 도시된 물체 "Rn!V_object"를 감지하여 그에 대한 정보 C를 해당 물체를 감지하지 못한 센서부로 전송한다. 이때, 물체 "Rn!V_object"는 제 1 센서부(110)에서는 감지되었으나, 제 2 센서부(120)에서는 감지되지 않은 물체를 의미한다.
이에 따라, 제 2 센서부(120)는 정보 C에 포함된 위치 정보를 이용하여 해당 위치에 물체가 있는지를 재검사하고 판단한다. 이러한 재검사는 기존의 카메라가 촬영한 이미지(예를 들어, 캡쳐 이미지)의 로데이터를 이용할 수 있으며, 또는 카메라를 통해 새로운 촬영한 이미지의 로데이터를 이용할 수도 있다. 또한 기존의 로데이터를 이용하거나 또는 카메라로 새로 촬영함에 있어서, 다양한 촬영 기술(노출 변경 등) 및 이미지 처리 기술을 변경하여 획득된 로데이터를 이용할 수도 있다. 이처럼, 제 1 센서부(120)는 정보 C를 이용한 재검사 후, 그 결과로서 물체가 감지되면 추가 물체 감지 정보를 생성하여 감지 정보 융합부(130)로 전송한다.
따라서, 감지 정보 융합부(130)는 제 1 및 제 2 센서부(110, 120)로부터 새롭게 추가된 감지 정보가 있는 경우, 정보 D를 설정하여 차량 제어부(140)로 전송한다.
이러한 과정을 통해 센서부 간에 상호 보완적인 물체 감지가 가능하고, 감지 정보의 신뢰성을 높일 수 있으며, 어느 하나의 센서부에 의한 물체 감지 처리시보다 신속한 물체 감지가 가능하다.
차량 제어부(140)는 감지 정보 융합부(130)로부터 수신된 융합형 물체 감지 정보를 분석하여 위험도를 판단하는 상황 인지 처리를 수행한다. 그리고, 차량 제어부(140)는 상기 판단의 결과로서 위험도가 일정 수준 이상인 경우, 위험 정도에 따른 경고가 제공되도록 경고 제공부(150)를 제어한다.
이때, 차량 제어부(140)는 수신된 물체 감지 정보에 포함된 각 파라메터들(예를 들어, 물체의 위치, 차량(또는 센서)와의 거리, 크기, 각도, 이동성, 수신 신호 감도 등)게 기초하여 위험 발생 정도를 판별할 수 있다.
또한, 차량 제어부(140)는 자차의 속도, 조향각 등의 정보를 추가로 이용하여 위험 발생 정도를 판별할 수 있다.
경고 제공부(150)는 차량 제어부(140)의 제어에 따라 운전자가 경고 상황 및 그 정보를 인지할 수 있도록 경고 정보를 출력한다. 이때, 경고 제공부(150)는 차량 내 사용자 인터페이스인 HMI(Human Machine Interface)를 통해 경고 정보를 출력할 수 있다.
경고 제공부(150)는 차량 제어부(140)의 제어에 따라 브레이크 또는 조향장치를 통하여 운전자 개입 없이 차량을 제어하는 기능을 포함 할 수 있다
한편, 이상에서 설명한 본 발명의 일 실시예에 따른 운전자 보조 시스템(100)은 각종 센서 장치, 메모리(미도시) 및 프로세서(미도시)를 포함하는 형태로 구현되는 것도 가능하다.
즉, 메모리(미도시)에는 앞서 설명한 융합형 물체 감지 정보를 이용하여 차량 주변 상황 인식 및 위험 상황 경고를 처리하는 일련의 동작 및 알고리즘을 포함하는 프로그램이 저장된다. 이때, 메모리(미도시)에 저장된 프로그램은, 앞서 도 1에서 설명한 운전자 보조 시스템(100)의 각 구성이 처리하는 모든 동작이 하나로 구현된 프로그램이거나 또는, 각 구성 별 동작을 별도로 처리하는 복수의 프로그램들이 서로 연동되는 것일 수 있다. 프로세서(미도시)는 메모리(미도시)에 저장된 프로그램을 실행시킨다. 프로세서(미도시)가 프로그램을 실행시킴에 따라, 앞서 설명한 운전자 보조 시스템(100)의 각 구성이 처리하는 동작들 및 알고리즘들이 수행될 수 있다. 참고로, 운전자 보조 시스템(100)의 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 형태로 구현될 수 있으며, 소정의 역할들을 수행할 수 있다. 그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.
이하에서는, 도 3을 참조하여 본 발명의 일 실시예에 따른 운전자 보조 시스템(100)을 통한 융합형 물체 감지 및 이를 이용한 차량 주변 상황 인식 방법을 설명하도록 한다.
도 3은 본 발명의 일 실시예에 따른 융합형 물체 감지 정보를 이용한 차량 주변 상황 인지 처리 방법을 설명하기 위한 데이터 흐름도이다.
먼저, 감지 정보 융합부(130)는 둘 이상의 센서부(110, 120)로부터 각각 물체 감지 정보를 수신한다(S301, S302).
예를 들어, 물체 감지 정보는 레이더 센서부 및 비전 센서부를 통해 감지된 물체 감지 정보일 수 있으며, 각 센서부에 설정된 주기마다 또는 실시간으로 발생될 수 있다. 또한, 각 센서부로부터 감지 정부 융합부(130)에 물체 감지 정보가 수신되는 시간은 동기적이거나 비동기적일 수 있다.
그런 다음, 감지 정보 융합부(130)는 수신된 물체 감지 정보에 포함된 기준 영역 정보를 이용하여 각 물체 감지 정보를 공통된 기준 영역에 대응하도록 좌표 변환한다(S303).
그런 다음, 감지 정보 융합부(130)는 공통된 기준 영역 내에서 각 물체 감지 정보에서 동일하게 감지된 물체에 대한 정보(즉, 정보 A)와, 어느 하나의 물체 감지 정보에서만 감지된 물체에 대한 정보(즉, 정보 B 및 C)를 설정한다(S304).
그런 후, 감지 정보 융합부(130)는 동일하게 감지된 물체에 대한 정보를 차량 제어부(140)로 전송하고(S305), 어느 하나의 센서부에서만 감지된 물체에 대한 정보를 해당 물체를 감지하지 못한 센서부로 전송한다(S306, S307).
이때, 상기 동일하게 감지된 물체에 대한 정보를 제어부(140)로 전송하는 단계(S305)는, 해당 정보가 설정된 직후 곧바로 처리될 수 있으며, 또는 S312과정이 종료된 후 정보 D를 전송하는 과정에서 같이 전송 할 수 있다. 또한, 어느 하나의 센서부로 감지되지 않은 물체에 대한 정보를 전송하는 단계들(S306, S307)은, 해당 물체를 감지하지 못한 센서부가 존재할 경우에만 발생될 수 있으며, 이에 따라 단계들(S306, S307) 중 적어도 하나의 단계는 생략될 수 있다.
도 3에서는, 상기 단계들(S306, S307)이 둘 다 발생되었다고 가정한다.
이에 따라, 제 1 센서부(110) 및 제 2 센서부(120)는 각각 수신된 "감지되지 않은 물체"에 대한 정보(즉, 정보 B 및 C)에 기초하여, 각각 물체 재감지 처리를 수행한다(S308, S309).
참고로, 상기 단계들(S306, S307) 및 상기 단계들(S308, S309)은, 각각 병렬적으로 처리될 수 있으며, 그 처리 순서는 고정되지 않는다.
다음으로, 제 1 센서부(110) 및 제 2 센서부(120)는 각각 재감지된 물체 감지 정보를 감지 정보 융합부(130)로 전송한다(S310, S311).
그런 후, 감지 정보 융합부(130)는 두 센서부 중 적어도 하나로부터 수신된 재감지된 물체 감지 정보에 따른 융합형 감지 정보(즉, 정보 D)를 설정하고(S312), 재감지된 물체 감지 정보를 차량 제어부(140)로 전송한다(S313).
이상의 단계들을 통해, 각 센서부가 감지한 물체 감지 정보를 융합한 융합 감지 정보가 차량 제어부(140)로 전송된다. 이에 따라, 차량 제어부(140)는 기설정된 판별 처리를 통해 물체 감지 정보에 기초하여 운행 차량의 위험도를 판단한다. 그리고, 차량 제어부(140)는 판단의 결과에 따른 정보를 경고 제공부(150)로 전송하여, 운전자에게 차량 주변의 상황 인지에 따른 위험 발생 및 그 정보를 경고하거나 차량을 제어하도록 한다.
이상에서 설명한 본 발명의 일 실시예에 따른 운전자 보조 시스템(100)을 통한 융합형 물체 감지 정보를 이용한 차량 주변 상황 인식 방법은, 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램 또는 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100: 운전자 보조 시스템
110: 제 1 센서부
120: 제 2 센서부
130: 감지 정보 융합부
140: 차량 제어부
150: 경고 제공부

Claims (10)

  1. 제1 센싱을 통해 차량 주변의 물체를 감지하여 제 1 물체 감지 정보를 생성하는 제 1 센서부;
    제 2 센싱을 통해 차량 주변의 물체를 감지하여 제 2 물체 감지 정보를 생성하는 제 2 센서부;
    상기 제 1 및 제 2 물체 감지 정보에 포함된 위치 정보에 기초하여 상기 제 1 및 제 2 센서부에서 동일하게 감지된 물체에 대한 정보와 어느 하나의 센서부에서만 감지된 물체에 대한 정보를 융합하여 융합 감지 정보를 생성하는 감지 정보 융합부; 및
    상기 융합 감지 정보에 기초하여 감지된 물체에 대한 위험도를 판단하는 상황 인지 처리를 수행하고, 위험 발생 여부 및 위험 정도에 따라 경고를 출력하도록 제어하는 차량 제어부를 포함하되,
    상기 감지 정보 융합부는 상기 제 1 및 제 2 센서부에서 동일하게 감지된 물체에 대한 정보를 차량 제어부로 전송하고, 제 1 및 제 2 센서부 중 어느 하나의 센서부에서만 감지된 물체에 대한 정보를 해당 물체를 감지하지 못한 센서부로 전송하도록 구성되고,
    상기 제 1 센서부 및 제 2 센서부는 상기 감지 정보 융합부로부터 제 1 및 제 2 센서부 중 어느 하나의 센서부에서만 감지된 물체에 대한 정보를 수신한 경우에 해당 센서부가 감지하지 못한 물체 정보를 재감지하고 추가 감지 정보를 생성하여 상기 감지 정보 융합부로 전송하도록 구성되고,
    상기 감지 정보 융합부는 상기 제 1 및 제 2 센서부로부터 추가 감지 정보를 수신하여 이를 상기 차량 제어부로 전송하도록 추가로 구성되는 것을 특징으로 하는, 융합형 물체 감지 정보를 이용한 운전자 보조 시스템.
  2. 제1항에 있어서, 상기 감지 정보 융합부는
    상기 제 1 및 제 2 센서부로부터 각각 감지된 물체들을 융합하기 위하여, 물체 감지 정보 별로 포함된 기준 영역 정보에 기초하여 융합 처리를 수행하도록 구성되는, 융합형 물체 감지 정보를 이용한 운전자 보조 시스템.
  3. 삭제
  4. 삭제
  5. 제1항에 있어서, 상기 차량 제어부는
    상기 감지 정보 융합부로부터 수신된 물체 감지 정보에 포함된 물체의 위치, 거리, 크기, 각도, 이동성, 수신 신호 감도, 차량 속도, 및 조향각 중 적어도 하나의 파라메터에 기초하여 상기 위험도를 판단하도록 구성되는, 융합형 물체 감지 정보를 이용한 운전자 보조 시스템.
  6. 차량 주변의 물체를 감지하는 제 1 센서부가 제 1 물체 감지 정보를 생성하는 제 1 센싱 단계;
    차량 주변의 물체를 감지하는 제 2 센서부가 제 2 물체 감지 정보를 생성하는 제 2 센싱 단계;
    감지 정보 융합부가, 상기 제 1 및 제 2 물체 감지 정보에 포함된 위치 정보에 기초하여 상기 제 1 및 제 2 센싱 단계에서 동일하게 감지된 물체에 대한 정보와 어느 하나의 센싱 단계에서만 감지된 물체에 대한 정보를 융합하여 융합 감지 정보를 생성하는 감지 정보 융합 단계; 및
    차량 제어부가, 상기 융합 감지 정보에 기초하여 감지된 물체에 대한 위험도를 판단하는 상황 인지 처리를 수행하고, 위험 발생 여부 및 위험 정도에 따라 경고를 출력하는 차량 제어 단계를 포함하되,
    상기 감지 정보 융합 단계는 상기 감지 정보 융합부가 상기 제 1 및 제 2 센싱 단계에서 동일하게 감지된 물체에 대한 정보를 상기 차량 제어부로 전송하고, 제 1 및 제 2 센서부 중 어느 하나의 센서부에서만 센싱된 물체에 대한 정보를 해당 물체를 감지하지 못한 센서부로 전송하는 것을 추가로 포함하고,
    상기 제 1 센싱 단계 및 제 2 센싱 단계는 상기 감지 정보 융합부로부터 제 1 및 제 2 센서부 중 어느 하나의 센서부에서만 감지된 물체에 대한 정보를 수신한 경우에 해당 센서부가 감지하지 못한 물체 정보를 재감지하고 추가 감지 정보를 생성하여 상기 감지 정보 융합부로 전송하는 것을 추가로 포함하고,
    상기 감지 정보 융합 단계는 상기 감지 정보 융합부가 상기 제 1 및 제 2 센서부로부터 추가 감지 정보를 수신하여 이를 상기 차량 제어부로 전송하는 것을 추가로 포함하는 것을 특징으로 하는, 융합형 물체 감지 정보를 이용한 운전자 보조 방법.
  7. 제6항에 있어서, 상기 감지 정보 융합 단계는
    상기 제 1 및 제 2 센싱 단계로부터 각각 감지된 물체들을 융합하기 위하여, 물체 감지 정보 별로 포함된 기준 영역 정보에 기초하여 융합 처리를 수행하는 것을 포함하는, 융합형 물체 감지 정보를 이용한 운전자 보조 방법.
  8. 삭제
  9. 삭제
  10. 제6항에 있어서, 상기 차량 제어 단계는
    상기 감지 정보 융합 단계로부터 수신된 물체 감지 정보에 포함된 물체의 위치, 거리, 크기, 각도, 이동성, 수신 신호 감도, 차량 속도, 및 조향각 중 적어도 하나의 파라메터에 기초하여 상기 위험도를 판단하는 것을 포함하는, 융합형 물체 감지 정보를 이용한 운전자 보조 방법.
KR1020160053985A 2016-05-02 2016-05-02 융합형 물체 감지 정보를 이용한 운전자 보조 시스템 및 방법 KR102535618B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160053985A KR102535618B1 (ko) 2016-05-02 2016-05-02 융합형 물체 감지 정보를 이용한 운전자 보조 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160053985A KR102535618B1 (ko) 2016-05-02 2016-05-02 융합형 물체 감지 정보를 이용한 운전자 보조 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20170124287A KR20170124287A (ko) 2017-11-10
KR102535618B1 true KR102535618B1 (ko) 2023-05-23

Family

ID=60386662

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160053985A KR102535618B1 (ko) 2016-05-02 2016-05-02 융합형 물체 감지 정보를 이용한 운전자 보조 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR102535618B1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102323394B1 (ko) 2018-01-22 2021-11-08 삼성전자주식회사 차량의 주행을 보조하는 장치 및 방법
KR102090487B1 (ko) * 2018-03-13 2020-03-18 재단법인대구경북과학기술원 융합 센서를 이용한 오브젝트 탐지 장치 및 방법
KR102646251B1 (ko) * 2019-08-06 2024-03-11 현대모비스 주식회사 자동 긴급 제동장치 및 그 제어방법
US11287530B2 (en) * 2019-09-05 2022-03-29 ThorDrive Co., Ltd Data processing system and method for fusion of multiple heterogeneous sensors
CN113947937B (zh) * 2021-10-29 2022-08-05 沈阳世纪高通科技有限公司 一种基于车辆传感器与动态交通融合的道路危险提示方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007096510A (ja) * 2005-09-27 2007-04-12 Omron Corp 前方撮影装置
JP2011164989A (ja) 2010-02-10 2011-08-25 Toyota Motor Corp ふらつき判定装置
JP2015078926A (ja) 2013-10-17 2015-04-23 株式会社デンソー 物標検出装置
JP2015148899A (ja) * 2014-02-05 2015-08-20 トヨタ自動車株式会社 衝突回避制御装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007096510A (ja) * 2005-09-27 2007-04-12 Omron Corp 前方撮影装置
JP2011164989A (ja) 2010-02-10 2011-08-25 Toyota Motor Corp ふらつき判定装置
JP2015078926A (ja) 2013-10-17 2015-04-23 株式会社デンソー 物標検出装置
JP2015148899A (ja) * 2014-02-05 2015-08-20 トヨタ自動車株式会社 衝突回避制御装置

Also Published As

Publication number Publication date
KR20170124287A (ko) 2017-11-10

Similar Documents

Publication Publication Date Title
KR102535618B1 (ko) 융합형 물체 감지 정보를 이용한 운전자 보조 시스템 및 방법
KR102178433B1 (ko) 긴급 제동 시스템 및 그의 보행자 인식 방법
JP6611353B2 (ja) 画像処理装置、外界認識装置
US9352690B2 (en) Apparatus and method for detecting obstacle adaptively to vehicle speed
US10366295B2 (en) Object recognition apparatus
US10688997B2 (en) Lane merging determination apparatus
US11467277B2 (en) Object recognition apparatus and object recognition method
US9274213B2 (en) Method for calibrating a plurality of environment sensors in a vehicle
US10422871B2 (en) Object recognition apparatus using a plurality of object detecting means
US10836388B2 (en) Vehicle control method and apparatus
WO2018207303A1 (ja) 車載用監視カメラ装置
EP2637149B1 (en) Onboard device and control method
JP2014137288A (ja) 車両周辺監視装置および車両周辺監視方法
KR20170096723A (ko) 라이다 시스템 및 이의 다중 검출 신호 처리 방법
KR20180007412A (ko) 멀티센서 기반의 융합형 물체 감지 장치 및 방법
JP6490747B2 (ja) 物体認識装置、物体認識方法および車両制御システム
JP2010162975A (ja) 車両制御システム
KR102390868B1 (ko) 사각지대 감지방법 및 감지장치
KR102569543B1 (ko) 장애물 감지 시스템 및 장애물 감지 방법
JP4261321B2 (ja) 歩行者検出装置
KR101704635B1 (ko) 레이더 및 영상 래스터 데이터를 이용한 목표물 탐지 방법 및 장치
JP2021174135A (ja) 画像認識装置及び画像認識方法
KR20150142542A (ko) 자동차의 통합센서 시스템
JP2008052399A (ja) 周辺監視システム
KR102535598B1 (ko) 비전기반의 융합형 물체 감지 장치 및 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant