KR20190080020A - 차선별 교통상황 판단 장치, 시스템, 및 방법 - Google Patents

차선별 교통상황 판단 장치, 시스템, 및 방법 Download PDF

Info

Publication number
KR20190080020A
KR20190080020A KR1020170182181A KR20170182181A KR20190080020A KR 20190080020 A KR20190080020 A KR 20190080020A KR 1020170182181 A KR1020170182181 A KR 1020170182181A KR 20170182181 A KR20170182181 A KR 20170182181A KR 20190080020 A KR20190080020 A KR 20190080020A
Authority
KR
South Korea
Prior art keywords
image
information
road
traffic
vehicle
Prior art date
Application number
KR1020170182181A
Other languages
English (en)
Other versions
KR102418051B1 (ko
Inventor
차영혁
Original Assignee
현대엠엔소프트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대엠엔소프트 주식회사 filed Critical 현대엠엔소프트 주식회사
Priority to KR1020170182181A priority Critical patent/KR102418051B1/ko
Publication of KR20190080020A publication Critical patent/KR20190080020A/ko
Application granted granted Critical
Publication of KR102418051B1 publication Critical patent/KR102418051B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • G06K9/3258
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • G06K2209/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding

Landscapes

  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Tourism & Hospitality (AREA)
  • Signal Processing (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Operations Research (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 차선별 교통상황 판단 장치, 시스템, 및 방법에 관한 것으로, 교통상황 판단을 위하여, 차량 전방의 영상 정보를 수집하는 카메라부; 상기 차량의 현재 위치를 검출하기 위한 지피에스 신호를 수신하는 지피에스 수신부; 및 상기 카메라부에서 촬영된 복수의 영상을 합성하여 현재 주행중인 차선이나 도로를 인식하고, 현재의 차선이나 도로의 위치 정보와 상기 합성된 영상을 서버에 전송하는 제어부;를 포함한다.

Description

차선별 교통상황 판단 장치, 시스템, 및 방법{LANE TRAFFIC SITUATION JUDGEMENT APPARATUS, SYSTEM, AND METHOD THEREOF}
본 발명은 차선별 교통상황 판단 장치, 시스템, 및 방법에 관한 것으로, 보다 상세하게는 현재 주행 중인 차선의 상황을 촬영한 영상 정보로부터 교통상황에 관련된 오브젝트를 인식하여 차선별 교통상황을 판단할 수 있도록 하는 차선별 교통상황 판단 장치, 시스템, 및 방법에 관한 것이다.
일반적으로, 교통정보에는 교통의 흐름과 사고, 정체, 공사, 집회시위 등 돌발 상황이 있고, 수집된 교통정보를 이용하여 도로교통의 흐름을 원활하게 하고, 교통사고의 예방을 위하여 설치된 교통신호기의 효율적 운영을 도모하고자 이용되고 있다. 또한, 교통정보는 실시간으로 제공되어야 하는데, 이는 도로교통 흐름, 돌발 상황은 시간에 따라서 지속적으로 변화하기 때문이다.
통상적으로 교통정보(또는 교통상황 정보)를 측정하는 시스템은 감시 카메라(CCTV 카메라)가 많은 비중을 차지하며, 상기 감시 카메라(CCTV 카메라)는 차량 번호판을 식별할 수 있게 배치된다.
그런데 기존의 교통정보(또는 교통상황 정보)를 판단하는 방식은, 교통상황 정보(예 : 영상 정보)를 수집하는 시스템, 및 이 정보(예 : 영상 정보)를 분석하는 인력으로 이루어진 아날로그 방식으로서, 이와 같이 분석된 교통정보(또는 교통상황 정보)를 방송 또는 교통정보 디스플레이를 통해 알려주고 있다. 따라서 이러한 기존의 교통상황 판단 시스템은 대부분 아날로그 방식이기 때문에 많은 인력과 작업 시간을 필요로 하는 문제점이 있다.
이에 따라 복수의 카메라들로부터 촬영된 도로 영상을 분석하고, 분석 결과에 따라 영상에 포함된 각종 객체(오브젝트)들을 검출하여, 이로부터 교통 상황을 분석하기 위한 장비(예컨대, 영상 분석 서버)가 고가이고 처리할 영상이 증가함에 따라 분석에 어려움이 있고 효율성이 떨어지는 문제점이 있다. 따라서 다수의 카메라들로부터 촬영된 영상들을 분석하여 교통상황을 효율적으로 판단할 수 있도록 하는 방법이 요구되고 있다.
본 발명의 배경기술은 대한민국 공개특허 10-2017-0094805호(2017.08.22. 공개, 레이더 및 비디오 카메라 일체형 교통정보 측정 시스템)에 개시되어 있다.
본 발명의 일 측면에 따르면, 본 발명은 상기와 같은 문제점을 해결하기 위해 창작된 것으로서, 현재 주행 중인 차선의 상황을 촬영한 영상 정보로부터 교통상황에 관련된 오브젝트를 인식하여 차선별 교통상황을 판단할 수 있도록 하는 차선별 교통상황 판단 장치, 시스템, 및 방법을 제공하는데 그 목적이 있다.
본 발명의 일 측면에 따른 차선별 교통상황 판단 장치는, 교통상황 판단을 위하여, 차량 전방의 영상 정보를 수집하는 카메라부; 상기 차량의 현재 위치를 검출하기 위한 지피에스 신호를 수신하는 지피에스 수신부; 및 상기 카메라부에서 촬영된 복수의 영상을 합성하여 현재 주행중인 차선이나 도로를 인식하고, 현재의 차선이나 도로의 위치 정보와 상기 합성된 영상을 서버에 전송하는 제어부;를 포함하는 것을 특징으로 한다.
본 발명에 있어서, 상기 카메라부는, 전용 카메라, 감시 카메라(CCTV), 및 휴대 단말기에 장착된 카메라 중 적어도 하나 이상을 포함하며, 상기 휴대 단말기는 스마트폰, 스마트패드, 내비게이션, 및 블랙박스 중 적어도 하나를 포함하는 것을 특징으로 한다.
본 발명에 있어서, 상기 제어부는, 상기 카메라부의 각 카메라에서 촬영된 영상을 합성하여, 상기 각 카메라 중 어느 하나의 카메라를 이용해 촬영된 영상보다 더 넓은 범위로 확장된 광시야각 영상을 생성하는 것을 특징으로 한다.
본 발명에 있어서, 상기 제어부는, 상기 카메라부의 각 카메라에서 촬영된 영상을 합성하기 위하여, 시간 정보 및 지피에스 정보를 참조하여 영상 동기화를 수행하고, 상기 영상 동기화된 영상을 합성하는 것을 특징으로 한다.
본 발명에 있어서, 상기 제어부는, 오차 범위 내에서 상기 시간 정보와 지피에스 정보가 동일한 영상을 합성하여, 중복된 객체를 제외한 나머지 객체들이 추가로 포함됨으로써, 영상 입력 범위가 확장된 영상으로 합성하는 것을 특징으로 한다.
본 발명에 있어서, 상기 서버는, 상기 차선별 교통상황 판단 장치가 전송한 현재 차선이나 도로의 위치 정보와 상기 합성된 영상을 바탕으로 차량이 현재 주행중인 도로가 일반도로인지 고속도로인지 그 도로의 종류를 판단하고, 상기 판단된 도로의 종류에 따른 교통상황을 판단하는 것을 특징으로 한다.
본 발명에 있어서, 상기 서버는, 상기 위치 정보에 기초한 차량의 현재 위치가 고속도로이거나 감시 카메라(CCTV)가 설치된 도로인 경우, 상기 감시 카메라(CCTV) 영상을 추가로 참조하여 교통상황을 판단하는 것을 특징으로 한다.
본 발명에 있어서, 상기 서버는, 상기 차선별 교통상황 판단 장치가 전송한 위치 정보와 영상 정보를 바탕으로 상기 차량이 주행중인 도로의 교통상황을 판단하고, 이 판단된 교통상황 정보를 내비게이션 장치에 제공하는 서버인 것을 특징으로 한다.
본 발명에 있어서, 상기 차선별 교통상황 판단 장치는, 무선 방식을 이용하여, 상기 서버와 교통상황을 판단하기 위한 위치 정보와 영상 정보를 무선 방식으로 전송하는 통신부;를 더 포함하는 것을 특징으로 한다.
본 발명에 있어서, 상기 차선별 교통상황 판단 장치는, 현재 위치 판단 및 경로 판단을 위한 가장 최신 버전의 디지털 지도 정보를 다운로드 받아 저장하는 맵 저장부;를 더 포함하는 것을 특징으로 한다.
본 발명의 다른 측면에 따른 차선별 교통상황 판단 방법은, 주행중인 차량의 전방 영상 및 위치 정보를 수집하여 서버에 전송하는 차선별 교통상황 판단 장치와, 상기 전송받은 전방 영상 및 위치 정보를 바탕으로 상기 차량이 주행중인 도로의 교통상황을 판단하는 서버를 포함하는 차선별 교통상황 판단 시스템에서 차선별 교통상황 판단 방법에 있어서, 차선별 교통상황 판단 장치의 제어부가 카메라부의 적어도 하나 이상의 카메라에서 촬영된 영상을 수집하는 단계; 상기 제어부가 시간 정보 및 지피에스 정보를 참조하여 상기 적어도 하나 이상의 카메라에서 촬영된 영상을 합성한 영상을 생성하는 단계; 상기 제어부가 상기 합성된 영상을 처리하고 지도 정보를 참조하여 차선이나 도로를 인식하는 단계; 상기 제어부가 맵 저장부에 저장되어 있는 지도 정보를 참조하여, 현재 차선이나 도로의 위치 정보와 상기 합성된 영상을 상기 서버에 전송하는 단계; 및 상기 서버가 상기 위치 정보와, 상기 합성된 영상을 바탕으로 상기 차량이 주행중인 도로의 교통상황을 판단하는 단계;를 포함하는 것을 특징으로 한다.
본 발명에 있어서, 상기 카메라부의 적어도 하나 이상의 카메라에서 촬영된 영상을 합성하기 위하여, 상기 제어부는, 시간 정보 및 지피에스 정보를 참조하여 영상 동기화를 수행하고, 상기 동기화된 영상을 합성하여, 상기 적어도 하나 이상의 카메라 중 어느 하나의 카메라를 이용해 촬영된 영상보다 더 넓은 범위로 확장된 광시야각 영상을 생성하는 것을 특징으로 한다.
본 발명에 있어서, 상기 교통상황을 판단하는 단계에서, 상기 서버는, 상기 차선별 교통상황 판단 장치가 전송한 현재 차선이나 도로의 위치 정보와 상기 합성된 영상을 바탕으로 차량이 현재 주행중인 도로가 일반도로인지 고속도로인지 그 도로의 종류를 판단하고, 상기 위치 정보에 기초한 차량의 현재 위치가 고속도로이거나 감시 카메라(CCTV)가 설치된 도로인 경우, 상기 감시 카메라(CCTV) 영상을 추가로 참조하여 교통상황을 판단하는 것을 특징으로 한다.
본 발명에 있어서, 상기 교통상황을 판단하는 단계에서, 상기 서버는, 상기 위치 정보와 상기 합성된 영상 정보를 수신하고, 상기 영상 정보로부터 차량의 화면 점유 비율이 기 설정된 기준 이상이면서 차량의 주행 속도가 기 설정된 기준 이하의 저속인 경우, 상기 차량의 지도상의 위치가 일반도로이면 합성 영상에서 미리 학습된 신호등이나 표지판을 검출하여, 신호등이 있는 구간에서의 정체는 신호등에 의한 대기 시간에 의한 정체인 것으로 판단하고, 신호등이 없고 표지판이 있는 구간에서의 정체는 병목현상에 의한 정체인 것으로 교통상황을 판단하는 것을 특징으로 한다.
본 발명에 있어서, 상기 교통상황을 판단하는 단계에서, 상기 서버는, 현재 위치가 고속도로이거나 감시 카메라(CCTV)가 설치된 도로인 경우, 상기 감시 카메라(CCTV) 영상을 추가로 참조하여 교통상황을 판단하는 것을 특징으로 한다.
본 발명에 있어서, 상기 감시 카메라(CCTV) 영상을 추가로 참조하여 교통상황을 판단함에 있어서, 상기 서버는, 주간의 감시 영상에서 객체를 인식하여, 밀집도나 혼잡도, 시간당 이동거리, 및 이동 방향을 산출하여 교통상황을 판단하고, 야간의 감시 영상에서 헤드라이트나 차체에서 반사되는 빛을 이용해 객체를 인식하여, 밀집도나 혼잡도, 시간당 이동거리, 및 이동 방향을 산출하여 교통상황을 판단하는 것을 특징으로 한다.
본 발명의 또 다른 측면에 따른 차선별 교통상황 판단 시스템은, 주행중인 차량의 전방 영상 및 위치 정보를 수집하여 서버에 전송하는 차선별 교통상황 판단 장치; 상기 전송받은 전방 영상 및 위치 정보를 바탕으로 상기 차량이 주행중인 도로의 교통상황을 판단하는 서버; 및 상기 서버가 도로의 교통상황을 더 정확하게 판단할 수 있도록 하기 위하여 상기 서버에 감시 카메라(CCTV) 영상을 추가로 제공하는 감시 카메라부;를 포함하는 것을 특징으로 한다.
본 발명에 있어서, 상기 서버는, 상기 차선별 교통상황 판단 장치가 전송한 현재 차선이나 도로의 위치 정보와 상기 합성된 영상을 바탕으로 차량이 현재 주행중인 도로가 일반도로인지 고속도로인지 그 도로의 종류를 판단하고, 상기 판단된 도로의 종류에 따른 교통상황을 판단하되, 상기 위치 정보에 기초한 차량의 현재 위치가 고속도로이거나 감시 카메라(CCTV)가 설치된 도로인 경우, 상기 감시 카메라(CCTV) 영상을 추가로 참조하여 교통상황을 판단하는 것을 특징으로 한다.
본 발명에 있어서, 상기 서버는, 상기 위치 정보에 기초한 차량의 현재 위치가 일반 도로이고, 상기 영상 정보로부터 차량의 화면 점유 비율이 기 설정된 기준 이상이면서 차량의 주행 속도가 기 설정된 기준 이하의 저속인 경우, 상기 합성 영상에서 미리 학습된 신호등이나 표지판을 검출하여, 신호등이 있는 구간에서의 정체는 신호등에 의한 대기 시간에 의한 정체인 것으로 판단하고, 신호등이 없고 표지판이 있는 구간에서의 정체는 병목현상에 의한 정체인 것으로 교통상황을 판단하는 것을 특징으로 한다.
본 발명의 일 측면에 따르면, 본 발명은 현재 주행 중인 차선의 상황을 촬영한 영상 정보로부터 교통상황에 관련된 오브젝트를 인식하여 차선별 교통상황을 판단할 수 있도록 한다.
도 1은 본 발명의 일 실시예에 따른 차선별 교통상황 판단 장치 및 시스템의 개략적인 구성을 보인 예시도.
도 2는 본 발명의 일 실시예에 따른 차선별 교통상황 판단 시스템에서 차선별 교통상황 판단 장치의 차선별 교통상황 판단 방법을 설명하기 위한 흐름도.
도 3은 상기 도 1에 있어서, 다중 카메라를 이용하여 전방 영상을 촬영하여 합성하고 이 합성된 영상을 이용하여 차선을 인식하는 방법을 보인 예시도.
도 4는 상기 도 1에 있어서, 설치 위치나 스펙이 다른 적어도 하나 이상의 카메라를 이용하여 취득한 복수의 영상을 하나의 영상으로 합성하여 광시야각 영상을 생성하는 방법을 설명하기 위하여 보인 예시도.
도 5는 본 발명의 일 실시예에 따른 차선별 교통상황 판단 시스템에서 서버의 차선별 교통상황 판단 방법을 설명하기 위한 흐름도.
도 6은 상기 도 5에 있어서, 서버가 차선별 교통상황 판단 장치로부터 수신하는 차선별 위치 정보와 합성된 영상 정보를 보인 예시도.
도 7은 상기 도 5에 있어서, 일반도로에서 신호등이나 표지판을 인식하여 교통상황을 판단하는 방법을 설명하기 위하여 보인 예시도.
도 8은 상기 도 5에 있어서, 고속도로에서 CCTV 감시 영상을 참조하여 교통상황을 판단하는 방법을 설명하기 위하여 보인 예시도.
이하, 첨부된 도면을 참조하여 본 발명에 따른 차선별 교통상황 판단 장치, 시스템, 및 방법의 일 실시예를 설명한다.
이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 일 실시예에 따른 차선별 교통상황 판단 장치 및 시스템의 개략적인 구성을 보인 예시도이다.
도 1에 도시된 바와 같이, 차선별 교통상황 판단 장치(100)는, 카메라부(110), 지피에스 수신부(120), 제어부(130), 통신부(140), 및 맵 저장부(150)를 포함한다. 또한 도 1에 도시된 바와 같이, 차선별 교통상황 판단 시스템은, 상기 차선별 교통상황 판단 장치(100)와 통신하는 서버(210), 및 상기 서버(210)에 감시 영상(즉, CCTV 영상)을 제공하는 감시 카메라부(310)를 포함한다.
상기 카메라부(110)는 디지털 방식의 이미지 센서(예 : CCD, CMOS 등)를 이용한 카메라로서, 교통상황 판단을 전방 영상 정보를 수집하기 위한 전용 카메라, 및 휴대 단말기(예 : 스마트폰, 스마트패드, 내비게이션, 블랙박스 등)에 장착된 카메라 중 적어도 하나를 포함할 수 있다.
따라서 상기 카메라부(110)는 적어도 하나 이상의 카메라(즉, 다중 카메라)를 포함할 수 있으며, 상기 카메라부(110)의 각 카메라가 설치된 위치(예 : 차량 천장, 대쉬 보드 등), 또는 각 카메라의 스펙(예 : 렌즈 사양)에 따라 촬영되는 범위가 다를 수 있다(도 3의 (b), 도 4 참조).
도 3은 상기 도 1에 있어서, 다중 카메라를 이용하여 전방 영상을 촬영하여 합성하고 이 합성된 영상을 이용하여 차선을 인식하는 방법을 보인 예시도이다.
도 3의 (a)에 도시된 바와 같이, 도로를 주행하고 있는 차량(자차)에 설치된 복수의 카메라, 즉, 설치 위치(예 : 차량 천장, 대쉬 보드 등)나 스펙(예 : 렌즈 사양)이 다른 복수의 카메라를 이용해 촬영된 영상을 광시야각 영상으로 합성하여, 어느 하나의 카메라를 이용해 촬영된 영상보다 더 넓은 범위로 확장시킴으로써, 도 3의 (b)에 도시된 바와 같이, 상기 광시야각 영상을 이용하여 보다 명확하고 쉽게(즉, 좌/우 차선이 모두 하나의 영상에 포함되므로) 차선을 인식할 수 있도록 한다.
도 4는 상기 도 1에 있어서, 설치 위치나 스펙이 다른 적어도 하나 이상의 카메라를 이용하여 취득한 복수의 영상을 하나의 영상으로 합성하여 광시야각 영상을 생성하는 방법을 설명하기 위하여 보인 예시도이다.
가령, 도 4의 (a)에 도시된 바와 같이, 상단(예 : 룸미러 위치)의 블랙박스(가)의 카메라(즉, 제1 카메라)를 이용해 취득한 영상과, 도 4의 (b)에 도시된 바와 같이, 하단(예 : 데쉬보드)의 AVN(Audio Video Navigation)(나) 카메라(즉, 제2 카메라)를 이용해 취득한 영상이 있다고 가정할 때, 상기 제어부(130)는 상기 각 카메라를 이용해 취득한 두 개의 영상(즉, 설치 위치에 따른 촬영 각도와 스펙이 다른 카메라(제1, 제2 카메라)를 이용해 촬영한 각각의 영상)을 합성하여 하나의 광시야각 영상을 생성할 수 있다.
예컨대, 제1 카메라(카메라1)에서 촬영된 영상에는 보이는 객체(오브젝트)가 제2 카메라(카메라2)에서 촬영된 영상에는 상기 객체(오브젝트)가 보이지 않을 수 있다. 이에 따라 상기 제어부(130)는 상기 카메라부(110)의 각 카메라(다중 카메라)에서 촬영된 영상을 합성하여, 어느 하나의 카메라를 이용해 촬영된 영상보다 더 넓은 범위로 확장된 영상(즉, 광시야각 영상)을 생성한다.
이때 상기 제어부(130)는 상기 카메라부(110)의 각 카메라(다중 카메라)에서 촬영된 영상을 합성하기 위하여, 시간 정보 및 지피에스 정보를 참조하여 영상 동기화를 수행한다. 즉, 상기 제어부(130)는 오차 범위 내에서 상기 시간 정보와 지피에스 정보가 동일한 영상을 합성하여, 중복된 객체(예 : 차량, 차선, 주변 시설물 등)를 제외한 나머지 객체들이 추가로 포함된(즉, 영상 입력 범위가 확장된) 영상으로 합성한다.
상기 지피에스 수신부(120)는 차량의 현재 위치를 검출하기 위한 지피에스 신호를 수신한다.
또한 상기 제어부(130)는 상기 어느 하나의 카메라를 이용해 촬영된 영상보다 더 넓은 범위로 확장된 영상(즉, 광시야각 영상)을 합성하고, 이 합성된 영상을 이용하여 차선을 인식하고(도 3의 (a) 참조), 현재 차선(또는 도로)의 위치 정보(즉, 지도상에 매칭되는 정보, 또는 지피에스 정보)와 상기 합성된 영상(전방 영상)을 함께 서버(210)에 전송한다.
이에 따라 상기 서버(210)는 상기 차선별 교통상황 판단 장치(100)가 전송한 현재 차선(또는 도로)의 위치 정보(즉, 지도상에 매칭되는 정보, 또는 지피에스 정보)와 상기 합성된 영상(전방 영상)을 바탕으로 교통상황(즉, 일반도로의 교통상황)을 판단한다. 이때 상기 위치 정보에 기초한 차량의 현재 위치가 고속도로인 경우(또는 CCTV가 설치된 도로인 경우), 상기 서버(210)는 감시 카메라부(310)를 통해 촬영된 감시 영상(즉, CCTV 영상)을 참조하여 교통상황을 판단한다.
상기 통신부(140)는 상기 서버(210)(예 : 교통상황을 판단하고 이 판단된 교통상황 정보를 내비게이션 장치에 제공하는 서버)와 무선 방식으로 통신하여, 현재 차선(또는 도로)의 위치 정보(즉, 지도상에 매칭되는 정보, 또는 지피에스 정보)와 상기 합성된 영상(전방 영상)을 전송한다.
상기 통신부(140)는 어느 하나의 무선 방식을 이용하여, 상기 서버(210)와 교통상황을 판단하기 위한 정보와 교통상황을 판단한 정보를 상호간에 송수신한다.
여기서 상기 무선 방식은, 라이파이(LiFi : Light Fidelity), 와이파이(WiFi), 블루투스, NFC(Near Field Communication), 이동통신(3G, 4G, 5G 등), 및 적외선 중 적어도 하나를 이용한 무선 통신 방식을 포함한다. 다만 상술한 무선 방식은 일 예시적으로 기재된 것일 뿐, 무선 통신 방식을 한정시키기 위하여 기재된 것은 아니다.
상기 맵 저장부(150)는 현재 위치 판단 및 경로 판단을 위한 가장 최신 버전의 디지털 지도 정보를 다운로드 받아 저장한다. 이때 상기 디지털 지도 정보는 자율 주행 차량을 위한 고정밀 지도 정보를 포함할 수 있다.
도 2는 본 발명의 일 실시예에 따른 차선별 교통상황 판단 시스템에서 차선별 교통상황 판단 장치의 차선별 교통상황 판단 방법을 설명하기 위한 흐름도이다.
도 2에 도시된 바와 같이, 차선별 교통상황 판단 장치(100)의 제어부(130)는, 카메라부(110)의 각 카메라(즉, 다중 카메라)에서 촬영된 영상을 수집한다(S101).
그리고 상기 제어부(130)는 시간 정보 및 지피에스 정보를 참조하여, 상기 수집된 각 카메라(즉, 다중 카메라)에서 촬영된 영상을 동기화시키고(S102), 상기 동기화된 영상을 합성하여 어느 하나의 카메라를 이용해 촬영된 영상보다 더 넓은 범위로 확장된 영상(즉, 광시야각 영상)을 생성한다(S103).
즉, 상기 제어부(130)는 오차 범위 내에서 상기 시간 정보와 지피에스 정보가 동일한 영상을 합성하여, 중복된 객체(예 : 차량, 차선, 주변 시설물 등)를 제외한 나머지 객체들이 추가로 포함된(즉, 영상 입력 범위가 확장된) 영상으로 합성한다.
또한 상기 제어부(130)는 상기 합성된 영상(즉, 광시야각 영상)을 처리하여 차선(또는 도로)을 인식한다(S104).
예컨대 상기 제어부(130)는 상기 합성된 영상에서 차선(또는 도로)의 경계를 구분하기 위한 점선이나 실선을 인식한다. 상기와 같이 차선(또는 도로)을 인식함으로써, 해당 차선(또는 도로)을 기준으로 한 차량(또는 자차) 전방의 표지판이나 신호등을 인식할 수 있도록 한다.
아울러 상기 제어부(130)는 맵 저장부(150)에 저장되어 있는 지도 정보를 참조하여, 현재 차선(또는 도로)의 위치 정보(즉, 지도상에 매칭되는 정보, 또는 지피에스 정보)와 상기 합성된 영상(전방 영상)을 함께 서버(210)에 전송한다(S105).
이에 따라 상기 서버(210)는 상기 차선별 교통상황 판단 장치(100)가 전송한 현재 차선(또는 도로)의 위치 정보와 상기 합성된 영상(전방 영상)을 바탕으로 교통상황(즉, 일반도로의 교통상황)을 판단하며, 또한 상기 차량의 현재 위치가 CCTV(감시 카메라)가 설치된 도로인 경우(또는 고속도로인 경우), 상기 서버(210)는 감시 영상(즉, CCTV 영상)을 참조하여 교통상황을 판단한다.
도 5는 본 발명의 일 실시예에 따른 차선별 교통상황 판단 시스템에서 서버의 차선별 교통상황 판단 방법을 설명하기 위한 흐름도이다.
도 5에 도시된 바와 같이, 서버(210)는 차량(즉, 차량에 장착된 차선별 교통상황 판단 장치)으로부터 현재 차선(또는 도로)의 위치 정보와 상기 합성된 영상(전방 영상) 정보를 수신한다(S201)(도 6 참조).
도 6은 상기 도 5에 있어서, 서버가 차선별 교통상황 판단 장치로부터 수신하는 차선별 위치 정보와 합성된 영상 정보를 보인 예시도이다.
다만, 도 6에서는 지도 이미지가 위치 정보로서 영상에 포함된 것으로 도시되어 있으나, 사실상 지도 정보(또는 위치 정보)는 화면상에 보이지 않는 숨겨진 형태의 정보로서 포함될 수 있음에 유의한다.
그리고 상기 서버(210)는 상기 수신된 전방 영상에서 차량(즉, 전방 차량)의 화면 점유 비율이 기 설정된 기준(예 : 70%) 이상인지 체크한다(S202).
상기 체크(S202) 결과, 차량(즉, 전방 차량)의 화면 점유 비율이 기 설정된 기준(예 : 70%) 이상인 경우(S202의 예), 즉, 자차와 그 전방 차량이 가까이 근접한 경우, 상기 서버(210)는 차량(즉, 자차)의 주행 속도가 기 설정된 기준(예 : 10km/h) 이하의 저속인지 체크한다(S203).
상기 체크(S203) 결과, 차량(즉, 자차)의 주행 속도가 기 설정된 기준(예 : 10km/h) 이하인 경우(S203의 예), 즉, 차량(즉, 자차)이 기준(예 : 10km/h) 이하로 서행하는 경우, 상기 서버(210)는 상기 차량(즉, 자차)의 지도상의 위치를 확인한다(S204).
상기와 같이 차량(즉, 자차)이 서행하면서 촬영한 전방 영상에서 차량(즉, 전방 차량)의 화면 점유 비율이 기 설정된 기준(예 : 70%) 이상인 경우, 교통상황이 혼잡하여(즉, 대기열 증가) 자차와 전방 차량이 근접한 것을 의미한다.
그런데 상기 대기열 증가가 차량 증가에 의한 대기열 증가인지 아니면 신호등에 의한 일시적인 대기열 증가인지 판단할 필요가 있다.
따라서 상기 서버(210)는 상기 차량(즉, 자차)의 지도상의 위치를 확인인 결과에 기초하여 일반도로(예 : 시내구간의 도로)인지 아니면 고속도로인지를 체크한다(S205).
예컨대 상기 일반도로와 고속도로는 각 도로별로 미리 구분해 둘 수 있으며, 통상적으로는 신호등에 의해 차량의 주행을 제어하는 도로 구간이 일반도로이고, 신호등이 설치되지 않고 단지 속도 제한 표지판에 의해서만 차량의 주행을 제어하는 도로 구간이 고속도로이다.
이에 따라, 상기 체크(S205) 결과, 상기 차량(즉, 자차)의 지도상의 위치가 일반 도로인 경우(S205의 예), 상기 서버(210)는 합성 영상(즉, 전방 영상)에서 미리 학습된 신호등이나 표지판을 검출한다(도 7의 (a),(b) 참조)(S206).
도 7은 상기 도 5에 있어서, 일반도로에서 신호등이나 표지판을 인식하여 교통상황을 판단하는 방법을 설명하기 위하여 보인 예시도이다.
예컨대 상기와 같이 차량(즉, 자차)의 전방에 신호등이나 표지판이 있는지 검출하는 이유는, 신호등의 색상에 따라 차량이 정차되어 있는 구간이 증가하고, 또한 다른 도로 구간으로 빠지는 구간이나 다른 도로 구간에서 합류되는 구간에서 차량이 정차되는 구간이 증가하기 때문이다. 즉, 단지 신호등 대기 시간 동안에만 차량이 정차되는 것인지, 아니면 병목 현상에 의해 도로가 수용할 수 있는 차량수보다 더 많은 차량이 도로에 진입하여 정차되는 것인지를 판단하기 위한 것이다.
따라서 상기 서버(210)는 상기 신호등 및 표지판의 인식 결과(S206)를 바탕으로, 신호등이 있는 구간에서의 정체는 신호등(예 : 빨간색 신호등)에 의한 대기 시간에 의한 정체인 것으로 판단하고, 신호등이 없는 일반도로에서 표지판이 있는 구간에서의 정체는 병목현상에 의한 정체인 것으로 교통상황(즉, 정체 여부)을 판단하는 것이다(S208).
한편 지도상의 차량의 현재 위치를 확인한 결과(S204), 미리 구분된(즉, 미리 분류된) 일반도로가 아닌 경우(즉, 고속도로인 경우), 상기 서버(210)는 현재 위치에 대응하는 감시 영상(즉, CCTV 영상)을 감시 카메라부(310)에 요청하여 수신하고(도 8 참조), 해당 위치에서 상기 수신된 감시 영상(즉, CCTV 영상)을 참조하여 도로 교통상황(즉, 정체 여부)를 판단한다(S208).
도 8은 상기 도 5에 있어서, 고속도로에서 CCTV 감시 영상을 참조하여 교통상황을 판단하는 방법을 설명하기 위하여 보인 예시도로서, (a)는 주간의 감시 영상에서 객체(오브젝트)를 인식하여, 밀집도(혼잡도), 시간당 이동거리, 및 이동 방향을 산출하는 방법을 보인 예시도이고, (b)는 야간의 감시 영상에서 헤드라이트나 차체에서 반사되는 빛을 이용해 객체(오브젝트)를 인식하여, 밀집도(혼잡도), 시간당 이동거리, 및 이동 방향을 산출하는 방법을 보인 예시도이다.
일반도로와 달리 감시 영상(즉, CCTV 영상)을 취득할 수 있는 도로(예 : 고속도로)에서는 객체의 인식을 통해 각 방향 및 차선별, 밀집도(혼잡도)와 시간당 이동거리를 산출하여 교통상황(즉, 정체 여부)를 판단할 수 있다.
즉, 상기 서버(210)는 상기 감시 영상(즉, CCTV 영상)에서 인식한 객체간의 밀집도(혼잡도)와 시간당 이동거리를 산출하고 이 값들과 미리 설정된 기준 값을 비교하여 이 기준 값의 초과 여부를 바탕으로 교통상황(즉, 정체 여부)을 판단하는 것이다(S208).
상기와 같이 본 실시예는 현재 주행 중인 차선의 상황을 촬영한 영상 정보로부터 교통상황에 관련된 오브젝트를 인식하여(예 : 일반도로에서 전방차량, 신호등, 및 표지판 등을 오브젝트로 인식하고, 고속도로에서 차선별 차량들을 오브젝트로 인식하여) 차선별 교통상황을 판단할 수 있도록 한다.
이상으로 본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 기술적 보호범위는 아래의 특허청구범위에 의해서 정하여져야 할 것이다.
100 : 차선별 교통상황 판단 장치 110 : 카메라부
120 : 지피에스 수신부 130 : 제어부
140 : 통신부 150 : 맵 저장부
210 : 서버 310 : 감시 카메라부

Claims (19)

  1. 교통상황 판단을 위하여, 차량 전방의 영상 정보를 수집하는 카메라부;
    상기 차량의 현재 위치를 검출하기 위한 지피에스 신호를 수신하는 지피에스 수신부; 및
    상기 카메라부에서 촬영된 복수의 영상을 합성하여 현재 주행중인 차선이나 도로를 인식하고, 현재의 차선이나 도로의 위치 정보와 상기 합성된 영상을 서버에 전송하는 제어부;를 포함하는 것을 특징으로 하는 차선별 교통상황 판단 장치.
  2. 제 1항에 있어서, 상기 카메라부는,
    전용 카메라, 감시 카메라(CCTV), 및 휴대 단말기에 장착된 카메라 중 적어도 하나 이상을 포함하며, 상기 휴대 단말기는 스마트폰, 스마트패드, 내비게이션, 및 블랙박스 중 적어도 하나를 포함하는 것을 특징으로 하는 차선별 교통상황 판단 장치.
  3. 제 1항에 있어서, 상기 제어부는,
    상기 카메라부의 각 카메라에서 촬영된 영상을 합성하여,
    상기 각 카메라 중 어느 하나의 카메라를 이용해 촬영된 영상보다 더 넓은 범위로 확장된 광시야각 영상을 생성하는 것을 특징으로 하는 차선별 교통상황 판단 장치.
  4. 제 3항에 있어서, 상기 제어부는,
    상기 카메라부의 각 카메라에서 촬영된 영상을 합성하기 위하여,
    시간 정보 및 지피에스 정보를 참조하여 영상 동기화를 수행하고, 상기 영상 동기화된 영상을 합성하는 것을 특징으로 하는 차선별 교통상황 판단 장치.
  5. 제 1항에 있어서, 상기 제어부는,
    오차 범위 내에서 상기 시간 정보와 지피에스 정보가 동일한 영상을 합성하여, 중복된 객체를 제외한 나머지 객체들이 추가로 포함됨으로써, 영상 입력 범위가 확장된 영상으로 합성하는 것을 특징으로 하는 차선별 교통상황 판단 장치.
  6. 제 1항에 있어서, 상기 서버는,
    상기 차선별 교통상황 판단 장치가 전송한 현재 차선이나 도로의 위치 정보와 상기 합성된 영상을 바탕으로 차량이 현재 주행중인 도로가 일반도로인지 고속도로인지 그 도로의 종류를 판단하고, 상기 판단된 도로의 종류에 따른 교통상황을 판단하는 것을 특징으로 하는 차선별 교통상황 판단 장치.
  7. 제 6항에 있어서, 상기 서버는,
    상기 위치 정보에 기초한 차량의 현재 위치가 고속도로이거나 감시 카메라(CCTV)가 설치된 도로인 경우, 상기 감시 카메라(CCTV) 영상을 추가로 참조하여 교통상황을 판단하는 것을 특징으로 하는 차선별 교통상황 판단 장치.
  8. 제 1항에 있어서, 상기 서버는,
    상기 차선별 교통상황 판단 장치가 전송한 위치 정보와 영상 정보를 바탕으로 상기 차량이 주행중인 도로의 교통상황을 판단하고, 이 판단된 교통상황 정보를 내비게이션 장치에 제공하는 서버인 것을 특징으로 하는 차선별 교통상황 판단 장치.
  9. 제 1항에 있어서, 상기 차선별 교통상황 판단 장치는,
    무선 방식을 이용하여, 상기 서버와 교통상황을 판단하기 위한 위치 정보와 영상 정보를 무선 방식으로 전송하는 통신부;를 더 포함하는 것을 특징으로 하는 차선별 교통상황 판단 장치.
  10. 제 1항에 있어서, 상기 차선별 교통상황 판단 장치는,
    현재 위치 판단 및 경로 판단을 위한 가장 최신 버전의 디지털 지도 정보를 다운로드 받아 저장하는 맵 저장부;를 더 포함하는 것을 특징으로 하는 차선별 교통상황 판단 장치.
  11. 주행중인 차량의 전방 영상 및 위치 정보를 수집하여 서버에 전송하는 차선별 교통상황 판단 장치와, 상기 전송받은 전방 영상 및 위치 정보를 바탕으로 상기 차량이 주행중인 도로의 교통상황을 판단하는 서버를 포함하는 차선별 교통상황 판단 시스템에서 차선별 교통상황 판단 방법에 있어서,
    차선별 교통상황 판단 장치의 제어부가 카메라부의 적어도 하나 이상의 카메라에서 촬영된 영상을 수집하는 단계;
    상기 제어부가 시간 정보 및 지피에스 정보를 참조하여 상기 적어도 하나 이상의 카메라에서 촬영된 영상을 합성한 영상을 생성하는 단계;
    상기 제어부가 상기 합성된 영상을 처리하고 지도 정보를 참조하여 차선이나 도로를 인식하는 단계;
    상기 제어부가 맵 저장부에 저장되어 있는 지도 정보를 참조하여, 현재 차선이나 도로의 위치 정보와, 상기 합성된 영상을 상기 서버에 전송하는 단계; 및
    상기 서버가 상기 위치 정보와 상기 합성된 영상을 바탕으로 상기 차량이 주행중인 도로의 교통상황을 판단하는 단계;를 포함하는 것을 특징으로 하는 차선별 교통상황 판단 방법.
  12. 제 11항에 있어서, 상기 카메라부의 적어도 하나 이상의 카메라에서 촬영된 영상을 합성하기 위하여,
    상기 제어부는,
    시간 정보 및 지피에스 정보를 참조하여 영상 동기화를 수행하고,
    상기 동기화된 영상을 합성하여, 상기 적어도 하나 이상의 카메라 중 어느 하나의 카메라를 이용해 촬영된 영상보다 더 넓은 범위로 확장된 광시야각 영상을 생성하는 것을 특징으로 하는 차선별 교통상황 판단 방법.
  13. 제 11항에 있어서, 상기 교통상황을 판단하는 단계에서,
    상기 서버는,
    상기 차선별 교통상황 판단 장치가 전송한 현재 차선이나 도로의 위치 정보와 상기 합성된 영상을 바탕으로 차량이 현재 주행중인 도로가 일반도로인지 고속도로인지 그 도로의 종류를 판단하고,
    상기 위치 정보에 기초한 차량의 현재 위치가 고속도로이거나 감시 카메라(CCTV)가 설치된 도로인 경우, 상기 감시 카메라(CCTV) 영상을 추가로 참조하여 교통상황을 판단하는 것을 특징으로 하는 차선별 교통상황 판단 방법.
  14. 제 11항에 있어서, 상기 교통상황을 판단하는 단계에서,
    상기 서버는,
    상기 위치 정보와 상기 합성된 영상 정보를 수신하고,
    상기 영상 정보로부터 차량의 화면 점유 비율이 기 설정된 기준 이상이면서 차량의 주행 속도가 기 설정된 기준 이하의 저속인 경우,
    상기 차량의 지도상의 위치가 일반도로이면 합성 영상에서 미리 학습된 신호등이나 표지판을 검출하여, 신호등이 있는 구간에서의 정체는 신호등에 의한 대기 시간에 의한 정체인 것으로 판단하고, 신호등이 없고 표지판이 있는 구간에서의 정체는 병목현상에 의한 정체인 것으로 교통상황을 판단하는 것을 특징으로 하는 차선별 교통상황 판단 방법.
  15. 제 14항에 있어서, 상기 교통상황을 판단하는 단계에서,
    상기 서버는,
    현재 위치가 고속도로이거나 감시 카메라(CCTV)가 설치된 도로인 경우,
    상기 감시 카메라(CCTV) 영상을 추가로 참조하여 교통상황을 판단하는 것을 특징으로 하는 차선별 교통상황 판단 방법.
  16. 제 15항에 있어서, 상기 감시 카메라(CCTV) 영상을 추가로 참조하여 교통상황을 판단함에 있어서,
    상기 서버는,
    주간의 감시 영상에서 객체를 인식하여, 밀집도나 혼잡도, 시간당 이동거리, 및 이동 방향을 산출하여 교통상황을 판단하고, 야간의 감시 영상에서 헤드라이트나 차체에서 반사되는 빛을 이용해 객체를 인식하여, 밀집도나 혼잡도, 시간당 이동거리, 및 이동 방향을 산출하여 교통상황을 판단하는 것을 특징으로 하는 차선별 교통상황 판단 방법.
  17. 주행중인 차량의 전방 영상 및 위치 정보를 수집하여 서버에 전송하는 차선별 교통상황 판단 장치;
    상기 전송받은 전방 영상 및 위치 정보를 바탕으로 상기 차량이 주행중인 도로의 교통상황을 판단하는 서버; 및
    상기 서버가 도로의 교통상황을 더 정확하게 판단할 수 있도록 하기 위하여 상기 서버에 감시 카메라(CCTV) 영상을 추가로 제공하는 감시 카메라부;를 포함하는 것을 특징으로 하는 차선별 교통상황 판단 시스템.
  18. 제 17항에 있어서, 상기 서버는,
    상기 차선별 교통상황 판단 장치가 전송한 현재 차선이나 도로의 위치 정보와 상기 합성된 영상을 바탕으로 차량이 현재 주행중인 도로가 일반도로인지 고속도로인지 그 도로의 종류를 판단하고, 상기 판단된 도로의 종류에 따른 교통상황을 판단하되,
    상기 위치 정보에 기초한 차량의 현재 위치가 고속도로이거나 감시 카메라(CCTV)가 설치된 도로인 경우, 상기 감시 카메라(CCTV) 영상을 추가로 참조하여 교통상황을 판단하는 것을 특징으로 하는 차선별 교통상황 판단 시스템.
  19. 제 18항에 있어서, 상기 서버는,
    상기 위치 정보에 기초한 차량의 현재 위치가 일반 도로이고, 상기 영상 정보로부터 차량의 화면 점유 비율이 기 설정된 기준 이상이면서 차량의 주행 속도가 기 설정된 기준 이하의 저속인 경우,
    상기 합성 영상에서 미리 학습된 신호등이나 표지판을 검출하여, 신호등이 있는 구간에서의 정체는 신호등에 의한 대기 시간에 의한 정체인 것으로 판단하고, 신호등이 없고 표지판이 있는 구간에서의 정체는 병목현상에 의한 정체인 것으로 교통상황을 판단하는 것을 특징으로 하는 차선별 교통상황 판단 시스템.
KR1020170182181A 2017-12-28 2017-12-28 차선별 교통상황 판단 장치, 시스템, 및 방법 KR102418051B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170182181A KR102418051B1 (ko) 2017-12-28 2017-12-28 차선별 교통상황 판단 장치, 시스템, 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170182181A KR102418051B1 (ko) 2017-12-28 2017-12-28 차선별 교통상황 판단 장치, 시스템, 및 방법

Publications (2)

Publication Number Publication Date
KR20190080020A true KR20190080020A (ko) 2019-07-08
KR102418051B1 KR102418051B1 (ko) 2022-07-07

Family

ID=67256521

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170182181A KR102418051B1 (ko) 2017-12-28 2017-12-28 차선별 교통상황 판단 장치, 시스템, 및 방법

Country Status (1)

Country Link
KR (1) KR102418051B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112466112A (zh) * 2019-09-09 2021-03-09 现代自动车株式会社 用于生成车辆数据的设备和方法以及***
KR20210059493A (ko) * 2019-11-15 2021-05-25 한국건설기술연구원 차로별 대기행렬 정보 생성 시스템 및 이를 이용한 차로별 대기행렬 정보를 생성하는 방법
KR102342003B1 (ko) * 2020-07-22 2021-12-23 (주)하나텍시스템 초정밀-지도맵을 이용한 차선정보 검출 방법 및 이를 이용한 교통정보 제공시스템
KR20220097176A (ko) * 2020-12-31 2022-07-07 주식회사 피플카 차량의 이동 거리에 따라 차량의 주행 정보를 전송하는 차량용 전자 장치 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06276523A (ja) * 1993-03-17 1994-09-30 Mitsubishi Electric Corp 周辺確認装置
KR20110024285A (ko) * 2009-09-01 2011-03-09 주식회사 한국정보기술단 카메라 촬영정보 공유가 가능한 주행정보 제공시스템
KR101149756B1 (ko) * 2011-02-16 2012-06-01 주식회사 네비웨이 도로망에서 이동 카메라를 이용한 교통정보 수집 시스템
KR20160143304A (ko) * 2015-06-05 2016-12-14 아주대학교산학협력단 영상정보기반 교통정보 생성 장치 및 그 방법
KR101750876B1 (ko) * 2015-05-28 2017-06-26 엘지전자 주식회사 차량용 디스플레이 장치 및 차량

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06276523A (ja) * 1993-03-17 1994-09-30 Mitsubishi Electric Corp 周辺確認装置
KR20110024285A (ko) * 2009-09-01 2011-03-09 주식회사 한국정보기술단 카메라 촬영정보 공유가 가능한 주행정보 제공시스템
KR101149756B1 (ko) * 2011-02-16 2012-06-01 주식회사 네비웨이 도로망에서 이동 카메라를 이용한 교통정보 수집 시스템
KR101750876B1 (ko) * 2015-05-28 2017-06-26 엘지전자 주식회사 차량용 디스플레이 장치 및 차량
KR20160143304A (ko) * 2015-06-05 2016-12-14 아주대학교산학협력단 영상정보기반 교통정보 생성 장치 및 그 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112466112A (zh) * 2019-09-09 2021-03-09 现代自动车株式会社 用于生成车辆数据的设备和方法以及***
KR20210059493A (ko) * 2019-11-15 2021-05-25 한국건설기술연구원 차로별 대기행렬 정보 생성 시스템 및 이를 이용한 차로별 대기행렬 정보를 생성하는 방법
KR102342003B1 (ko) * 2020-07-22 2021-12-23 (주)하나텍시스템 초정밀-지도맵을 이용한 차선정보 검출 방법 및 이를 이용한 교통정보 제공시스템
KR20220097176A (ko) * 2020-12-31 2022-07-07 주식회사 피플카 차량의 이동 거리에 따라 차량의 주행 정보를 전송하는 차량용 전자 장치 및 방법

Also Published As

Publication number Publication date
KR102418051B1 (ko) 2022-07-07

Similar Documents

Publication Publication Date Title
KR102011618B1 (ko) 자동 운전 지원 시스템, 자동 운전 감시 장치, 도로 관리 장치 및 자동 운전 정보 수집 장치
US9747800B2 (en) Vehicle recognition notification apparatus and vehicle recognition notification system
JP5070809B2 (ja) 運転支援装置、運転支援方法、及び、プログラム
US20170025008A1 (en) Communication system and method for communicating the availability of a parking space
JP4923736B2 (ja) 道路通信システムおよび道路通信方法
KR102418051B1 (ko) 차선별 교통상황 판단 장치, 시스템, 및 방법
US20120133738A1 (en) Data Processing System and Method for Providing at Least One Driver Assistance Function
CN110036429B (zh) 驾驶支援***及驾驶支援装置
JP5365792B2 (ja) 車両用位置測定装置
CN113012445A (zh) 智能交通控制***及其控制方法
JP7187806B2 (ja) 情報処理装置、システム、方法、及びコンピュータプログラム
US20170178591A1 (en) Sign display apparatus and method for vehicle
JP2007164328A (ja) 車両走行支援装置
KR20200068776A (ko) 자율주행 및 커넥티드 자동차용 통신 서비스 제공방법
KR20200043252A (ko) 차량의 부감 영상 생성 시스템 및 그 방법
CN113111682A (zh) 目标对象感知方法和装置、感知基站、感知***
US11361687B2 (en) Advertisement display device, vehicle, and advertisement display method
CN114194105A (zh) 自动驾驶车用信息提示装置
KR20090090049A (ko) 실시간 교통정보 서비스 장치 및 그 방법
KR20150055278A (ko) 차량용 레이더를 이용한 실시간 교통정보 측정 시스템 및 방법
JP2015210584A (ja) 画像処理装置
JP2009037462A (ja) 交通情報提供システムおよび交通情報提供方法
JP4961311B2 (ja) 運転支援装置及び運転支援方法
JP5151716B2 (ja) 車両走行支援システム、路上側システム及び車両側システム
US11979805B2 (en) Control method, communication terminal, and communication system

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant