KR101833359B1 - 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법 및 장치 - Google Patents

차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법 및 장치 Download PDF

Info

Publication number
KR101833359B1
KR101833359B1 KR1020160033894A KR20160033894A KR101833359B1 KR 101833359 B1 KR101833359 B1 KR 101833359B1 KR 1020160033894 A KR1020160033894 A KR 1020160033894A KR 20160033894 A KR20160033894 A KR 20160033894A KR 101833359 B1 KR101833359 B1 KR 101833359B1
Authority
KR
South Korea
Prior art keywords
information
situation
analysis information
vehicle
situation analysis
Prior art date
Application number
KR1020160033894A
Other languages
English (en)
Other versions
KR20170109818A (ko
Inventor
고한석
박두복
양철종
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020160033894A priority Critical patent/KR101833359B1/ko
Priority to US15/465,819 priority patent/US10223910B2/en
Publication of KR20170109818A publication Critical patent/KR20170109818A/ko
Application granted granted Critical
Publication of KR101833359B1 publication Critical patent/KR101833359B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/012Measuring and analyzing of parameters relative to traffic conditions based on the source of data from other sources than vehicle or roadside beacons, e.g. mobile networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0129Traffic data processing for creating historical data or processing based on historical data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096805Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route
    • G08G1/096827Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route where the route is computed onboard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • G08G1/142Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces external to the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/145Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas
    • G08G1/147Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas where the parking area is within an open public zone, e.g. city centre

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Library & Information Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Traffic Control Systems (AREA)
  • Operations Research (AREA)

Abstract

차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법을 제공한다. 본 발명의 일 실시예에 따른 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법은 차량의 외부 상황을 촬영한 영상에 포함된 적어도 하나의 객체에 대한 위치, 종류 및 상태 중 적어도 하나에 대한 정보를 나타내는 객체분류정보를 생성하는 단계; 상기 객체분류정보에 기초하여, 상기 차량의 외부 상황을 분석한 정보인 상황분석정보를 생성하는 단계; 및 상기 상황분석정보가 차량의 통행을 방해하는 사건인 통행방해이벤트에 해당하는지에 기초하여, 선택적으로 상기 상황분석정보를 서버에게 전송하는 단계를 포함한다.

Description

차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법 및 장치{METHOD AND APPARATUS FOR COLLECTING TRAFFIC INFORMATION FROM BIGDATA OF OUTSIDE IMAGE OF CAR}
본 발명은 차량의 외부를 향해 촬영한 영상의 빅데이터를 이용하여 교통 정보를 수집하는 방법 및 장치에 관한 것이다.
최근 들어 GPS 기술 발전과 휴대용 무선기기의 보급이 급격히 증가하면서 이를 응용한 교통 정보 안내 시스템 기술도 함께 발전하고 있다. 통상적인 교통 정보 안내 시스템은 사용자 차량 혹은 휴대용 무선기기의 GPS 정보를 이용하여 각 도로별 정체 상황을 수집한 후 교통 정보를 갱신한 후 사용자에게 제공하는 형태를 지닌다. 예를 들면, 과거의 내비게이션 시스템은 내비게이션 장치에 저장된 경로와 고정된 주행 시간을 바탕으로 최단거리를 운전자에게 제공하였으나, 최근의 내비게이션 시스템은 실제 교통 정보를 반영하는 최단 거리를 운전자에게 제공한다.
그러나, 이러한 실시간 내비게이션 시스템은 통상적으로 주행 경로에 따른 주행 시간과 관련된 정보만을 제공한다. 즉, 특정 도로에서 정체가 발생할 때, 단순 교통량 증가로 인한 정체인지 사고로 인한 정체인지 혹은 도로 공사로 인한 정체 등 도로 정체에 대한 원인을 확인할 수 없다. 이와 같은 내비게이션 시스템은 정체 결과가 발생한 시점에 정보를 갱신하기 때문에 돌발적인 사고에 따른 정체를 실시간으로 제공하게 어렵다는 점에서 한계를 보인다.
따라서, 보다 즉각적으로 도로 교통 정보를 갱신하고 이를 운전자에게 제공하기 위하여, 차량의 외부를 촬영한 영상 빅데이터를 이용한 교통 정보 수집 방법 및 장치에 대한 필요성이 대두되고 있다.
관련 선행기술로는 한국공개특허 제10-2014-0100611호(발명의 명칭: 길안내 시스템의 동작 방법 및 휴대 기기의 길안내 방법, 공개일자: 2014년 8월 18일)가 있다.
본 발명은 차량의 외부를 촬영한 영상의 빅데이터를 딥러닝 알고리즘을 이용하여 분석하고, 그 분석결과를 이용하여 도로의 외부 상황을 해석하는 방법 및 장치를 제공하고자 한다.
또한, 본 발명은 사용자의 인위적인 입력없이도, 자동적으로 도로의 외부 상황으로부터 교통 정보를 수집하는 방법 및 장치를 제공하고자 한다.
상기 목적을 달성하기 위해, 본 발명에서 제공하는 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법은 차량의 외부 상황을 촬영한 영상에 포함된 적어도 하나의 객체에 대한 위치, 종류 및 상태 중 적어도 하나에 대한 정보를 나타내는 객체분류정보를 생성하는 단계; 상기 객체분류정보에 기초하여, 상기 차량의 외부 상황을 분석한 정보인 상황분석정보를 생성하는 단계; 및 상기 상황분석정보가 차량의 통행을 방해하는 사건인 통행방해이벤트에 해당하는지에 기초하여, 선택적으로 상기 상황분석정보를 서버에게 전송하는 단계를 포함한다.
바람직하게는, 상기 객체분류정보를 생성하는 단계는 딥러닝(deep learning) 알고리즘에 기초하여 수행될 수 있다.
바람직하게는, 상기 상황분석정보는 상기 외부 상황의 종류, 원인, 내용, 영상, 예상지속시간 및 발생장소 중 적어도 하나에 대한 정보를 포함할 수 있다.
바람직하게는, 상기 상황분석정보를 생성하는 단계가 상기 외부 상황으로 인해 차량의 통행을 방해받는 차선 수 및 전체 차선 수 간의 비율인 차선방해비율과 상기 외부 상황이 정리되기까지의 예상지속시간을 상기 상황분석정보에 포함할 때, 상기 상황분석정보를 서버에게 전송하는 단계는 상기 상황분석정보에 포함된 상기 차선방해비율 및 상기 예상지속시간 중 적어도 하나에 기초하여, 상기 상황분석정보가 상기 통행방해이벤트에 해당하는지를 판단할 수 있다.
바람직하게는, 상기 차량에 설치된 카메라로부터 상기 차량의 외부 상황을 촬영한 영상을 획득하는 단계; 및 상기 영상의 화질을 개선하기 위한 전처리를 수행하는 단계를 더 포함하고, 상기 객체분류정보를 생성하는 단계는 상기 전처리가 수행된 영상을 이용할 수 있다.
바람직하게는, 상기 전송된 상황분석정보는 상기 서버에 등록된 복수의 클라이언트에게 중계되어, 상기 복수의 클라이언트 각각에 연동된 내비게이션의 경로 탐색에 이용될 수 있다.
바람직하게는, 상기 상황분석정보는 동일한 장소에서 발생한 동일한 외부 상황에 대한 상기 상황분석정보가 상기 서버에게 전송된 횟수에 기초하여 상기 상황분석정보의 신뢰도가 결정될 수 있다.
바람직하게는, 상기 객체분류정보를 생성하는 단계가 상기 촬영 영상에 포함된 적어도 하나의 운전자 편의 시설의 실시간 영업 정보를 나타내는 시설영업정보를 더 생성하고, 상기 상황분석정보를 생성하는 단계가 상기 시설영업정보를 더 포함하는 상기 상황분석정보를 생성할 때, 상기 상황분석정보를 서버에게 전송하는 단계는 상기 상황분석정보가 상기 시설영업정보를 포함하면, 상기 통행방해이벤트 해당 여부와 무관하게 상기 상황분석정보를 상기 서버에게 전송할 수 있다.
또한, 상기 목적을 달성하기 위해, 본 발명에서 제공하는 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 장치는 차량의 외부 상황을 촬영한 영상에 포함된 적어도 하나의 객체에 대한 위치, 종류 및 상태 중 적어도 하나에 대한 정보를 나타내는 객체분류정보를 생성하는 분류부; 상기 객체분류정보에 기초하여, 상기 차량의 외부 상황을 분석한 정보인 상황분석정보를 생성하는 분석부; 상기 상황분석정보가 차량의 통행을 방해하는 사건인 통행방해이벤트에 해당하는지 판단하는 판단부; 및 상기 판단 결과에 기초하여, 선택적으로 상기 상황분석정보를 서버에게 전송하는 전송부를 포함한다.
바람직하게는, 상기 분류부는 딥러닝 알고리즘에 기초하여 상기 객체분류정보를 생성할 수 있다.
바람직하게는, 상기 상황분석정보는 상기 외부 상황의 종류, 원인, 내용, 영상, 예상지속시간 및 발생장소 중 적어도 하나에 대한 정보를 포함할 수 있다.
바람직하게는, 상기 분석부가 상기 외부 상황으로 인해 차량의 통행을 방해받는 차선 수 및 전체 차선 수 간의 비율인 차선방해비율과 상기 외부 상황이 정리되기까지의 예상지속시간을 상기 상황분석정보에 포함할 때, 상기 판단부는 상기 상황분석정보에 포함된 상기 차선방해비율 및 상기 예상지속시간 중 적어도 하나에 기초하여, 상기 상황분석정보가 상기 통행방해이벤트에 해당하는지를 판단할 수 있다.
바람직하게는, 상기 차량에 설치된 카메라로부터 상기 차량의 외부 상황을 촬영한 영상을 획득하는 획득부; 및 상기 영상의 화질을 개선하기 위한 전처리를 수행하는 전처리부를 더 포함하고, 상기 분류부는 상기 전처리가 수행된 영상을 이용할 수 있다.
바람직하게는, 상기 전송된 상황분석정보는 상기 서버에 등록된 복수의 클라이언트에게 중계되어, 상기 복수의 클라이언트 각각에 연동된 내비게이션의 경로 탐색에 이용될 수 있다.
바람직하게는, 상기 분류부가 상기 촬영 영상에 포함된 적어도 하나의 운전자 편의 시설의 실시간 영업 정보를 나타내는 시설영업정보를 더 생성하고, 상기 분석부가 상기 시설영업정보를 더 포함하는 상기 상황분석정보를 생성하고, 상기 판단부가 상기 상황분석정보가 상기 시설영업정보를 포함하는지 더 판단할 때, 상기 전송부는 상기 시설영업정보의 포함 여부에 대한 판단 결과에 따라서, 상기 통행방해이벤트 해당 여부에 대한 판단 결과와 무관하게 상기 상황분석정보를 상기 서버에게 전송할 수 있다.
본 발명은 차량의 외부를 촬영한 영상의 빅데이터를 딥러닝 알고리즘을 이용하여 분석하고, 그 분석결과를 이용하여 도로의 외부 상황을 해석할 수 있는 효과가 있다.
또한, 본 발명은 사용자의 별도 입력없이도, 도로의 외부 상황으로부터 자동적으로 교통 정보를 수집할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법을 설명하기 위하여 도시한 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 객체분류정보를 생성하는 방법을 설명하기 위하여 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 딥러닝 알고리즘을 설명하기 위하여 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 교통 정보의 수집 및 공유 방법을 설명하기 위하여 도시한 도면이다.
도 5는 본 발명의 다른 실시예에 따른 교통 정보의 수집 및 공유 방법을 설명하기 위하여 도시한 도면이다.
도 6은 본 발명의 또 다른 실시예에 따른 교통 정보의 수집 및 공유 방법을 설명하기 위하여 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 장치를 설명하기 위하여 도시한 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법을 설명하기 위하여 도시한 흐름도이다.
단계 S110에서는, 교통 정보 수집 장치가 차량의 외부 상황을 촬영한 영상에 포함된 적어도 하나의 객체에 대한 위치, 종류 및 상태 중 적어도 하나에 대한 정보를 나타내는 객체분류정보를 생성한다.
본 발명에서 차량은 도로 위를 주행하는 운행 수단을 통틀어 이르는 말이다. 예를 들어, 자동차, 노면전차(트램), 자전거 및 오토바이 등이 차량에 해당할 수 있으나, 이것으로 한정되는 것은 아니다.
차량의 외부 상황을 촬영한 영상은 정지영상 또는 동영상일 수 있으며, 동영상인 경우 전체 중 일부 장면을 이용할 수 있다. 또한, 그 영상은 차량에 탑재된 카메라 또는 촬영장치가 차량의 외부를 향해 촬영한 영상일 수 있다. 그 카메라 또는 촬영장치는 교통 정보 수집 장치에 포함되거나, 또는 독립적으로 존재하여 촬영한 영상을 교통 정보 수집 장치에게 유선 또는 무선으로 전송할 수 있다.
또한, 차량의 외부 상황은 차량의 전면주행 방향 전면의 외부 상황일 수 있다. 그러나, 이에 한정되는 것은 아니며, 차량의 좌우 측면 또는 후면 방향의 외부 상황일 수도 있다.
한편, 교통 정보 수집 장치는 차량의 운전자 통합정보 시스템(driver information system), 차량용 블랙박스(영상기록장치), 차량용 내비게이션 기기, 스마트폰, 태블릿 또는 컴퓨터에 탑재될 수 있다. 예컨대, 차량용 블랙박스(영상기록장치)가 교통 정보 수집 장치 및 그 교통 정보 수집 장치와 연결된 촬영장치를 모두 포함할 수 있다. 또한, 차량의 운전자 통합정보 시스템이 교통 정보 수집 장치를 포함하고, 그 교통 정보 수집 장치가 차량에 별도로 설치된 카메라로부터 촬영 영상을 유선으로 수신할 수 있다. 또한, 원격의 컴퓨터가 교통 정보 수집 장치를 포함하고, 그 교통 정보 수집 장치가 차량에 설치된 카메라로부터 촬영 영상을 무선으로 수신할 수 있다.
객체분류정보는 촬영 영상에 포함된 픽셀의 픽셀값 등의 정보를 이용하여, 각 객체별로 위치, 종류 및 상태 중 적어도 하나에 대한 정보를 포함하도록 생성될 수 있다. 여기서, 객체는 촬영 영상에 포함되는 대상으로, 차량, 사람, 동물, 자연물(가로수, 하천, 하늘 등) 및 인공시설물(신호등, 교통표지판, 우체통, 중앙분리대 등) 등이 해당될 수 있다.
첫번째로, 객체의 위치는 촬영 영상 내에서의 객체의 상대적인 위치를 의미하며, 다른 객체와의 위치 관계 및 도로 및 인도 등의 배경과의 위치 관계(예, 차량이 몇번째 차선에 위치하는지)를 고려할 때 이용될 수 있다.
두번째로, 객체의 종류는 위에서 설명한 차량, 사람, 동물, 자연물 및 인공시설물 등이 될 수 있다. 그러나, 동일한 종류의 객체라도 세부적으로 다른 종류의 객체로 인식될 수 있다. 예컨대, 촬영 영상에 차량이 있는 경우, 촬영 영상 내의 모든 차량이 다 동일한 종류의 객체로 인식되지 않을 수 있다. 즉, 차량의 모델별로(차종 A, 차종 B 등) 또는 형태별로(오토바이, 트럭, 버스, 승용차, SUV 등) 각각 서로 다른 종류의 객체로 인식될 수 있다. 또한, 촬영 영상에 사람이 있는 경우, 성인, 어린이 및 노인 등으로 나뉘어 서로 다른 종류의 객체로 인식될 수 있다. 또한, 촬영 영상에 시설물이 있는 경우, 교통표지판, 신호등 및 중앙분리대 등으로 나뉘어 서로 다른 종류의 객체로 인식될 수 있다.
세번째로, 객체의 상태는 각 객체의 외관 상태를 의미할 수 있다. 예컨대, 동일한 종류의 차량 객체라고 하더라도, 한 차량은 정상이지만 한 차량은 앞 범퍼가 파손된 경우, 서로 다른 상태의 객체로 인식될 수 있다. 또한, 동일한 종류의 사람 객체라고 하더라도, 보통 때와 피가 흐를 때는 서로 다른 상태의 객체로 인식될 수 있다. 또한, 동일한 종류의 건물 객체라고 하더라도, 보통 때와 화염에 휩싸여 있을 때는 서로 다른 상태의 객체로 인식될 수 있다.
한편, 구체적인 객체분류정보 생성 방법에 대하여는 도 2 및 3에 대한 설명에서 자세하게 후술한다.
단계 S120에서는, 교통 정보 수집 장치가 그 생성된 객체분류정보에 기초하여, 그 차량의 외부 상황을 분석한 정보인 상황분석정보를 생성한다.
상황분석정보는 촬영 영상에 포함된 외부 상황을 분석한 정보를 의미하며, 교통 정보 수집 장치가 생성된 객체분류정보를 이용하여 상황분석정보를 생성할 수 있다.
예컨대, 객체분류정보가 범퍼가 파손된 차량에 대한 정보와 피를 흘리면서 도로 위에 누워있는 사람에 대한 정보를 포함하고 있다면, 교통 정보 수집 장치가 이 객체분류정보로부터 교통 사고에 대한 내용을 포함하는 상황분석정보를 생성할 수 있다. 또한, 객체분류정보가 화염에 휩싸인 건물에 대한 정보와 도로변에 주차된 긴급차량(구급차 또는 소방차)에 대한 정보를 포함하고 있다면, 교통 정보 수집 장치가 이 객체분류정보로부터 화재에 대한 내용을 포함하는 상황분석정보를 생성할 수 있다.
다른 실시예에서는, 상황분석정보는 외부 상황의 종류, 원인, 내용, 영상, 예상지속시간 및 발생장소 중 적어도 하나에 대한 정보를 포함할 수 있다.
예컨대, 외부 상황의 종류는 정상, 교통사고, 화재, 공사, 기상(우박, 눈, 비 등) 및 기타(도로 파손, 화물 낙하 등) 중 하나가 될 수 있다. 또한, 그 외부 상황의 원인은 교통사고의 경우 차량 간의 충돌, 화재의 경우 도로변 건물의 화재, 공사의 경우 도로 포장 공사, 기상의 경우 함박눈 또는 폭우가 될 수 있다. 또한, 그 외부 상황의 내용은 교통사고의 경우 도로 위에 누워서 출혈하는 부상자와 도로에 위치한 범퍼가 파손된 자동차, 화재의 경우 화염에 휩싸인 도로변 건물과 도로변에 주차된 소방차 및 구급차 등이 될 수 있다. 또한, 그 외부 상황의 영상은 그 외부 상황을 포함하는 촬영 영상일 수 있다. 또한, 그 외부 상황의 예상지속시간은 그 외부 상황의 종류 및 내용에 따라서 미리 결정되며, 지속될 것으로 예상되는 시간일 수 있다. 또한, 그 외부 상황의 발생장소는 차량에 탑재된 GPS로부터 수신된 차량의 좌표 정보를 이용할 수 있다.
마지막으로 단계 S130에서는, 교통 정보 수집 장치가 그 상황분석정보가 차량의 통행을 방해하는 사건인 통행방해이벤트에 해당하는지에 기초하여, 선택적으로 그 상황분석정보를 서버에게 전송한다.
통행방해이벤트는 도로 또는 그 도로 주변에서 발생하여, 그 도로를 지나는 차량의 통행을 방해하는 것으로 판단되는 사건이다. 예컨대, 교통사고, 화재, 공사 및 악천후 등이 해당될 수 있다.
상황분석정보가 통행방해이벤트에 해당하는 것으로 판단되는 경우, 교통 정보 수집 장치는 그 상황분석정보를 교통 정보를 수집 및 저장하기 위한 서버에게 전송할 수 있다. 이때, 교통 정보 수집 장치는 서버와 3G, LTE 또는 LAN 등의 유무선통신수단으로 연결될 수 있다. 그러나, 만일 상황분석정보가 통행방해이벤트에 해당하지 않는 경우, 즉, 차량의 통행을 방해하지 않는다고 판단되는 경우에는, 교통 정보 수집 장치는 그 상황분석정보를 서버에게 전송하지 않을 수 있다.
다른 실시예에서는, 교통 정보 수집 장치가 상황분석정보에 포함된 차선방해비율 및 예상지속시간 중 적어도 하나에 기초하여, 그 상황분석정보가 통행방해이벤트에 해당하는지를 판단하여 서버에게 전송할 수 있다. 그리고, 교통 정보 수집 장치는 외부 상황에 대한 차선방해비율과 예상지속시간이 포함되도록 상황분석정보를 생성할 수 있다.
차선방해비율은 외부 상황으로 인해 차량의 통행을 방해받는 차선 수 및 전체 차선 수 간의 비율이다. 예컨대, 교통 정보 수집 장치가 각 객체별 위치 정보에 기초하여 파손되거나 화재가 발생한 차량이 점유한 차선의 수, 부상자 또는 긴급차량이 위치한 차선의 수 또는 공사로 차단된 차선의 수 등으로부터 통행을 방해받는 차선의 수를 산출할 수 있다. 그리고, 그 통행을 방해받는 차선의 수 및 전체 차선 수 간의 비율을 차선방해비율로 산출할 수 있다. 만일, 편도 4차로의 도로에서 교통 사고가 발생하였을 때, 사고 차량이 3차선에 위치하고, 부상자가 2차선에 누워있는 경우 차선방해비율은 2/4=50%가 될 수 있다.
예상지속시간은 외부 상황이 정리되기까지의 소요될 것으로 예상되는 시간이다. 예컨대, 교통 정보 수집 장치가 긴급차량(경찰차, 소방차, 구급차, 견인차 등)의 도착 여부에 따라서, 긴급차량의 평균출동시간과 출동한 긴급차량에 의해 외부 상황이 종류별(예, 교통사고, 화재 등)로 정리되기까지의 시간인 평균정리시간을 이용하여 예상지속시간을 산출할 수 있다.
예컨대, 교통 정보 수집 장치가 상황분석정보에 포함된 차선방해비율이 30% 이상이고, 예상지속시간이 30분 이상이면, 그 상황분석정보가 통행방해이벤트에 해당하는 것으로 판단하고, 그 상황분석정보를 서버에게 전송할 수 있다.
또 다른 실시예에서는, 교통 정보 수집 장치가 객체분류정보를 생성하기 전에 차량에 설치된 카메라로부터 차량의 외부 상황을 촬영한 영상을 획득하여, 영상의 화질을 개선하기 위한 전처리를 수행할 수 있다.
차량에 설치된 카메라는 차량의 내부에서 차량의 외부를 촬영하도록 설치될 수 있다. 바람직하게는, 카메라는 차량 진행방향의 전방, 후방, 좌측 및 우측 중 한 방향을 향할 수 있다. 또한, 카메라의 촬영 방향이 촬영을 원하는 특정한 방향으로 수동 또는 자동으로 조절될 수도 있다.
또한, 카메라는 교통 정보 수집 장치의 구성요소 중 하나로 포함되거나, 또는 독립적으로 존재하여 촬영한 영상을 교통 정보 수집 장치에게 유선 또는 무선으로 전송할 수 있다. 만일, 카메라가 독립적으로 존재한다면, 교통 정보 수집 장치는 그 카메라와 분리된 장소에 위치할 수 있다.
영상의 화질을 개선하기 위한 전처리는 특히 야간 및 터널 내부 등의 저조도 환경에서 정적 또는 동적 노이즈를 제거하는 과정과 색사상 함수 모델 방식을 적용하여 영상을 복원하는 과정을 포함할 수 있다. 계속적으로 발생하는 정적 노이즈와 순간적으로 발생하는 동적 노이즈를 제거하는 과정은 저대역통과(LP)필터, 메디안(median)필터, 칼만(kalman)필터 또는 웨이블릿(wavelet) 변환을 통한 방법 등을 이용하여 수행될 수 있다. 색사상 함수 모델 방식을 적용한 영상 복원 과정은 두 영상에 포함된 픽셀의 색상에 대한 통계를 이용하는 방법과 두 영상 간의 대응되는 픽셀의 색상을 이용하는 방법 등을 이용하여 수행될 수 있다.
이 경우, 교통 정보 수집 장치가 전처리된 영상을 이용하여 객체분류정보를 생성함으로써, 객체를 분류의 정확성 및 효율성을 높일 수 있는 효과가 있다.
또 다른 실시예에서는, 교통 정보 수집 장치가 서버에게 전송한 상황분석정보는 그 서버에 등록된 복수의 클라이언트에게 중계되어, 그 복수의 클라이언트 각각에 연동된 내비게이션의 경로 탐색에 이용될 수 있다.
또한, 상황분석정보는 동일한 장소에서 발생한 동일한 외부 상황에 대한 상황분석정보가 서버에게 전송된 횟수에 기초하여 상황분석정보의 신뢰도가 결정될 수 있다.
상황분석정보가 전송 및 공유되는 구체적인 방법은 도 4 내지 6에 대한 설명에서 자세하게 후술한다.
또 다른 실시예에서는, 교통 정보 수집 장치는 상황분석정보가 시설영업정보를 포함하면, 통행방해이벤트 해당 여부와 무관하게 그 상황분석정보를 서버에게 전송할 수 있다.
시설영업정보는 촬영 영상에 포함된 적어도 하나의 운전자 편의 시설의 실시간 영업 정보를 나타낸다. 그리고, 교통 정보 수집 장치는 그 시설영업정보가 포함되도록 상황분석정보를 생성할 수 있다.
운전자 편의 시설에는 운전자가 운전 중에 이용할 수 있는 주유소, 주차장, 응급실 및 휴게소 등이 포함될 수 있다. 예컨대, 교통 정보 수집 장치가 촬영 영상에 포함된 주유소의 조명이 켜져 있어 영업 중인 상태인 경우, 그 주유소가 영업 중이라는 실시간 영업 정보를 나타내는 시설영업정보를 생성할 수 있다. 또한, 교통 정보 수집 장치가 촬영 영상에 포함된 주차장의 조명이 꺼져 있어 영업 중이 아닌 상태인 경우, 그 주차장이 영업 중이 아니라는 실시간 영업 정보를 나타내는 시설영업정보를 생성할 수 있다.
한편, 교통 정보 수집 장치는 어떤 상황분석정보가 통행방해이벤트가 아닌 경우, 그 상황분석정보를 서버에게 전송하지 않는다. 그러나, 그렇다고 하더라도 만약에 그 상황분석정보가 시설영업정보를 포함하는 경우에는 예외적으로 통행방해이벤트의 해당 여부와 무관하게 그 상황분석정보를 서버에게 전송할 수 있다. 이는, 시설영업정보는 통행방해이벤트와 무관하게 별도의 용도가 있기 때문이다.
이와 같이, 본 발명의 일 실시예에 따른 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법은 사용자의 별도의 조작없이 카메라로부터 획득한 외부 영상으로부터 자동적으로 차량의 통행에 방해가 되는 교통 정보를 수집하고, 그 수집된 교통 정보를 서버에게 전송하여 다른 클라이언트와 공유할 수 있게 되는 효과가 있다.
도 2는 본 발명의 일 실시예에 따른 객체분류정보를 생성하는 방법을 설명하기 위하여 도시한 도면이다.
도 2를 참조하면, 교통 정보 수집 장치가 촬영 영상에 포함된 객체를 차량(car), 건물(building), 도로(road) 또는 하늘(sky)로 분류한 것을 확인할 수 있다.
이때, 교통 정보 수집 장치가 촬영 영상에 포함된 적어도 하나의 객체를 분류하여 객체분류정보를 생성하는 과정은 딥러닝(deep learning) 알고리즘을 이용하여 수행될 수 있다.
즉, 교통 정보 수집 장치가 딥러닝 알고리즘을 이용하여 촬영 영상에 포함된 적어도 하나의 객체 각각을 분류하고, 그 분류된 정보를 포함하는 객체분류정보를 생성할 수 있다. 이때, 객체분류정보는 각 객체별로 위치, 종류 및 상태 중에서 적어도 하나에 대한 정보를 포함할 수 있다.
예컨대, 촬영 영상이 도로 상에 사람 1명, 차량 1대를 포함하는 경우, 사람에 대응되는 객체는 인도 위의 성인 남자이고, 차량에 대응되는 객체는 도로 위의 범퍼가 파손된 외관 상태를 갖는 특정 차종의 차량일 수 있다. 교통 정보 수집 장치는 그 2개의 객체에 대한 정보를 포함하는 객체분류정보를 생성할 수 있다.
한편, 딥러닝 알고리즘에 대해서는 도 3에 대한 설명에서 자세하게 후술한다.
도 3은 본 발명의 일 실시예에 따른 딥러닝 알고리즘을 설명하기 위하여 도시한 도면이다.
도 3을 참조하면, 딥러닝 알고리즘은 다중 신경망 기반의 학습 알고리즘 중 하나로 컨벌루션 기반의 신경망과 완전 접속 신경망을 포함할 수 있다. 컨벌루션 신경망은 컨벌루션 연산을 수행하는 컨벌루션 신경층과 영상의 크기를 축소하는 영상 크기 조절층의 다중 연결 구조로 구성된다. 또한, 완전 접속 신경망은 일반 신경층의 다중 연결 구조이다.
이때, 각각의 신경망을 구성하는 신경층의 개수는 입력되는 영상의 크기에 따라 달라질 수 있지만, 일반적으로 5개의 컨벌루션 신경층과 4개의 영상 크기 조절층으로 구성된 컨벌루션 신경망과 2개의 일반 신경층으로 구성된 완전 접속 신경망을 사용할 수 있다. 컨벌루션 기반 신경망은 전처리부에서 획득한 개선된 영상을 분석하여 영상의 세부 특징을 추출하는 역할을 수행하며, 완전 접속 신경망은 컨벌루션 기반 신경망에서 추출한 영상의 세부 특징을 바탕으로 입력된 영상이 어떠한 객체인지 판단하는 역할을 수행할 수 있다.
그렇기 때문에, 완전 접속 신경망의 최말단 신경층은 검출하고자 하는 객체의 개수와 같은 크기의 1차원 벡터 형태의 결과값을 도출하며, 그 중에서 가장 큰 결과값을 갖는 객체를 분석 결과로 판단할 수 있다. 예컨대, 검출하고자 하는 객체가 차량, 사람, 가로수 및 신호등의 4가지이면, 붉은색 사각형의 후보 영역 영상이 입력되었을 때, 딥러닝 알고리즘은 [0.7, 0.1, 0.1, 0.1] 과 같이 “차량, 사람, 가로수, 신호등”의 순서에 따르는 크기가 4인 1차원 벡터 값을 결과로 도출한다. 그리고, 최종적으로 가장 큰 값을 갖는 1번 객체인 “차량”을 인식 결과로 판단할 수 있다. 이때, 인식 객체를 4가지로 한정한 것은 예를 들기 위한 것이며, 실제로 딥러닝 알고리즘을 적용하면 다수의 다중 객체에 대한 인식을 수행할 수 있다.
도 4는 본 발명의 일 실시예에 따른 교통 정보의 수집 및 공유 방법을 설명하기 위하여 도시한 도면이다.
도 4를 참조하면, 교통 정보 수집 장치가 차량에 탑재된 카메라를 이용하여 외부 상황(파란색 영역)을 촬영한 영상으로부터, 그 외부 상황을 분석한 결과인 상황분석정보를 생성하고, 그 생성된 상황분석정보를 교통 정보 저장 서버에 전송할 수 있다. 또한, 교통 정보 저장 서버로부터 전송된 상황분석정보가 복수의 클라이언트에게 중계되어, 내비게이션의 경로 탐색에 이용될 수 있다.
이때, 복수의 클라이언트는 차량일 수 있으나, 차량이 아닌 스마트폰, 태블릿 또는 PC일 수도 있다. 예컨대, 자전거 운전자가 스마트폰을 통해 서버로부터 상황분석정보를 수신할 수 있다. 그리고, 그 상황분석정보가 자전거용 내비게이션의 경로탐색에 이용될 수 있다.
한편, 복수의 클라이언트에게 중계된 상황분석정보는, 각 클라이언트와 연동된 내비게이션에 전달될 수 있다. 그리고, 내비게이션은 그 상황분석정보에 포함된 사건이 발생한 장소를 지나지 않도록 차량 운행 경로를 탐색할 수 있다. 또한, 내비게이션은 그 상황분석정보에 포함된 외부 상황의 종류, 원인, 내용, 영상, 예상지속시간 및 발생장소에 대한 세부 정보를 내비게이션의 사용자에게 제공할 수 있다.
그러나, 상황분석정보를 생성하여 전송하는 차량이 반드시 교통 정보 저장 서버로부터 상황분석정보를 수신하는 클라이언트가 되는 것은 아니다. 또한, 상황분석정보를 생성하여 전송하는 차량이 아니라도 교통 정보 저장 서버로부터 상황분석정보를 수신하는 클라이언트가 될 수 있다. 즉, 상황분석정보를 전송만 하는 차량이나, 수신만 하는 클라이언트가 존재할 수 있다.
한편, 교통 정보 수집 장치가 전송하는 상황분석정보의 신뢰도는 동일한 시간에 동일한 장소에서 발생한 동일한 외부 상황에 대한 상황분석정보가 교통 정보 수집 서버에게 전송된 횟수에 따라 결정될 수 있다.
예컨대, 동일한 외부 상황에 대한 상황분석정보가 일정 시간 동안 보다 많은 차량으로부터 전송될수록, 교통 정보 수집 장치는 그 상황분석정보의 신뢰도가 높다고 판단할 수 있다. 그리고, 교통 정보 저장 서버는 그렇게 결정된 신뢰도에 기초하여 그 신뢰도가 일정 수준 이상인 경우에만, 그 상황분석정보를 복수의 클라이언트에게 중계할 수 있다.
도 5는 본 발명의 다른 실시예에 따른 교통 정보의 수집 및 공유 방법을 설명하기 위하여 도시한 도면이다.
도 5를 참조하면, 사용자가 상황분석정보를 수집하는 교통 정보 저장 서버에 키워드, 장소 또는 시간 등의 정보를 입력하여 관련된 사건 및 사고를 검색할 수 있다.
상황분석정보는 외부 상황의 종류, 원인, 내용, 영상, 예상지속시간 및 발생장소 중 적어도 하나의 정보를 포함할 수 있다. 따라서, 상황분석정보에 대한 데이터베이스가 구축된 교통 정보 저장 서버에 사용자가 키워드, 장소 또는 시간 중 하나를 입력하면, 그 입력과 관련된 상황분석정보를 검색할 수 있다.
이때, 사용자가 입력한 키워드는 저장된 복수의 상황분석정보에 포함된 외부 상황의 종류, 원인 및 내용을 검색하는데 이용될 수 있다. 또한, 사용자가 입력한 장소는 상황분석정보에 포함된 발생장소를 검색하는데 이용될 수 있다. 또한, 사용자가 입력한 시간은 상황분석정보가 전송되거나 수신된 날짜 및 시간 정보를 검색하는데 이용될 수 있다.
교통 정보 저장 서버에 의해 검색이 수행되면, 사용자는 교통 정보 저장 서버로부터 검색된 상황분석정보의 목록 및 세부내용을 수신할 수 있다. 그리고, 각 상황분석정보의 세부내용으로부터 외부 상황의 종류, 원인, 내용, 영상, 예상지속시간 및 발생장소 중 적어도 하나를 확인할 수 있다.
이 경우, 저장된 상황분석정보는 현재뿐만 아니라 과거에 발생한 도로상의 사건 및 사고를 검색하는데 이용될 수 있기 때문에, 도난 차량 또는 범죄자의 추적, 교통사고의 원인 파악 및 기타 사건사고의 정황 파악을 위한 자료로 이용될 수 있는 효과가 있다.
도 6은 본 발명의 또 다른 실시예에 따른 교통 정보의 수집 및 공유 방법을 설명하기 위하여 도시한 도면이다.
도 6을 참조하면, 교통 정보 저장 서버가 교통 정보 수집 장치로부터 전송된 상황분석정보를 웹페이지 또는 별도의 애플리케이션을 통해 지도상에 표시하여 실시간 교통 정보 서비스를 제공할 수 있다.
이 경우, 교통 정보 저장 서버가 전송된 다수의 상황분석정보를 자동적으로 웹페이지 또는 애플리케이션 상의 지도 위에 표시하는 서비스를 제공할 수 있어, 사용자는 자신이 원하는 지역에 대한 교통 정보를 지속적으로 보다 간편하게 획득할 수 있다.
이때, 웹페이지는 범용적인 웹브라우져를 이용하여 접근가능한 웹문서의 총칭이고, 애플리케이션은 스마트폰, 태블릿 등의 스마트기기 또는 노트북, 데스크탑 등의 컴퓨터에서 사용되도록 제작된 소프트웨어일 수 있다.
도 7은 본 발명의 일 실시예에 따른 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 장치를 설명하기 위하여 도시한 도면이다.
도 7을 참조하면, 본 발명의 일 실시예에 따른 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 장치(700)는 분류부(710), 분석부(720), 판단부(730) 및 전송부(740)를 포함한다. 또한, 선택적으로 획득부(미도시) 및 전처리부(미도시)를 더 포함할 수 있다. 한편, 교통 정보 수집 장치(700)는 차량의 운전자 통합정보 시스템(driver information system), 차량용 블랙박스(영상기록장치), 스마트폰, 태블릿 또는 컴퓨터에 탑재될 수 있다.
분류부(710)는 차량의 외부 상황을 촬영한 영상에 포함된 적어도 하나의 객체에 대한 위치, 종류 및 상태 중 적어도 하나에 대한 정보를 나타내는 객체분류정보를 생성한다.
다른 실시예에서는, 분류부(710)는 딥러닝 알고리즘에 기초하여 객체분류정보를 생성할 수 있다.
분석부(720)는 그 객체분류정보에 기초하여, 차량의 외부 상황을 분석한 정보인 상황분석정보를 생성한다.
다른 실시예에서는, 상황분석정보는 그 외부 상황의 종류, 원인, 내용, 영상, 예상지속시간 및 발생장소 중 적어도 하나에 대한 정보를 포함할 수 있다.
판단부(730)는 그 상황분석정보가 차량의 통행을 방해하는 사건인 통행방해이벤트에 해당하는지 판단한다.
전송부(740)는 판단부(730)의 판단 결과에 기초하여, 선택적으로 그 상황분석정보를 서버에게 전송한다.
획득부(미도시)는 차량에 설치된 카메라로부터 차량의 외부 상황을 촬영한 영상을 획득한다.
마지막으로 전처리부(미도시)는 그 영상의 화질을 개선하기 위한 전처리를 수행한다. 이때, 분류부(710)는 그 전처리가 수행된 영상을 이용할 수 있다.
다른 실시예에서는, 분석부(720)가 그 외부 상황으로 인해 차량의 통행을 방해받는 차선 수 및 전체 차선 수 간의 비율인 차선방해비율과 그 외부 상황이 정리되기까지의 예상지속시간을 상황분석정보에 포함할 때, 판단부(730)는 그 상황분석정보에 포함된 차선방해비율 및 예상지속시간 중 적어도 하나에 기초하여, 그 상황분석정보가 통행방해이벤트에 해당하는지를 판단할 수 있다.
또 다른 실시예에서는, 전송된 상황분석정보는 그 서버에 등록된 복수의 클라이언트에게 중계되어, 그 복수의 클라이언트 각각에 연동된 내비게이션의 경로 탐색에 이용될 수 있다.
또 다른 실시예에서는, 분류부(710)가 촬영 영상에 포함된 적어도 하나의 운전자 편의 시설의 실시간 영업 정보를 나타내는 시설영업정보를 더 생성하고, 분석부(720)가 그 시설영업정보를 더 포함하는 상황분석정보를 생성하고, 판단부(730)가 그 상황분석정보가 시설영업정보를 포함하는지 더 판단할 때, 전송부(740)는 시설영업정보의 포함 여부에 대한 판단 결과에 따라서, 통행방해이벤트 해당 여부에 대한 판단 결과와 무관하게 그 상황분석정보를 서버에게 전송할 수 있다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.
상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 를 포함한다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (15)

  1. 차량의 외부 상황을 촬영한 영상에 포함된 적어도 하나의 객체에 대한 위치, 종류 및 상태 중 적어도 하나에 대한 정보를 나타내는 객체분류정보를 생성하는 단계;
    상기 객체분류정보에 기초하여, 상기 차량의 외부 상황을 분석한 정보인 상황분석정보를 생성하는 단계; 및
    상기 상황분석정보가 차량의 통행을 방해하는 사건인 통행방해이벤트에 해당하는지에 기초하여, 선택적으로 상기 상황분석정보를 서버에게 전송하는 단계
    를 포함하고,
    상기 상황분석정보를 생성하는 단계가 상기 외부 상황으로 인해 차량의 통행을 방해받는 차선 수 및 전체 차선 수 간의 비율인 차선방해비율과 상기 외부 상황이 정리되기까지의 예상지속시간을 상기 상황분석정보에 포함하고,
    상기 상황분석정보를 서버에게 전송하는 단계는
    상기 상황분석정보에 포함된 상기 차선방해비율 및 상기 예상지속시간 중 적어도 하나에 기초하여, 상기 상황분석정보가 상기 통행방해이벤트에 해당하는지를 판단하는 것을 특징으로 하는 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법.
  2. 제1항에 있어서,
    상기 객체분류정보를 생성하는 단계는
    딥러닝(deep learning) 알고리즘에 기초하여 수행되는 것을 특징으로 하는 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법.
  3. 제1항에 있어서,
    상기 상황분석정보는
    상기 외부 상황의 종류, 원인, 내용, 영상, 예상지속시간 및 발생장소 중 적어도 하나에 대한 정보를 포함하는 것을 특징으로 하는 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법.
  4. 삭제
  5. 제1항에 있어서,
    상기 차량에 설치된 카메라로부터 상기 차량의 외부 상황을 촬영한 영상을 획득하는 단계; 및
    상기 영상의 화질을 개선하기 위한 전처리를 수행하는 단계
    를 더 포함하고,
    상기 객체분류정보를 생성하는 단계는 상기 전처리가 수행된 영상을 이용하는 것을 특징으로 하는 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법.
  6. 제1항에 있어서,
    상기 전송된 상황분석정보는 상기 서버에 등록된 복수의 클라이언트에게 중계되어, 상기 복수의 클라이언트 각각에 연동된 내비게이션의 경로 탐색에 이용되는 것을 특징으로 하는 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법.
  7. 제6항에 있어서,
    상기 상황분석정보는
    동일한 장소에서 발생한 동일한 외부 상황에 대한 상기 상황분석정보가 상기 서버에게 전송된 횟수에 기초하여 상기 상황분석정보의 신뢰도가 결정되는 것을 특징으로 하는 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법.
  8. 제1항에 있어서,
    상기 객체분류정보를 생성하는 단계가 상기 영상에 포함된 적어도 하나의 운전자 편의 시설의 실시간 영업 정보를 나타내는 시설영업정보를 더 생성하고, 상기 상황분석정보를 생성하는 단계가 상기 시설영업정보를 더 포함하는 상기 상황분석정보를 생성하고,
    상기 상황분석정보를 서버에게 전송하는 단계는
    상기 상황분석정보가 상기 시설영업정보를 포함하면, 상기 통행방해이벤트 해당 여부와 무관하게 상기 상황분석정보를 상기 서버에게 전송하는 것을 특징으로 하는 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법.
  9. 차량의 외부 상황을 촬영한 영상에 포함된 적어도 하나의 객체에 대한 위치, 종류 및 상태 중 적어도 하나에 대한 정보를 나타내는 객체분류정보를 생성하는 분류부;
    상기 객체분류정보에 기초하여, 상기 차량의 외부 상황을 분석한 정보인 상황분석정보를 생성하는 분석부;
    상기 상황분석정보가 차량의 통행을 방해하는 사건인 통행방해이벤트에 해당하는지 판단하는 판단부; 및
    상기 판단 결과에 기초하여, 선택적으로 상기 상황분석정보를 서버에게 전송하는 전송부
    를 포함하고,
    상기 분석부가 상기 외부 상황으로 인해 차량의 통행을 방해받는 차선 수 및 전체 차선 수 간의 비율인 차선방해비율과 상기 외부 상황이 정리되기까지의 예상지속시간을 상기 상황분석정보에 포함하고,
    상기 판단부는
    상기 상황분석정보에 포함된 상기 차선방해비율 및 상기 예상지속시간 중 적어도 하나에 기초하여, 상기 상황분석정보가 상기 통행방해이벤트에 해당하는지를 판단하는 것을 특징으로 하는 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 장치.
  10. 제9항에 있어서,
    상기 분류부는
    딥러닝 알고리즘에 기초하여 상기 객체분류정보를 생성하는 것을 특징으로 하는 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 장치.
  11. 제9항에 있어서,
    상기 상황분석정보는
    상기 외부 상황의 종류, 원인, 내용, 영상, 예상지속시간 및 발생장소 중 적어도 하나에 대한 정보를 포함하는 것을 특징으로 하는 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 장치.
  12. 삭제
  13. 제9항에 있어서
    상기 차량에 설치된 카메라로부터 상기 차량의 외부 상황을 촬영한 영상을 획득하는 획득부; 및
    상기 영상의 화질을 개선하기 위한 전처리를 수행하는 전처리부
    를 더 포함하고,
    상기 분류부는 상기 전처리가 수행된 영상을 이용하는 것을 특징으로 하는 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 장치.
  14. 제9항에 있어서,
    상기 전송된 상황분석정보는 상기 서버에 등록된 복수의 클라이언트에게 중계되어, 상기 복수의 클라이언트 각각에 연동된 내비게이션의 경로 탐색에 이용되는 것을 특징으로 하는 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 장치.
  15. 제9항에 있어서,
    상기 분류부가 상기 촬영 영상에 포함된 적어도 하나의 운전자 편의 시설의 실시간 영업 정보를 나타내는 시설영업정보를 더 생성하고, 상기 분석부가 상기 시설영업정보를 더 포함하는 상기 상황분석정보를 생성하고, 상기 판단부가 상기 상황분석정보가 상기 시설영업정보를 포함하는지 더 판단하고,
    상기 전송부는
    상기 시설영업정보의 포함 여부에 대한 판단 결과에 따라서, 상기 통행방해이벤트 해당 여부에 대한 판단 결과와 무관하게 상기 상황분석정보를 상기 서버에게 전송하는 것을 특징으로 하는 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 장치.
KR1020160033894A 2016-03-22 2016-03-22 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법 및 장치 KR101833359B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160033894A KR101833359B1 (ko) 2016-03-22 2016-03-22 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법 및 장치
US15/465,819 US10223910B2 (en) 2016-03-22 2017-03-22 Method and apparatus for collecting traffic information from big data of outside image of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160033894A KR101833359B1 (ko) 2016-03-22 2016-03-22 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20170109818A KR20170109818A (ko) 2017-10-10
KR101833359B1 true KR101833359B1 (ko) 2018-02-28

Family

ID=59898848

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160033894A KR101833359B1 (ko) 2016-03-22 2016-03-22 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법 및 장치

Country Status (2)

Country Link
US (1) US10223910B2 (ko)
KR (1) KR101833359B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11164040B2 (en) 2018-12-19 2021-11-02 Korea University Research And Business Foundation Operation device of convolutional neural network and operation method thereof
EP4131200A4 (en) * 2020-04-24 2023-04-26 Huawei Technologies Co., Ltd. METHOD AND DEVICE FOR PROVIDING THE REASON FOR A ROAD CONGESTION
KR20230127439A (ko) 2022-02-24 2023-09-01 오큐브 주식회사 차량 내 블랙박스나 별도 장착된 카메라를 활용한 도로 상황에 대한 빅데이터 구축 및 활용 시스템 및 방법
KR20230169630A (ko) 2022-06-09 2023-12-18 한밭대학교 산학협력단 도심의 신호교차로와 링크에 대한 교통 빅데이터를 구축할 수 있는 교통 빅데이터 구축 시스템 및 방법

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9747793B1 (en) 2016-08-21 2017-08-29 International Business Machines Corporation Transportation vehicle traffic management
US10474908B2 (en) * 2017-07-06 2019-11-12 GM Global Technology Operations LLC Unified deep convolutional neural net for free-space estimation, object detection and object pose estimation
US11810340B2 (en) * 2017-11-29 2023-11-07 International Business Machines Corporation System and method for consensus-based representation and error checking for neural networks
JP6899074B2 (ja) * 2017-12-07 2021-07-07 トヨタ自動車株式会社 管理システム、管理方法、及び管理プログラム
CN108230734B (zh) * 2018-01-11 2021-02-09 重庆邮电大学 一种基于v2x通信的室外智慧停车***
KR102057066B1 (ko) * 2018-05-25 2020-01-14 (주)아인스에스엔씨 교통 빅데이터 기계학습이 내장된 교통시스템 모델링방법
CN109165561A (zh) * 2018-07-27 2019-01-08 北京以萨技术股份有限公司 一种基于视频特征的交通拥堵识别方法
CN109345823B (zh) * 2018-09-19 2021-11-05 连云港杰瑞电子有限公司 一种基于大数据的智能交通数据分析***
CN113646800A (zh) * 2018-09-27 2021-11-12 株式会社OPTiM 物体状况判断***、物体状况判断方法以及程序
CN109903557A (zh) * 2019-03-04 2019-06-18 南京邮电大学 基于改进独立循环神经网络的高速公路交通流预测方法
CN111859291B (zh) * 2020-06-23 2022-02-25 北京百度网讯科技有限公司 交通事故识别方法、装置、设备和计算机存储介质
EP4253995A1 (en) * 2020-12-28 2023-10-04 Bitsensing Inc. Radar device and method for detecting object on basis of plurality of modes

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007323117A (ja) * 2006-05-30 2007-12-13 Kenwood Corp 道路通信システム、移動体装置、および、移動体装置の情報処理方法
JP2009192420A (ja) 2008-02-15 2009-08-27 Sharp Corp 移動体ナビゲーションシステム、ナビゲーション装置およびサーバ装置
KR101125665B1 (ko) 2011-11-17 2012-03-27 이에스이 주식회사 도로상 돌발상황 중계시스템 및 중계 서비스 제공 방법

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4003623B2 (ja) * 2002-11-19 2007-11-07 住友電気工業株式会社 旋回可能な監視カメラを用いた画像処理システム
JP4793094B2 (ja) * 2006-05-17 2011-10-12 株式会社デンソー 走行環境認識装置
JP4848893B2 (ja) * 2006-08-29 2011-12-28 株式会社デンソー 交差点情報提供システム及び運転支援システム
US9076332B2 (en) * 2006-10-19 2015-07-07 Makor Issues And Rights Ltd. Multi-objective optimization for real time traffic light control and navigation systems for urban saturated networks
GB0717233D0 (en) * 2007-09-05 2007-10-17 Trw Ltd Traffic monitoring
US20090112452A1 (en) * 2007-10-25 2009-04-30 Gm Global Technology Operations, Inc. Vehicle navigation system with real time traffic image display
AU2009243442B2 (en) * 2009-11-30 2013-06-13 Canon Kabushiki Kaisha Detection of abnormal behaviour in video objects
US20120033123A1 (en) * 2010-08-06 2012-02-09 Nikon Corporation Information control apparatus, data analyzing apparatus, signal, server, information control system, signal control apparatus, and program
EP2709082B1 (en) * 2011-05-13 2015-08-12 Toyota Jidosha Kabushiki Kaisha Vehicle-use signal information processing device and vehicle-use signal information processing method, as well as driving assistance device and driving assistance method
US9286693B2 (en) * 2013-02-25 2016-03-15 Hanwha Techwin Co., Ltd. Method and apparatus for detecting abnormal movement
WO2015160900A1 (en) * 2014-04-15 2015-10-22 Maris, Ltd Assessing asynchronous authenticated data sources for use in driver risk management
EP3187388B1 (en) * 2014-08-28 2019-03-06 Nissan Motor Co., Ltd Travel control device and travel control method
US10701321B2 (en) * 2015-02-27 2020-06-30 Sensormatic Electronics, LLC System and method for distributed video analysis
ITUB20153277A1 (it) * 2015-08-28 2017-02-28 St Microelectronics Srl Procedimento per ricerche visuali, sistema, apparecchiatura e prodotto informatico corrispondenti
US9892344B1 (en) * 2015-11-30 2018-02-13 A9.Com, Inc. Activation layers for deep learning networks

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007323117A (ja) * 2006-05-30 2007-12-13 Kenwood Corp 道路通信システム、移動体装置、および、移動体装置の情報処理方法
JP2009192420A (ja) 2008-02-15 2009-08-27 Sharp Corp 移動体ナビゲーションシステム、ナビゲーション装置およびサーバ装置
KR101125665B1 (ko) 2011-11-17 2012-03-27 이에스이 주식회사 도로상 돌발상황 중계시스템 및 중계 서비스 제공 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11164040B2 (en) 2018-12-19 2021-11-02 Korea University Research And Business Foundation Operation device of convolutional neural network and operation method thereof
EP4131200A4 (en) * 2020-04-24 2023-04-26 Huawei Technologies Co., Ltd. METHOD AND DEVICE FOR PROVIDING THE REASON FOR A ROAD CONGESTION
KR20230127439A (ko) 2022-02-24 2023-09-01 오큐브 주식회사 차량 내 블랙박스나 별도 장착된 카메라를 활용한 도로 상황에 대한 빅데이터 구축 및 활용 시스템 및 방법
KR20230169630A (ko) 2022-06-09 2023-12-18 한밭대학교 산학협력단 도심의 신호교차로와 링크에 대한 교통 빅데이터를 구축할 수 있는 교통 빅데이터 구축 시스템 및 방법

Also Published As

Publication number Publication date
KR20170109818A (ko) 2017-10-10
US10223910B2 (en) 2019-03-05
US20170278386A1 (en) 2017-09-28

Similar Documents

Publication Publication Date Title
KR101833359B1 (ko) 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법 및 장치
US11060882B2 (en) Travel data collection and publication
JP7499256B2 (ja) ドライバの挙動を分類するためのシステムおよび方法
US8379924B2 (en) Real time environment model generation system
CN110349405A (zh) 利用联网汽车的实时交通监视
CN107122765B (zh) 一种高速公路服务区全景监控方法及***
KR102453627B1 (ko) 딥러닝 기반 교통 흐름 분석 방법 및 시스템
JP2021534501A (ja) 道路セグメント類似性判定
US11721100B2 (en) Automatic air recirculation systems for vehicles
CN111094095B (zh) 自动地感知行驶信号的方法、装置及运载工具
KR102246706B1 (ko) 자율 주행 장치 및 이상 도로 상황에서 자율 주행 장치 운용 방법
KR102122850B1 (ko) 딥 러닝 기반의 교통분석 및 차량번호 인식 솔루션
AU2017328113A1 (en) A method and system for analyzing the movement of bodies in a traffic system
Park et al. Real-time signal light detection
Madana et al. Conformity of accident detection using drones and vibration sensor
CN112509322A (zh) 一种基于无人机的高速交通事故监管方法、***及可读存储介质
US11645832B1 (en) Sensor fusion for precipitation detection and control of vehicles
DE102022100218A1 (de) Umgebungsbeschränkungs- und Sensoranomaliesystem und -verfahren
DE102021133533A1 (de) Immobilitätsdetektion innerhalb eines situativen kontexts
DE102023111485A1 (de) Nachverfolgungssegmentbereinigung nachverfolgter objekte
CN114248819A (zh) 基于深度学习的铁路侵限异物无人机检测方法、装置及***
KR102499340B1 (ko) 이기종 객체 필터 기반 하이브리드 영상 분석 장치 및 방법
Pyykönen et al. Traffic monitoring and modeling for intersection safety
CN114120250B (zh) 一种基于视频的机动车辆违法载人检测方法
WO2022267266A1 (zh) 一种基于视觉识别的列车控制方法及设备

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant