KR102091327B1 - Automated Driving System for Automated Driving car - Google Patents

Automated Driving System for Automated Driving car Download PDF

Info

Publication number
KR102091327B1
KR102091327B1 KR1020180070750A KR20180070750A KR102091327B1 KR 102091327 B1 KR102091327 B1 KR 102091327B1 KR 1020180070750 A KR1020180070750 A KR 1020180070750A KR 20180070750 A KR20180070750 A KR 20180070750A KR 102091327 B1 KR102091327 B1 KR 102091327B1
Authority
KR
South Korea
Prior art keywords
information
driving
autonomous
event
vehicle
Prior art date
Application number
KR1020180070750A
Other languages
Korean (ko)
Other versions
KR20190143151A (en
Inventor
이우용
Original Assignee
이우용
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이우용 filed Critical 이우용
Priority to KR1020180070750A priority Critical patent/KR102091327B1/en
Publication of KR20190143151A publication Critical patent/KR20190143151A/en
Application granted granted Critical
Publication of KR102091327B1 publication Critical patent/KR102091327B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Atmospheric Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 자율주행 자동차의 자율주행 시스템에 관한 것으로서 더욱 상세하게는 자율주행이 수행되는 복수개의 자동차 및 도로 주변에 배치되는 복수개의 정보취득단말기간에 데이터 통신 가능하도록 연결되어 취득영상정보 또는 이벤트 발생정보를 서로 공유가능하도록 구성됨에 따라 특정 자율주행 자동차가 자율주행시 고려하여야 할 다양하고 많은 주행환경정보를 취득할 수 있어 주행 안정성을 보다 증대시킬 수 있는 자율주행 자동차의 자율주행 시스템에 관한 것이다.
이를 위해 본 발명은 자율주행 자동차들의 자율주행 시스템에 있어서, 제1촬영수단이 탑재되어 취득된 취득영상정보와 이벤트의 발생여부를 감지하여 이벤트 발생정보 생성을 통해 주행 도로 상에 자율주행이 수행되며 데이터 통신가능하도록 제1통신모듈이 탑재되어 외부단말기 또는 외부서버와 통신가능하도록 연결되는 복수개의 자율주행 자동차와; 주행 도로 일측에 고정 설치되거나 상부측에 비행하며 제2촬영수단이 탑재되어 영상정보를 취득하며 제2통신모듈이 탑재되어 이를 외부단말기 또는 외부서버와 통신가능하도록 연결되는 복수개의 정보취득단말기와; 상기 복수개의 자율주행 자동차 및 복수개의 정보취득단말기와 데이터 통신 가능하도록 연결되어 이들로부터 주행정보, 취득영상정보 또는 이벤트 발생정보를 수신받아 저장하며 특정 자율주행 자동차의 위치 정보를 수신받아 설정 범위 내의 취득영상정보 및 이벤트 발생정보를 추출하여 해당 자율주행 자동차로 이를 전송하는 자율주행서버;를 포함한다.
The present invention relates to an autonomous driving system of an autonomous driving vehicle, and more specifically, it is connected to enable data communication during a plurality of information acquisition terminal periods arranged around a plurality of cars and roads on which autonomous driving is performed. As it is configured to be shared with each other, it relates to an autonomous driving system of an autonomous driving vehicle that can increase driving stability by obtaining a variety of driving environment information that a specific autonomous vehicle should consider when autonomous driving.
To this end, the present invention is an autonomous driving system of autonomous vehicles, in which autonomous driving is performed on the driving road through generation of event occurrence information by detecting whether an acquired image information and an event are generated by mounting a first photographing means. A plurality of self-driving cars equipped with a first communication module to enable data communication and connected to communicate with an external terminal or an external server; A plurality of information acquisition terminals fixedly installed on one side of the driving road or flying on the upper side, the second photographing means is mounted to acquire image information, and a second communication module is mounted to be connected to communicate with an external terminal or an external server; It is connected to enable data communication with the plurality of autonomous vehicles and a plurality of information acquisition terminals, receives and stores driving information, acquired image information, or event occurrence information from them, and receives location information of a specific autonomous vehicle and acquires it within a set range And an autonomous driving server that extracts video information and event occurrence information and transmits it to the autonomous driving vehicle.

Description

자율주행 자동차의 자율주행 시스템{Automated Driving System for Automated Driving car}Autonomous Driving System for Automated Driving System

본 발명은 자율주행 자동차의 자율주행 시스템에 관한 것으로서 더욱 상세하게는 자율주행이 수행되는 복수개의 자동차 및 도로 주변에 배치되는 복수개의 정보취득단말기간에 데이터 통신 가능하도록 연결되어 취득영상정보 또는 이벤트 발생정보를 서로 공유가능하도록 구성됨에 따라 특정 자율주행 자동차가 자율주행시 고려하여야 할 다양하고 많은 주행환경정보를 용이하게 취득할 수 있어 주행 안정성을 보다 증대시킬 수 있는 자율주행 자동차의 자율주행 시스템에 관한 것이다.The present invention relates to an autonomous driving system of an autonomous driving vehicle, and more specifically, it is connected to enable data communication during a plurality of information acquisition terminal periods arranged around a plurality of cars and roads on which autonomous driving is performed. As it is configured to be shared with each other, it is related to an autonomous driving system of an autonomous driving vehicle that can increase driving stability by easily acquiring a variety of driving environment information that a specific autonomous driving vehicle should consider when autonomous driving.

이하에 기술되는 내용은 단순히 본 실시 예와 관련되는 배경 정보만을 제공할 뿐 종래기술을 구성하는 것이 아니다. The contents described below merely provide background information related to the present embodiment, and do not constitute a prior art.

최근 자율주행에 대한 연구가 활발히 진행되고 있다. 자율주행을 위해서는 센서 등을 통한 외부환경의 정확한 인식과 인식된 정보에 기한 주행 방향, 속도 등 주행 조건의 결정이 필요하다.Recently, research on autonomous driving has been actively conducted. For autonomous driving, it is necessary to accurately recognize the external environment through sensors and determine driving conditions such as driving direction and speed based on the recognized information.

외부환경 인식을 위한 센서로서 레이더 등이 이용되고 있지만, 보다 많은 정보를 인식하기 위해 비젼 센서의 이용이 활발해 지고 있다. 비젼 센서는 다른 센서들에 비해 상대적으로 가격이 비싸지 않다는 점에서도 각광을 받고 있다. 관련하여, 패턴 인식이나 이미지 프로세싱에 의한 차량 외부환경 인식 기술이 크게 발전하고 있으며, 자율주행에 크게 도움이 될 것으로 기대된다.Radar or the like is used as a sensor for recognizing the external environment, but the use of a vision sensor has been actively used to recognize more information. Vision sensors are also spotlighted in that they are relatively inexpensive compared to other sensors. In relation to this, the technology for recognizing the external environment of the vehicle by pattern recognition or image processing has been greatly developed, and is expected to greatly help autonomous driving.

한편, 지능형 교통시스템 구축을 위해, 각국에서 오래 전부터 많은 관심을 가져 오고 있었으며, 관련한 국제표준도 마련되고 있다. 예컨대, 'Road Guidance Protocol (RGP)' 및 'Unified Gateway Protocol (UGP)'에 대한 Message와 관련하여 ISO/TC204에서 표준을 제정하였고, ETSI, CEN/TC278, ISO/TC204 등에서 'Local Dynamic Map (LDM)' 을 위해 'Cooperative Awareness Messages (CAMs)', 'Decentralized Environmental Notification Messages (DENMs)' 등에 대해 표준을 제정하였다.Meanwhile, in order to build an intelligent transportation system, many countries have been interested in it for a long time, and relevant international standards are being prepared. For example, in relation to the messages for 'Road Guidance Protocol (RGP)' and 'Unified Gateway Protocol (UGP)', standards have been established in ISO / TC204, and 'Local Dynamic Map (LDM) in ETSI, CEN / TC278, ISO / TC204, etc. For '), standards were established for' Cooperative Awareness Messages (CAMs) 'and' Decentralized Environmental Notification Messages (DENMs) '.

특히, LDM은 맵 정보와 관련하여 정보의 동적 특성에 따라 Type 1에서 Type 4까지 4가지 유형으로 분류될 수 있다. 여기서, Type 1 정보는 도로 및 건물 등에 대한 지도 정보로서 'static' 정보이며, Type 2 정보는 'quasi-staic' 정보로서 랜드마크, 교통표지판 등과 같은 정보가 이에 해당하고, Type 3 정보는 'Dynamic' 정보로서 교통정체, 신호등 정보, 교통사고 정보, 공사구간 정보, 노면상태 등에 대한 정보가 이에 해당하며, Type 4는 'Highly Dynamic' 정보로서 주변차량, 보행자 등에 대한 정보가 이에 해당한다. Type 1 정보가 수개월에서 수년에 걸쳐 변화되는 정도의 동적 특성 정보라면, Type 4 정보는 수초에 걸쳐 변화되는 매우 동적인 정보라 할 수 있다.In particular, LDM can be classified into four types from Type 1 to Type 4 according to the dynamic characteristics of the information in relation to map information. Here, the Type 1 information is 'static' information as map information for roads and buildings, and the Type 2 information is 'quasi-staic' information, such as landmarks, traffic signs, etc., and Type 3 information is 'Dynamic' As information, information on traffic congestion, traffic light information, traffic accident information, construction section information, road surface conditions, etc., and Type 4 is 'Highly Dynamic' information, which includes information on surrounding vehicles and pedestrians. If Type 1 information is dynamic property information that changes over a period of months to years, Type 4 information can be said to be very dynamic information that changes over several seconds.

LDM이 지능형 교통 시스템과 관련하여 매우 중요하지만, 자율주행에 이용되기 위해서는 더욱 정밀한 정보를 다룰 수 있어야 하는 것으로 인식되고 있다. 예컨대, Type 1 정보만도 기존의 2차원 맵데이터 정도의 수준이 아닌 3차원 맵데이터 수준이 되어야 한다. 즉, 자율주행을 위해서는 고정밀도의 3차원 맵이 필요하다고 크게 인식되고 있는데, 그러한 맵 개발을 위해 구글, 우버, 히어(here) 등등에서 막대한 자본을 투입하고 있으며, 머지않아 상용적으로 활용될 수 있을 것으로 기대된다.Although LDM is very important in connection with intelligent transportation systems, it is recognized that it must be able to handle more precise information in order to be used for autonomous driving. For example, only Type 1 information should be at the level of 3D map data, not the level of existing 2D map data. In other words, it is widely recognized that a high-precision 3D map is required for autonomous driving. Google, Uber, Here, etc. are investing a lot of capital to develop such a map, and it can be used commercially soon. It is expected to be.

3차원의 고정밀도 맵이 개발되고, 센서에 의한 주변상황 인식의 정밀도가 더 높아짐에 따라 자율주행 기술도 크게 발전할 것으로 기대되지만, 인식된 주변상황으로부터 어떻게 안전 운전을 위한 주행 판단을 할 수 있을지, 아직 그에 대한 논의는 부족한 실정이다. 자율주행 차량에 있어서, 3차원 맵과 센서가 눈이라면 자율주행 판단을 위한 브레인에 대해서는 아직 더 논의할 필요가 있다고 할 수 있다. 즉, 디지털맵 정보 및 센서정보를 이용하여 자율주행을 수행하게 될 자율주행 시스템의 개발이 필요하다.As a 3D high-precision map is developed and the accuracy of the sensor's perception of surroundings is higher, it is expected that the autonomous driving technology will also greatly develop, but how to make a driving judgment for safe driving from the recognized surroundings However, the discussion on it is still insufficient. In an autonomous vehicle, if the 3D map and the sensor are eyes, it can be said that the brain for autonomous driving judgment still needs to be discussed. That is, it is necessary to develop an autonomous driving system that will perform autonomous driving using digital map information and sensor information.

본 발명은 상기의 문제점을 해결하기 위해 안출된 것으로서 자율주행이 수행되는 복수개의 자동차 및 도로 주변에 배치되는 복수개의 정보취득단말기간에 데이터 통신 가능하도록 연결되어 취득영상정보 또는 이벤트 발생정보를 서로 공유가능하도록 구성됨에 따라 특정 자율주행 자동차가 자율주행시 고려하여야 할 다양하고 많은 주행환경정보를 취득할 수 있어 주행 안정성을 보다 증대시킬 수 있는 자율주행 자동차의 자율주행 시스템을 제공함에 그 목적이 있다. The present invention has been devised to solve the above problems, and is connected to enable data communication during a plurality of information acquisition terminal periods arranged around a plurality of cars and roads on which autonomous driving is performed. The objective is to provide an autonomous driving system of an autonomous driving vehicle that can increase driving stability by acquiring a variety of driving environment information that a specific autonomous driving vehicle should consider when autonomous driving.

본 발명은 상기의 목적을 달성하기 위해 아래와 같은 특징을 갖는다. The present invention has the following features to achieve the above object.

본 발명은 자율주행 자동차들의 자율주행 시스템에 있어서, 제1촬영수단이 탑재되어 취득된 취득영상정보와 이벤트의 발생여부를 감지하여 이벤트 발생정보 생성을 통해 주행 도로 상에 자율주행이 수행되며 데이터 통신가능하도록 제1통신모듈이 탑재되어 외부단말기 또는 외부서버와 통신가능하도록 연결되는 복수개의 자율주행 자동차와; 주행 도로 일측에 고정 설치되거나 상부측에 비행하며 제2촬영수단이 탑재되어 영상정보를 취득하며 제2통신모듈이 탑재되어 이를 외부단말기 또는 외부서버와 통신가능하도록 연결되는 복수개의 정보취득단말기와; 상기 복수개의 자율주행 자동차 및 복수개의 정보취득단말기와 데이터 통신 가능하도록 연결되어 이들로부터 주행정보, 취득영상정보 또는 이벤트 발생정보를 수신받아 저장하며 특정 자율주행 자동차의 위치 정보를 수신받아 설정 범위 내의 취득영상정보 및 이벤트 발생정보를 추출하여 해당 자율주행 자동차로 이를 전송하는 자율주행서버;를 포함한다. The present invention is an autonomous driving system of autonomous vehicles, in which autonomous driving is performed on a driving road through generation of event occurrence information by detecting whether an acquired image information and an event are generated by mounting a first shooting means. A plurality of self-driving cars equipped with a first communication module to enable communication with an external terminal or an external server; A plurality of information acquisition terminals fixedly installed on one side of the driving road or flying on the upper side, the second photographing means is mounted to acquire image information, and a second communication module is mounted to be connected to communicate with an external terminal or an external server; It is connected to enable data communication with the plurality of autonomous vehicles and a plurality of information acquisition terminals, receives and stores driving information, acquired image information, or event occurrence information from them, and receives location information of a specific autonomous vehicle and acquires it within a set range And an autonomous driving server that extracts video information and event occurrence information and transmits it to the autonomous driving vehicle.

여기서 상기 자율주행 자동차는 주행하는 자동차의 일측에 설치되어 자동차 주변의 영상정보를 취득하는 제1촬영수단과, 설정 범위 내에 위치하는 다른 자율주행 자동차 또는 정보취득단말기와 데이터통신 가능하도록 연결하며 상기 자율주행서버와 데이터통신 가능하도록 연결하는 제1통신모듈과, 제1촬영수단을 통해 취득된 영상정보를 통해 주행환경 상에서 이벤트발생여부를 감지하는 제1이벤트감지부와, 상기 제1이벤트감지부로부터 이벤트 발생정보를 전달받으며, 상기 제1통신모듈을 통해 다른 자율주행 자동차, 정보취득단말기 또는 자율주행서버로부터 이벤트 발생정보를 전달받아 설정 조건에 따라 이벤트 필터링을 수행하는 이벤트필터링부와, 상기 이벤트필터링부로부터 필터링이 수행된 이벤트 발생정보를 전달받아 해당 이벤트 발생정보에 대응하는 영상정보를 제1촬영수단으로부터 전달받음과 동시에 해당 이벤트 발생정보에 대응하는 영상정보가 다른 자율주행 자동차, 정보취득단말기 또는 자율주행서버에 있는 경우 이를 추출하여 주행 경로 상에서 시뮬레이션을 수행하는 시뮬레이션수행부와, 상기 제1촬영수단으로부터 취득된 영상정보를 통해 자율주행 자동차의 자율주행을 제어하며 상기 제1이벤트감지부로부터 이벤트 발생정보가 감지되는 경우 상기 시뮬레이션수행부로부터 시뮬레이션 결과정보를 전달받아 이에 대한 상황판단 및 대응제어정보를 생성하여 주행제어를 수행하는 제1제어부를 포함한다. Here, the autonomous driving vehicle is installed on one side of the driving vehicle and is connected to a first photographing means for acquiring image information around the vehicle, and to enable data communication with other autonomous driving vehicles or information acquisition terminals located within a set range. A first communication module for connecting to the driving server to enable data communication, and a first event detection unit for detecting whether an event has occurred in the driving environment through image information acquired through the first shooting means, and from the first event detection unit An event filtering unit that receives event generation information and receives event generation information from another autonomous vehicle, information acquisition terminal, or autonomous vehicle server through the first communication module, and performs event filtering according to a set condition, and the event filtering The event occurrence information is received by filtering the event occurrence information When the video information corresponding to the beam is received from the first shooting means and the video information corresponding to the event occurrence information is in another autonomous vehicle, information acquisition terminal, or autonomous driving server, it is extracted to perform simulation on the driving path. The simulation execution unit controls the autonomous driving of the autonomous vehicle through the image information acquired from the first shooting means, and when event occurrence information is detected from the first event detection unit, the simulation result information is received from the simulation execution unit. It includes a first control unit that receives the received and determines the situation and generates corresponding control information to perform driving control.

아울러 상기 정보취득단말기는 주행 도로 일측에 고정 설치되는 고정단말기와, 도로 상에 이동하는 이동단말기와, 도로 상에 비행하는 비행단말기 중 어느 하나 이상으로 이루어지되, 상기 정보취득단말기는 현재 자신이 위치하는 지점의 주변을 촬영하여 영상정보를 생성하는 제2촬영수단과, 설정 범위 내에 위치하는 다른 자율주행 자동차 또는 자율주행서버와 데이터통신 가능하도록 연결되어 상기 제2촬영수단으로부터 생성된 촬영정보를 전송하도록 하는 제2통신모듈을 포함한다. In addition, the information acquisition terminal is made of at least one of a fixed terminal fixedly installed on one side of the driving road, a mobile terminal moving on the road, and a flight terminal flying on the road, wherein the information acquisition terminal is currently located A second photographing means for photographing the surroundings of a point to generate image information, and is connected to enable data communication with another autonomous vehicle or autonomous vehicle located within a set range, and transmits the photographing information generated from the second photographing means It includes a second communication module.

또한 상기 자율주행서버는 상기 복수개의 자율주행 자동차와 상기 복수개의 정보취득단말기와 데이터 통신가능하도록 연결하는 서버통신부와, 상기 복수개의 자율주행 자동차로부터 주행정보 또는 영상정보를 수신받아 설정 범위 내에 주행하는 다른 자율주행 자동차로 이를 전송하도록 하는 주행정보송수신모듈을 포함한다. In addition, the autonomous driving server receives a driving information or video information from the plurality of autonomous driving vehicles and a server communication unit connecting to enable data communication with the plurality of autonomous driving vehicles, and travels within a set range. It includes a driving information transmission and reception module to transmit it to other autonomous vehicles.

아울러 상기 자율주행 자동차는 설정범위 내에 위치하는 다른 자율주행 자동차와 제1통신모듈에 의해 연결되어 이로부터 주행정보를 전달받거나 자신의 주행정보를 전송하는 제1주행정보송수신부와, 상기 제1촬영수단, 제1이벤트감지부 및 제1주행정보송수신부를 통해 설정범위 내에 위치하는 다른 자율주행 자동차의 이벤트 발생을 감지하는 제2이벤트감지부와, 상기 이벤트 발생이 감지되는 다른 자율주행 자동차에 대해 이벤트 발생정보를 전송함과 동시에 상기 시뮬레이션수행부를 통한 시뮬레이션 결과정보를 기초로 해당 자동차의 대응제어정보를 생성하여 상기 제1주행정보송수신부를 통해 해당 자동차로 전송하도록 하는 제2제어부를 더 포함한다. In addition, the autonomous vehicle is connected to another autonomous vehicle located within a set range by a first communication module, and receives a driving information therefrom or transmits its own driving information. Sudan, a second event detection unit for detecting the occurrence of an event of another autonomous vehicle located within a set range through the first event detection unit and the first driving information transmission and reception unit, and an event for another autonomous vehicle where the event occurrence is detected It further includes a second control unit that transmits the generated information and generates corresponding control information of the corresponding vehicle based on the simulation result information through the simulation execution unit and transmits the corresponding control information to the corresponding vehicle through the first driving information transmission and reception unit.

또한 상기 정보취득단말기는 설정범위 내에 위치하는 다른 자율주행 자동차와 제2통신모듈에 의해 연결되어 이로부터 주행정보를 전달받는 제2주행정보수신부와, 상기 제2촬영수단 및 제2주행정보송수신부를 통해 설정범위 내에 위치하는 특정 자율주행 자동차의 이벤트 발생을 감지하는 제3이벤트감지부와, 상기 이벤트 발생이 감지되는 해당 자율주행 자동차에 대해 이벤트 발생정보를 전송함과 동시에 해당 자동차의 주행제어와 관련하여 대응제어정보를 생성하여 상기 제2주행정보송수신부를 통해 해당 자동차로 전송하도록 하는 제1제어정보생성부를 더 포함한다. In addition, the information acquisition terminal is connected to another autonomous vehicle located within a set range by a second communication module, the second driving information receiving unit receiving the driving information therefrom, and the second shooting means and the second driving information transmitting and receiving unit A third event detection unit that detects an event occurrence of a specific autonomous vehicle located within a set range, and transmits event occurrence information to the autonomous vehicle in which the event occurrence is detected, and relates to driving control of the vehicle. And further comprising a first control information generating unit for generating the corresponding control information to be transmitted to the vehicle through the second driving information transmitting and receiving unit.

또한 상기 자율주행서버는 상기 주행정보송수신모듈로부터 주행정보 및 영상정보를 전달받아 특정 자율주행 자동차의 이벤트 발생을 감지하는 이벤트생성부와, 상기 이벤트생성부로부터 이벤트 발생이 감지되는 해당 자율주행 자동차에 대해 이벤트 발생정보를 전송함과 동시에 해당 자동차의 주행제어와 관련하여 대응제어정보를 생성하여 상기 주행정보송수신모듈을 통해 해당 자동차로 전송하도록 하는 제2제어정보생성부를 더 포함한다.In addition, the autonomous driving server receives the driving information and the video information from the driving information transmitting and receiving module to an event generating unit that detects the occurrence of an event in a specific autonomous driving vehicle, and to the corresponding autonomous driving vehicle that detects an event from the event generating unit. It further includes a second control information generating unit that transmits event generation information and generates corresponding control information related to driving control of the corresponding vehicle and transmits the corresponding control information to the corresponding vehicle through the driving information transmission / reception module.

본 발명에 따르면 자율주행 자동차들 간 및 정보취득단말기들 간에 서로 취득영상정보 또는 이벤트 발생정보를 서로 공유하도록 구성됨에 따라 주행경로의 설정 범위 내에 감지되는 다양한 주행환경정보의 취득이 가능해져 주행시 보다 안정적으로 자율주행이 수행될 수 있는 효과가 있다. According to the present invention, as it is configured to share acquired image information or event occurrence information with each other between autonomous vehicles and between information acquisition terminals, it is possible to acquire various driving environment information sensed within a set range of a driving path, thereby making driving more stable. As such, there is an effect that autonomous driving can be performed.

도 1은 본 발명의 일실시예에 따른 자율주행 시스템의 개략적인 구성을 나타내는 도면이다.
도 2는 본 발명의 일실시예에 따른 자율주행 시스템의 내부 구성을 나타내는 블럭도이다.
도 3은 본 발명의 다른 실시예에 따른 자율주행 시스템의 내부 구성을 나타내는 블럭도이다.
1 is a view showing a schematic configuration of an autonomous driving system according to an embodiment of the present invention.
2 is a block diagram showing the internal configuration of an autonomous driving system according to an embodiment of the present invention.
3 is a block diagram showing the internal configuration of an autonomous driving system according to another embodiment of the present invention.

이하, 본 발명의 실시 예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail through exemplary drawings. It should be noted that in adding reference numerals to the components of each drawing, the same components have the same reference numerals as possible even though they are displayed on different drawings. In addition, in describing the present invention, when it is determined that detailed descriptions of related well-known configurations or functions may obscure the subject matter of the present invention, detailed descriptions thereof will be omitted.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 명세서 전체에서, 어떤 부분이 어떤 구성요소를 '포함', '구비'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 '…부', '모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In addition, in describing the components of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are only for distinguishing the component from other components, and the nature, order, or order of the component is not limited by the term. Throughout the specification, when a part is 'included' or 'equipped' a component, this means that other components may be further included rather than excluded, unless specifically stated to the contrary. . In addition, '… Terms such as "unit" and "module" mean a unit that processes at least one function or operation, and may be implemented by hardware or software or a combination of hardware and software.

도 1은 본 발명의 일실시예에 따른 자율주행 시스템의 개략적인 구성을 나타내는 도면이며, 도 2는 본 발명의 일실시예에 따른 자율주행 시스템의 내부 구성을 나타내는 블럭도이다. 1 is a view showing a schematic configuration of an autonomous driving system according to an embodiment of the present invention, and FIG. 2 is a block diagram showing an internal configuration of an autonomous driving system according to an embodiment of the present invention.

도면을 참조하면 본 발명의 일실시예에 따른 자율주행 시스템(1000)은 크게 제1촬영수단(110)이 탑재되어 취득된 취득영상정보와 이벤트의 발생여부를 감지하여 이벤트 발생정보 생성을 통해 주행 도로 상에 자율주행이 수행되며 데이터 통신가능하도록 제1통신모듈(120)이 탑재되어 외부단말기 또는 외부서버와 통신가능하도록 연결되는 복수개의 자율주행 자동차(100)와, 주행 도로 일측에 고정 설치되거나 상부측에 비행하며 제2촬영수단(210)이 탑재되어 영상정보를 취득하며 제2통신모듈(220)이 탑재되어 이를 외부단말기 또는 외부서버와 통신가능하도록 연결되는 복수개의 정보취득단말기(200)와, 상기 복수개의 자율주행 자동차(100) 및 복수개의 정보취득단말기(200)와 데이터 통신 가능하도록 연결되어 이들로부터 주행정보, 취득영상정보 또는 이벤트 발생정보를 수신받아 저장하며 특정 자율주행 자동차(100)의 위치 정보를 수신받아 설정 범위 내의 취득영상정보 및 이벤트 발생정보를 추출하여 해당 자율주행 자동차(100)로 이를 전송하는 자율주행서버(300)로 이루어진다. Referring to the drawings, the autonomous driving system 1000 according to an embodiment of the present invention is largely equipped with a first photographing means 110 and detects acquired image information and whether an event has occurred to drive through event generation information generation. Autonomous driving is performed on the road and the first communication module 120 is mounted to enable data communication, and a plurality of autonomous driving cars 100 connected to be able to communicate with an external terminal or an external server and fixedly installed on one side of the driving road or Flying to the upper side, the second shooting means 210 is mounted to acquire image information, and the second communication module 220 is mounted to connect it to an external terminal or an external server so that it can communicate with a plurality of information acquisition terminals 200 Wow, the plurality of autonomous vehicles 100 and a plurality of information acquisition terminals 200 are connected to enable data communication, from which driving information, acquired image information or events The autonomous driving server 300 that receives and stores the generated information and extracts the acquired image information and event occurrence information within a set range by receiving the location information of the specific autonomous driving car 100 and transmits it to the corresponding autonomous driving car 100 Is made of

여기서 상기 자율주행 자동차(100)는 주행 도로에서 운전자의 주행제어 없이 자동차(100) 내 시스템에 의해 자가적으로 주행제어가 수행되는 자동차로 이러한 자율주행 자동차(100)는 주행하는 자동차의 일측에 설치되어 자동차 주변의 영상정보를 취득하는 제1촬영수단(110)과, 설정 범위 내에 위치하는 다른 자율주행 자동차(100) 또는 정보취득단말기(200)와 데이터통신 가능하도록 연결하며 상기 자율주행서버(300)와 데이터통신 가능하도록 연결하는 제1통신모듈(120)과, 제1촬영수단(110)을 통해 취득된 영상정보를 통해 주행환경 상에서 이벤트발생여부를 감지하는 제1이벤트감지부(130)와, 상기 제1이벤트감지부(130)로부터 이벤트 발생정보를 전달받으며, 상기 제1통신모듈(120)을 통해 다른 자율주행 자동차(100), 정보취득단말기(200) 또는 자율주행서버(300)로부터 이벤트 발생정보를 전달받아 설정 조건에 따라 이벤트 필터링을 수행하는 이벤트필터링부(140)와, 상기 이벤트필터링부(140)로부터 필터링이 수행된 이벤트 발생정보를 전달받아 해당 이벤트 발생정보에 대응하는 영상정보를 제1촬영수단(110)으로부터 전달받음과 동시에 해당 이벤트 발생정보에 대응하는 영상정보가 다른 자율주행 자동차(100), 정보취득단말기(200) 또는 자율주행서버(300)에 있는 경우 이를 추출하여 주행 경로 상에서 시뮬레이션을 수행하는 시뮬레이션수행부(150)와, 상기 제1촬영수단(110)으로부터 취득된 영상정보를 통해 자율주행 자동차의 자율주행을 제어하며 상기 제1이벤트감지부(130)로부터 이벤트 발생정보가 감지되는 경우 상기 시뮬레이션수행부(150)로부터 시뮬레이션 결과정보를 전달받아 이에 대한 상황판단 및 대응제어정보를 생성하여 주행제어를 수행하는 제1제어부(160)로 이루어진다. Here, the autonomous driving vehicle 100 is a vehicle on which a self-driving control is performed by a system in the vehicle 100 without driving control of a driver on a driving road. Such autonomous driving vehicle 100 is installed on one side of a driving vehicle. The autonomous driving server 300 is connected to the first photographing means 110 for acquiring image information around the vehicle and another autonomous driving vehicle 100 or information acquisition terminal 200 located within a set range to enable data communication. ) And the first communication module 120 to enable data communication, and the first event detection unit 130 to detect whether an event has occurred in the driving environment through the image information acquired through the first shooting means 110 and , Receiving the event occurrence information from the first event detection unit 130, to the other autonomous vehicle 100, the information acquisition terminal 200 or the autonomous vehicle server 300 through the first communication module 120 Event filtering unit 140 that receives event occurrence information and performs event filtering according to a set condition, and images corresponding to the event occurrence information by receiving the event occurrence information that has been filtered from the event filtering unit 140 When the information is received from the first photographing means 110 and the video information corresponding to the event occurrence information is different in the autonomous vehicle 100, the information acquisition terminal 200, or the autonomous vehicle server 300, it is extracted. By controlling the autonomous driving of the autonomous driving vehicle through the simulation execution unit 150 performing the simulation on the driving path and the image information obtained from the first shooting means 110, and from the first event detection unit 130 When event occurrence information is detected, the simulation result information is received from the simulation execution unit 150 to determine the situation and control it. Generating the beam comprises a first control unit 160 to perform the drive control.

상기 제1촬영수단(110)은 주행하는 자동차 외부 일측에 탑재되어 전, 후, 좌, 우에 대한 영상정보를 생성하도록 구비되는 것으로 이러한 영상정보를 통해 차선, 신호, 객체물 등을 인식하여 주행제어가 수행된다. The first photographing means 110 is mounted on one side of the outside of the driving vehicle and is provided to generate image information for the front, rear, left, and right. Recognition of lanes, signals, and objects through these image information and driving control Is performed.

또한 상기 제1이벤트감지부(130)는 제1촬영수단(110)을 통해 취득된 영상정보를 통해 주행환경 상에서 이벤트발생여부를 감지하도록 구비되는데, 이러한 이벤트로는 급제동, 급발진, 급감속, 급가속, 차선 급변경, 조향각 급변경, 에어백 전개, 충돌 또는 추돌 사고, 돌발상황(예컨대, 동물 출현, 낙석, 장애물 출현, 주변차량의 급제동 또는 교통사고 등) 등이 해당될 수 있으며 이러한 이벤트 발생상황은 설정에 따라 적용될 수 있다. In addition, the first event detection unit 130 is provided to detect whether an event has occurred in the driving environment through the image information acquired through the first shooting means 110, such as sudden braking, sudden oscillation, rapid deceleration, sudden Acceleration, sudden change of lane, sudden change of steering angle, airbag deployment, collision or collision, and emergencies (e.g., animal appearance, rockfall, obstacle appearance, sudden braking of surrounding vehicles, or traffic accidents, etc.), etc. Can be applied depending on the setting.

또한, 이벤트는 시스템적으로 설정된 특정 조건의 만족 상황일 수도 있다. 예컨대, 설정된 주행속도 또는 가속도를 초과하거나 미만으로 되는 경우, 차선 변경, 설정시간 동안에 설정횟수 이상의 가감속 등을 이벤트로 설정할 수도 있다. 이벤트는 주행제어시 고려하고자 하는 상황의 내용에 따라 다르게 결정될 수 있다.Further, the event may be a situation in which a specific condition set systematically is satisfied. For example, when the set driving speed or acceleration exceeds or becomes less than, the lane change, acceleration / deceleration of a set number of times or more during the set time, may be set as an event. The event may be determined differently depending on the content of the situation to be considered in driving control.

한편 상기 이벤트필터링부(140)는 상기 제1이벤트감지부(130)로부터 이벤트 발생정보를 전달받으며, 상기 제1통신모듈(120)을 통해 다른 자율주행 자동차(100), 정보취득단말기(200) 또는 자율주행서버(300)로부터 이벤트 발생정보를 전달받아 설정 조건에 따라 이벤트 필터링을 수행하도록 구비되는데, 다양한 이벤트 상황이 발생하더라도 현재 주행환경에 고려하여야할 이벤트와 고려할 필요가 없는 이벤트를 분류하여 고려하여야 하는 이벤트 발생정보를 추출하도록 한다. Meanwhile, the event filtering unit 140 receives event generation information from the first event detection unit 130, and through the first communication module 120, another autonomous driving vehicle 100, an information acquisition terminal 200 Alternatively, it is provided to receive event occurrence information from the autonomous driving server 300 and perform event filtering according to a set condition. Although various event situations occur, consider events that need to be considered in the current driving environment and events that do not need to be considered. The event occurrence information that should be done is extracted.

아울러 상기 시뮬레이션수행부(150)는 상기 이벤트필터링부(140)로부터 필터링이 수행된 이벤트 발생정보를 전달받아 해당 이벤트 발생정보에 대응하는 영상정보를 제1촬영수단(110)으로부터 전달받음과 동시에 해당 이벤트 발생정보에 대응하는 영상정보가 다른 자율주행 자동차(100), 정보취득단말기(200) 또는 자율주행서버(300)에 있는 경우 이를 추출하여 주행 경로 상에서 시뮬레이션을 수행한다. In addition, the simulation execution unit 150 receives the event occurrence information that has been filtered from the event filtering unit 140 and receives image information corresponding to the event occurrence information from the first photographing means 110, and simultaneously When the image information corresponding to the event occurrence information is in another autonomous vehicle 100, the information acquisition terminal 200, or the autonomous vehicle server 300, it is extracted and a simulation is performed on the driving route.

즉, 주행 방향을 기준으로 전방측에 주행하는 다른 자율주행 자동차(100)로부터 도로 상에 특정 방해물이 인지된 경우 해당 방해물에 대한 이벤트 발생정보를 다른 자율주행 자동차(100)로부터 전달받거나, 정보취득단말기(200) 또는 자율주행서버(300)로 전달받아 해당 방해물에 움직임이 있는 경우 시계열적으로 자신의 주행경로와 해당 방해물의 이동 경로를 현재 경로 기준으로 시뮬레이션을 수행하고 만일 충돌이 발생하는 것으로 판단되면 자신의 주행경로를 변경하여야 할 것이다. That is, when a specific obstacle is recognized on the road from another autonomous vehicle 100 traveling on the front side based on the driving direction, event generation information for the obstacle is received from other autonomous vehicle 100 or information is acquired. When there is movement in the obstacle, received by the terminal 200 or the autonomous driving server 300, time-series simulates the driving path and the movement path of the obstacle based on the current path and determines that a collision occurs. If you do, you will have to change your driving route.

이러한 주행경로 변경은 제1제어부(160)에서 수행함은 물론이다. Needless to say, the change of the driving route is performed by the first control unit 160.

또한 상기 제1제어부(160)는 상기 제1촬영수단(110)으로부터 취득된 영상정보를 통해 자율주행 자동차의 자율주행을 제어하며 상기 제1이벤트감지부(130)로부터 이벤트 발생정보가 감지되는 경우 상기 시뮬레이션수행부(150)로부터 시뮬레이션 결과정보를 전달받아 이에 대한 상황판단 및 대응제어정보를 생성하여 주행제어를 수행한다. In addition, the first control unit 160 controls the autonomous driving of the autonomous vehicle through the image information acquired from the first shooting means 110, and when event occurrence information is detected from the first event detection unit 130 The simulation result information is received from the simulation execution unit 150 to generate situation determination and corresponding control information for the driving control.

한편 정보취득단말기(200)는 주행 도로 일측에 고정 설치되거나 상부측에 비행하며 제2촬영수단(210)이 탑재되어 영상정보를 취득하며 제2통신모듈(220)이 탑재되어 이를 외부단말기 또는 외부서버와 통신가능하도록 연결되는데, 이러한 정보취득단말기(200)는 주행 도로 일측에 고정 설치되는 고정단말기(200a)와, 도로 상에 이동하는 이동단말기(200b)와, 도로 상에 비행하는 비행단말기(200c) 중 어느 하나 이상으로 이루어진다. On the other hand, the information acquisition terminal 200 is fixedly installed on one side of the driving road or flying on the upper side, and the second photographing means 210 is mounted to acquire image information, and the second communication module 220 is mounted so that it is external terminal or external. It is connected to be able to communicate with the server, the information acquisition terminal 200 is fixed terminal 200a fixedly installed on one side of the driving road, a mobile terminal 200b moving on the road, and a flying terminal flying on the road ( 200c).

아울러 이러한 상기 정보취득단말기(200)는 현재 자신이 위치하는 지점의 주변을 촬영하여 영상정보를 생성하는 제2촬영수단(210)과, 설정 범위 내에 위치하는 다른 자율주행 자동차(100) 또는 자율주행서버(300)와 데이터통신 가능하도록 연결되어 상기 제2촬영수단(210)으로부터 생성된 촬영정보를 전송하도록 하는 제2통신모듈(220)로 이루어진다. In addition, the information acquisition terminal 200 is a second photographing means 210 for generating image information by photographing the periphery of the point where it is currently located, and another autonomous vehicle 100 or autonomous vehicle located within a set range It is made of a second communication module 220 that is connected to enable data communication with the server 300 and transmits the shooting information generated from the second shooting means 210.

이에 따라 해당 정보취득단말기(200)로부터 통신 범위 내에 위치하는 자율주행 자동차(100)는 상기 제2촬영수단(210)을 통해 생성된 촬영정보를 전송받아 이벤트 발생여부를 감지하고 시뮬레이션 수행 및 주행제어정보 생성에 활용할 수 있게 된다. Accordingly, the autonomous driving vehicle 100 located within the communication range from the corresponding information acquisition terminal 200 receives the photographing information generated through the second photographing means 210, detects whether an event has occurred, performs simulation and controls driving. It can be used to generate information.

한편 상기 자율주행서버(300)는 상기 복수개의 자율주행 자동차(100) 및 복수개의 정보취득단말기(200)와 데이터 통신 가능하도록 연결되어 이들로부터 주행정보, 취득영상정보 또는 이벤트 발생정보를 수신받아 저장하며 특정 자율주행 자동차(100)의 위치 정보를 수신받아 설정 범위 내의 취득영상정보 및 이벤트 발생정보를 추출하여 해당 자율주행 자동차(100)로 이를 전송하도록 구비되는데, 이러한 자율주행서버(300)는 상기 복수개의 자율주행 자동차(100)와 상기 복수개의 정보취득단말기(200)와 데이터 통신가능하도록 연결하는 서버통신부(310)와, 상기 복수개의 자율주행 자동차(100)로부터 주행정보 또는 영상정보를 수신받아 설정 범위 내에 주행하는 다른 자율주행 자동차(100)로 이를 전송하도록 하는 주행정보송수신모듈(320)로 이루어진다. Meanwhile, the autonomous driving server 300 is connected to enable data communication with the autonomous driving vehicle 100 and the plurality of information acquisition terminals 200, and receives and stores driving information, acquired video information, or event occurrence information from them. It is provided to receive location information of a specific autonomous vehicle 100 and extract acquired image information and event occurrence information within a set range and transmit it to the autonomous vehicle 100. Such autonomous vehicle server 300 A server communication unit 310 that connects a plurality of autonomous vehicles 100 and the plurality of information acquisition terminals 200 to enable data communication, and receives driving information or video information from the plurality of autonomous vehicles 100 It consists of a driving information transmission and reception module 320 to transmit it to another autonomous driving vehicle 100 traveling within the set range.

이와 같이 본 실시예에 따른 자율주행 시스템에 의하면 자율주행 자동차(100)의 자체 주행 정보를 통해서만 자율주행이 이루어지는 것이 아니라 전 범위에 걸친 다양한 주행 환경정보를 취합하여 필요한 정보를 추출 후 자신의 주행제어에 활용할 수 있게 된다. As described above, according to the autonomous driving system according to the present embodiment, autonomous driving is not performed only through the self-driving information of the autonomous driving vehicle 100, but various driving environment information is collected over the entire range to extract necessary information and then control its own driving Will be able to utilize it.

도 3은 본 발명의 다른 실시예에 따른 자율주행 시스템의 내부 구성을 나타내는 블럭도이다. 3 is a block diagram showing the internal configuration of an autonomous driving system according to another embodiment of the present invention.

본 실시예에 따른 자율주행 시스템(1000)은 자율주행 자동차(100)에 제1주행정보송수신부(170), 제2이벤트감지부(180) 및 제2제어부(190)가 더 포함되며, 상기 정보취득단말기(200)에 제2주행정보수신부(230), 제3이벤트감지부(240) 및 제1제어정보생성부(250)가 더 포함되며, 상기 자율주행서버(300)에 이벤트생성부(330) 및 제2제어정보생성부(340)가 더 포함된다. The autonomous driving system 1000 according to the present embodiment further includes a first driving information transmitting and receiving unit 170, a second event detecting unit 180 and a second control unit 190 in the autonomous driving vehicle 100, the The information acquisition terminal 200 further includes a second driving information receiving unit 230, a third event detecting unit 240, and a first control information generating unit 250, and an event generating unit in the autonomous driving server 300 330 and a second control information generating unit 340 are further included.

여기서 상기 제1주행정보송수신부(170)는 설정범위 내에 위치하는 다른 자율주행 자동차(100)와 제1통신모듈(120)에 의해 연결되어 이로부터 주행정보를 전달받거나 자신의 주행정보를 전송하도록 구비되며, 상기 제2이벤트감지부(180)는 상기 제1촬영수단(110), 제1이벤트감지부(130) 및 제1주행정보송수신부(170)를 통해 설정범위 내에 위치하는 다른 자율주행 자동차(100)의 이벤트 발생을 감지하도록 구비된다. Here, the first driving information transmitting and receiving unit 170 is connected by another autonomous driving vehicle 100 and the first communication module 120 located within a set range to receive driving information from it or to transmit its driving information. The second event detection unit 180 is provided with other autonomous driving located within a set range through the first photographing means 110, the first event detection unit 130, and the first driving information transmission / reception unit 170. It is provided to detect the occurrence of the event of the vehicle 100.

아울러 제2제어부(190)는 상기 이벤트 발생이 감지되는 다른 자율주행 자동차(100)에 대해 이벤트 발생정보를 전송함과 동시에 상기 시뮬레이션수행부(150)를 통한 시뮬레이션 결과정보를 기초로 해당 자동차의 대응제어정보를 생성하여 상기 제1주행정보송수신부(170)를 통해 해당 자동차로 전송하도록 한다. In addition, the second control unit 190 transmits event generation information to other autonomous vehicles 100 in which the occurrence of the event is detected, and simultaneously responds to the corresponding vehicle based on simulation result information through the simulation execution unit 150 Control information is generated and transmitted to the corresponding vehicle through the first driving information transmission / reception unit 170.

이와 같은 자율주행 자동차(100)의 제1주행정보송수신부(170), 제2이벤트감지부(180) 및 제2제어부(190)에 의해 이로부터 설정 범위 내에 위치하는 다른 자율주행 자동차(100)가 이벤트 발생상황임에도 불구하고 이벤트 감지를 미처 하지 못하거나 내부 오류로 인해 이벤트 발생상황 감지가 불가능한 경우 이에 대한 이벤트 발생정보를 제공함은 물론 이벤트 발생상황에 적절한 대응제어정보의 제공이 가능해져 다른 자율주행 자동차(100)의 안전한 주행제어가 보다 가능해지게 된다. Other autonomous driving vehicles 100 located within a set range by the first driving information transmitting and receiving unit 170, the second event detecting unit 180, and the second control unit 190 of the autonomous driving vehicle 100 as described above Although it is an event occurrence situation, it is not possible to detect an event or it is not possible to detect an event occurrence due to an internal error. It also provides event occurrence information for this and also provides appropriate control information for the event occurrence situation. Safe driving control of the vehicle 100 becomes more possible.

물론 상기 해당 자율주행 자동차(100)의 제1이벤트감지부(130)에 의해 이벤트를 감지한 경우에도 이벤트의 발생상황이나 위치 등을 감안하여 해당 자율주행 자동차(100) 보다 다른 자율주행 자동차(100)의 제2이벤트감지부(180)로부터 받은 이벤트 발생정보 및 대응제어정보가 보다 바람직한 상황 인식 및 주행제어로 귀결될 수 있기 때문에 이벤트 발생정보 및 대응제어정보가 충돌하는 경우 이벤트 발생정보에 포함되는 이벤트의 상황, 위치, 정도 등의 구체적인 내용을 판단하여 해당 자율주행 자동차(100)의 제1제어부(160)에서 생성된 주행제어정보로 주행제어를 수행할지 다른 자율주행 자동차(100)의 제2제어부(190)에서 생성된 대응제어정보로 주행제어를 수행할지 해당 자율주행 자동차(100)의 제1제어부(160)에서 판단하여 수행하도록 구성될 수 있다. Of course, even when an event is detected by the first event detection unit 130 of the autonomous vehicle 100, the autonomous vehicle 100 other than the autonomous vehicle 100 in consideration of the occurrence situation or location of the event ) Because the event occurrence information and the corresponding control information received from the second event detection unit 180 may result in more desirable situation recognition and driving control, the event occurrence information and the corresponding control information are included in the event occurrence information when they collide. Whether to perform driving control with the driving control information generated by the first control unit 160 of the corresponding autonomous driving vehicle 100 by determining the specific content of the event, location, degree, etc. of the second autonomous driving vehicle 100 It may be configured to determine whether to perform driving control with the corresponding control information generated by the controller 190 or to determine and perform the first control unit 160 of the autonomous vehicle 100.

한편 상기 정보취득단말기(200)의 제2주행정보송수신부(230)는 설정범위 내에 위치하는 다른 자율주행 자동차(100)와 제2통신모듈(220)에 의해 연결되어 이로부터 주행정보를 전달받으며, 상기 제3이벤트감지부(240)는 상기 제2촬영수단(210) 및 제2주행정보송수신부(230)를 통해 설정범위 내에 위치하는 특정 자율주행 자동차(100)의 이벤트 발생을 감지하도록 구성된다. Meanwhile, the second driving information transmission / reception unit 230 of the information acquisition terminal 200 is connected to another autonomous driving vehicle 100 and the second communication module 220 located within a set range, and receives driving information therefrom. , The third event detection unit 240 is configured to detect the occurrence of an event of a specific autonomous driving vehicle 100 located within a set range through the second shooting means 210 and the second driving information transmitting and receiving unit 230 do.

아울러 상기 제1제어정보생성부(250)는 제3이벤트감지부(240)에서 이벤트 발생이 감지되는 해당 자율주행 자동차(100)에 대해 이벤트 발생정보를 전송함과 동시에 해당 자동차의 주행제어와 관련하여 대응제어정보를 생성하여 상기 제2주행정보송수신부(230)를 통해 해당 자동차로 전송하도록 구성된다. In addition, the first control information generation unit 250 transmits event generation information to the autonomous vehicle 100 in which the occurrence of an event is detected by the third event detection unit 240, and at the same time relates to the driving control of the corresponding vehicle. It is configured to generate corresponding control information and transmit it to the corresponding vehicle through the second driving information transmission / reception unit 230.

이와 같은 상기 정보취득단말기(200)의 제2주행정보수신부(230), 제3이벤트감지부(240) 및 제1제어정보생성부(250)에 의해 설정 범위 내에 위치하는 다른 자율주행 자동차(100)가 이벤트 발생상황임에도 불구하고 이벤트 감지를 미처 하지 못하거나 내부 오류로 인해 이벤트 발생상황 감지가 불가능한 경우 이에 대한 이벤트 발생정보를 제공함은 물론 이벤트 발생상황에 적절한 대응제어정보의 제공이 가능해져 다른 자율주행 자동차(100)의 안전한 주행제어가 보다 가능해지게 된다. Other autonomous vehicles 100 located within a set range by the second driving information receiving unit 230, the third event detecting unit 240, and the first control information generating unit 250 of the information acquisition terminal 200 as described above ) Is not an event occurrence situation even though it is an event occurrence situation, or if an event occurrence situation is not detectable due to an internal error, it not only provides event occurrence information but also provides appropriate control control information for the event occurrence situation. The safe driving control of the driving vehicle 100 becomes possible.

물론 전술한 자율주행 자동차(100) 간 통신을 통해 이와 같은 상황이 발생한 경우 제2제어부(190)를 통한 대응제어정보로 주행제어가 가능할 수 있으나, 주행 환경 상 설정 범위 내에 다른 자율주행 자동차(100)가 존재하지 않을 경우가 빈번하게 발생될 수 있으므로 보다 안전한 자율주행 네트워크를 위해 상기 정보취득단말기(200)의 구성이 유리하게 작용될 수 있다. Of course, when such a situation occurs through communication between the aforementioned autonomous driving vehicles 100, driving control may be possible with corresponding control information through the second control unit 190, but other autonomous driving vehicles 100 within a setting range in the driving environment ) May be frequently generated, so the configuration of the information acquisition terminal 200 may be advantageously operated for a safer autonomous driving network.

한편 상기 자율주행서버(300)의 이벤트생성부(330)는 상기 주행정보송수신모듈(320)로부터 주행정보 및 영상정보를 전달받아 특정 자율주행 자동차(100)의 이벤트 발생을 감지하도록 구비되며, 상기 제2제어정보생성부(340)는 상기 이벤트생성부(330)로부터 이벤트 발생이 감지되는 해당 자율주행 자동차(100)에 대해 이벤트 발생정보를 전송함과 동시에 해당 자동차의 주행제어와 관련하여 대응제어정보를 생성하여 상기 주행정보송수신모듈(320)을 통해 해당 자동차로 전송하도록 한다. Meanwhile, the event generating unit 330 of the autonomous driving server 300 is provided to receive the driving information and the video information from the driving information transmitting and receiving module 320 to detect the occurrence of an event in the specific autonomous driving vehicle 100, The second control information generation unit 340 transmits event generation information to the corresponding autonomous vehicle 100 in which an event occurrence is detected from the event generation unit 330, and at the same time responds to the driving control of the corresponding vehicle. Information is generated and transmitted to the corresponding vehicle through the driving information transmission / reception module 320.

이와 같이 본 실시예에 의하면, 어느 특정 자율주행 자동차(100)가 주행하는 경우 설정범위 내에 위치하는 다른 자율주행 자동차(100) 또는 정보취득단말기(200) 및 자율주행서버(300)로부터 이벤트 발생정보 및 이에 대응되는 대응제어정보를 전달받아 주행제어시에 활용할 수 있어 해당 자율주행 자동차(100)의 다양한 오류 발생에도 안전성을 확보하고 이벤트 발생 상황에 최적의 주행제어판단을 수행할 수 있게 된다. As described above, according to the present embodiment, when any specific autonomous vehicle 100 is traveling, event occurrence information from another autonomous vehicle 100 or the information acquisition terminal 200 and the autonomous vehicle server 300 located within a set range And by receiving the corresponding control information corresponding to it can be used in driving control, it is possible to secure safety even in the event of various errors in the autonomous vehicle 100 and perform optimal driving control judgment in the event occurrence situation.

또한, 이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시 예가 속하는 기술 분야에서 통산의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시 예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것을 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하면, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.In addition, the above description is merely illustrative of the technical idea of the present embodiment, and those skilled in the art to which the present embodiment belongs may have various modifications and variations without departing from the essential characteristics of the present embodiment. . Therefore, the present embodiments are not intended to limit the technical spirit of the present embodiment, but to explain, and the scope of the technical spirit of the present embodiment is not limited by these embodiments. If the scope of protection of this embodiment should be interpreted by the claims below, all technical spirits within the equivalent range should be interpreted as being included in the scope of the present embodiment.

100 : 자율주행 자동차
110 : 제1촬영수단
120 : 제1통신모듈
130 : 제1이벤트감지부
140 : 이벤트필터링부
150 : 시뮬레이션수행부
160 : 제1제어부
170 : 제1주행정보송수신부
180 : 제2이벤트감지부
190 : 제2제어부
200 : 정보취득단말기
210 : 제2촬영수단
220 : 제2통신모듈
230 : 제2주행정보송수신부
240 : 제3이벤트감지부
250 : 제1제어정보생성부
300 : 자율주행서버
310 : 서버통신부
320 : 주행정보송수신모듈
330 : 이벤트생성부
340 : 제2제어정보생성부
100: autonomous vehicle
110: first shooting means
120: first communication module
130: first event detection unit
140: event filtering unit
150: simulation execution unit
160: first control unit
170: 1st driving information transmitting and receiving department
180: second event detection unit
190: second control unit
200: information acquisition terminal
210: second shooting means
220: second communication module
230: 2nd driving information transmitting and receiving department
240: third event detection unit
250: first control information generation unit
300: autonomous driving server
310: server communication department
320: driving information transmission and reception module
330: Event generation department
340: second control information generation unit

Claims (7)

자율주행 자동차들의 자율주행 시스템에 있어서,
제1촬영수단(110)이 탑재되어 취득된 취득영상정보와 이벤트의 발생여부를 감지하여 이벤트 발생정보 생성을 통해 주행 도로 상에 자율주행이 수행되며 데이터 통신가능하도록 제1통신모듈(120)이 탑재되어 외부단말기 또는 외부서버와 통신가능하도록 연결되는 복수개의 자율주행 자동차(100)와;
주행 도로 일측에 고정 설치되거나 상부측에 비행하며 제2촬영수단(210)이 탑재되어 영상정보를 취득하며 제2통신모듈(220)이 탑재되어 이를 외부단말기 또는 외부서버와 통신가능하도록 연결되는 복수개의 정보취득단말기(200)와;
상기 복수개의 자율주행 자동차(100) 및 복수개의 정보취득단말기(200)와 데이터 통신 가능하도록 연결되어 이들로부터 주행정보, 취득영상정보 또는 이벤트 발생정보를 수신받아 저장하며 특정 자율주행 자동차(100)의 위치 정보를 수신받아 설정 범위 내의 취득영상정보 및 이벤트 발생정보를 추출하여 해당 자율주행 자동차(100)로 이를 전송하는 자율주행서버(300);를 포함하며,
상기 자율주행 자동차(100)는,
주행하는 자동차의 일측에 설치되어 자동차 주변의 영상정보를 취득하는 제1촬영수단(110)과,
설정 범위 내에 위치하는 다른 자율주행 자동차(100) 또는 정보취득단말기(200)와 데이터통신 가능하도록 연결하며 상기 자율주행서버(300)와 데이터통신 가능하도록 연결하는 제1통신모듈(120)과,
제1촬영수단(110)을 통해 취득된 영상정보를 통해 주행환경 상에서 이벤트발생여부를 감지하는 제1이벤트감지부(130)와,
상기 제1이벤트감지부(130)로부터 이벤트 발생정보를 전달받으며, 상기 제1통신모듈(120)을 통해 다른 자율주행 자동차(100), 정보취득단말기(200) 또는 자율주행서버(300)로부터 이벤트 발생정보를 전달받아 설정 조건에 따라 이벤트 필터링을 수행하는 이벤트필터링부(140)와,
상기 이벤트필터링부(140)로부터 필터링이 수행된 이벤트 발생정보를 전달받아 해당 이벤트 발생정보에 대응하는 영상정보를 제1촬영수단(110)으로부터 전달받음과 동시에 해당 이벤트 발생정보에 대응하는 영상정보가 다른 자율주행 자동차(100), 정보취득단말기(200) 또는 자율주행서버(300)에 있는 경우 이를 추출하여 주행 경로 상에서 시뮬레이션을 수행하는 시뮬레이션수행부(150)와,
상기 제1촬영수단(110)으로부터 취득된 영상정보를 통해 자율주행 자동차의 자율주행을 제어하며 상기 제1이벤트감지부(130)로부터 이벤트 발생정보가 감지되는 경우 상기 시뮬레이션수행부(150)로부터 시뮬레이션 결과정보를 전달받아 이에 대한 상황판단 및 대응제어정보를 생성하여 주행제어를 수행하는 제1제어부(160)를 포함하는 것을 특징으로 하는 자율주행 자동차들의 자율주행 시스템.
In the autonomous driving system of autonomous vehicles,
The first communication module 120 is installed so that the first photographing means 110 is mounted to detect the acquired image information and the occurrence of the event, and autonomous driving is performed on the driving road through the generation of the event occurrence information and data communication is possible. A plurality of autonomous vehicles 100 mounted and connected to communicate with an external terminal or an external server;
Fixed on one side of the driving road or flying on the upper side, the second shooting means 210 is mounted to acquire image information, and a second communication module 220 is mounted to connect it to be able to communicate with an external terminal or an external server Dog information acquisition terminal 200;
The plurality of autonomous vehicles 100 and a plurality of information acquisition terminals 200 are connected to enable data communication to receive and store driving information, acquired image information, or event occurrence information from them, and store the specific autonomous vehicles 100 It includes; an autonomous driving server 300 that receives location information and extracts the acquired image information and event occurrence information within a set range and transmits it to the autonomous driving vehicle 100;
The autonomous vehicle 100,
First photographing means (110) installed on one side of the driving vehicle to acquire image information around the vehicle,
A first communication module 120 connected to enable data communication with another autonomous driving vehicle 100 or an information acquisition terminal 200 located within a set range and connected to the autonomous driving server 300 for data communication;
A first event detection unit 130 for detecting whether an event has occurred in the driving environment through the image information acquired through the first shooting means 110,
Event generation information is received from the first event detection unit 130, and an event from another autonomous vehicle 100, an information acquisition terminal 200 or an autonomous vehicle server 300 through the first communication module 120. An event filtering unit 140 for receiving event information and performing event filtering according to a set condition;
When the event occurrence information on which filtering is performed is received from the event filtering unit 140, the video information corresponding to the event occurrence information is received from the first photographing means 110, and at the same time, the video information corresponding to the event occurrence information is received. If another autonomous vehicle 100, the information acquisition terminal 200 or the autonomous vehicle server 300, the simulation execution unit 150 to extract it and perform simulation on the driving path,
When autonomous driving of an autonomous vehicle is controlled through image information obtained from the first photographing means 110 and event occurrence information is detected from the first event detection unit 130, simulation is performed from the simulation execution unit 150. An autonomous driving system for autonomous vehicles, characterized by including a first control unit (160) that receives the result information and generates situational judgment and response control information for this, and performs driving control.
삭제delete 제1항에 있어서,
상기 정보취득단말기(200)는
주행 도로 일측에 고정 설치되는 고정단말기(200a)와, 도로 상에 이동하는 이동단말기(200b)와, 도로 상에 비행하는 비행단말기(200c) 중 어느 하나 이상으로 이루어지되,
상기 정보취득단말기(200)는
현재 자신이 위치하는 지점의 주변을 촬영하여 영상정보를 생성하는 제2촬영수단(210)과,
설정 범위 내에 위치하는 다른 자율주행 자동차(100) 또는 자율주행서버(300)와 데이터통신 가능하도록 연결되어 상기 제2촬영수단(210)으로부터 생성된 촬영정보를 전송하도록 하는 제2통신모듈(220)을 포함하는 것을 특징으로 하는 자율주행 자동차들의 자율주행 시스템.
According to claim 1,
The information acquisition terminal 200 is
It is made of any one or more of a fixed terminal 200a fixedly installed on one side of the driving road, a mobile terminal 200b moving on the road, and a flying terminal 200c flying on the road,
The information acquisition terminal 200 is
A second photographing means (210) for photographing the periphery of the current location and generating image information;
A second communication module 220 that is connected to enable data communication with another autonomous driving vehicle 100 or autonomous driving server 300 located within a set range to transmit photographing information generated from the second photographing means 210. Autonomous driving system of autonomous vehicles, characterized in that it comprises a.
제3항에 있어서,
상기 자율주행서버(300)는
상기 복수개의 자율주행 자동차(100)와 상기 복수개의 정보취득단말기(200)와 데이터 통신가능하도록 연결하는 서버통신부(310)와,
상기 복수개의 자율주행 자동차(100)로부터 주행정보 또는 영상정보를 수신받아 설정 범위 내에 주행하는 다른 자율주행 자동차(100)로 이를 전송하도록 하는 주행정보송수신모듈(320)을 포함하는 것을 특징으로 하는 자율주행 자동차들의 자율주행 시스템.
According to claim 3,
The autonomous driving server 300 is
A server communication unit 310 for connecting the plurality of autonomous vehicles 100 and the plurality of information acquisition terminals 200 to enable data communication,
Autonomous characterized in that it comprises a driving information transmission and reception module 320 for receiving the driving information or video information from the plurality of autonomous driving vehicles 100 and transmits it to other autonomous driving vehicles 100 traveling within a set range Autonomous driving system for driving cars.
제4항에 있어서,
상기 자율주행 자동차(100)는
설정범위 내에 위치하는 다른 자율주행 자동차(100)와 제1통신모듈(120)에 의해 연결되어 이로부터 주행정보를 전달받거나 자신의 주행정보를 전송하는 제1주행정보송수신부(170)와,
상기 제1촬영수단(110), 제1이벤트감지부(130) 및 제1주행정보송수신부(170)를 통해 설정범위 내에 위치하는 다른 자율주행 자동차(100)의 이벤트 발생을 감지하는 제2이벤트감지부(180)와,
상기 이벤트 발생이 감지되는 다른 자율주행 자동차(100)에 대해 이벤트 발생정보를 전송함과 동시에 상기 시뮬레이션수행부(150)를 통한 시뮬레이션 결과정보를 기초로 해당 자동차의 대응제어정보를 생성하여 상기 제1주행정보송수신부(170)를 통해 해당 자동차로 전송하도록 하는 제2제어부(190)를 더 포함하는 것을 특징으로 하는 자율주행 자동차들의 자율주행 시스템.
According to claim 4,
The autonomous vehicle 100 is
A first driving information transmitting and receiving unit 170 connected to another autonomous driving vehicle 100 positioned within a set range and connected to the first communication module 120 to receive driving information or transmit driving information thereof,
A second event for detecting the occurrence of an event of another autonomous vehicle 100 located within a set range through the first photographing means 110, the first event detecting unit 130, and the first driving information transmitting and receiving unit 170 Sensing unit 180,
The event generation information is transmitted to other autonomous vehicles 100 in which the occurrence of the event is detected, and at the same time, corresponding control information of the corresponding vehicle is generated based on simulation result information through the simulation execution unit 150 to generate the first Autonomous driving system of autonomous vehicles, characterized in that it further comprises a second control unit 190 to transmit to the vehicle through the driving information transmission and reception unit 170.
제5항에 있어서,
상기 정보취득단말기(200)는
설정범위 내에 위치하는 다른 자율주행 자동차(100)와 제2통신모듈(220)에 의해 연결되어 이로부터 주행정보를 전달받는 제2주행정보송수신부(230)와,
상기 제2촬영수단(210) 및 제2주행정보송수신부(230)를 통해 설정범위 내에 위치하는 특정 자율주행 자동차(100)의 이벤트 발생을 감지하는 제3이벤트감지부(240)와,
상기 이벤트 발생이 감지되는 해당 자율주행 자동차(100)에 대해 이벤트 발생정보를 전송함과 동시에 해당 자동차의 주행제어와 관련하여 대응제어정보를 생성하여 상기 제2주행정보송수신부(230)를 통해 해당 자동차로 전송하도록 하는 제1제어정보생성부(250)를 더 포함하는 것을 특징으로 하는 자율주행 자동차들의 자율주행 시스템.
The method of claim 5,
The information acquisition terminal 200 is
A second driving information transmission / reception unit 230 connected to another autonomous driving vehicle 100 positioned within a set range and connected to the second communication module 220 to receive driving information therefrom;
A third event detection unit 240 for detecting the occurrence of an event of a specific autonomous vehicle 100 located within a set range through the second photographing means 210 and the second driving information transmitting and receiving unit 230,
The event generation information is transmitted to the autonomous vehicle 100 in which the occurrence of the event is detected, and at the same time, corresponding control information is generated in relation to the driving control of the vehicle, and the corresponding information is transmitted through the second driving information transmission / reception unit 230. Autonomous driving system of autonomous vehicles, characterized in that it further comprises a first control information generating unit (250) to transmit to the vehicle.
제6항에 있어서,
상기 자율주행서버(300)는
상기 주행정보송수신모듈(320)로부터 주행정보 및 영상정보를 전달받아 특정 자율주행 자동차(100)의 이벤트 발생을 감지하는 이벤트생성부(330)와,
상기 이벤트생성부(330)로부터 이벤트 발생이 감지되는 해당 자율주행 자동차(100)에 대해 이벤트 발생정보를 전송함과 동시에 해당 자동차의 주행제어와 관련하여 대응제어정보를 생성하여 상기 주행정보송수신모듈(320)을 통해 해당 자동차로 전송하도록 하는 제2제어정보생성부(340)를 더 포함하는 것을 특징으로 하는 자율주행 자동차들의 자율주행 시스템.
The method of claim 6,
The autonomous driving server 300 is
An event generator 330 receiving the driving information and the video information from the driving information transmitting and receiving module 320 and detecting an occurrence of an event in a specific autonomous driving vehicle 100;
The driving information transmission / reception module is generated by transmitting event generation information to the autonomous vehicle 100 in which an event is detected from the event generation unit 330 and generating corresponding control information in relation to driving control of the corresponding car. 320) autonomous driving system of autonomous vehicles, characterized in that it further comprises a second control information generating unit 340 to transmit to the vehicle.
KR1020180070750A 2018-06-20 2018-06-20 Automated Driving System for Automated Driving car KR102091327B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180070750A KR102091327B1 (en) 2018-06-20 2018-06-20 Automated Driving System for Automated Driving car

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180070750A KR102091327B1 (en) 2018-06-20 2018-06-20 Automated Driving System for Automated Driving car

Publications (2)

Publication Number Publication Date
KR20190143151A KR20190143151A (en) 2019-12-30
KR102091327B1 true KR102091327B1 (en) 2020-03-19

Family

ID=69103315

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180070750A KR102091327B1 (en) 2018-06-20 2018-06-20 Automated Driving System for Automated Driving car

Country Status (1)

Country Link
KR (1) KR102091327B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230124839A (en) 2022-02-18 2023-08-28 경북대학교 산학협력단 Autonomous driving management server, driver's condition-sensitive self-driving car and method for driving autonomously

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102502951B1 (en) * 2020-12-23 2023-02-23 재단법인 지능형자동차부품진흥원 Movable monitoring apparatus for field-based evaluation of autonomous driving
KR102377233B1 (en) * 2021-03-25 2022-03-22 (주)넥스트박스 System for acquiring mobility data under real driving circumstance and for simulating them
KR102642266B1 (en) * 2022-07-26 2024-02-29 (주)텔레컨스 Server and method for sharing information of autonomous vehicle
KR102649368B1 (en) * 2022-10-07 2024-03-19 주식회사 자동차공학연구소 Design method of virtual road driving scenario and design system of virtual road driving scenario

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101748405B1 (en) * 2016-10-31 2017-07-19 주식회사 코리트 System of providing driving information for self-driving car using the smart-fence
JP2018077652A (en) 2016-11-09 2018-05-17 株式会社野村総合研究所 Vehicle driving support system and collective housing

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101703144B1 (en) * 2012-02-09 2017-02-06 한국전자통신연구원 Apparatus and method for autonomous driving
KR102336017B1 (en) * 2016-11-09 2021-12-07 한국전자통신연구원 Interaction method between user and autonomous driving system in fully autonomous driving

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101748405B1 (en) * 2016-10-31 2017-07-19 주식회사 코리트 System of providing driving information for self-driving car using the smart-fence
JP2018077652A (en) 2016-11-09 2018-05-17 株式会社野村総合研究所 Vehicle driving support system and collective housing

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230124839A (en) 2022-02-18 2023-08-28 경북대학교 산학협력단 Autonomous driving management server, driver's condition-sensitive self-driving car and method for driving autonomously

Also Published As

Publication number Publication date
KR20190143151A (en) 2019-12-30

Similar Documents

Publication Publication Date Title
US11009602B2 (en) Method and system for environment detection
KR102091327B1 (en) Automated Driving System for Automated Driving car
US20190035276A1 (en) Running vehicle alerting system and method
US9836967B2 (en) Method and traffic monitoring device for detecting a wrong-way driving incident of a motor vehicle
CN108986510A (en) A kind of local dynamic map of intelligence towards crossing realizes system and implementation method
CN111508276B (en) High-precision map-based V2X reverse overtaking early warning method, system and medium
EP3720750B1 (en) Method and system for maneuvering a vehicle
CN106233159A (en) The false alarm using position data reduces
CN104700658A (en) Method for preventing a collision of a motor vehicle with a vehicle driving the wrong way and a control and detection device for a vehicle to prevent a collision of the motor vehicle with a vehicle driving the wrong way
KR102635265B1 (en) Apparatus and method for around view monitoring using lidar
CN110673599A (en) Sensor network-based environment sensing system for automatic driving vehicle
JPWO2019181284A1 (en) Information processing equipment, mobile devices, and methods, and programs
CN112534487B (en) Information processing apparatus, moving body, information processing method, and program
CN110962744A (en) Vehicle blind area detection method and vehicle blind area detection system
US20190129434A1 (en) Vehicle control device
CN110936960A (en) Driving assisting method and system
WO2021049233A1 (en) Information processing device, information processing method, and program
CN113696907A (en) L3-level automatic driving system
KR20180052811A (en) Method for Making Autonomous or Automated Driving System and a Driving System
CN111028544A (en) Pedestrian early warning system with V2V technology and vehicle-mounted multi-sensor integration
US20220171063A1 (en) Target detection apparatus and vehicle having the same mounted thereon
CN114348018A (en) Automatic driving system and method for commercial vehicle
KR20220001405A (en) A method of sharing and using sensor data
CN112349093A (en) Vehicle early warning method and device fused with V2X sensor
EP3852083A1 (en) System and method for obstacle detection and avoidance on roads

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right