KR20220072101A - Method and apparatus for driving route change based on driving environment - Google Patents

Method and apparatus for driving route change based on driving environment Download PDF

Info

Publication number
KR20220072101A
KR20220072101A KR1020200159018A KR20200159018A KR20220072101A KR 20220072101 A KR20220072101 A KR 20220072101A KR 1020200159018 A KR1020200159018 A KR 1020200159018A KR 20200159018 A KR20200159018 A KR 20200159018A KR 20220072101 A KR20220072101 A KR 20220072101A
Authority
KR
South Korea
Prior art keywords
driving
sensor
vehicle
lane
route
Prior art date
Application number
KR1020200159018A
Other languages
Korean (ko)
Inventor
이정우
강도욱
민경욱
성경복
이신경
최정단
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020200159018A priority Critical patent/KR20220072101A/en
Publication of KR20220072101A publication Critical patent/KR20220072101A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/18Propelling the vehicle
    • B60Y2300/18008Propelling the vehicle related to particular drive situations
    • B60Y2300/18166Overtaking, changing lanes
    • G05D2201/0213

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)

Abstract

주행 환경 기반 자율 주행 경로 변경 방법 및 장치가 제공된다. 장치가, 센서들로부터 획득되는 데이터로부터 객체 - 상기 객체는 차선, 차량, 신호등 중 적어도 하나임 - 를 인식하고 관련된 정보를 획득한다. 그리고 장치는 획득된 정보를 기반으로, 각각의 센서들이 감지하는 영역에 대해 주행하는 차선별로 감지되는 객체의 수, 객체가 감지 영역에서 차지하는 비율, 인식되어야 하는 객체의 인식 여부 중 적어도 하나를 모니터링한다. 다음에, 모니터링 결과에 따라 경로 변경이 필요한 상태인 것으로 판단되면, 경로 변경을 위한 지역 경로를 생성한다. A method and apparatus for changing an autonomous driving route based on a driving environment are provided. The device recognizes an object, wherein the object is at least one of a lane, a vehicle, and a traffic light, from data obtained from sensors, and obtains related information. And, based on the obtained information, the device monitors at least one of the number of objects detected by each driving lane in the area detected by each sensor, the ratio of the objects in the detection area, and whether an object to be recognized is recognized. . Next, if it is determined that a route change is required according to the monitoring result, a local route for route change is generated.

Description

주행 환경 기반 자율 주행 경로 변경 방법 및 장치{Method and apparatus for driving route change based on driving environment} Method and apparatus for driving route change based on driving environment

본 발명은 자율 주행에 관한 것으로, 더욱 상세하게 말하자면, 주행 환경 기반 자율 주행 경로 변경 방법 및 장치에 관한 것이다. The present invention relates to autonomous driving, and more particularly, to a method and apparatus for changing an autonomous driving route based on a driving environment.

자율 주행 차량은 차량에 설치된 카메라, 레이더(radar), 라이더(Lidar) 등의 센서를 통해 주변 상황을 인식하고 판단하여 어떻게 주행할지를 결정한다. 하지만 자율 주행 차량이 도로를 주행함에 있어 주변에 버스나 트럭 같은 커다란 차량이 있는 경우, 자율 주행 차량의 센서가 감지하는 영역을 가리게 되어 주변 환경 정보를 올바르게 취득할 수 없다. 특히 단단한 구조물이나 건축 재료를 운반하는 트럭이나 버스가 주변 차선에 있는 경우, 주변 주행 상황을 제대로 알기 어려울 뿐만 아니라, 낙하물이나 졸음, 난폭 운전 등에 노출되어 뒤따르는 차량에 큰 사고를 유발시키기도 한다. Autonomous vehicles determine how to drive by recognizing and judging surrounding conditions through sensors such as cameras, radar, and lidar installed in the vehicle. However, when a large vehicle such as a bus or truck is nearby when an autonomous vehicle is driving on a road, the area detected by the sensor of the autonomous vehicle is blocked, and information about the surrounding environment cannot be acquired correctly. In particular, when a truck or bus carrying a rigid structure or building material is in the surrounding lane, it is difficult to understand the surrounding driving situation, and it is exposed to falling objects, drowsiness, reckless driving, etc.

또한 정밀 맵 기반 주변 위치를 인식하는 경우, 차선이나 주변 객체를 제대로 인식하지 못할 때 자율 주행에 어려움을 겪을 수 있다. 만약 전방 신호등 정보를 통신으로 받고 있지 않다면, 앞 차량에 가려 신호등 정보를 확인하기 어려울 수 있다. In addition, when recognizing a precise map-based surrounding location, autonomous driving may have difficulties when lanes or surrounding objects are not properly recognized. If the front traffic light information is not received through communication, it may be difficult to check the traffic light information because it is obscured by the vehicle in front.

따라서 현재 자율차량이 주행하고 있는 환경에서 주변 차량이 자율 차량 센서의 감지 영역을 가려서 필요한 정보를 인식하는데 어려움이 생기는 경우, 센서가 필요한 정보를 인식할 수 있는 구간으로 이동하여 주행할 필요가 있다.Therefore, when it is difficult to recognize necessary information because a nearby vehicle blocks the detection area of the autonomous vehicle sensor in the environment in which the autonomous vehicle is currently driving, it is necessary to move to a section where the sensor can recognize the necessary information and drive.

본 발명이 해결하고자 하는 과제는 자율 주행 차량에서 센서가 주변 환경을 제대로 인식할 수 없는 경우 자동으로 자율 주행 차량의 경로를 변경하는 방법 및 장치를 제공하는 것이다. SUMMARY OF THE INVENTION An object of the present invention is to provide a method and apparatus for automatically changing a route of an autonomous vehicle when a sensor cannot properly recognize a surrounding environment in an autonomous vehicle.

본 발명의 실시 예에 따르면, 자율 주행 차량의 경로 변경을 제어하는 방법이 제공된다. 상기 방법은, 장치가, 센서들로부터 획득되는 데이터로부터 객체 - 상기 객체는 차선, 차량, 신호등 중 적어도 하나임 - 를 인식하고 관련된 정보를 획득하는 단계; 상기 장치가, 상기 획득된 정보를 기반으로, 각각의 센서들이 감지하는 영역에 대해 주행하는 차선별로 감지되는 객체의 수, 객체가 감지 영역에서 차지하는 비율, 인식되어야 하는 객체의 인식 여부 중 적어도 하나를 모니터링하는 단계; 상기 장치가, 상기 모니터링 결과에 따라 경로 변경이 필요한 상태인 것으로 판단되면, 경로 변경을 위한 지역 경로를 생성하는 단계를 포함한다. According to an embodiment of the present invention, there is provided a method for controlling a route change of an autonomous vehicle. The method includes, by a device, recognizing an object from data obtained from sensors, the object being at least one of a lane, a vehicle, and a traffic light, and obtaining related information; The device determines, based on the obtained information, at least one of the number of objects detected for each driving lane in the area detected by each sensor, the ratio of the objects in the detection area, and whether an object to be recognized is recognized monitoring; and generating, by the device, a local route for route change when it is determined that route change is required according to the monitoring result.

실시 예들에 따르면, 자율 주행 차량이 주행하는 주변 환경을 모니터링하고 만약 자율 주행 차량의 센서가 감지하는 영역에 감지가 예상되는 객체가 인식되지 않거나 및/또는 특정 객체가 차지하는 비율이 높아 인식해야 하는 다른 객체를 인식하기 어려운 상황 등인 경우, 현재 주행 중인 지역 경로를 다시 설정하여 차량이 다른 차선으로 이동하도록 한다. 특히, 커다란 차량 등으로 인해 자율 주행 차량의 센서가 주변 환경을 제대로 인식할 수 없는 경우 다른 차선으로 이동하여 주행하게 된다. According to embodiments, monitoring the surrounding environment in which the autonomous driving vehicle drives, and if an object expected to be detected is not recognized in an area detected by the sensor of the autonomous driving vehicle, and/or other objects that need to be recognized due to a high proportion of a specific object In a situation in which it is difficult to recognize an object, the vehicle moves to another lane by resetting the current local route. In particular, when the sensor of the autonomous vehicle cannot properly recognize the surrounding environment due to a large vehicle, etc., the vehicle moves to another lane and drives.

따라서 차량의 차선 이동에 따라 센서가 필요한 정보를 취득할 수 있으며, 혹시 발생할 수 있는 사고를 미연에 방지하고 보다 안전한 자율 주행을 할 수 있게 된다.Accordingly, the sensor can acquire the necessary information according to the lane movement of the vehicle, prevent possible accidents in advance, and enable safer autonomous driving.

도 1은 본 발명의 실시 예에 따른 자율 주행 차량의 주행 환경을 나타낸 예시도이다.
도 2는 본 발명의 실시 예에 따른 자율 주행 장치의 구조를 나타낸 도이다.
도 3은 본 발명의 실시 예에 따른 자율 주행 경로 변경 방법의 흐름도이다.
도 4는 본 발명의 실시 예에 따른 자율 주행 경로 변경의 예를 나타낸 도이다.
도 5는 본 발명의 실시 예에 따른 주행 경로 변경 방법을 구현하기 위한 컴퓨팅 장치를 설명하기 위한 구조도이다.
1 is an exemplary diagram illustrating a driving environment of an autonomous vehicle according to an embodiment of the present invention.
2 is a diagram illustrating a structure of an autonomous driving apparatus according to an embodiment of the present invention.
3 is a flowchart of a method for changing an autonomous driving route according to an embodiment of the present invention.
4 is a diagram illustrating an example of changing an autonomous driving route according to an embodiment of the present invention.
5 is a structural diagram illustrating a computing device for implementing a driving route change method according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be implemented in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part "includes" a certain element, it means that other elements may be further included, rather than excluding other elements, unless otherwise stated.

본 명세서에서 단수로 기재된 표현은 "하나" 또는 "단일" 등의 명시적인 표현을 사용하지 않은 이상, 단수 또는 복수로 해석될 수 있다.In this specification, expressions described in the singular may be construed in the singular or plural unless an explicit expression such as “a” or “single” is used.

또한, 본 발명의 실시 예에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.In addition, terms including ordinal numbers such as first, second, etc. used in an embodiment of the present invention may be used to describe the constituent elements, but the constituent elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component.

이하, 도면을 참조하여 본 발명의 실시 예에 따른 주행 환경 기반 자율 주행 경로 변경 방법 및 장치에 대하여 설명한다. Hereinafter, a method and apparatus for changing an autonomous driving route based on a driving environment according to an embodiment of the present invention will be described with reference to the drawings.

도 1은 본 발명의 실시 예에 따른 자율 주행 차량의 주행 환경을 나타낸 예시도이다. 1 is an exemplary diagram illustrating a driving environment of an autonomous vehicle according to an embodiment of the present invention.

자율 주행 차량(A)이 도 1과 같은 환경에서 주행하고 있는 경우, 전후방 및 우측에 커다란 차량(버스나 트럭 등)이 주행하고 있어서, 자율 주행 차량(A)의 센서가 감지하는 영역을 가리게 되어, 센서가 주변 환경 정보를 올바르게 취득할 수 없다. 특히 단단한 구조물이나 건축 재료를 운반하는 트럭이나 버스가 주변 차선에 경우 주변 주행 상황을 제대로 알기 어려울 뿐만 아니라 낙하물이나 졸음, 난폭 운전 등에 노출되어 뒤따르는 차량에 큰 사고를 유발시키기도 한다. 또한 정밀 맵 기반 주변 위치를 인식하는 경우 차선이나 주변 객체를 제대로 인식하지 못할 때 자율 주행에 어려움을 겪을 수 있다. 또한, 전방 신호등 정보를 통신으로 받고 있지 않다면, 전방 차량에 시야가 가려져서 신호등 정보를 확인하기 힘들다. When the autonomous vehicle A is traveling in the environment shown in FIG. 1 , large vehicles (such as a bus or truck) are running in the front, rear, and right sides, and the area detected by the sensor of the autonomous vehicle A is covered. , the sensor cannot acquire the surrounding environment information correctly. In particular, when a truck or bus carrying a rigid structure or building material is in the surrounding lane, it is difficult to know the driving situation properly, and it is also exposed to falling objects, drowsiness, or reckless driving, which can cause a serious accident to the following vehicle. In addition, when recognizing a precise map-based surrounding location, autonomous driving may experience difficulties when lanes or surrounding objects are not properly recognized. In addition, if the front traffic light information is not received through communication, it is difficult to check the traffic light information because the field of view is obscured by the vehicle in front.

따라서 본 발명의 실시 예에서는 자율 주행 차량(A)의 센서의 인식이 제대로 수행될 수 없는 경우를 인식하여, 주행 경로를 변경한다. 예를 들어, 도 1에서와 같이, 자율 주행 차량(A)이 왼쪽으로 경로를 변경하여 이동하도록 한다. 이에 따라 자율 주행 차량이 위험한 주행환경을 벗어나게 한다. Therefore, in the embodiment of the present invention, the driving route is changed by recognizing a case in which the sensor recognition of the autonomous vehicle A cannot be properly performed. For example, as in FIG. 1 , the autonomous vehicle A changes its path to the left to move. This allows autonomous vehicles to escape dangerous driving environments.

이를 위해 자율 주행 차량의 센서를 통해 감지 영역내 인식 범위가 충분히 확보되는지 계속 모니터링하고 예상되는 객체 인식의 유무 등을 확인하여, 주변 차량으로 인해 차량의 센서가 목적하는 성능을 제대로 발휘할 수 없는 경우를 판단한다. 그리고 이러한 경우, 환경을 벗어날 수 있는 지역 경로를 새로 생성하여 자율 주행 차량이 현재 주행 환경을 벗어나게 한다. To this end, we continuously monitor whether the recognition range within the detection area is sufficiently secured through the sensor of the autonomous driving vehicle, and check whether there is expected object recognition, etc. judge And in this case, a new local route that can leave the environment is created so that the autonomous vehicle leaves the current driving environment.

도 2는 본 발명의 실시 예에 따른 자율 주행 장치의 구조를 나타낸 도이다. 2 is a diagram illustrating a structure of an autonomous driving apparatus according to an embodiment of the present invention.

첨부한 도 2에서와 같이, 본 발명의 실시 예에 따른 자율 주행 장치(1)는, 센서 데이터 처리부(10), 판단부(20), 센서 영역 모니터링부(30), 및 차량 주행 제어부(40)를 포함한다. 2 , the autonomous driving apparatus 1 according to an embodiment of the present invention includes a sensor data processing unit 10 , a determination unit 20 , a sensor area monitoring unit 30 , and a vehicle driving control unit 40 . ) is included.

센서 데이터 처리부(10)는 센서들로부터 감지된 데이터를 획득하도록 구성된다. 카메라, 라이다, 레이더 등의 센서들이 자율 주행 차량에 설치된다. 설치된 각각의 센서에서 측정된 데이터는 센서 데이터 처리부(10)로 제공되며, 센서 데이터 처리부(10)는 센서들로부터 수신된 데이터에서 차선, 차량, 신호등 정보 등 객체를 인식한다. 이와 같이 센서들로부터의 데이터를 기반으로 인식된 객체와 이에 관련된 정보를 포함하는 센서 인식 정보가 판단부(20)로 전달된다. The sensor data processing unit 10 is configured to obtain data sensed from the sensors. Sensors such as cameras, lidar and radar are installed in autonomous vehicles. Data measured by each installed sensor is provided to the sensor data processing unit 10 , and the sensor data processing unit 10 recognizes objects such as lane, vehicle, and traffic light information from the data received from the sensors. As described above, sensor recognition information including an object recognized based on data from the sensors and information related thereto is transmitted to the determination unit 20 .

판단부(20)는 정밀 맵 정보, 센서 인식 정보와 사용자 등이 설정한 전체 경로 정보를 기반으로 현재 차량이 진행하는데 필요한 지역 경로를 생성하도록 구성된다. 판단부(20)는 지역 경로를 차량 주행 제어부(40)로 전달한다. The determination unit 20 is configured to generate a local route required for the current vehicle to proceed based on the precise map information, sensor recognition information, and overall route information set by the user. The determination unit 20 transmits the local route to the vehicle driving control unit 40 .

한편, 센서 영역 모니터링부(30)는 센서 데이터 처리부(10)로부터 제공되는 센서 인식 정보를 모니터링하면서, 모니터링 결과 센서 인식의 부정확성으로 인해 경로 변경이 필요한 상태인지를 판단하고, 변경이 필요한 상태인 경우 지역 경로 생성을 판단부(20)에 요청하도록 구성된다. On the other hand, the sensor area monitoring unit 30 monitors the sensor recognition information provided from the sensor data processing unit 10, and as a result of monitoring, determines whether a path change is required due to inaccuracy in sensor recognition, and when the change is required It is configured to request generation of a local route to the determination unit 20 .

구체적으로, 센서 영역 모니터링부(30)는 각각의 센서에 대한 인식 정보와 경로 정보를 기반으로, 차량 주변에 센서의 감지 영역을 가리는 객체가 있는지, 각 차선에 대해 센서에 감지된 객체 수와 전체 객체 및 각 객체가 차지하는 비율 등을 확인한다. 그리고 정밀맵 상에서 신호등이나 차선과 같이 인식될 것이 예상되는 객체가 인식되고 있는지를 확인한다. 예를 들어, 예상되는 객체가 인식되지 않거나 및/또는 특정 객체가 센서의 감지 영역을 대부분 차지하여 주변의 다른 객체를 감지할 수 없는 경우 또는 각 차선에 대해 센서에 감지된 객체 수와 전체 객체 및 각 객체가 차지하는 비율이 설정 조건을 만족하는 경우에 경로 변경이 필요한 상태인 것으로 판단한다. 센서 영역 모니터링부(30)는 경로 변경이 필요한 상태인 경우, 현재 상황을 벗어날 수 있는 차선을 선택하고 이에 대한 정보를 판단부(20)로 전달하면서, 새로운 지역경로 생성을 요청한다. Specifically, the sensor area monitoring unit 30 determines whether there is an object covering the detection area of the sensor around the vehicle, based on the recognition information and path information for each sensor, the number of objects detected by the sensor for each lane, and the total number of objects detected by the sensor for each lane. Check the object and the proportion occupied by each object. Then, it is checked whether an object that is expected to be recognized, such as a traffic light or a lane, is being recognized on the precision map. For example, if the expected object is not recognized and/or certain objects occupy most of the detection area of the sensor and other objects in the vicinity cannot be detected, or for each lane, the number of objects detected by the sensor and the total number of objects and When the ratio occupied by each object satisfies the set condition, it is determined that the path change is required. When a route change is required, the sensor area monitoring unit 30 selects a lane that can deviate from the current situation and transmits the information to the determination unit 20, while requesting creation of a new local route.

한편, 판단부(20)는 전체 경로를 기반으로 센서 영역 모니터링부(30)로부터의 제공된 요청에 대응하는 차선 쪽으로 이동하기 위한 지역 경로를 생성하고, 생성된 새로운 지역 경로를 차량 주행 제어부(40)로 전달한다. 일 예로, 지역 경로 생성시, 주변 차량의 속도, 이동방향 등이 사용될 수 있다. On the other hand, the determination unit 20 generates a local route for moving toward the lane corresponding to the request provided from the sensor area monitoring unit 30 based on the entire route, and sets the new local route to the vehicle driving control unit 40 forward to For example, when generating a local route, the speed, movement direction, etc. of the surrounding vehicles may be used.

차량 주행 제어부(40)는 판단부(20)로부터 제공되는 지역 경로에 따라 해당 지점으로 이동하도록 차량 주행 제어를 수행하도록 구성된다. 차량 주행 제어부(40)는 해당 지점으로 이동하기 위한 제어량인 가속 페달 세기, 스티어링 휠 각도 등을 생성하고, 이러한 제어량을 차량 주행 시스템(도시하지 않음)으로 전달하여, 제어량을 기반으로 자율 주행 차량이 움직이도록 한다. The vehicle driving control unit 40 is configured to perform vehicle driving control to move to a corresponding point according to the local route provided from the determining unit 20 . The vehicle driving control unit 40 generates accelerator pedal strength, steering wheel angle, and the like, which are control amounts for moving to a corresponding point, and transmits these control amounts to a vehicle driving system (not shown), so that the autonomous vehicle is operated based on the control amount. make it move

다음에는 이러한 구조를 기반으로 본 발명의 실시 예에 따른 자율 주행 경로 변경 방법에 대하여 설명한다. Next, a method for changing an autonomous driving route according to an embodiment of the present invention will be described based on this structure.

도 3은 본 발명의 실시 예에 따른 자율 주행 경로 변경 방법의 흐름도이다. 3 is a flowchart of a method for changing an autonomous driving route according to an embodiment of the present invention.

여기서는 자율 주행 차량이 차량에 설치된 센서로부터의 정보를 기반으로 주변 주행 환경을 인식하고, 센서의 감지 영역이 대형 차량 등으로 인해 가려져서 제대로 감지할 수 없는 경우 이를 회피하는 경로를 생성한다. Here, the autonomous vehicle recognizes the surrounding driving environment based on information from sensors installed in the vehicle, and creates a route to avoid it when the detection area of the sensor is obscured by a large vehicle, etc. and cannot be properly detected.

구체적으로, 첨부한 도 3에서와 같이, 도로에 진입한 자율 주행 차량은 차량에 설치된 다양한 센서 예를 들어, 카메라, 라이다, 레이더 등을 통해 데이터를 획득한다(S100). Specifically, as shown in FIG. 3 , the autonomous vehicle entering the road acquires data through various sensors installed in the vehicle, for example, a camera, a lidar, a radar, and the like ( S100 ).

센서들로부터 획득된 데이터를 기반으로 주행하는 주변 환경을 인식한다(S110). 구체적으로 센서들로부터 수신된 데이터에서 차선, 차량, 신호등 정보 등 객체를 인식한다. Based on the data obtained from the sensors, the driving environment is recognized (S110). Specifically, objects such as lane, vehicle, and traffic light information are recognized from data received from sensors.

단계(S110)에서 인식된 정보를 기반으로, 전체 경로 상 자율 주행 차량이 다음 도달할 위치를 나타내는 지역 경로를 생성한다(S120). 이렇게 생성된 지역 경로를 기반으로 차량 제어가 수행된다(S130). 구체적으로, 생성된 지역 경로의 좌표에 도달하기 위해 차량의 움직임 제어를 위한 제어량 예를 들어, 가속 페달 세기, 휠 각도 등을 결정한다. 이와 같이 결정된 제어량을 기반으로 차량의 가속 페달 및 휠이 동작하면서 차량이 움직이므로, 자율 주행이 이루어진다(S140). Based on the information recognized in step S110, a local route indicating the next destination of the autonomous vehicle on the entire route is generated (S120). Vehicle control is performed based on the generated local route (S130). Specifically, a control amount, eg, accelerator pedal strength, wheel angle, and the like, for controlling the movement of the vehicle is determined in order to arrive at the coordinates of the generated local route. Based on the control amount determined in this way, the vehicle moves while the accelerator pedal and the wheel of the vehicle operate, so that autonomous driving is performed (S140).

한편, 센서들로부터 획득된 인식 정보를 기반으로 위에 기술된 바와 같이 자율 주행이 수행되면서, 또한, 각각의 센서가 인식한 정보를 기반으로 모니터링을 수행한다(S150). 각 센서에 의해 인식되는 객체의 크기, 객체의 종류, 객체의 개수, 객체의 이동 방향, 객체의 속도, 모든 객체가 차지하는 영역의 비율, 각각의 객체가 차지하는 영역의 비율 등을 모니터링한다. 모든 객체가 차지하는 영역의 비율은 센서에 의해 감지되는 영역에서 인식된 모든 객체가 차지하는 비율을 나타낸다. Meanwhile, while autonomous driving is performed as described above based on the recognition information obtained from the sensors, monitoring is also performed based on the information recognized by each sensor (S150). The size of the object recognized by each sensor, the type of object, the number of objects, the moving direction of the object, the speed of the object, the ratio of the area occupied by all objects, the ratio of the area occupied by each object, etc. are monitored. The ratio of the area occupied by all objects represents the ratio of all recognized objects in the area detected by the sensor.

구체적으로, 각 센서에 의해 인식된 객체가 해당 센서에 의해 감지되는 영역에서 차지하는 비율을 차선별로 각각 확인한다. 즉, 자율 주행 차량이 주행하는 차선에 대해 센서에 의해 감지되는 영역에서 인식된 객체가 차지하는 비율, 그리고 주행하는 차선의 좌측, 우측 차선에 대해 센서에 의해 감지되는 영역에서 인식된 객체가 차지하는 비율을 확인한다. 차선별로 현재 감지할 수 있는 영역에서, 감지된 모든 객체가 차지하는 비율 및 각 객체가 차지하는 비율을 획득한다. Specifically, the ratio of the object recognized by each sensor to the area detected by the corresponding sensor is checked for each lane. That is, the ratio of the recognized object in the area detected by the sensor to the lane in which the autonomous driving vehicle travels, and the ratio of the recognized object in the area detected by the sensor to the left and right lanes of the driving lane Check it. In the currently detectable area for each lane, a ratio occupied by all detected objects and a ratio occupied by each object are acquired.

대형 트럭이나 버스와 같은 특정 객체가 센서에 의해 감지되는 영역에서 차지하는 비율이 설정 비율보다 높은 경우, 이 객체에 가려 다른 객체를 인식하지 못할 수 있고 전체 모습이 아닌 일부 모습만 감지될 수도 있다. 또한 도로에 표시된 차선 역시 커다란 객체에 가려 잘 안보일 수 있다. 만약 객체의 수는 적지만 전체 영역에서 특정 객체가 차지하는 비율이 높은 경우 현재 센서의 감지 범위를 커다란 객체가 가리고 있는 것으로 판단할 수 있다. If a specific object, such as a heavy truck or bus, occupies a larger area than the set ratio in the area detected by the sensor, other objects may not be recognized by being covered by this object, and only a part of the object may be detected instead of the whole. Also, lanes marked on the road may be obscured by large objects. If the number of objects is small but a specific object occupies a high ratio in the entire area, it may be determined that a large object is covering the current sensing range of the sensor.

이러한 것들을 고려하여, 각각의 센서에 대해 주행 차선, 주행 차선의 우측 차선 및 주행 차선의 좌측 차선별로, 인식된 객체의 개수, 객체의 크기, 객체의 종류, 객체의 이동방향, 객체의 속도, 모든 객체가 차지하는 영역의 비율, 각각의 객체가 차지하는 영역의 비율을 확인하고, 이들을(이들을 설명의 편의상 모니터링 결과 정보라고 명명함) 미리 설정된 기준 값과 각각 비교한다. 여기서 기준 값은 센서의 종류별로 설정되며, 그리고 센서에 대해 차선별로 해당 센서에 의해 감지할 수 있는 전체 영역에 대해 최소한의 감지 성능을 발휘할 수 있는 값으로 설정될 수 있다. 임의 센서에 대해, 차선별로, 감지된 객체의 수에 대한 기준값(설명의 편의상, 제1 기준값이라고 명명함), 모든 객체가 감지 영역에서 차지하는 비율에 대한 기준값(설명의 편의상, 제2 기준값이라고 명명함), 각 객체별 전체 감지 영역에서 차지하는 비율에 대한 기준값(설명의 편의상, 제3 기준값이라고 명명함)이 설정될 수 있다. Taking these things into consideration, for each sensor, the number of recognized objects, the size of the object, the type of object, the moving direction of the object, the speed of the object, the Check the ratio of the area occupied by the object and the ratio of the area occupied by each object, and compare them (these are called monitoring result information for convenience of description) with preset reference values, respectively. Here, the reference value is set for each type of sensor, and may be set to a value capable of exhibiting the minimum sensing performance for the entire area detectable by the sensor for each lane for each sensor. For an arbitrary sensor, for each lane, the reference value for the number of detected objects (for convenience of explanation, it is called the first reference value), and the reference value for the ratio of all objects in the detection area (for convenience of description, it is called the second reference value) business card) and a reference value (referred to as a third reference value for convenience of explanation) for the ratio of each object to the total detection area may be set.

모니터링 단계(S150)에서 획득된 모니터링 결과를 대응하는 기준값과 비교하여 센서 인식의 부정확성으로 인해 경로 변경이 필요한 상태인지를 판단한다(S160). 이하에서는 설명의 편의상, 센서 인식의 부정확성으로 인해 경로 변경이 필요한 상태를 “변경 필요 상태”라고 명명한다. By comparing the monitoring result obtained in the monitoring step (S150) with a corresponding reference value, it is determined whether a path change is required due to inaccuracy in sensor recognition (S160). Hereinafter, for convenience of explanation, a state in which a path change is required due to inaccuracy in sensor recognition is referred to as a “change necessary state”.

특정 객체가 감지 영역을 가리고 있는지를 판단하여 변경 필요 상태인지를 판단할 수 있다. 구체적으로, 감지 영역에서 감지된 객체의 수가 미리 설정된 제1 기준값보다 작고, 전체 감지 영역에서 모든 객체가 차지하는 비율이 미리 설정된 제2 기준값보다 크고, 그리고 특정 객체가 감지 영역에서 차지하는 비율이 미리 설정된 제3 기준값보다 큰 경우, 특정 객체가 감지 영역을 가리고 있어서, 변경 필요 상태인 것으로 판단한다. 여기서 특정 객체는 객체의 크기가 미리 설정된 크기보다 큰 객체일 수 있으며, 및/또는 객체의 종류가 미리 설정된 종류(예를 들어, 트럭, 버스 등)에 해당하는 객체일 수 있다. It is possible to determine whether a change is required by determining whether a specific object covers the detection area. Specifically, the number of objects detected in the detection area is less than a preset first reference value, a ratio of all objects in the entire detection area is greater than a preset second reference value, and a ratio of a specific object in the detection area is less than a preset first reference value. 3 If it is greater than the reference value, it is determined that a change is required because a specific object covers the detection area. Here, the specific object may be an object whose size is larger than a preset size, and/or an object whose type corresponds to a preset type (eg, a truck, a bus, etc.).

또한 인식되어야 하는 객체가 인식되었는지를 판단하여 변경 필요 상태인지를 판단할 수 있다. 구체적으로, 정밀 맵 기반으로 주변 위치를 인식하는 경우, 현재 정밀맵 상에서 현재 차량의 위치에서 신호등이나 차선과 같이 인식되어야 할 고정 객체에 대한 인식이 되고 있는지를 판단한다. 만약 인식되어야 할 객체가 인식되지 않고 있으면 변경 필요 상태인 것으로 판단할 수 있다. In addition, by determining whether an object to be recognized is recognized, it is possible to determine whether a change is required. Specifically, when recognizing a surrounding location based on the precision map, it is determined whether a fixed object to be recognized, such as a traffic light or a lane, is being recognized at the current location of the vehicle on the current precision map. If the object to be recognized is not recognized, it can be determined that it is in a state that needs to be changed.

또한, 만약 인식되어야 할 객체가 인식되지 않고 있는 경우에도 추가적으로, 전체 감지 영역에서 모든 객체가 차지하는 비율이 미리 설정된 제2 기준값보다 크고, 감지 영역에서 감지된 객체의 수가 미리 설정된 제1 기준값보다 작지만, 특정 객체가 감지 영역에서 차지하는 비율이 미리 설정된 제3 기준값보다 큰 경우, 변경 필요 상태인 것으로 판단할 수 있다. In addition, even if the object to be recognized is not recognized, the ratio of all objects in the entire detection area is greater than the preset second reference value, and the number of objects detected in the detection area is smaller than the preset first reference value, When the ratio of the specific object to the detection area is greater than the preset third reference value, it may be determined that a change is required.

위에 기술된 바와 같이, 변경 필요 상태인 것으로 판단된 경우, 이러한 변경 필요 상태가 설정 시간 동안 지속되는지를 판단한다(S170). 이러한 상태가 설정 시간 이상 지속되지 않은 경우에는 다시 획득되는 센서 정보를 기반으로 모니터링을 수행한다. As described above, when it is determined that the change required state is determined, it is determined whether the change required state continues for a set time (S170). If this state does not last longer than the set time, monitoring is performed based on the sensor information acquired again.

반면, 변경 필요 상태가 설정 시간 동안 지속되는 경우, 자율 주행 차량의 센서가 제 기능을 발휘하지 못하고 있어서 현재 주행 차선을 벗어나기 위한 다음 단계를 수행한다. On the other hand, if the change-required state persists for a set period of time, the sensor of the autonomous driving vehicle is not functioning properly, so the next step to deviate from the current driving lane is performed.

모니터링 결과 정보를 대응하는 기준값과 비교하여 센서 인식의 부정확성으로 인해 경로 변경이 필요한 상태인지를 판단하는 과정은 차선별로 수행될 수 있다. 차선별로 수행된 하나의 차선 예를 들어, 현재 차량이 주행하고 있는 주행 차선에서만 변경 필요 상태인 것으로 판단되면, 현재 주행 차선을 벗어나기 위한 다음 단계를 수행한다. 또는, 둘 이상의 차선이 변경 필요 상태인 것으로 판단되면, 현재 주행 차선을 벗어나기 위한 다음 단계를 수행할 수 있다. The process of determining whether a route change is required due to inaccuracy in sensor recognition by comparing the monitoring result information with a corresponding reference value may be performed for each lane. For example, if it is determined that a change is required only in a driving lane in which the vehicle is currently traveling, the next step for leaving the current driving lane is performed. Alternatively, if it is determined that two or more lanes are in a state requiring a change, the next step for leaving the current driving lane may be performed.

현재 주행 차선을 벗어나기 위해 지역 경로 변경이 가능한지를 판단한다(S180). 이를 위해, 먼저, 차선들 중에서 변경이 가능한 차선이 있는지를 판단한다. 예를 들어, 감지되는 객체가 없는 차선, 또는 감지 영역에서 감지된 객체의 수가 미리 설정된 제1 기준값보다 작지만, 감지 영역에서 모든 객체가 차지하는 비율이 미리 설정된 제2 기준값보다 작고, 특정 객체가 감지 영역에서 차지하는 비율이 미리 설정된 제3 기준값보다 작은 차선이 있는 경우, 지역 경로 변경이 가능한 것으로 판단한다. 변경이 가능한 차선이 있는 경우, 전체 경로를 기반으로 변경이 가능한 차선으로 변경하는 지역 경로 생성이 가능한지를 판단한다. 이에 따라 전체 경로를 기반으로 변경이 가능한 차선으로 변경하는 지역 경로 생성이 가능한 경우, 지역 경로 변경이 가능한 것으로 판단한다. It is determined whether a local route change is possible in order to deviate from the current driving lane (S180). To this end, first, it is determined whether there is a changeable lane among the lanes. For example, a lane in which there is no object to be detected or the number of objects detected in the detection area is smaller than a preset first reference value, but the ratio of all objects in the detection area is smaller than the preset second reference value, and a specific object is detected in the detection area If there is a lane in which the ratio of occupancy is smaller than the preset third reference value, it is determined that the local route change is possible. If there is a lane that can be changed, it is determined whether it is possible to create a local route that changes to a lane that can be changed based on the entire route. Accordingly, if it is possible to create a local route that changes to a lane that can be changed based on the entire route, it is determined that the local route can be changed.

지역 경로 변경이 가능한 경우, 변경이 가능한 차선을 기반으로 새로운 지역 경로를 생성한다(S180). If a local route change is possible, a new local route is created based on the changeable lane (S180).

이 경로를 기반으로 트럭 등 커다란 객체를 벗어날 수 있는 차선으로 이동하여 주행을 하도록 한다. 이후, 새로이 생성된 지역 경로를 기반으로 차량 제어가 수행됨으로써, 자율 주행 차량은 트럭 등 커다란 객체를 벗어날 수 있는 차선으로 이동하여 주행을 한다. Based on this route, the vehicle moves to a lane that can escape large objects such as trucks and drives. Thereafter, vehicle control is performed based on the newly created local route, so that the autonomous vehicle moves to a lane that can escape a large object such as a truck and drives.

도 4는 본 발명의 실시 예에 따른 자율 주행 경로 변경의 예를 나타낸 도이다. 4 is a diagram illustrating an example of changing an autonomous driving route according to an embodiment of the present invention.

구체적인 일례로, 도 4의 (a)에서와 같이, 자율 주행 차량(A)의 주변에 트럭이나 버스와 같이 커다란 차량이 존재하는 경우, 현재 특별한 위험한 상황이 없다면 그대로 주행해도 되지만, 이런 커다란 차량에 의해 센서가 인식할 수 있는 부분이 가려지게 되면 주변 상황을 판단할 수 없어 위험한 상황이 발생할 수 있다. 따라서 이런 위험한 상황을 마주치는 것을 미연에 방지하기 위해, 위에 기술된 바와 같이, 주변 환경에 대한 센서들의 감지 데이터를 기반으로 객체에 의해 센서가 인식할 수 있는 범위가 가려지는 정도를 모니터링하고, 정밀 맵 상에서 인식되어야 할 신호등이나 주변 차선 등이 인식되는지를 확인한다. 만약 도 4의 (a)에서와 같이, 자율 주행 차량(A)의 앞, 뒤, 오른쪽에 큰 차량이 계속적으로 존재하여 센서의 시야를 방해하는 경우, 센서의 인식 영역이 덜 가려지는 차선, 즉, 현재 주행 차선을 벗어날 수 있는 조건을 만족하는 변경 가능한 차선 예를 들어, 좌측 차선으로 이동하는 지역 경로를 생성한다. 이에 따라, 새로 생성된 지역 경로로 자율 주행 차량(A)이 이동하게 된다. As a specific example, as in FIG. 4A , when a large vehicle such as a truck or a bus exists in the vicinity of the autonomous vehicle A, if there is no special dangerous situation at present, it may be driven as it is, but in such a large vehicle If the part that can be recognized by the sensor is blocked by the sensor, it may not be possible to determine the surrounding situation, and a dangerous situation may occur. Therefore, in order to prevent encountering such a dangerous situation in advance, as described above, the degree to which the sensor's recognizable range is obscured by an object is monitored based on the sensing data of the sensors for the surrounding environment, and precision Check whether traffic lights or surrounding lanes to be recognized on the map are recognized. If a large vehicle continuously exists in front, behind, and on the right side of the autonomous vehicle A as shown in FIG. , a changeable lane that satisfies a condition for departing from the current driving lane, for example, a local route moving to the left lane is generated. Accordingly, the autonomous vehicle A moves to the newly created local route.

한편, 도 4의 (b)에서와 같이, 자율 주행 차량(A)의 앞, 좌측 차선, 우측 차선이 모두 큰 차량에 가려져 전방 상황을 확인하기 힘든 경우에는, 바로 다른 차선으로 이동할 수 없기 때문에 서행하면서 앞 차량과 간격을 벌려 전방 상황을 더 확인할 수 있는 지역 경로를 생성하여 주행할 수 있게 한다. 이에 따라 센서의 시야를 좀 더 확보할 수 있도록 한다.On the other hand, as shown in FIG. 4B , if the front, left, and right lanes of the autonomous vehicle A are all obscured by a large vehicle, and it is difficult to check the situation ahead, slow down because it is impossible to move directly to the other lane. It creates a local route that allows you to check the situation ahead by increasing the distance from the vehicle in front while driving. Accordingly, the field of view of the sensor may be further secured.

도 5는 본 발명의 실시 예에 따른 주행 경로 변경 방법을 구현하기 위한 컴퓨팅 장치를 설명하기 위한 구조도이다. 5 is a structural diagram illustrating a computing device for implementing a driving route change method according to an embodiment of the present invention.

첨부한 도 5에 도시되어 있듯이, 본 발명의 일 실시 예에 따른 주행 경로 변경 방법은 컴퓨팅 장치(100)를 이용하여 구현될 수 있다. 5 , the driving route change method according to an embodiment of the present invention may be implemented using the computing device 100 .

컴퓨팅 장치(100)는 프로세서(110), 메모리(120), 입력 인터페이스 장치(130), 출력 인터페이스 장치(140), 및 저장 장치(150) 중 적어도 하나를 포함할 수 있다. 각각의 구성 요소들은 버스(bus)(160)에 의해 연결되어 서로 통신을 수행할 수 있다. 또한, 각각의 구성 요소들은 공통 버스(160)가 아니라, 프로세서(110)를 중심으로 개별 인터페이스 또는 개별 버스를 통하여 연결될 수도 있다.The computing device 100 may include at least one of a processor 110 , a memory 120 , an input interface device 130 , an output interface device 140 , and a storage device 150 . Each of the components may be connected by a bus 160 to communicate with each other. In addition, each of the components may be connected through an individual interface or a separate bus centering on the processor 110 instead of the common bus 160 .

프로세서(110)는 AP(Application Processor), CPU(Central Processing Unit), GPU(Graphic Processing Unit) 등과 같은 다양한 종류들로 구현될 수 있으며, 메모리(120) 또는 저장 장치(150)에 저장된 명령을 실행하는 임의의 반도체 장치일 수 있다. 프로세서(110)는 메모리(120) 및 저장 장치(150) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 이러한 프로세서(110)는 위의 도 1 내지 도 4를 토대로 설명한 기능 및 방법들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(110)는 센서 데이터 처리부, 판단부, 센서 영역 모니터링부, 차량 주행 제어부의 기능을 수행하도록 구성될 수 있다. The processor 110 may be implemented in various types such as an application processor (AP), a central processing unit (CPU), a graphic processing unit (GPU), and the like, and executes a command stored in the memory 120 or the storage device 150 . It may be any semiconductor device that does The processor 110 may execute a program command stored in at least one of the memory 120 and the storage device 150 . The processor 110 may be configured to implement the functions and methods described based on FIGS. 1 to 4 above. For example, the processor 110 may be configured to perform functions of a sensor data processing unit, a determination unit, a sensor area monitoring unit, and a vehicle driving control unit.

메모리(120) 및 저장 장치(150)는 다양한 형태의 휘발성 또는 비 휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(read-only memory)(121) 및 RAM(random access memory)(122)를 포함할 수 있다. 본 발명의 실시 예에서 메모리(120)는 프로세서(110)의 내부 또는 외부에 위치할 수 있고, 메모리(120)는 이미 알려진 다양한 수단을 통해 프로세서(110)와 연결될 수 있다. The memory 120 and the storage device 150 may include various types of volatile or non-volatile storage media. For example, the memory may include a read-only memory (ROM) 121 and a random access memory (RAM) 122 . In an embodiment of the present invention, the memory 120 may be located inside or outside the processor 110 , and the memory 120 may be connected to the processor 110 through various known means.

입력 인터페이스 장치(130)는 데이터(예를 들어, 센서로부터의 데이터)를 프로세서(110)로 제공하도록 구성되며, 출력 인터페이스 장치(140)는 프로세서(110)로부터의 데이터(예를 들어, 차량 주행 제어를 위한 제어량에 따른 제어 신호)를 출력하도록 구성된다. The input interface device 130 is configured to provide data (eg, data from a sensor) to the processor 110 , and the output interface device 140 is configured to provide data from the processor 110 (eg, vehicle driving). and output a control signal according to a control amount for control).

이러한 구조로 이루어지는 컴퓨팅 장치(100)는 자율 주행 장치 또는 주행 경로 변경 장치로 명명되어, 본 발명의 일 실시 예에 따른 주행 경로 변경 방법을 구현할 수 있다. The computing device 100 having such a structure is called an autonomous driving device or a driving route changing device, and may implement a driving route changing method according to an embodiment of the present invention.

또한, 본 발명의 일 실시 예에 따른 주행 경로 변경 방법 중 적어도 일부는 컴퓨팅 장치(100)에서 실행되는 프로그램 또는 소프트웨어로 구현될 수 있고, 프로그램 또는 소프트웨어는 컴퓨터로 판독 가능한 매체에 저장될 수 있다.In addition, at least a part of the driving route changing method according to an embodiment of the present invention may be implemented as a program or software executed in the computing device 100 , and the program or software may be stored in a computer-readable medium.

또한, 본 발명의 일 실시 예에 따른 주행 경로 변경 방법 중 적어도 일부는 컴퓨팅 장치(100)와 전기적으로 접속될 수 있는 하드웨어로 구현될 수도 있다.Also, at least a part of the driving route changing method according to an embodiment of the present invention may be implemented as hardware capable of being electrically connected to the computing device 100 .

본 발명의 실시 예는 이상에서 설명한 장치 및/또는 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하기 위한 프로그램, 그 프로그램이 기록된 기록 매체 등을 통해 구현될 수도 있으며, 이러한 구현은 앞서 설명한 실시예의 기재로부터 본 발명이 속하는 기술분야의 전문가라면 쉽게 구현할 수 있는 것이다.The embodiment of the present invention is not implemented only through the apparatus and/or method described above, and may be implemented through a program for realizing a function corresponding to the configuration of the embodiment of the present invention, a recording medium in which the program is recorded, etc. Also, such an implementation can be easily implemented by those skilled in the art to which the present invention pertains from the description of the above-described embodiments.

이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improved forms of the present invention are also provided by those skilled in the art using the basic concept of the present invention as defined in the following claims. is within the scope of the right.

Claims (1)

자율 주행 차량의 경로 변경을 제어하는 방법으로서,
장치가, 센서들로부터 획득되는 데이터로부터 객체 - 상기 객체는 차선, 차량, 신호등 중 적어도 하나임 - 를 인식하고 관련된 정보를 획득하는 단계;
상기 장치가, 상기 획득된 정보를 기반으로, 각각의 센서들이 감지하는 영역에 대해 주행하는 차선별로 감지되는 객체의 수, 객체가 감지 영역에서 차지하는 비율, 인식되어야 하는 객체의 인식 여부 중 적어도 하나를 모니터링하는 단계; 및
상기 장치가, 상기 모니터링 결과에 따라 경로 변경이 필요한 상태인 것으로 판단되면, 경로 변경을 위한 지역 경로를 생성하는 단계
를 포함하는 방법.








A method of controlling a reroute of an autonomous vehicle, the method comprising:
Recognizing, by a device, an object, wherein the object is at least one of a lane, a vehicle, and a traffic light, from data obtained from sensors and obtaining related information;
The device determines, based on the obtained information, at least one of the number of objects detected for each driving lane in the area detected by each sensor, the ratio of the objects in the detection area, and whether an object to be recognized is recognized monitoring; and
generating, by the device, a local route for route change when it is determined that route change is required according to the monitoring result
How to include.








KR1020200159018A 2020-11-24 2020-11-24 Method and apparatus for driving route change based on driving environment KR20220072101A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200159018A KR20220072101A (en) 2020-11-24 2020-11-24 Method and apparatus for driving route change based on driving environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200159018A KR20220072101A (en) 2020-11-24 2020-11-24 Method and apparatus for driving route change based on driving environment

Publications (1)

Publication Number Publication Date
KR20220072101A true KR20220072101A (en) 2022-06-02

Family

ID=81985024

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200159018A KR20220072101A (en) 2020-11-24 2020-11-24 Method and apparatus for driving route change based on driving environment

Country Status (1)

Country Link
KR (1) KR20220072101A (en)

Similar Documents

Publication Publication Date Title
US11798421B2 (en) Autonomous driving device
CN107953884B (en) Travel control apparatus and method for autonomous vehicle
JP6619436B2 (en) Autonomous vehicle that detects and responds to concession scenarios
CN109844843B (en) Method for checking a condition of possibility of overtaking
US9796378B2 (en) Vehicle travel path generating apparatus
KR102005253B1 (en) Lane assistance system responsive to extremely fast approaching vehicles
US10703363B2 (en) In-vehicle traffic assist
JP2016193719A (en) Gap-based speed control method for automated driving system
KR20190124119A (en) Apparatus and method for providing safety strategy of vehicle
GB2558777A (en) Vehicle collision avoidance
JP7156394B2 (en) Other Vehicle Motion Prediction Method and Other Vehicle Motion Prediction Device
KR102463722B1 (en) Apparatus and method for setting velocity of vehicle
JPWO2020066646A1 (en) Travel control device, vehicle and travel control method
US10787171B2 (en) Method for operating a vehicle
US11427200B2 (en) Automated driving system and method of autonomously driving a vehicle
KR20210114689A (en) Vehicle and method of controlling the same
CN113386738A (en) Risk early warning system, method and storage medium
US11440546B2 (en) Travel control apparatus, vehicle, travel control method, and non-transitory computer-readable storage medium
KR20220077002A (en) Apparatus and method for controlling vehicle
KR102529909B1 (en) Apparatus and method for controlling lane change of vehicle
KR20220072101A (en) Method and apparatus for driving route change based on driving environment
CN113646219A (en) Driving system and method for selecting operating options for an automated motor vehicle
JP6650635B2 (en) Determination apparatus, determination method, and determination program
US20220097691A1 (en) Driving controller for vehicle and method thereof
JP6395115B2 (en) Inter-vehicle distance control device and inter-vehicle distance control method