KR102605555B1 - Method and device for controlling automatic driving vehicle - Google Patents

Method and device for controlling automatic driving vehicle Download PDF

Info

Publication number
KR102605555B1
KR102605555B1 KR1020210166025A KR20210166025A KR102605555B1 KR 102605555 B1 KR102605555 B1 KR 102605555B1 KR 1020210166025 A KR1020210166025 A KR 1020210166025A KR 20210166025 A KR20210166025 A KR 20210166025A KR 102605555 B1 KR102605555 B1 KR 102605555B1
Authority
KR
South Korea
Prior art keywords
lane
obstacle
vehicle
change
detected
Prior art date
Application number
KR1020210166025A
Other languages
Korean (ko)
Other versions
KR20230079285A (en
Inventor
이종언
Original Assignee
이인텔리전스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이인텔리전스 주식회사 filed Critical 이인텔리전스 주식회사
Priority to KR1020210166025A priority Critical patent/KR102605555B1/en
Publication of KR20230079285A publication Critical patent/KR20230079285A/en
Application granted granted Critical
Publication of KR102605555B1 publication Critical patent/KR102605555B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0052Filtering, filters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 실시예들은 자율주행 차량의 자동 차선 변경에 관한 것으로서, 변경되어야 할 변경 목표차선을 인식하고, 인식된 변경 목표차선과 차량 사이의 헤딩각에 기반하여 차선이 변경되도록 제어할 수 있고, 특히, 변경 목표차선에 장애물이 존재하는 경우에도 변경 목표차선을 인식할 수 있으므로, 자동 차선 변경시 부드러운 주행을 수행함으로써, 안정성과 승차감을 모두 만족시킬 수 있는 자율주행 차량의 제어 방법 및 장치를 제공할 수 있다.The present embodiments relate to automatic lane change of an autonomous vehicle, where the change target lane to be changed can be recognized and the lane can be controlled to change based on the heading angle between the recognized change target lane and the vehicle. In particular, Since the change target lane can be recognized even when an obstacle exists in the change target lane, it is possible to provide a control method and device for an autonomous vehicle that can satisfy both stability and ride comfort by performing smooth driving when automatically changing lanes. there is.

Description

자율주행 차량의 제어 방법 및 장치{METHOD AND DEVICE FOR CONTROLLING AUTOMATIC DRIVING VEHICLE}Control method and device for autonomous vehicle {METHOD AND DEVICE FOR CONTROLLING AUTOMATIC DRIVING VEHICLE}

본 실시예들은 자율주행 차량의 제어 방법 및 장치에 관한 것이다.These embodiments relate to a control method and device for an autonomous vehicle.

첨단 기술의 발전 및 IT 산업의 발전으로 다양한 분야에서 무인화 산업의 연구 개발 및 적용이 이루어지고 있다. 특히, 차량산업은 최근 IT 기술들이 접목된 친환경, 첨단차량의 시대로 변모해가고 있고, 차량 기술 발전과 더불어 운전자의 안전과 편의성 증대를 위한 사고예방, 사고회피, 충돌안전, 편의성 향상, 차량 정보화 그리고 자율주행 기술 등을 적용한 지능형 차량들이 상용화되고 있다.With the development of cutting-edge technology and the development of the IT industry, research, development and application of the unmanned industry are being conducted in various fields. In particular, the automobile industry is recently transforming into an era of eco-friendly, high-tech vehicles incorporating IT technologies, and along with the advancement of vehicle technology, accident prevention, accident avoidance, collision safety, improvement of convenience, and vehicle informatization to increase driver safety and convenience. And intelligent vehicles using autonomous driving technology are being commercialized.

이러한 지능형 차량은 운전자의 조작 미숙에 대한 지원기술, 음성인식 등을 통한 편의 기능을 지원하는 차량으로서, 운전자의 과실에 의한 사고를 줄일 수 있을 뿐만 아니라, 시간감소, 연료낭비, 배기가스 저감 등의 이점을 기대할 수 있는 특징이 있다.These intelligent vehicles are vehicles that support convenience functions through voice recognition and assistance technology for the driver's inexperience in operation, and not only reduce accidents caused by driver negligence, but also reduce time, fuel waste, and exhaust gas reduction. There are features that can be expected to benefit.

차량의 자율주행은 출발지로부터 탑승자가 설정한 목적지까지 탑승자의 개입 없이 차량이 주행되는 것을 의미한다. 차량의 자율주행에서의 승차감은 안정성 못지 않게 중요한 요소이다. 탑승자가 자율주행 차량의 주행 중 승차감에 불안감을 느끼게 된다면, 자율주행 차량의 안정성이 아무리 높더라도 자율주행 시스템을 신뢰하지 못하는 경우가 발생한다.Autonomous driving of a vehicle means that the vehicle is driven from the starting point to the destination set by the passenger without the intervention of the passenger. Ride comfort in autonomous vehicle driving is as important as safety. If passengers feel anxious about the ride quality while driving a self-driving vehicle, they may not trust the self-driving system, no matter how high the safety of the self-driving vehicle is.

자율주행 시스템은 차량의 종방향 제어뿐만 아니라, 횡방향 제어에 있어서도 안정성과 승차감 모두를 만족시켜야 한다. 차량의 자율주행 시스템 중 차선을 변경하는 자동 차선 변경(Auto Lane Change, ALC)의 경우에도 안정성과 승차감을 모두 만족시키기 위한 제어 기술의 개발이 필요하다.An autonomous driving system must satisfy both stability and ride comfort not only in longitudinal control of the vehicle, but also in lateral control. In the case of Auto Lane Change (ALC), which changes lanes among the vehicle's autonomous driving systems, the development of control technology is necessary to satisfy both stability and ride comfort.

본 실시예들은 자율주행 차량의 자동 차선 변경에 관한 것으로서, 변경되어야 할 변경 목표차선을 인식하고, 인식된 변경 목표차선과 차량 사이의 헤딩각에 기반하여 차선이 변경되도록 제어할 수 있고, 특히, 변경 목표차선에 장애물이 존재하는 경우에도 변경 목표차선을 인식할 수 있으므로, 자동 차선 변경시 부드러운 주행을 수행함으로써, 안정성과 승차감을 모두 만족시킬 수 있는 자율주행 차량의 제어 방법 및 장치를 제공할 수 있다.The present embodiments relate to automatic lane change of an autonomous vehicle, where the change target lane to be changed can be recognized and the lane can be controlled to change based on the heading angle between the recognized change target lane and the vehicle. In particular, Since the change target lane can be recognized even when an obstacle exists in the change target lane, it is possible to provide a control method and device for an autonomous vehicle that can satisfy both stability and ride comfort by performing smooth driving when automatically changing lanes. there is.

일 측면에서, 본 실시예들은 차량의 주행 차선을 변경하기 위한 차선 변경 신호가 수신되면, 차량이 변경되어야 할 변경 목표차선으로 차선 변경이 가능한 상태인지를 판단하는 판단 단계; 차선 변경이 가능한 상태로 판단되면, 변경 목표차선에 장애물의 존재 여부를 감지하고, 장애물의 존재 여부 및 차량에 구비된 카메라 센서에 의한 영상 정보에 기반하여 변경 목표차선의 중앙에 가상 라인을 설정하는 설정 단계 및 가상 라인에 대한 차량의 헤딩각을 산출하는 산출하고, 헤딩각에 기반하여 차량이 변경 목표차선으로 차선이 변경되도록 제어하는 제어 단계를 포함하는 자율주행 차량의 제어 방법을 제공할 수 있다.In one aspect, the present embodiments include, when a lane change signal for changing the driving lane of the vehicle is received, determining whether the vehicle is capable of changing lanes to the change target lane to be changed; When it is determined that a lane change is possible, the presence or absence of an obstacle in the target lane is detected, and a virtual line is set in the center of the target lane based on the presence of an obstacle and image information from the camera sensor installed in the vehicle. A control method for an autonomous vehicle can be provided, including a setting step and a control step of calculating the heading angle of the vehicle with respect to the virtual line and controlling the vehicle to change lanes to the change target lane based on the heading angle. .

다른 측면에서, 본 실시예들은 차량의 주행 차선을 변경하기 위한 차선 변경 신호가 수신되면, 차량이 변경되어야 할 변경 목표차선으로 차선 변경이 가능한 상태인지를 판단하는 판단부, 차선 변경이 가능한 상태로 판단되면, 변경 목표차선에 장애물의 존재 여부를 감지하고, 장애물의 존재 여부 및 차량에 구비된 카메라 센서에 의한 영상 정보에 기반하여 변경 목표차선의 중앙에 가상 라인을 설정하는 설정부 및 가상 라인에 대한 차량의 헤딩각을 산출하는 산출하고, 헤딩각에 기반하여 차량이 변경 목표차선으로 차선이 변경되도록 제어하는 제어부를 포함하는 자율주행 차량의 제어 장치를 제공할 수 있다.In another aspect, when a lane change signal for changing the driving lane of a vehicle is received, the present embodiments include a determination unit that determines whether the vehicle is in a state in which it is possible to change lanes to the change target lane to be changed, and a state in which lane change is possible. Once determined, the setting unit and virtual line detect the presence of an obstacle in the change target lane and set a virtual line in the center of the change target lane based on the presence of the obstacle and image information from a camera sensor installed in the vehicle. A control device for an autonomous vehicle can be provided, including a control unit that calculates the heading angle of the vehicle and controls the vehicle to change lanes to the change target lane based on the heading angle.

본 실시예들은 자율주행 차량의 자동 차선 변경에 관한 것으로서, 변경되어야 할 변경 목표차선을 인식하고, 인식된 변경 목표차선과 차량 사이의 헤딩각에 기반하여 차선이 변경되도록 제어할 수 있고, 특히, 변경 목표차선에 장애물이 존재하는 경우에도 변경 목표차선을 인식할 수 있으므로, 자동 차선 변경시 부드러운 주행을 수행함으로써, 안정성과 승차감을 모두 만족시킬 수 있는 자율주행 차량의 제어 방법 및 장치를 제공할 수 있다.The present embodiments relate to automatic lane change of an autonomous vehicle, where the change target lane to be changed can be recognized and the lane can be controlled to change based on the heading angle between the recognized change target lane and the vehicle. In particular, Since the change target lane can be recognized even when an obstacle exists in the change target lane, it is possible to provide a control method and device for an autonomous vehicle that can satisfy both stability and ride comfort by performing smooth driving when automatically changing lanes. there is.

도 1은 본 실시예들에 따른 자율주행 차량의 제어 방법을 도시한 흐름도이다.
도 2는 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 판단 단계를 도시한 흐름도이다.
도 3은 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 차선 접근 시간을 산출하기 위한 변수를 나타낸 도면이다.
도 4는 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 설정 단계를 도시한 흐름도이다.
도 5 및 도 6은 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 가상 라인이 설정된 차량 상태를 도시한 도면이다.
도 7은 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 제어 단계를 도시한 흐름도이다.
도 8 및 도9는 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 헤딩각에 기반하여 차선 변경이 제어되는 차량 상태를 도시한 도면이다.
도 10은 본 실시예들에 따른 자율주행 차량의 제어 장치를 도시한 블록도이다.
1 is a flowchart showing a control method for an autonomous vehicle according to the present embodiments.
Figure 2 is a flowchart showing a determination step in the control method of an autonomous vehicle according to the present embodiments.
Figure 3 is a diagram showing variables for calculating lane access time in the control method of an autonomous vehicle according to the present embodiments.
Figure 4 is a flowchart showing the setting steps in the control method of an autonomous vehicle according to the present embodiments.
5 and 6 are diagrams illustrating a vehicle state in which a virtual line is set in the control method of an autonomous vehicle according to the present embodiments.
Figure 7 is a flowchart showing control steps in the control method of an autonomous vehicle according to the present embodiments.
Figures 8 and 9 are diagrams illustrating a vehicle state in which lane change is controlled based on the heading angle in the control method of an autonomous vehicle according to the present embodiments.
Figure 10 is a block diagram showing a control device for an autonomous vehicle according to the present embodiments.

이하, 본 개시의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성 요소들에 참조부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 기술 사상의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다. 본 명세서 상에서 언급된 "포함한다", "갖는다", "이루어진다" 등이 사용되는 경우 "~만"이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별한 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함할 수 있다.Hereinafter, some embodiments of the present disclosure will be described in detail with reference to illustrative drawings. In adding reference numerals to components in each drawing, the same components may have the same reference numerals as much as possible even if they are shown in different drawings. Additionally, in describing the present embodiments, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present technical idea, the detailed description may be omitted. When “comprises,” “has,” “consists of,” etc. mentioned in the specification are used, other parts may be added unless “only” is used. When a component is expressed in the singular, it can also include the plural, unless specifically stated otherwise.

또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다. Additionally, in describing the components of the present disclosure, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, sequence, order, or number of the components are not limited by the term.

구성 요소들의 위치 관계에 대한 설명에 있어서, 둘 이상의 구성 요소가 "연결", "결합" 또는 "접속" 등이 된다고 기재된 경우, 둘 이상의 구성 요소가 직접적으로 "연결", "결합" 또는 "접속" 될 수 있지만, 둘 이상의 구성 요소와 다른 구성 요소가 더 "개재"되어 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다. 여기서, 다른 구성 요소는 서로 "연결", "결합" 또는 "접속" 되는 둘 이상의 구성 요소 중 하나 이상에 포함될 수도 있다. In the description of the positional relationship of components, when two or more components are described as being “connected,” “coupled,” or “connected,” the two or more components are directly “connected,” “coupled,” or “connected.” ", but it should be understood that two or more components and other components may be further "interposed" and "connected," "combined," or "connected." Here, other components may be included in one or more of two or more components that are “connected,” “coupled,” or “connected” to each other.

구성 요소들이나, 동작 방법이나 제작 방법 등과 관련한 시간적 흐름 관계에 대한 설명에 있어서, 예를 들어, "~후에", "~에 이어서", "~다음에", "~전에" 등으로 시간적 선후 관계 또는 흐름적 선후 관계가 설명되는 경우, "바로" 또는 "직접"이 사용되지 않는 이상 연속적이지 않은 경우도 포함할 수 있다.In the description of temporal flow relationships related to components, operation methods, production methods, etc., for example, temporal precedence relationships such as “after”, “after”, “after”, “before”, etc. Or, when a sequential relationship is described, non-continuous cases may be included unless “immediately” or “directly” is used.

한편, 구성 요소에 대한 수치 또는 그 대응 정보(예: 레벨 등)가 언급된 경우, 별도의 명시적 기재가 없더라도, 수치 또는 그 대응 정보는 각종 요인(예: 공정상의 요인, 내부 또는 외부 충격, 노이즈 등)에 의해 발생할 수 있는 오차 범위를 포함하는 것으로 해석될 수 있다.On the other hand, when a numerical value or corresponding information (e.g., level, etc.) for a component is mentioned, even if there is no separate explicit description, the numerical value or corresponding information is related to various factors (e.g., process factors, internal or external shocks, It can be interpreted as including the error range that may occur due to noise, etc.).

도 1은 본 실시예들에 따른 자율주행 차량의 제어 방법을 도시한 흐름도이다.1 is a flowchart showing a control method for an autonomous vehicle according to the present embodiments.

도 1을 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 방법은 차량의 주행 차선을 변경하기 위한 차선 변경 신호가 수신되면, 차량이 변경되어야 할 변경 목표차선으로 차선 변경이 가능한 상태인지를 판단하는 판단 단계를 포함할 수 있다(S110).Referring to FIG. 1, the control method of an autonomous vehicle according to the present embodiments determines whether the vehicle is capable of changing lanes to the target lane to be changed when a lane change signal for changing the driving lane of the vehicle is received. It may include a judgment step (S110).

차량의 주행 차선을 변경하기 위한 차선 변경 신호는 자동 차선 변경을 수행하기 위한 신호를 의미할 수 있다. 차선 변경 신호는 운전자가 입력한 방향등 신호일 수 있으나, 이에 제한되지 않으며, 자동 차선 변경을 수행할 수 있는 모든 신호가 포함될 수 있다.A lane change signal for changing the driving lane of a vehicle may mean a signal for performing automatic lane change. The lane change signal may be a turn signal signal input by the driver, but is not limited thereto, and may include any signal capable of performing automatic lane change.

일례로, 차선 변경 신호는 운전자가 입력한 차선 변경을 위한 좌측 또는 우측 방향등 신호를 의미할 수 있다. 이 경우, 좌측 또는 우측 방향등 신호가 입력되면, 차량에 구비된 여러 센서에 기반하여 해당 방향으로의 차선 변경 가능 여부를 판단하고, 이에 기반하여 변경 목표차선으로 차량의 차선이 자동으로 변경될 수 있다.For example, a lane change signal may mean a left or right turn signal for lane change input by the driver. In this case, when a left or right turn light signal is input, it is determined whether a lane change in that direction is possible based on several sensors installed in the vehicle, and based on this, the vehicle's lane can be automatically changed to the change target lane. there is.

다른 예로, 차선 변경 신호는 자율주행 차량이 설정된 목적지까지 주행하기 위하여 차선 변경이 필요한 경우 자율 주행 제어 장치에서 생성되는 신호를 의미할 수 있다. 이 경우, 자율 주행 제어 장치에 의해 생성된 신호에 기반하여 차선 변경 방향으로의 방향등이 점등되고, 차량에 구비된 여러 센서에 기반하여 해당 방향으로의 차선 변경 가능 여부를 판단하고, 이에 기반하여 변경 목표차선으로 차량의 차선이 자동으로 변경될 수 있다As another example, a lane change signal may refer to a signal generated by an autonomous driving control device when a lane change is necessary to drive the autonomous vehicle to a set destination. In this case, the turn light in the lane change direction is turned on based on the signal generated by the autonomous driving control device, and based on several sensors installed in the vehicle, it is determined whether lane change in that direction is possible, and based on this, The vehicle's lane can be automatically changed to the target lane.

즉, 차선 변경 신호는 운전자가 직접 입력한 신호에 기반하여 생성될 수 있으나, 이에 제한되지 않으며, 운전자의 입력 없이 생성될 수도 있다.That is, the lane change signal may be generated based on a signal directly input by the driver, but is not limited to this and may be generated without input from the driver.

변경 목표차선은 현재 차량이 주행 중인 주행 차선에 인접한 차선을 의미할 수 있으나, 이에 제한되지 않는다. 예를 들어, 변경 목표차선은 현재 차량이 주행 중인 주행 차선에 인접한 차선의 옆차선을 의미할 수도 있다. 이 경우, 주행 차선에 인접한 차선을 제1 변경 차선으로 설정하며, 주행 차선에 인접한 차선의 옆차선을 제2 변경 차선으로 설정하고, 제1 변경 차선 및 제2 변경 차선으로의 차선 변경을 단계적으로 수행할 수도 있다.The change target lane may mean a lane adjacent to the driving lane in which the vehicle is currently traveling, but is not limited thereto. For example, the change target lane may mean a lane next to the driving lane in which the vehicle is currently traveling. In this case, the lane adjacent to the driving lane is set as the first change lane, the lane next to the lane adjacent to the driving lane is set as the second change lane, and the lane change to the first change lane and the second change lane is done in stages. It can also be done.

이하에서는, 변경 목표차선이 현재 차량이 주행 중인 주행 차선에 인접한 차선인 것을 전제로 설명하나, 전술한 바와 같이, 변경 목표차선이 현재 차량이 주행 중인 주행 차선에 인접한 차선이 아닌 경우에도, 본 실시예들이 적용될 수 있다.Hereinafter, the description will be made on the assumption that the target lane to change is a lane adjacent to the driving lane in which the vehicle is currently traveling. However, as described above, even if the target lane to change is not a lane adjacent to the driving lane in which the vehicle is currently traveling, this implementation Examples may apply.

판단 단계는 차량에 구비된 카메라 센서에 의한 영상 정보 및 동역학 센서에 의한 속도 정보에 기반하여 차선 변경이 가능한 상태인지를 판단할 수 있다. 예를 들어, 판단 단계는 영상 정보 및 속도 정보에 기반하여 차선 접근 시간을 산출하고, 차선 접근 시간이 임계 값 이하이면 차선 변경이 가능한 상태로 판단할 수 있다.The determination step may determine whether a lane change is possible based on image information from a camera sensor provided in the vehicle and speed information from a dynamic sensor. For example, in the determination step, lane approach time may be calculated based on image information and speed information, and if the lane approach time is less than a threshold value, lane change may be determined to be possible.

차선 접근 시간은 차선 변경 신호가 입력된 시점부터 산출되고, 차량의 진행방향의 변화에 따라 갱신되어 산출될 수 있다.The lane access time is calculated from the time the lane change signal is input, and can be updated and calculated according to changes in the vehicle's direction of travel.

도 1을 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 방법은 차선 변경이 가능한 상태로 판단되면, 변경 목표차선에 장애물의 존재 여부를 감지하고, 장애물의 존재 여부 및 차량에 구비된 카메라 센서에 의한 영상 정보에 기반하여 변경 목표차선의 중앙에 가상 라인을 설정하는 설정 단계를 포함할 수 있다(S120).Referring to FIG. 1, the control method of an autonomous vehicle according to the present embodiments detects the presence of an obstacle in the target lane for lane change when it is determined that a lane change is possible, and determines the presence of an obstacle and a camera installed in the vehicle. It may include a setting step of setting a virtual line at the center of the change target lane based on image information from the sensor (S120).

설정 단계는 차량에 구비된 카메라 센서, 레이더 센서 및 라이다 센서 중 적어도 하나에 기반하여 장애물의 존재 여부를 감지할 수 있다. 즉, 카메라 센서, 레이더 센서 및 라이다 센서 중 하나에 의해 장애물의 존재를 감지할 수 있으나, 이에 제한되는 것은 아니다. 설정 단계는 카메라 센서, 레이더 센서 및 라이다 센서 중 둘 이상의 조합에 의해 장애물의 존재를 감지할 수도 있다.The setting step may detect the presence of an obstacle based on at least one of a camera sensor, radar sensor, and lidar sensor provided in the vehicle. That is, the presence of an obstacle can be detected by one of a camera sensor, a radar sensor, and a lidar sensor, but is not limited thereto. The setup step may detect the presence of an obstacle by a combination of two or more of a camera sensor, radar sensor, and lidar sensor.

가상 라인의 설정에 이용되는 차량에 구비된 카메라 센서는 전방 감시를 위한 윈드실드 내부에 구비된 전방 감시 카메라를 의미할 수 있으나, 이에 제한되지 않는다. 차량에 구비된 카메라 센서는 어라운드 뷰를 생성하기 위하여 라디에이터 그릴에 장착된 어라운드 뷰 전방 카메라를 의미할 수도 있다. 또한, 차량에 구비된 카메라 센서는 전방 감시 카메라와 어라운드 뷰 전방 카메라의 조합일 수도 있고, 이 경우, 전방 카메라로 시야각은 작으나 원거리 영상 획득이 가능하고, 어라운드 뷰 전방 카메라로 시야각은 넓으나 근거리 영상 획득이 가능한 바, 이들을 조합한 영상 정보가 획득될 수도 있다.The camera sensor provided in the vehicle used to set the virtual line may refer to a front surveillance camera installed inside the windshield for front surveillance, but is not limited thereto. A camera sensor provided in a vehicle may refer to an around view front camera mounted on a radiator grill to generate an around view. In addition, the camera sensor provided in the vehicle may be a combination of a front surveillance camera and an around-view front camera. In this case, the front camera has a small viewing angle but is capable of acquiring long-distance images, and the around-view front camera has a wide viewing angle but can capture short-distance images. Since acquisition is possible, image information combining these may be obtained.

설정 단계는 장애물의 존재 여부 및 차량에 구비된 카메라 센서에 의한 영상 정보에 기반하여 변경 목표차선의 중앙에 가상 라인을 설정할 수 있다.In the setting step, a virtual line can be set in the center of the change target lane based on the presence of obstacles and image information from a camera sensor installed in the vehicle.

일례로, 설정 단계는 장애물이 존재하지 않는 경우에는 영상 정보에 기반하여 변경 목표차선의 양측 차선을 감지하고, 감지된 변경 목표차선의 양측 차선에 기반하여 가상 라인을 설정할 수 있다.For example, in the setting step, when no obstacles exist, lanes on both sides of the change target lane can be detected based on image information, and virtual lines can be set based on the detected lanes on both sides of the change target lane.

다른 예로, 설정 단계는 장애물이 존재하는 경우에는 영상 정보에 기반하여 변경 목표차선에서의 장애물의 일측 차선을 감지하고, 감지된 장애물의 일측 차선에 기반하여 장애물의 일측 전방 차선을 추정하며, 감지된 장애물의 일측 차선 및 추정된 장애물의 일측 전방 차선에 기반하여 장애물로 인하여 감지되지 않는 반대 차선을 추정할 수 있다. 이 경우, 설정 단계는 감지된 장애물의 일측 차선, 추정된 장애물의 일측 전방 차선 및 추정된 반대 차선에 기반하여 가상 라인을 설정할 수 있다. 한편, 설정 단계는 영상정보에 의해 감지된 차선에 기반하여 추정된 장애물의 일측 전방 차선과 추정된 반대 차선에 칼만필터를 적용하여 보정할 수도 있다.As another example, in the setting step, if an obstacle exists, the lane on one side of the obstacle is detected in the change target lane based on image information, the lane ahead on one side of the obstacle is estimated based on the lane on one side of the detected obstacle, and the lane ahead of the obstacle is estimated based on the lane on one side of the detected obstacle. An opposing lane that is not detected due to the obstacle can be estimated based on the lane on one side of the obstacle and the lane ahead of the estimated obstacle. In this case, the setting step may set a virtual line based on the lane on one side of the detected obstacle, the lane ahead of the estimated obstacle, and the estimated opposite lane. Meanwhile, the setting step may be corrected by applying a Kalman filter to the lane ahead of one side of the obstacle and the lane on the opposite side estimated based on the lane detected by image information.

따라서, 본 실시예들에 따른 자율주행 차량의 제어 방법에 의하면, 변경 목표차선의 장애물이 존재하는 경우에도 변경 목표차선을 인식하여 가상 라인을 설정할 수 있다.Therefore, according to the control method of an autonomous vehicle according to the present embodiments, it is possible to recognize the target lane to change and set a virtual line even when an obstacle exists in the target lane to change.

도 1을 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 방법은 가상 라인에 대한 차량의 헤딩각을 산출하고, 헤딩각에 기반하여 차량이 변경 목표차선으로 차선이 변경되도록 제어하는 제어 단계를 포함할 수 있다(S130).Referring to FIG. 1, the control method of an autonomous vehicle according to the present embodiments includes a control step of calculating a heading angle of the vehicle with respect to a virtual line and controlling the vehicle to change lanes to the change target lane based on the heading angle. may include (S130).

헤딩각은 설정 단계에서 설정된 가상 라인을 기준으로 차량의 진행방향이 이루는 각도를 의미할 수 있다. 헤딩각은 변경 목표차선으로의 차량 이동에 따른 차량의 진행방향의 변화에 따라 달라질 수 있다. 또한, 헤딩각은 영상 정보의 변화 또는 장애물의 이동에 따라 가상 라인은 갱신될 수 있고, 이에 따라 변화될 수 있다. 이 경우 헤딩각은 가상 라인의 갱신에 따라 연동하여 갱신될 수 있다.The heading angle may refer to the angle formed by the vehicle's direction of travel based on the virtual line set in the setting step. The heading angle may vary depending on the change in the direction of travel of the vehicle as the vehicle moves to the target lane. Additionally, the virtual line may be updated and the heading angle may be changed according to changes in image information or movement of obstacles. In this case, the heading angle can be updated in conjunction with the update of the virtual line.

제어 단계는 변경 목표차선으로의 차량 이동에 따라 헤딩각이 감소하도록 차량의 진행방향을 변화시킬 수 있다. 따라서, 제어 단계는 산출된 헤딩각이 차량의 차선 변경이 진행되면서 점차 감소하여 0이되도록 차량의 진행방향을 변화시킴으로써 차량이 변경 목표차선으로 차선이 변경되도록 제어할 수 있다.The control step may change the direction of travel of the vehicle so that the heading angle decreases as the vehicle moves to the change target lane. Therefore, the control step can control the vehicle to change lanes to the target lane by changing the direction of travel of the vehicle so that the calculated heading angle gradually decreases to 0 as the vehicle changes lanes.

전술한 본 실시예들에 의한 자율주행 차량의 제어 방법은 자율주행 차량의 자동 차선 변경에 관한 것으로서, 변경되어야 할 변경 목표차선을 인식하고, 인식된 변경 목표차선과 차량 사이의 헤딩각에 기반하여 차선이 변경되도록 제어할 수 있고, 특히, 변경 목표차선에 장애물이 존재하는 경우에도 변경 목표차선을 인식할 수 있으므로, 자동 차선 변경시 부드러운 주행을 수행함으로써, 안정성과 승차감을 모두 만족시킬 수 있다.The control method of the autonomous vehicle according to the above-described embodiments relates to automatic lane change of the autonomous vehicle, recognizing the target lane to be changed, and based on the heading angle between the recognized target lane to change and the vehicle. Since the lane can be controlled to change, and in particular, the target lane to change can be recognized even when an obstacle exists in the target lane to change, both stability and ride comfort can be satisfied by performing smooth driving during automatic lane change.

도 2는 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 판단 단계를 도시한 흐름도이다. 도 3은 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 차선 접근 시간을 산출하기 위한 변수를 나타낸 도면이다.Figure 2 is a flowchart showing a determination step in the control method of an autonomous vehicle according to the present embodiments. Figure 3 is a diagram showing variables for calculating lane access time in the control method of an autonomous vehicle according to the present embodiments.

본 실시예들에 따른 자율주행 차량의 제어 방법에서의 판단 단계는 차량에 구비된 카메라 센서에 의한 영상 정보 및 동역학 센서에 의한 속도 정보에 기반하여 차선 변경이 가능한 상태인지를 판단할 수 있다.The determination step in the control method of an autonomous vehicle according to the present embodiments may determine whether a lane change is possible based on image information from a camera sensor provided in the vehicle and speed information from a dynamic sensor.

카메라 센서는 차량에 구비된 전방 감시를 위한 윈드실드 내부에 구비된 전방 감시 카메라를 의미할 수 있고, 카메라 센서에 의해 전방 영상을 촬영하여 전방 영상 정보를 획득할 수 있다.A camera sensor may refer to a front surveillance camera installed inside a windshield for front surveillance of a vehicle, and front image information may be obtained by capturing a front image using the camera sensor.

동역학 센서는 차량의 동역학 상태를 센싱할 수 있는 센서로서, 속도 센서, 가속도 센도, 자이로 센서 등 차량의 속도 측정에 이용될 수 있는 센서를 의미할 수 고, 동역학 센서에 의해 차량의 속도를 센싱하여 속도 정보를 획득할 수 있다.A dynamic sensor is a sensor that can sense the dynamic state of a vehicle. It can refer to a sensor that can be used to measure the vehicle's speed, such as a speed sensor, acceleration sensor, or gyro sensor. The dynamic sensor senses the vehicle's speed and Speed information can be obtained.

도 2를 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 판단 단계는 영상 정보 및 속도 정보에 기반하여 차선 접근 시간을 산출할 수 있다(S211).Referring to FIG. 2, the determination step in the control method of an autonomous vehicle according to the present embodiments may calculate lane access time based on image information and speed information (S211).

도 3을 참조하면, 판단 단계는 영상 정보에 기반하여 상대 거리(Lr)를 산출할 수 있다. 상대 거리(Lr)는 차량(341)이 변경 목표차선(351)의 일측 차선(353)에 진입하기까지의 거리로써, 차량(341)의 진행방향 변화에 따라 변화되는 거리를 의미할 수 있다. 판단 단계는 영상 정보에 기반하여 전방 영상을 1차 방정식으로 선형 모델링화 하여 상대 거리를 산출할 수 있다.Referring to FIG. 3, the determination step may calculate the relative distance (Lr) based on image information. The relative distance (Lr) is the distance until the vehicle 341 enters the lane 353 on one side of the change target lane 351, and may mean a distance that changes according to a change in the direction of travel of the vehicle 341. In the determination step, the relative distance can be calculated by linearly modeling the front image with a linear equation based on the image information.

도 3을 참조하면, 판단 단계는 속도 정보에 기반하여 횡방향 상대 속도(Vr)를 산출할 수 있다. 횡방향 상대 속도(Vr)는 차량(341)의 축을 중심으로 한 횡방향으로의 속도로써, 차량(341)의 속도 변화에 따라 변화되는 속도를 의미할 수 있다. 판단단계는 속도 정보로부터 차량(341)의 진행방향으로의 속도에 삼각함수를 적용하여 횡방향 상대 속도(Vr)를 산출할 수 있다.Referring to FIG. 3, the determination step may calculate the lateral relative velocity (Vr) based on velocity information. The lateral relative speed (Vr) is a speed in the lateral direction centered on the axis of the vehicle 341, and may mean a speed that changes according to a change in the speed of the vehicle 341. In the determination step, the lateral relative speed (Vr) can be calculated by applying a trigonometric function to the speed in the direction of travel of the vehicle 341 from the speed information.

판단 단계는 차선 변경 신호가 수신되면 영상 정보 및 속도 정보에 기반하여 상대 거리(Lr) 및 상대 횡방향 속도(Vr)의 산출을 시작할 수 있다.The determination step may begin calculating the relative distance (Lr) and relative lateral speed (Vr) based on image information and speed information when a lane change signal is received.

차선 접근 시간(Time to Lane Crossing, TLC)은 하기의 수학식에 의해 산출될 수 있다.Time to Lane Crossing (TLC) can be calculated using the following equation.

[수학식 1][Equation 1]

즉, 차선 접근 시간은 상대 거리(Lr)를 횡방향 상대 속도(Vr)로 나눈 값으로, 차량(341)이 변경 목표차선(351)의 일측 차선(353)에 진입하기까지의 시간을 의미할 수 있다. 따라서, 차선 접근 시간은 차량(341)의 진행방향 변화에 따라 변화되는 상대 거리(Lr) 또는 차량(941)의 속도 변화에 따라 변화되는 상대 속도(Vr)에 따라 변경되어 산출될 수 있다.In other words, the lane access time is the relative distance (Lr) divided by the lateral relative speed (Vr), which means the time until the vehicle 341 enters the lane 353 on one side of the change target lane 351. You can. Accordingly, the lane access time may be calculated by changing depending on the relative distance (Lr) that changes according to a change in the traveling direction of the vehicle 341 or the relative speed (Vr) that changes according to a change in the speed of the vehicle 941.

도 2를 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 판단 단계는 차선 접근 시간과 임계 값을 비교하여 차선 변경이 가능한 상태인지를 판단할 수 있다(S212).Referring to FIG. 2, the determination step in the control method of an autonomous vehicle according to the present embodiments may determine whether a lane change is possible by comparing the lane access time and the threshold value (S212).

임계 값은 차량이 차선 변경이 가능한 상태인지를 판단하는 기준 값을 의미할 수 있다. 임계 값은 실험적으로 산출된 변경 목표차선을 인식할 수 있는 차선 접근 시간 임계치에 기반하여 설정되어 저장될 수 있다. 다만, 이에 제한되는 것은 아니며, 임계 값은 0으로 설정 및 저장되어 차량이 변경 목표차선의 일측 차선에 진입한 시점이 기준 값이 될 수도 있다.The threshold may refer to a reference value for determining whether a vehicle is capable of changing lanes. The threshold may be set and stored based on an experimentally calculated lane approach time threshold that can recognize the change target lane. However, it is not limited to this, and the threshold value may be set and stored as 0, so that the time when the vehicle enters the lane on one side of the change target lane may become the reference value.

도 2를 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 판단 단계는 차선 접근 시간이 임계 값 이하이면 차선 변경이 가능한 상태로 판단할 수 있다(S213).Referring to FIG. 2, in the determination step in the control method of an autonomous vehicle according to the present embodiments, it may be determined that a lane change is possible if the lane access time is less than a threshold value (S213).

반면, 판단 단계는 차선 접근 시간이 임계 값을 초과하면, 임계 값 이하가 될 때까지 변화되는 상대 거리 및 상대 횡방향 속도에 따라 차선 접근 시간을 갱신하여 산출할 수 있다.On the other hand, in the determination step, if the lane approach time exceeds the threshold, the lane approach time can be updated and calculated according to the changing relative distance and relative lateral speed until it falls below the threshold.

다만, 도 2에 도시되지 않았으나, 차선 접근 시간이 임계 값 이하가 되기 전에 운전자로부터 차선 변경 취소 신호가 수신되는 경우에는 차선 접근 시간의 산출은 중단되고, 영상 정보에 기반하여 차량의 진행방향이 주행 차선의 중앙에 위치하도록 차량 상태를 복귀시킬 수 있다.However, although not shown in Figure 2, if a lane change cancellation signal is received from the driver before the lane access time falls below the threshold, the calculation of the lane access time is stopped, and the vehicle's direction of travel is changed based on the image information. The vehicle state can be restored to be located in the center of the lane.

차선 변경이 가능한 상태라는 것은 후술한, 변경 목표차선을 인식하고 가상 라인을 설정할 수 있는 상태를 의미할 수 있다.A state in which a lane change is possible may mean a state in which the change target lane can be recognized and a virtual line can be set, as described later.

따라서, 판단 단계는 영상 정보 및 상기 속도 정보에 기반하여 차선 접근 시간을 산출하고, 차선 접근 시간이 임계 값 이하이면 차선 변경이 가능한 상태로 판단할 수 있다.Therefore, in the determination step, the lane access time is calculated based on the image information and the speed information, and if the lane access time is less than a threshold value, it can be determined that lane change is possible.

도 4는 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 설정 단계를 도시한 흐름도이다. 도 5 및 도 6은 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 가상 라인이 설정된 차량 상태를 도시한 도면이다.Figure 4 is a flowchart showing the setting steps in the control method of an autonomous vehicle according to the present embodiments. 5 and 6 are diagrams illustrating a vehicle state in which a virtual line is set in the control method of an autonomous vehicle according to the present embodiments.

도 4를 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 설정 단계는 차량에 구비된 카메라 센서, 레이더 센서 및 라이다 센서 중 적어도 하나에 기반하여 장애물의 존재 여부를 감지할 수 있다(S421).Referring to FIG. 4, the setting step in the control method of an autonomous vehicle according to the present embodiments may detect the presence of an obstacle based on at least one of a camera sensor, a radar sensor, and a lidar sensor provided in the vehicle. There is (S421).

예를 들어, 설정 단계는 카메라 센서에 의해 획득된 영상 정보에 기반하여 인식된 객체를 추출하여 장애물의 존재를 감지하거나, 또는 레이더 센서에 의해 송수신된 전파에 기반하여 객체를 감지하거나, 또는 라이다 센서에 의해 송수신된 레이저에 기반하여 객체를 감지할 수 있다.For example, the setup step detects the presence of an obstacle by extracting a recognized object based on image information acquired by a camera sensor, or detects an object based on radio waves transmitted and received by a radar sensor, or LiDAR Objects can be detected based on the laser transmitted and received by the sensor.

장애물 존재 여부는 카메라 센서, 레이더 센서 및 라이다 센서 중 하나 또는 그 이상의 조합에 의해 감지될 수 있으나, 세가지 센서 중 하나만 이용할 수 있는 경우에는, 전술한 상대 거리 산출 및 후술할 변경 목표차선의 인식에 카메라 센서가 이용된다는 점에서, 장애물 존재 여부는 카메라 센서에 의해 감지되는 것이 바람직할 수 있다.The presence of an obstacle can be detected by one or more combinations of a camera sensor, a radar sensor, and a lidar sensor. However, if only one of the three sensors is available, the relative distance calculation described above and the recognition of the change target lane described later are used. Given that a camera sensor is used, it may be desirable for the presence of an obstacle to be detected by the camera sensor.

장애물은 변경 목표차선에 위치하고, 차선 변경이 가능한 상태인 차량의 진행방향에 위치한 타차량일 수 있다. 즉, 장애물은 변경 목표차선의 인식에 방해가 되는 타차량을 의미할 수 있다. 이하에서의 장애물은 변경 목표차선에 위치하며 차선 변경이 가능한 상태인 차량의 진행방향에 위치하되, 변경 목표차선의 인식을 방해하는 타차량을 의미하는 것으로 해석될 수 있다.The obstacle may be another vehicle located in the target lane to change and located in the direction of travel of the vehicle that is capable of changing lanes. In other words, an obstacle may mean another vehicle that interferes with recognition of the change target lane. The obstacle below is located in the target lane for change and is located in the direction of travel of a vehicle capable of changing lanes, but can be interpreted as meaning another vehicle that interferes with recognition of the target lane for change.

도 4를 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 설정 단계는 변경 목표차량에 장애물이 존재하는지를 판단할 수 있다(S422).Referring to FIG. 4, the setting step in the control method for an autonomous vehicle according to the present embodiments may determine whether an obstacle exists in the change target vehicle (S422).

설정 단계는 변경 목표차선에 장애물이 존재하는지 여부에 따라 변경 목표차선의 인식을 달리할 수 있다.In the setting stage, the recognition of the change target lane may vary depending on whether an obstacle exists in the change target lane.

도 4를 참조하면, 설정 단계는 장애물이 존재하지 않는 경우에는 영상 정보에 기반하여 변경 목표차선의 양측 차선을 감지하고(S423), 감지된 변경 목표차선의 양측 차선에 기반하여 가상 라인을 설정할 수 있다(S427).Referring to FIG. 4, in the setting step, when no obstacles exist, lanes on both sides of the change target lane are detected based on image information (S423), and virtual lines can be set based on the lanes on both sides of the detected change target lane. There is (S427).

도 4 및 도 5를 참조하면, 설정 단계는 카메라 센서에 의한 영상정보로부터 미리 저장된 차선 정보에 기반하여 변경 목표차선(551)의 양측 차선(553, 555)을 검출함으로써 감지할 수 있다. 미리 저장된 차선 정보는 공용 데이터 셋에 기반하여 딥러닝을 이용한 정보로써, 차선의 종류, 차선의 색상 및 차선의 위치에 대한 정보를 포함할 수 있다.Referring to Figures 4 and 5, the setting step can be detected by detecting lanes 553 and 555 on both sides of the change target lane 551 based on lane information pre-stored from image information by a camera sensor. The pre-stored lane information is information using deep learning based on a public data set, and may include information about the type of lane, the color of the lane, and the location of the lane.

설정 단계는 차선 변경이 가능한 상태의 차량(541)의 전방에 장애물이 존재하지 않는 경우에는, 변경 목표차선(551)의 양측 차선(553, 555)을 모두 감지할 수 있으므로, 감지된 변경 목표차선(551)의 양측 차선(553, 555)의 정중앙에 가상 라인(561)을 설정할 수 있다.In the setting step, when there are no obstacles in front of the vehicle 541 capable of changing lanes, both lanes 553 and 555 on both sides of the target lane change 551 can be detected, so the detected target lane change lane A virtual line 561 can be set at the exact center of the lanes 553 and 555 on both sides of 551.

도 5는 변경목표 차선(551)이 직선인 경우로 도시되어 있으나, 이는 예시이며, 변경 목표차선(551)이 곡선이거나, 직선과 곡선이 연결된 경우 경우에도, 장애물이 존재하지 않는 경우에 가상 라인(561)을 설정하는 본 실시예들이 적용될 수 있다.Figure 5 shows the case where the change target lane 551 is a straight line, but this is an example, and even when the change target lane 551 is curved or a straight line and a curve are connected, if no obstacles exist, the virtual line The present embodiments that set 561 can be applied.

또한, 도 5에 도시되지 않았으나, 차량의 변경 목표차선으로 이동에 따라 변화된 영상정보에 기반하여 감지되는 양측 차선은 업데이트되고, 이에 기반하여 가상 라인은 갱신되어 설정될 수 있다.In addition, although not shown in FIG. 5, both lanes detected based on the changed image information as the vehicle moves to the change target lane are updated, and the virtual line can be updated and set based on this.

도 4를 참조하면, 설정 단계는 장애물이 존재하는 경우에는 영상 정보에 기반하여 변경 목표차선에서의 장애물의 일측 차선을 감지하고(S424), 감지된 장애물의 일측 차선에 기반하여 장애물의 일측 전방 차선을 추정하며(S425), 감지된 장애물의 일측 차선 및 추정된 장애물의 일측 전방 차선에 기반하여 장애물로 인하여 감지되지 않는 반대 차선을 추정할 수 있다(S426).Referring to FIG. 4, in the setting step, if an obstacle exists, the lane on one side of the obstacle is detected in the change target lane based on image information (S424), and the lane on one side of the obstacle is changed based on the lane on one side of the detected obstacle. is estimated (S425), and an opposing lane that is not detected due to the obstacle can be estimated based on the lane on one side of the detected obstacle and the lane ahead of the estimated obstacle (S426).

따라서, 설정 단계는 감지된 장애물의 일측 차선, 추정된 장애물의 일측 전방 차선 및 추정된 반대 차선에 기반하여 가상 라인을 설정할 수 있다(S427).Accordingly, the setting step may set a virtual line based on the lane on one side of the detected obstacle, the lane ahead of the estimated obstacle, and the estimated opposite lane (S427).

도 4 및 도 6을 참조하면, 차선 변경이 가능한 상태의 차량(641)의 전방에 장애물(671)이 존재하는 경우에는 영상정보로부터 변경 목표차선(651)에서의 장애물(671)의 일측 차선(653a)은 감지할 수 있으나, 카메라 센서의 감지 가능 영역에 따라 장애물의 일측 전방 차선(653b)의 전부 또는 일부는 감지되지 않을 수 있다.Referring to FIGS. 4 and 6 , when an obstacle 671 exists in front of a vehicle 641 capable of changing lanes, one lane of the obstacle 671 in the change target lane 651 is determined from the image information ( 653a) can be detected, but all or part of the front lane 653b on one side of the obstacle may not be detected depending on the detectable area of the camera sensor.

이 경우, 영상정보로부터 감지되지 않는 장애물(671)의 일측 전방 차선(653b)의 곡률은 감지된 장애물(671)의 일측 차선(653a)에서의 산출된 곡률 변화량에 기반하여 추정될 수 있고, 일측 전방 차선(653b)의 위치는 감지된 장애물(671)의 일측 차선(653a)과 연속되는 것으로 추정될 수 있다.In this case, the curvature of the front lane 653b on one side of the obstacle 671 that is not detected from the image information can be estimated based on the calculated curvature change in the lane 653a on one side of the detected obstacle 671, The location of the front lane 653b may be estimated to be continuous with the lane 653a on one side of the detected obstacle 671.

또한, 장애물(671)이 존재하는 경우에는 감지된 장애물(671)의 일측 차선(653a) 및 추정된 장애물(671)의 일측 전방 차선(653b)의 반대편에 위치한 장애물(671)의 타측 차선 및 타측 전방 차선은 장애물(671)로 인하여 영상정보로부터 감지되지 않을 수 있다. 이하에서는, 장애물(671)의 타측 차선 및 타측 전방 차선으로 이루어진 차선을 반대 차선(655a)이라 한다.In addition, when an obstacle 671 exists, the lane 653a on one side of the detected obstacle 671 and the lane 653a on the other side of the obstacle 671 located on the opposite side of the front lane 653b on one side of the estimated obstacle 671. The front lane may not be detected from image information due to an obstacle 671. Hereinafter, the lane consisting of the lane on the other side of the obstacle 671 and the lane ahead of the other side will be referred to as the opposing lane 655a.

이 경우, 영상정보로부터 감지되지 않는 반대 차선(655a)의 곡률은 감지된 장애물(671)의 일측 차선(653a)과 추정된 장애물(671)의 일측 전방 차선(653b)이 이루는 곡률과 동일한 곡률을 갖는 것으로 추정될 수 있다.In this case, the curvature of the opposing lane 655a, which is not detected from the image information, is the same as the curvature formed by the lane 653a on one side of the detected obstacle 671 and the lane 653b ahead of the estimated obstacle 671. It can be presumed to have.

또한, 영상정보로부터 감지되지 않는 반대 차선(655a)의 위치는 영상정보로부터 장애물(671)의 타측 하방 차선(655b)의 일부가 감지된 경우에는 일부 감지된 장애물(671)의 타측 하방 차선(655b)과 연속되는 것으로 추정될 수 있다. 다만, 영상정보로부터 장애물(671)의 타측 하방 차선(655b)이 감지되지 않는 경우에는 미리 저장된 도로 폭 정보에 기반하여 장애물(671)의 일측 차선(653a)과 추정된 장애물(671)의 일측 전방 차선(653b)으로부터의 산출된 이격 거리에 따라 이격된 것으로 추정될 수 있다.In addition, the location of the opposite lane 655a, which is not detected from the image information, is the location of the down lane 655b on the other side of the partially detected obstacle 671 when a portion of the downward lane 655b on the other side of the obstacle 671 is detected from the image information. ) can be assumed to be continuous with. However, if the downward lane 655b on the other side of the obstacle 671 is not detected from the image information, the lane 653a on one side of the obstacle 671 and the estimated one side ahead of the obstacle 671 are detected based on the pre-stored road width information. It can be estimated that they are separated according to the calculated separation distance from the lane 653b.

따라서, 변경 목표차선(651)에 장애물(671)이 존재하는 경우에도, 설정 단계는 감지된 장애물(671)의 일측 차선(653a), 추정된 장애물의 일측 전방 차선(653b), 추정된 장애물(671)의 반대 차선(655a) 및 일부 감지된 장애물(671)의 타측 하방 차선(655b)을 조합하여, 조합된 양측 차선(653a, 653b, 655a, 655b) 의 중앙에 가상 라인(661)을 설정할 수 있다.Therefore, even if an obstacle 671 exists in the change target lane 651, the setting step is performed in the lane 653a on one side of the detected obstacle 671, the lane 653b on one side of the estimated obstacle, and the estimated obstacle ( By combining the opposite lane 655a of 671) and the other downward lane 655b of some detected obstacles 671, a virtual line 661 is set in the center of the combined two lanes 653a, 653b, 655a, 655b. You can.

한편, 도 4에 도시되지 않았으나, 설정 단계는 영상정보에 의해 감지된 차선에 기반하여 추정된 장애물의 일측 전방 차선과 추정된 반대 차선에 칼만필터를 적용하여 보정할 수 있다.Meanwhile, although not shown in FIG. 4, the setting step can be corrected by applying a Kalman filter to the lane ahead of one side of the obstacle and the estimated opposite lane based on the lane detected by image information.

칼만 필터는 대상 시스템의 확률적인 모델과 측정값을 이용하여 시스템의 상태변수를 찾아내는 최적 추정기법이다. 즉, 상태식에 의한 시간전파와 측정식에 의한 개선을 통하여 상태값을 추정하게 되며, 실제 상태값과 추정된 상태값의 오차 공분산을 최소화하는 알고리즘이다. 시스템이 선형이고 정규분포를 갖는 백색잡음에 의해 구동되는 칼만 필터는 최소 공분산을 갖는 편향되지 않는 최적의 추정기로 알려져 있다. 칼만필터는 추정값에 대한 확률분포를 따져서 가장 확률이 높은값을 추정값으로 선택하는 방법으로 보정해서 최종 추정값을 계산한다.The Kalman filter is an optimal estimation technique that finds the state variables of the system using the probabilistic model and measured values of the target system. In other words, the state value is estimated through time propagation by the state equation and improvement by the measurement equation, and it is an algorithm that minimizes the error covariance between the actual state value and the estimated state value. The Kalman filter, whose system is linear and driven by white noise with a normal distribution, is known to be an unbiased optimal estimator with minimum covariance. The Kalman filter calculates the final estimate by calculating the final estimate by considering the probability distribution of the estimate and selecting the value with the highest probability as the estimate.

즉, 추정된 장애물의 일측 전방 차선과 추정된 반대 차선은 영상정보에 의해 감지된 장애물의 일측 차선, 또는 영상정보에 의해 감지된 장애물의 일측 차선과 장애물의 타측 하방 차선에 기반하여 칼만필터가 적용되어 노이즈가 제거되고 추정의 정확도가 향상될 수 있다. 따라서, 감지된 장애물의 일측 차선, 칼만필터가 적용되어 추정된 장애물의 일측 전방 차선 및 칼만필터가 적용되어 추정된 반대 차선에 기반하여 설정된 가상 라인은 노이즈가 제거되고 정확도가 향상될 수 있다.In other words, the Kalman filter is applied to the estimated lane ahead of one side of the obstacle and the estimated opposite lane based on the lane on one side of the obstacle detected by image information, or the lane on one side of the obstacle detected by image information and the lane below the other side of the obstacle. This can remove noise and improve the accuracy of estimation. Therefore, noise can be removed and accuracy can be improved in the virtual line established based on the lane on one side of the detected obstacle, the lane ahead of the obstacle on the side estimated by applying the Kalman filter, and the opposing lane estimated by applying the Kalman filter.

도 6는 변경 목표차선(651)이 직선과 곡선이 연결된 경우로 도시되어 있으나, 이는 예시이며, 변경 목표차선(651)이 직선 또는 곡선일 경우에도, 장애물(671)이 존재하는 경우에 가상 라인(661)을 설정하는 본 실시예들이 적용될 수 있다.In Figure 6, the change target lane 651 is shown in a case where a straight line and a curve are connected, but this is an example. Even if the change target lane 651 is a straight line or a curve, if an obstacle 671 exists, the virtual line The present embodiments that set 661 can be applied.

또한, 도 6에 도시되지 않았으나, 차량의 변경 목표차선으로 이동에 따라 변화된 영상정보에 기반하여 감지되는 장애물의 일측 차선은 업데이트되고, 이에 기반하여 장애물의 일측 전방 차선 및 반대 차선의 추정 또한 업데이트될 수 있으며, 이에 기반하여 가상 라인은 갱신되어 설정될 수 있다.In addition, although not shown in FIG. 6, the lane on one side of the obstacle detected based on the image information changed as the vehicle moves to the target lane is updated, and based on this, the estimation of the lane ahead and on the opposite side of the obstacle is also updated. And based on this, the virtual line can be updated and set.

도 7은 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 제어 단계를 도시한 흐름도이다.Figure 7 is a flowchart showing control steps in the control method of an autonomous vehicle according to the present embodiments.

도 8 및 도 9는 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 헤딩각에 기반하여 차선 변경이 제어되는 차량 상태를 도시한 도면이다.Figures 8 and 9 are diagrams illustrating a vehicle state in which lane change is controlled based on the heading angle in the control method of an autonomous vehicle according to the present embodiments.

도 7을 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 제어 단계는 가상 라인에 대한 차량의 헤딩각을 산출하고(S831), 헤딩각에 기반하여 차량이 변경 목표차선으로 차선이 변경되도록 제어할 수 있다(S832).Referring to FIG. 7, the control step in the control method of an autonomous vehicle according to the present embodiments calculates the heading angle of the vehicle with respect to the virtual line (S831), and moves the vehicle to the change target lane based on the heading angle. This can be controlled to change (S832).

제어 단계는 가상 라인에 대한 차량의 헤딩각을 산출할 수 있다. 헤딩각은 설정 단계에서 설정된 가상 라인을 기준으로 차량의 진행방향이 이루는 각도를 의미하므로, 차량의 진행방향의 변화에 따라 갱신되어 산출될 수 있다.The control step may calculate the vehicle's heading angle with respect to the virtual line. Since the heading angle refers to the angle formed by the vehicle's direction of travel based on the virtual line set in the setting step, it can be updated and calculated according to changes in the vehicle's direction of travel.

헤딩각은 차선 접근 시간이 임계 값 이하로서 차선 변경이 가능한 상태이고, 변경 목표차선의 중앙에 가상 라인이 설정된 상태에서, 차량의 진행방향의 가상선의 가상 라인에 대한 각도로 산출될 수 있다. 이후, 제어 단계는 산출된 헤딩각이 감소되도록 하여 차량이 변경 목표차선으로 차선이 변경되도록 제어할 수 있다.The heading angle can be calculated as the angle of the virtual line in the direction of travel of the vehicle with respect to the virtual line in the state in which lane change is possible as the lane approach time is below the threshold and a virtual line is set in the center of the target lane for change. Thereafter, the control step can control the vehicle to change lanes to the change target lane by reducing the calculated heading angle.

도 8은 직선 도로에서 본 실시예들에 따른 자율주행 차량의 차선 변경이 제어되는 상태를 나타내고 있는 도면이다.FIG. 8 is a diagram illustrating a state in which lane changes of an autonomous vehicle according to the present embodiments are controlled on a straight road.

도 8을 참조하면, 차선 변경이 가능한 상태에서의 전방에 장애물이 존재하지 않는 경우, 차량(841a)의 가상 라인(861)에 대한 헤딩각은 θ1으로 산출될 수 있다. 제어단계는 산출된 헤딩각 θ1을 차량(841b)이 변경 목표차선(851)으로 이동함에 따라 헤딩각 θ2로 감소되도록 할 수 있다.Referring to FIG. 8, when a lane change is possible and there is no obstacle ahead, the heading angle of the vehicle 841a with respect to the virtual line 861 may be calculated as θ1. In the control step, the calculated heading angle θ1 may be reduced to the heading angle θ2 as the vehicle 841b moves to the change target lane 851.

도 8에 도시되지 않았으나, 이후, 제어단계는 차량(841b)이 변경 목표차선(851)으로 이동함에 따라 헤딩각 θ2가 감소되어 0이 되도록 제어할 수 있다. 헤딩각이 0이 된다는 것은 가상 라인(861)에 차량이 위치하여 차선 변경이 완료된 상태를 의미할 수 있다. 따라서, 차량(841a, 841b)은 헤딩각이 0이 되어 변경 목표차선으로 차선 변경이 완료될 수 있다.Although not shown in FIG. 8, in the subsequent control step, the heading angle θ2 may be controlled to decrease to 0 as the vehicle 841b moves to the change target lane 851. When the heading angle becomes 0, it may mean that the vehicle is located on the virtual line 861 and the lane change has been completed. Accordingly, the heading angle of the vehicles 841a and 841b becomes 0 and the lane change to the target lane can be completed.

도 9는 직선과 곡선이 연결된 도로에서 본 실시예들에 따른 자율주행 차량의 차선 변경이 제어되는 상태를 나타내고 있는 도면이다.FIG. 9 is a diagram showing a state in which lane changes of an autonomous vehicle are controlled according to the present embodiments on a road where straight lines and curves are connected.

도 9를 참조하면, 차선 변경이 가능한 상태에서의 전방에 장애물(971)이 존재하는 경우, 제어 단계는 차선 변경이 가능한 상태에서의 차량(941a)의 가상 라인(961)에 대하여 산출된 헤딩각 θ3이 변경 목표차선(951)으로의 차량(941b)의 이동에 따라 헤딩각 θ4로 감소되도록 제어할 수 있다.Referring to FIG. 9, when there is an obstacle 971 ahead in a lane change possible state, the control step is the heading angle calculated with respect to the virtual line 961 of the vehicle 941a in the lane change possible state. θ3 can be controlled to decrease to the heading angle θ4 as the vehicle 941b moves to the change target lane 951.

또한, 도 9에는 도시되지 않았으나, 이후 차량(941b)이 변경 목표차선(951)으로 이동함에 따라 헤딩각 θ4가 감소되어 0이 되도록 제어하여 변경 목표차선(981)으로 차선 변경이 완료될 수 있다.In addition, although not shown in FIG. 9, as the vehicle 941b moves to the target lane change 951, the heading angle θ4 is controlled to decrease and become 0, so that the lane change to the target lane change 981 can be completed. .

또한, 제어 단계는 산출된 헤딩각(θ1, θ3)이 미리 설정된 각도 감소량에 따라 감소되도록 제어할 수 있으나, 이에 제한되지 않는다.Additionally, the control step may control the calculated heading angles (θ1, θ3) to be reduced according to a preset angle reduction amount, but is not limited to this.

예를 들어, 제어 단계는 가상 라인 접근 시간을 산출하고, 산출된 헤딩각(θ1, θ3)을 가상 라인 접근 시간으로 나눈 시간당 헤딩각 감소량을 산출하여, 시간당 헤딩각 감소량에 기반하여 산출된 헤딩각이 감소되도록 제어할 수도 있다. 이 경우, 가상 라인 접근 시간은 영상정보에 기반하여 현재 차량의 위치를 감지하고, 현재 차량의 위치와 설정된 가상 라인까지의 가상 라인 상대 거리를 산출하고, 가상 라인 상대 거리를 차량의 횡방향 속도로 나눈 값으로 산출될 수 있다.For example, the control step calculates the virtual line approach time, divides the calculated heading angles (θ1, θ3) by the virtual line approach time, calculates the hourly heading angle reduction amount, and calculates the heading angle calculated based on the hourly heading angle reduction amount. It can also be controlled to reduce this. In this case, the virtual line access time detects the current vehicle location based on image information, calculates the virtual line relative distance between the current vehicle location and the set virtual line, and calculates the virtual line relative distance by the vehicle's lateral speed. It can be calculated as the divided value.

따라서, 제어 단계는 산출된 헤딩각(θ1, θ3)이 변경 목표차선으로 차량의 이동에 따라 점차 감소되어 0이 되도록 제어함으로써 부드러운 차선 변경이 진행되도록 제어할 수 있으므로, 안정성과 승차감을 모두 만족시킬 수 있다.Therefore, the control step can control the calculated heading angles (θ1, θ3) to gradually decrease to 0 as the vehicle moves to the change target lane, thereby ensuring a smooth lane change, thereby satisfying both stability and ride comfort. You can.

전술한 본 실시예들에 의한 자율주행 차량의 제어 방법은 자율주행 차량의 자동 차선 변경에 관한 것으로서, 변경되어야 할 변경 목표차선을 인식하고, 인식된 변경 목표차선과 차량 사이의 헤딩각에 기반하여 차선이 변경되도록 제어할 수 있고, 특히, 변경 목표차선에 장애물이 존재하는 경우에도 변경 목표차선을 인식할 수 있으므로, 자동 차선 변경시 부드러운 주행을 수행함으로써, 안정성과 승차감을 모두 만족시킬 수 있다.The control method of the autonomous vehicle according to the above-described embodiments relates to automatic lane change of the autonomous vehicle, recognizing the target lane to be changed, and based on the heading angle between the recognized target lane to change and the vehicle. Since the lane can be controlled to change, and in particular, the target lane to change can be recognized even when an obstacle exists in the target lane to change, both stability and ride comfort can be satisfied by performing smooth driving during automatic lane change.

아래에서는 도 1 내지 도 9를 참조하여 설명한 자율주행 차량의 제어 방법을 수행할 수 있는 자율주행 차량의 제어 장치에 대해서 다시 한번 간략히 설명한다. 아래에서의 자율주행 차량의 제어 장치는 전술한 자율주행 차량의 제어 방법의 전부 또는 일부 동작을 수행할 수 있다. 또한, 자율주행 차량의 제어 장치는 전술한 각 실시예들의 임의의 조합으로 수행할 수 있다.Below, a control device for an autonomous vehicle capable of performing the control method for an autonomous vehicle described with reference to FIGS. 1 to 9 will be briefly described again. The autonomous vehicle control device below may perform all or part of the operations of the above-described autonomous vehicle control method. Additionally, the control device for the autonomous vehicle can be implemented using any combination of the above-described embodiments.

도 10은 본 실시예들에 따른 자율주행 차량의 제어 장치를 도시한 블록도이다.Figure 10 is a block diagram showing a control device for an autonomous vehicle according to the present embodiments.

도 10을 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 장치는 차량의 주행 차선을 변경하기 위한 차선 변경 신호가 수신되면, 차량이 변경되어야 할 변경 목표차선으로 차선 변경이 가능한 상태인지를 판단하는 판단부(1010)를 포함할 수 있다.Referring to FIG. 10, when a lane change signal for changing the driving lane of the vehicle is received, the control device of the autonomous vehicle according to the present embodiments determines whether the vehicle is in a state in which it is possible to change lanes to the change target lane to be changed. It may include a determination unit 1010 that makes a decision.

차량의 주행 차선을 변경하기 위한 차선 변경 신호는 자동 차선 변경을 수행하기 위한 신호를 의미할 수 있다. 차선 변경 신호는 운전자가 입력한 방향등 신호일 수 있으나, 이에 제한되지 않으며, 자동 차선 변경을 수행할 수 있는 모든 신호가 포함될 수 있다.A lane change signal for changing the driving lane of a vehicle may mean a signal for performing automatic lane change. The lane change signal may be a turn signal signal input by the driver, but is not limited thereto, and may include any signal capable of performing automatic lane change.

일례로, 차선 변경 신호는 운전자가 입력한 차선 변경을 위한 좌측 또는 우측 방향등 신호를 의미할 수 있다. 이 경우, 좌측 또는 우측 방향등 신호가 입력되면, 차량에 구비된 여러 센서에 기반하여 해당 방향으로의 차선 변경 가능 여부를 판단하고, 이에 기반하여 변경 목표차선으로 차량의 차선이 자동으로 변경될 수 있다.For example, a lane change signal may mean a left or right turn signal for lane change input by the driver. In this case, when a left or right turn light signal is input, it is determined whether a lane change in that direction is possible based on several sensors installed in the vehicle, and based on this, the vehicle's lane can be automatically changed to the change target lane. there is.

다른 예로, 차선 변경 신호는 자율주행 차량이 설정된 목적지까지 주행하기 위하여 차선 변경이 필요한 경우 자율 주행 제어 장치에서 생성되는 신호를 의미할 수 있다. 이 경우, 자율 주행 제어 장치에 의해 생성된 신호에 기반하여 차선 변경 방향으로의 방향등이 점등되고, 차량에 구비된 여러 센서에 기반하여 해당 방향으로의 차선 변경 가능 여부를 판단하고, 이에 기반하여 변경 목표차선으로 차량의 차선이 자동으로 변경될 수 있다As another example, a lane change signal may refer to a signal generated by an autonomous driving control device when a lane change is necessary to drive the autonomous vehicle to a set destination. In this case, the turn light in the lane change direction is turned on based on the signal generated by the autonomous driving control device, and based on several sensors installed in the vehicle, it is determined whether lane change in that direction is possible, and based on this, The vehicle's lane can be automatically changed to the target lane.

즉, 차선 변경 신호는 운전자가 직접 입력한 신호에 기반하여 생성될 수 있으나, 이에 제한되지 않으며, 운전자의 입력 없이 생성될 수도 있다.That is, the lane change signal may be generated based on a signal directly input by the driver, but is not limited to this and may be generated without input from the driver.

변경 목표차선은 현재 차량이 주행 중인 주행 차선에 인접한 차선을 의미할 수 있으나, 이에 제한되지 않는다. 예를 들어, 변경 목표차선은 현재 차량이 주행 중인 주행 차선에 인접한 차선의 옆차선을 의미할 수도 있다. 이 경우, 주행 차선에 인접한 차선을 제1 변경 차선으로 설정하며, 주행 차선에 인접한 차선의 옆차선을 제2 변경 차선으로 설정하고, 제1 변경 차선 및 제2 변경 차선으로의 차선 변경을 단계적으로 수행할 수도 있다.The change target lane may mean a lane adjacent to the driving lane in which the vehicle is currently traveling, but is not limited thereto. For example, the change target lane may mean a lane next to the driving lane in which the vehicle is currently traveling. In this case, the lane adjacent to the driving lane is set as the first change lane, the lane next to the lane adjacent to the driving lane is set as the second change lane, and the lane change to the first change lane and the second change lane is done in stages. It can also be done.

이하에서는, 변경 목표차선이 현재 차량이 주행 중인 주행 차선에 인접한 차선인 것을 전제로 설명하나, 전술한 바와 같이, 변경 목표차선이 현재 차량이 주행 중인 주행 차선에 인접한 차선이 아닌 경우에도, 본 실시예들이 적용될 수 있다.Hereinafter, the description will be made on the assumption that the target lane to change is a lane adjacent to the driving lane in which the vehicle is currently traveling. However, as described above, even if the target lane to change is not a lane adjacent to the driving lane in which the vehicle is currently traveling, this implementation Examples may apply.

판단부(1010)는 차량에 구비된 카메라 센서에 의한 영상 정보 및 동역학 센서에 의한 속도 정보에 기반하여 차선 변경이 가능한 상태인지를 판단할 수 있다. 예를 들어, 판단부(1010)는 영상 정보 및 속도 정보에 기반하여 차선 접근 시간을 산출하고, 차선 접근 시간이 임계 값 이하이면 차선 변경이 가능한 상태로 판단할 수 있다.The determination unit 1010 may determine whether a lane change is possible based on image information from a camera sensor provided in the vehicle and speed information from a dynamic sensor. For example, the determination unit 1010 may calculate the lane approach time based on image information and speed information, and determine that a lane change is possible if the lane approach time is less than a threshold value.

차선 접근 시간은 차선 변경 신호가 입력된 시점부터 산출되고, 차량의 진행방향의 변화에 따라 갱신되어 산출될 수 있다.The lane access time is calculated from the time the lane change signal is input, and can be updated and calculated according to changes in the vehicle's direction of travel.

도 10을 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 장치는 차선 변경이 가능한 상태로 판단되면, 변경 목표차선에 장애물의 존재 여부를 감지하고, 장애물의 존재 여부 및 차량에 구비된 카메라 센서에 의한 영상 정보에 기반하여 변경 목표차선의 중앙에 가상 라인을 설정하는 설정부(1020)를 포함할 수 있다.Referring to FIG. 10, when it is determined that a lane change is possible, the control device of the autonomous vehicle according to the present embodiments detects the presence of an obstacle in the target lane to change, and detects the presence of the obstacle and the camera installed in the vehicle. It may include a setting unit 1020 that sets a virtual line at the center of the change target lane based on image information from a sensor.

설정부(1020)는 차량에 구비된 카메라 센서, 레이더 센서 및 라이다 센서 중 적어도 하나에 기반하여 장애물의 존재 여부를 감지할 수 있다. 즉, 카메라 센서, 레이더 센서 및 라이다 센서 중 하나에 의해 장애물의 존재를 감지할 수 있으나, 이에 제한되는 것은 아니다. 설정부(1020)는 카메라 센서, 레이더 센서 및 라이다 센서 중 둘 이상의 조합에 의해 장애물의 존재를 감지할 수도 있다.The setting unit 1020 may detect the presence of an obstacle based on at least one of a camera sensor, a radar sensor, and a lidar sensor provided in the vehicle. That is, the presence of an obstacle can be detected by one of a camera sensor, a radar sensor, and a lidar sensor, but is not limited thereto. The setting unit 1020 may detect the presence of an obstacle using a combination of two or more of a camera sensor, a radar sensor, and a LiDAR sensor.

가상 라인의 설정에 이용되는 차량에 구비된 카메라 센서는 전방 감시를 위한 윈드실드 내부에 구비된 전방 감시 카메라를 의미할 수 있으나, 이에 제한되지 않는다. 차량에 구비된 카메라 센서는 어라운드 뷰를 생성하기 위하여 라디에이터 그릴에 장착된 어라운드 뷰 전방 카메라를 의미할 수도 있다. 또한, 차량에 구비된 카메라 센서는 전방 감시 카메라와 어라운드 뷰 전방 카메라의 조합일 수도 있고, 이 경우, 전방 카메라로 시야각은 작으나 원거리 영상 획득이 가능하고, 어라운드 뷰 전방 카메라로 시야각은 넓으나 근거리 영상 획득이 가능한 바, 이들을 조합한 영상 정보가 획득될 수도 있다.The camera sensor provided in the vehicle used to set the virtual line may refer to a front surveillance camera installed inside the windshield for front surveillance, but is not limited thereto. A camera sensor provided in a vehicle may refer to an around view front camera mounted on a radiator grill to generate an around view. In addition, the camera sensor provided in the vehicle may be a combination of a front surveillance camera and an around-view front camera. In this case, the front camera has a small viewing angle but is capable of acquiring long-distance images, and the around-view front camera has a wide viewing angle but can capture short-distance images. Since acquisition is possible, image information combining these may be obtained.

설정부(1020)는 장애물의 존재 여부 및 차량에 구비된 카메라 센서에 의한 영상 정보에 기반하여 변경 목표차선의 중앙에 가상 라인을 설정할 수 있다.The setting unit 1020 may set a virtual line at the center of the change target lane based on the presence of an obstacle and image information from a camera sensor provided in the vehicle.

일례로, 설정부(1020)는 장애물이 존재하지 않는 경우에는 영상 정보에 기반하여 변경 목표차선의 양측 차선을 감지하고, 감지된 변경 목표차선의 양측 차선에 기반하여 가상 라인을 설정할 수 있다.For example, when no obstacle exists, the setting unit 1020 may detect the lanes on both sides of the change target lane based on image information and set a virtual line based on the detected lanes on both sides of the change target lane.

다른 예로, 설정부(1020)는 장애물이 존재하는 경우에는 영상 정보에 기반하여 변경 목표차선에서의 장애물의 일측 차선을 감지하고, 감지된 장애물의 일측 차선에 기반하여 장애물의 일측 전방 차선을 추정하며, 감지된 장애물의 일측 차선 및 추정된 장애물의 일측 전방 차선에 기반하여 장애물로 인하여 감지되지 않는 반대 차선을 추정할 수 있다. 이 경우, 설정부(1020)는 감지된 장애물의 일측 차선, 추정된 장애물의 일측 전방 차선 및 추정된 반대 차선에 기반하여 가상 라인을 설정할 수 있다. 한편, 설정부(1020)는 영상정보에 의해 감지된 차선에 기반하여 추정된 장애물의 일측 전방 차선과 추정된 반대 차선에 칼만필터를 적용하여 보정할 수도 있다.As another example, when an obstacle exists, the setting unit 1020 detects the lane on one side of the obstacle in the change target lane based on image information, and estimates the lane ahead on one side of the obstacle based on the lane on one side of the detected obstacle. , the opposing lane that is not detected due to the obstacle can be estimated based on the lane on one side of the detected obstacle and the lane ahead of the estimated obstacle. In this case, the setting unit 1020 may set a virtual line based on the lane on one side of the detected obstacle, the lane ahead of the estimated obstacle, and the estimated opposite lane. Meanwhile, the setting unit 1020 may apply a Kalman filter to the estimated lane ahead of the obstacle and the estimated opposite lane based on the lane detected by image information to make corrections.

따라서, 본 실시예들에 따른 자율주행 차량의 제어 장치에 의하면, 변경 목표차선의 장애물이 존재하는 경우에도 변경 목표차선을 인식하여 가상 라인을 설정할 수 있다.Therefore, according to the control device for an autonomous vehicle according to the present embodiments, it is possible to recognize the target lane to change and set a virtual line even when an obstacle exists in the target lane to change.

도 10을 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 장치는 가상 라인에 대한 차량의 헤딩각을 산출하고, 헤딩각에 기반하여 차량이 변경 목표차선으로 차선이 변경되도록 제어하는 제어부(1030)를 포함할 수 있다.Referring to FIG. 10, the control device for an autonomous vehicle according to the present embodiments includes a control unit that calculates the heading angle of the vehicle with respect to the virtual line and controls the vehicle to change lanes to the change target lane based on the heading angle. 1030).

헤딩각은 설정부(1020)에 의해 설정된 가상 라인을 기준으로 차량의 진행방향이 이루는 각도를 의미할 수 있다. 헤딩각은 변경 목표차선으로의 차량 이동에 따른 차량의 진행방향의 변화에 따라 달라질 수 있다. 또한, 헤딩각은 영상 정보의 변화 또는 장애물의 이동에 따라 가상 라인은 갱신될 수 있고, 이에 따라 변화될 수 있다. 이 경우 헤딩각은 가상 라인의 갱신에 따라 연동하여 갱신될 수 있다.The heading angle may refer to the angle formed by the moving direction of the vehicle based on the virtual line set by the setting unit 1020. The heading angle may vary depending on the change in the direction of travel of the vehicle as the vehicle moves to the target lane. Additionally, the virtual line may be updated and the heading angle may be changed according to changes in image information or movement of obstacles. In this case, the heading angle can be updated in conjunction with the update of the virtual line.

제어부(1030)는 변경 목표차선으로의 차량 이동에 따라 헤딩각이 감소하도록 차량의 진행방향을 변화시킬 수 있다. 따라서, 제어부(1030)는 산출된 헤딩각이 차량의 차선 변경이 진행되면서 점차 감소하여 0이되도록 차량의 진행방향을 변화시킴으로써 차량이 변경 목표차선으로 차선이 변경되도록 제어할 수 있다.The controller 1030 may change the direction of travel of the vehicle so that the heading angle decreases as the vehicle moves to the change target lane. Accordingly, the controller 1030 can control the vehicle to change lanes to the target lane by changing the direction of travel of the vehicle so that the calculated heading angle gradually decreases to 0 as the vehicle changes lanes.

전술한 본 실시예들에 의한 자율주행 차량의 제어 장치는 자율주행 차량의 자동 차선 변경에 관한 것으로서, 변경되어야 할 변경 목표차선을 인식하고, 인식된 변경 목표차선과 차량 사이의 헤딩각에 기반하여 차선이 변경되도록 제어할 수 있고, 특히, 변경 목표차선에 장애물이 존재하는 경우에도 변경 목표차선을 인식할 수 있으므로, 자동 차선 변경시 부드러운 주행을 수행함으로써, 안정성과 승차감을 모두 만족시킬 수 있다.The control device of the autonomous vehicle according to the above-described embodiments relates to automatic lane change of the autonomous vehicle, recognizes the target lane to be changed, and based on the heading angle between the recognized target lane to change and the vehicle. Since the lane can be controlled to change, and in particular, the target lane to change can be recognized even when an obstacle exists in the target lane to change, both stability and ride comfort can be satisfied by performing smooth driving during automatic lane change.

이상의 설명은 본 개시의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 기술 사상의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 또한, 본 실시예들은 본 개시의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이므로 이러한 실시예에 의하여 본 기술 사상의 범위가 한정되는 것은 아니다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present disclosure, and those skilled in the art will be able to make various modifications and variations without departing from the essential characteristics of the present disclosure. In addition, the present embodiments are not intended to limit the technical idea of the present disclosure, but rather to explain it, so the scope of the present technical idea is not limited by these embodiments. The scope of protection of this disclosure should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of rights of this disclosure.

1010: 판단부
1020: 설정부
1030: 제어부
1010: Judgment unit
1020: Setting section
1030: Control unit

Claims (15)

차량의 주행 차선을 변경하기 위한 차선 변경 신호가 수신되면, 상기 차량이 변경되어야 할 변경 목표차선으로 차선 변경이 가능한 상태인지를 판단하는 판단 단계;
상기 차선 변경이 가능한 상태로 판단되면, 상기 변경 목표차선에 장애물의 존재 여부를 감지하고, 상기 장애물의 존재 여부 및 상기 차량에 구비된 카메라 센서에 의한 영상 정보에 기반하여 상기 변경 목표차선의 중앙에 가상 라인을 설정하는 설정 단계; 및
상기 가상 라인에 대한 상기 차량의 헤딩각을 산출하고, 상기 헤딩각에 기반하여 상기 차량이 상기 변경 목표차선으로 차선이 변경되도록 제어하는 제어 단계를 포함하되,
상기 판단 단계는, 차량에 구비된 카메라 센서에 의한 영상 정보 및 동역학 센서에 의한 속도 정보에 기반하여 차선 접근 시간을 산출하고, 차선 접근 시간과 임계값을 비교하여 차선 변경이 가능한 상태인지를 판단하고,
상기 설정 단계는, 상기 장애물이 존재하지 않는 경우에는 영상정보에 기반하여 변경 목표 차선의 양측 차선을 감지하고, 감지된 변경 목표차선의 양측 차선에 기반하여 가상라인을 설정하고,
상기 설정 단계는, 상기 장애물이 존재하는 경우에는, 감지된 장애물의 일측 차선, 추정된 장애물의 일측 전방 차선 및 추정된 반대 차선에 기반하여 가상라인을 설정하되, 상기 반대 차선은 감지된 장애물의 일측 차선(653a) 및 추정된 장애물의 일측 전방 차선(653b)의 반대편에 위치한 장애물의 타측 차선 및 타측 전방 차선으로 이루어진 차선을 나타내며,
변경 목표 차선이 곡선을 포함하고, 상기 장애물의 일측 전방 차선의 전부 또는 일부가 감지되지 않을 경우,
영상정보로부터 감지되지 않는 장애물의 일측 전방 차선(653b)의 곡률은 감지된 장애물의 일측 차선(653a)에서의 산출된 곡률 변화량에 기반하여 추정하고, 일측 전방 차선(653b)의 위치는 감지된 장애물의 일측 차선과 연속되는 것으로 추정하고,
영상정보로부터 감지되지 않는 반대 차선(655a)의 곡률은 감지된 장애물의 일측 차선(653a)과 추정된 장애물의 일측 전방 차선(653b)이 이루는 곡률과 동일한 곡률을 갖는 것으로 추정하고,
상기 제어 단계는, 차선 변경이 가능한 상태에서의 전방에 장애물이 존재하지 않는 경우, 차량의 가상 라인에 대하여 산출된 해당각 θ1을 차량이 변경 목표차선으로 이동함에 따라 헤딩각 θ2(θ1>θ2)로 감소되도록 하되, θ2는 0(Zero)이 되도록 제어하고,
상기 제어 단계는, 차선 변경이 가능한 상태에서의 전방에 장애물이 존재하는 경우, 차량의 가상 라인에 대하여 산출된 해당각(θ3)이 변경 목표 차선으로의 차량의 이동에 따라 헤딩각 θ4(θ3>θ4)로 감소되도록 제어하되, θ4는 0(Zero)이 되도록 제어하고,
상기 제어 단계는,
상기 차선 변경이 가능한 상태에서의 전방에 장애물이 존재하지 않는 경우, 상기 차량의 가상 라인 접근 시간을 산출하고, 상기 산출된 헤딩각 θ1에 대해 상기 가상 라인 접근 시간으로 나눈 시간당 헤딩각 감소량을 산출하고, 상기 시간당 헤딩각 감소량에 기반하여 상기 헤딩각 θ1이 감소되도록 제어하고,
차선 변경이 가능한 상태에서의 전방에 장애물이 존재하는 경우, 상기 가상 라인 접근 시간을 산출하고, 상기 산출된 헤딩각 θ3에 대해 상기 가상 라인 접근 시간으로 나눈 시간당 헤딩각 감소량을 산출하고, 상기 시간당 헤딩각 감소량에 기반하여 상기 헤딩각 θ3이 감소되도록 제어하고,
상기 가상 라인 접근 시간은,
상기 영상 정보에 기반하여 감지된 상기 차량의 위치에서 상기 가상라인까지의 거리를 상기 차량의 횡방향 속도로 나눈 값인 것을 특징으로 하는 자율주행 차량의 제어 방법.
When a lane change signal for changing the vehicle's driving lane is received, a determination step of determining whether the vehicle is capable of changing lanes to the change target lane to be changed;
When it is determined that the lane change is possible, the presence or absence of an obstacle in the target lane is detected, and the center of the target lane is moved based on the presence of the obstacle and image information from a camera sensor provided in the vehicle. A setup step to set up a virtual line; and
Comprising a control step of calculating a heading angle of the vehicle with respect to the virtual line and controlling the vehicle to change lanes to the change target lane based on the heading angle,
In the determination step, the lane access time is calculated based on the image information from the camera sensor provided in the vehicle and the speed information from the dynamic sensor, and the lane access time is compared with the threshold to determine whether lane change is possible. ,
In the setting step, when the obstacle does not exist, lanes on both sides of the target change lane are detected based on image information, and virtual lines are set based on the lanes on both sides of the detected target change lane,
In the setting step, when the obstacle exists, a virtual line is set based on the lane on one side of the detected obstacle, the lane ahead of the estimated obstacle, and the estimated opposite lane, wherein the opposite lane is on one side of the detected obstacle. It represents a lane consisting of a lane 653a and a lane 653b on the other side of the obstacle located on the opposite side of the lane 653b on one side of the estimated obstacle,
If the change target lane includes a curve and all or part of the lane ahead of the obstacle is not detected,
The curvature of the lane 653b on one side of the obstacle that is not detected from the image information is estimated based on the calculated change in curvature in the lane 653a on the side of the detected obstacle, and the location of the lane 653b on the front side of the obstacle is estimated based on the detected obstacle. It is assumed to be continuous with the lane on one side of,
The curvature of the opposing lane 655a, which is not detected from the image information, is assumed to have the same curvature as the curvature formed by the lane 653a on one side of the detected obstacle and the lane 653b ahead of the estimated obstacle,
In the control step, when there is no obstacle ahead in a state where lane change is possible, the corresponding angle θ1 calculated with respect to the virtual line of the vehicle is changed to a heading angle θ2 (θ1 > θ2) as the vehicle moves to the change target lane. is reduced to , but θ2 is controlled to be 0 (Zero),
In the control step, when an obstacle exists ahead in a state where lane change is possible, the corresponding angle θ3 calculated with respect to the virtual line of the vehicle becomes the heading angle θ4 (θ3>) as the vehicle moves to the change target lane. Control it to decrease to θ4), but control θ4 to be 0 (Zero),
The control step is,
When there is no obstacle ahead in the lane change possible state, the virtual line approach time of the vehicle is calculated, and the calculated heading angle θ1 is divided by the virtual line approach time to calculate the amount of heading angle reduction per time, , Controlling the heading angle θ1 to be reduced based on the amount of heading angle reduction per time,
When an obstacle exists ahead in a lane change possible state, the virtual line approach time is calculated, the calculated heading angle θ3 is divided by the virtual line approach time, and the hourly heading angle reduction is calculated, and the hourly heading angle is calculated. Controlling the heading angle θ3 to decrease based on the angle reduction amount,
The virtual line access time is,
A control method for an autonomous vehicle, characterized in that the distance from the position of the vehicle detected based on the image information to the virtual line is divided by the lateral speed of the vehicle.
삭제delete 제1항에 있어서,
상기 판단 단계는,
상기 차선 접근 시간이 임계 값 이하이면 상기 차선 변경이 가능한 상태로 판단하는 것을 특징으로 하는 자율주행 차량의 제어 방법.
According to paragraph 1,
The judgment step is,
A control method for an autonomous vehicle, characterized in that it is determined that the lane change is possible when the lane access time is less than a threshold value.
제1항에 있어서,
상기 설정 단계는,
상기 차량에 구비된 카메라 센서, 레이더 센서 및 라이다 센서 중 적어도 하나에 기반하여 상기 장애물의 존재 여부를 감지하는 것을 특징으로 하는 자율주행 차량의 제어 방법.
According to paragraph 1,
The setting step is,
A control method for an autonomous vehicle, characterized in that detecting the presence of the obstacle based on at least one of a camera sensor, a radar sensor, and a lidar sensor provided in the vehicle.
삭제delete 제1항에 있어서,
상기 설정 단계는,
상기 장애물이 존재하는 경우에는,
상기 영상 정보에 기반하여 상기 변경 목표차선에서의 상기 장애물의 일측 차선을 감지하고,
감지된 상기 장애물의 일측 차선에 기반하여 상기 장애물의 일측 전방 차선을 추정하며,
감지된 상기 장애물의 일측 차선 및 추정된 상기 장애물의 일측 전방 차선에 기반하여 상기 장애물로 인하여 감지되지 않는 반대 차선을 추정하는 것을 특징으로 하는 자율주행 차량의 제어 방법.
According to paragraph 1,
The setting step is,
If the above obstacles exist,
Detecting a lane on one side of the obstacle in the change target lane based on the image information,
Estimating the lane ahead of one side of the obstacle based on the lane on one side of the detected obstacle,
A control method for an autonomous vehicle, comprising estimating an opposing lane that is not detected due to the obstacle based on the detected lane on one side of the obstacle and the estimated lane ahead of the obstacle.
제6항에 있어서,
상기 설정 단계는,
영상정보로부터 감지되지 않는 반대 차선(655a)의 위치는 영상정보로부터 장애물의 타측 하방 차선(655b)의 일부가 감지된 경우에는 일부 감지된 장애물의 타측 하방 차선(655b)과 연속되는 것으로 추정하고,
영상정보로부터 장애물의 타측 하방 차선(655b)이 감지되지 않는 경우에는 미리 저장된 도로 폭 정보에 기반하여 장애물의 일측 차선(653a)과 추정된 장애물의 일측 전방 차선(653b)으로부터의 산출된 이격 거리에 따라 이격된 것으로 추정
하는 것을 특징으로 하는 자율주행 차량의 제어 방법.
According to clause 6,
The setting step is,
If a part of the down lane 655b on the other side of the obstacle is detected from the image information, the position of the opposite lane 655a, which is not detected from the image information, is assumed to be continuous with the down lane 655b on the other side of the partially detected obstacle,
If the lower lane 655b on the other side of the obstacle is not detected from the image information, the calculated separation distance from the lane 653a on one side of the obstacle and the lane 653b ahead of the estimated obstacle is based on pre-stored road width information. It is assumed that they were separated according to
A control method for an autonomous vehicle, characterized in that:
제6항에 있어서,
상기 설정 단계는,
상기 영상정보에 의해 감지된 차선에 기반하여 추정된 상기 장애물의 일측 전방 차선과 상기 추정된 반대 차선에 칼만필터를 적용하여 보정하는 것을 특징으로 하는 자율주행 차량의 제어 방법.
According to clause 6,
The setting step is,
A control method for an autonomous vehicle, characterized in that correction is made by applying a Kalman filter to the lane ahead of one side of the obstacle, which is estimated based on the lane detected by the image information, and to the estimated lane on the opposite side.
차량의 주행 차선을 변경하기 위한 차선 변경 신호가 수신되면, 상기 차량이 변경되어야 할 변경 목표차선으로 차선 변경이 가능한 상태인지를 판단하는 판단부;
상기 차선 변경이 가능한 상태로 판단되면, 상기 변경 목표차선에 장애물의 존재 여부를 감지하고, 상기 장애물의 존재 여부 및 상기 차량에 구비된 카메라 센서에 의한 영상 정보에 기반하여 상기 변경 목표차선의 중앙에 가상 라인을 설정하는 설정부; 및
상기 가상 라인에 대한 상기 차량의 헤딩각을 산출하고, 상기 헤딩각에 기반하여 상기 차량이 상기 변경 목표차선으로 차선이 변경되도록 제어하는 제어부를 포함하되,
상기 판단부는, 차량에 구비된 카메라 센서에 의한 영상 정보 및 동역학 센서에 의한 속도 정보에 기반하여 차선 접근 시간을 산출하고, 차선 접근 시간과 임계값을 비교하여 차선 변경이 가능한 상태인지를 판단하고,
상기 설정부는, 상기 장애물이 존재하지 않는 경우에는 영상정보에 기반하여 변경 목표 차선의 양측 차선을 감지하고, 감지된 변경 목표차선의 양측 차선에 기반하여 가상라인을 설정하고,
상기 장애물이 존재하는 경우에는, 감지된 장애물의 일측 차선, 추정된 장애물의 일측 전방 차선 및 추정된 반대 차선에 기반하여 가상라인을 설정하되, 상기 반대 차선은 감지된 장애물의 일측 차선(653a) 및 추정된 장애물의 일측 전방 차선(653b)의 반대편에 위치한 장애물의 타측 차선 및 타측 전방 차선으로 이루어진 차선을 나타내며,
변경 목표 차선이 곡선을 포함하고, 상기 장애물의 일측 전방 차선의 전부 또는 일부가 감지되지 않을 경우,
영상정보로부터 감지되지 않는 장애물의 일측 전방 차선(653b)의 곡률은 감지된 장애물의 일측 차선(653a)에서의 산출된 곡률 변화량에 기반하여 추정하고, 일측 전방 차선(653b)의 위치는 감지된 장애물의 일측 차선과 연속되는 것으로 추정하고,
영상정보로부터 감지되지 않는 반대 차선(655a)의 곡률은 감지된 장애물의 일측 차선(653a)과 추정된 장애물의 일측 전방 차선(653b)이 이루는 곡률과 동일한 곡률을 갖는 것으로 추정하고,
상기 제어부는, 차선 변경이 가능한 상태에서의 전방에 장애물이 존재하지 않는 경우, 차량의 가상 라인에 대하여 산출된 해당각 θ1을 차량이 변경 목표차선으로 이동함에 따라 헤딩각 θ2(θ1>θ2)로 감소되도록 하되, θ2는 0(Zero)이 되도록 제어하고,
상기 제어부는, 차선 변경이 가능한 상태에서의 전방에 장애물이 존재하는 경우, 차량의 가상 라인에 대하여 산출된 해당각(θ3)이 변경 목표 차선으로의 차량의 이동에 따라 헤딩각 θ4(θ3>θ4)로 감소되도록 제어하되, θ4는 0(Zero)이 되도록 제어하고,
상기 제어부는,
상기 차선 변경이 가능한 상태에서의 전방에 장애물이 존재하지 않는 경우, 상기 차량의 가상 라인 접근 시간을 산출하고, 상기 산출된 헤딩각 θ1에 대해 상기 가상 라인 접근 시간으로 나눈 시간당 헤딩각 감소량을 산출하고, 상기 시간당 헤딩각 감소량에 기반하여 상기 헤딩각 θ1이 감소되도록 제어하고,
차선 변경이 가능한 상태에서의 전방에 장애물이 존재하는 경우, 상기 가상 라인 접근 시간을 산출하고, 상기 산출된 헤딩각 θ3에 대해 상기 가상 라인 접근 시간으로 나눈 시간당 헤딩각 감소량을 산출하고, 상기 시간당 헤딩각 감소량에 기반하여 상기 헤딩각 θ3가 감소되도록 제어하고,
상기 가상 라인 접근 시간은,
상기 영상 정보에 기반하여 감지된 상기 차량의 위치에서 상기 가상라인까지의 거리를 상기 차량의 횡방향 속도로 나눈 값인 것을 특징으로 하는 자율주행 차량의 제어 장치.
When a lane change signal for changing the driving lane of the vehicle is received, a determination unit that determines whether the vehicle is capable of changing lanes to the change target lane to be changed;
When it is determined that the lane change is possible, the presence or absence of an obstacle in the target lane is detected, and the center of the target lane is moved based on the presence of the obstacle and image information from a camera sensor provided in the vehicle. A setting unit that sets a virtual line; and
A control unit that calculates the heading angle of the vehicle with respect to the virtual line and controls the vehicle to change lanes to the change target lane based on the heading angle,
The determination unit calculates a lane access time based on image information from a camera sensor provided in the vehicle and speed information from a dynamic sensor, and compares the lane access time and a threshold to determine whether a lane change is possible,
If the obstacle does not exist, the setting unit detects the lanes on both sides of the change target lane based on image information and sets a virtual line based on the detected lanes on both sides of the change target lane,
When the obstacle exists, a virtual line is set based on the lane on one side of the detected obstacle, the lane ahead of the estimated obstacle, and the estimated opposite lane, where the opposite lane is the lane on one side of the detected obstacle (653a) and Indicates a lane consisting of a lane on the other side of the obstacle located on the opposite side of the lane 653b on one side of the estimated obstacle and the lane ahead on the other side,
If the change target lane includes a curve and all or part of the lane ahead of the obstacle is not detected,
The curvature of the lane 653b on one side of the obstacle that is not detected from the image information is estimated based on the calculated change in curvature in the lane 653a on the side of the detected obstacle, and the location of the lane 653b on the front side of the obstacle is estimated based on the detected obstacle. It is assumed to be continuous with the lane on one side of,
The curvature of the opposing lane 655a, which is not detected from the image information, is assumed to have the same curvature as the curvature formed by the lane 653a on one side of the detected obstacle and the lane 653b ahead of the estimated obstacle,
When there is no obstacle ahead in a lane change possible state, the control unit changes the corresponding angle θ1 calculated with respect to the virtual line of the vehicle to a heading angle θ2 (θ1 > θ2) as the vehicle moves to the change target lane. It is reduced, but θ2 is controlled to be 0 (Zero),
The control unit determines that when an obstacle exists ahead in a lane change possible state, the corresponding angle θ3 calculated with respect to the virtual line of the vehicle is changed to a heading angle θ4 (θ3>θ4) as the vehicle moves to the change target lane. ), but θ4 is controlled to be 0 (Zero),
The control unit,
When there is no obstacle ahead in the lane change possible state, the virtual line approach time of the vehicle is calculated, and the calculated heading angle θ1 is divided by the virtual line approach time to calculate the amount of heading angle reduction per time, , Controlling the heading angle θ1 to be reduced based on the amount of heading angle reduction per time,
When an obstacle exists ahead in a lane change possible state, the virtual line approach time is calculated, the calculated heading angle θ3 is divided by the virtual line approach time, and the hourly heading angle reduction is calculated, and the hourly heading angle is calculated. Controlling the heading angle θ3 to decrease based on the angle reduction amount,
The virtual line access time is,
A control device for an autonomous vehicle, characterized in that the distance from the position of the vehicle detected based on the image information to the virtual line is divided by the lateral speed of the vehicle.
삭제delete 제9항에 있어서,
상기 판단부는,
상기 차선 접근 시간이 임계 값 이하이면 상기 차선 변경이 가능한 상태로 판단하는 것을 특징으로 하는 자율주행 차량의 제어 장치.
According to clause 9,
The judgment department,
A control device for an autonomous vehicle, characterized in that it is determined that the lane change is possible when the lane access time is less than a threshold value.
제9항에 있어서,
상기 설정부는,
상기 장애물이 존재하지 않는 경우에는,
상기 영상 정보에 기반하여 상기 변경 목표차선의 양측 차선을 감지하고,
감지된 상기 변경 목표차선의 양측 차선에 기반하여 상기 가상 라인을 설정하는 것을 특징으로 하는 자율주행 차량의 제어 장치.
According to clause 9,
The settings section,
If the above obstacle does not exist,
Detect lanes on both sides of the change target lane based on the image information,
A control device for an autonomous vehicle, characterized in that for setting the virtual line based on lanes on both sides of the detected change target lane.
삭제delete 제9항에 있어서,
상기 설정부는,
영상정보로부터 감지되지 않는 반대 차선(655a)의 위치는 영상정보로부터 장애물의 타측 하방 차선(655b)의 일부가 감지된 경우에는 일부 감지된 장애물의 타측 하방 차선(655b)과 연속되는 것으로 추정하고,
영상정보로부터 장애물의 타측 하방 차선(655b)이 감지되지 않는 경우에는 미리 저장된 도로 폭 정보에 기반하여 장애물의 일측 차선(653a)과 추정된 장애물의 일측 전방 차선(653b)으로부터의 산출된 이격 거리에 따라 이격된 것으로 추정하는 것을 특징으로 하는 자율주행 차량의 제어 장치.
According to clause 9,
The settings section,
If a part of the down lane 655b on the other side of the obstacle is detected from the image information, the position of the opposite lane 655a, which is not detected from the image information, is assumed to be continuous with the down lane 655b on the other side of the partially detected obstacle,
If the lower lane 655b on the other side of the obstacle is not detected from the image information, the calculated separation distance from the lane 653a on one side of the obstacle and the lane 653b ahead of the estimated obstacle is based on pre-stored road width information. A control device for an autonomous vehicle, characterized in that it is estimated to be spaced apart according to the control device.
제9항에 있어서,
상기 설정부는,
상기 영상정보에 의해 감지된 차선에 기반하여 추정된 상기 장애물의 일측 전방 차선과 추정된 상기 반대 차선에 칼만필터를 적용하여 보정하는 것을 특징으로 하는 자율주행 차량의 제어 장치.
According to clause 9,
The settings section,
A control device for an autonomous vehicle, characterized in that correction is made by applying a Kalman filter to the lane ahead of one side of the obstacle, which is estimated based on the lane detected by the image information, and to the estimated lane on the opposite side.
KR1020210166025A 2021-11-26 2021-11-26 Method and device for controlling automatic driving vehicle KR102605555B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210166025A KR102605555B1 (en) 2021-11-26 2021-11-26 Method and device for controlling automatic driving vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210166025A KR102605555B1 (en) 2021-11-26 2021-11-26 Method and device for controlling automatic driving vehicle

Publications (2)

Publication Number Publication Date
KR20230079285A KR20230079285A (en) 2023-06-07
KR102605555B1 true KR102605555B1 (en) 2023-11-28

Family

ID=86761771

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210166025A KR102605555B1 (en) 2021-11-26 2021-11-26 Method and device for controlling automatic driving vehicle

Country Status (1)

Country Link
KR (1) KR102605555B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002274402A (en) * 2001-03-14 2002-09-25 Nissan Motor Co Ltd Steering device for vehicle
JP2016078638A (en) * 2014-10-16 2016-05-16 トヨタ自動車株式会社 Drive support apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102203947B1 (en) * 2014-04-29 2021-01-18 주식회사 만도 Lane keeping assistance system and method for controlling keeping lane of the same
KR101902291B1 (en) * 2016-12-30 2018-09-28 주식회사 유라코퍼레이션 Traffic lane correction system and method thereof
KR102452553B1 (en) * 2017-12-07 2022-10-07 현대자동차주식회사 Autonomous driving control apparatus and method for changing target thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002274402A (en) * 2001-03-14 2002-09-25 Nissan Motor Co Ltd Steering device for vehicle
JP2016078638A (en) * 2014-10-16 2016-05-16 トヨタ自動車株式会社 Drive support apparatus

Also Published As

Publication number Publication date
KR20230079285A (en) 2023-06-07

Similar Documents

Publication Publication Date Title
US9493163B2 (en) Driving support apparatus for vehicle
JP5952862B2 (en) Vehicle driving support device
EP1564703B1 (en) Vehicle driving assist system
KR102466727B1 (en) Parking assistance method and parking control device
US7742864B2 (en) Vehicle surroundings monitoring apparatus and traveling control system incorporating the apparatus
US7890231B2 (en) Lane keeping assistance equipment for automotive vehicles
JP4517972B2 (en) Obstacle determination device and method
US6489887B2 (en) Lane-keep assisting system for vehicle
JP4021344B2 (en) Vehicle driving support device
KR102374916B1 (en) Apparatus and Method for Controlling Lane-Keeping
US20180001894A1 (en) Vehicle cruise control device and cruise control method
US20170267237A1 (en) Vehicle travel control device
JP6327708B2 (en) Vehicle driving support device
WO2011040119A1 (en) Vehicle controller
JP6348785B2 (en) Vehicle driving support device
US11247677B2 (en) Vehicle control device for maintaining inter-vehicle spacing including during merging
JP6412346B2 (en) Vehicle driving support device
JP6755071B2 (en) Vehicle travel control device
KR102467223B1 (en) Apparatus and method for automatic steering control based on vehicles changing lanes
US20200094836A1 (en) Vehicle control system
KR20200018715A (en) Driving control method and driving control device of driving assistance vehicle
JP7062782B2 (en) Vehicle control method and vehicle control device
JP6609292B2 (en) Outside environment recognition device
KR102605555B1 (en) Method and device for controlling automatic driving vehicle
US20230234579A1 (en) Vehicle driving assist device

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant