KR102605555B1 - Method and device for controlling automatic driving vehicle - Google Patents
Method and device for controlling automatic driving vehicle Download PDFInfo
- Publication number
- KR102605555B1 KR102605555B1 KR1020210166025A KR20210166025A KR102605555B1 KR 102605555 B1 KR102605555 B1 KR 102605555B1 KR 1020210166025 A KR1020210166025 A KR 1020210166025A KR 20210166025 A KR20210166025 A KR 20210166025A KR 102605555 B1 KR102605555 B1 KR 102605555B1
- Authority
- KR
- South Korea
- Prior art keywords
- lane
- obstacle
- vehicle
- change
- detected
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000008859 change Effects 0.000 claims abstract description 230
- 238000013459 approach Methods 0.000 claims description 18
- 230000009467 reduction Effects 0.000 claims description 12
- 230000007423 decrease Effects 0.000 claims description 11
- 238000012937 correction Methods 0.000 claims description 3
- 238000000926 separation method Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 6
- 238000011161 development Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18163—Lane change; Overtaking manoeuvres
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R21/0134—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0043—Signal treatments, identification of variables or parameters, parameter estimation or state estimation
- B60W2050/0052—Filtering, filters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/42—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
Abstract
본 실시예들은 자율주행 차량의 자동 차선 변경에 관한 것으로서, 변경되어야 할 변경 목표차선을 인식하고, 인식된 변경 목표차선과 차량 사이의 헤딩각에 기반하여 차선이 변경되도록 제어할 수 있고, 특히, 변경 목표차선에 장애물이 존재하는 경우에도 변경 목표차선을 인식할 수 있으므로, 자동 차선 변경시 부드러운 주행을 수행함으로써, 안정성과 승차감을 모두 만족시킬 수 있는 자율주행 차량의 제어 방법 및 장치를 제공할 수 있다.The present embodiments relate to automatic lane change of an autonomous vehicle, where the change target lane to be changed can be recognized and the lane can be controlled to change based on the heading angle between the recognized change target lane and the vehicle. In particular, Since the change target lane can be recognized even when an obstacle exists in the change target lane, it is possible to provide a control method and device for an autonomous vehicle that can satisfy both stability and ride comfort by performing smooth driving when automatically changing lanes. there is.
Description
본 실시예들은 자율주행 차량의 제어 방법 및 장치에 관한 것이다.These embodiments relate to a control method and device for an autonomous vehicle.
첨단 기술의 발전 및 IT 산업의 발전으로 다양한 분야에서 무인화 산업의 연구 개발 및 적용이 이루어지고 있다. 특히, 차량산업은 최근 IT 기술들이 접목된 친환경, 첨단차량의 시대로 변모해가고 있고, 차량 기술 발전과 더불어 운전자의 안전과 편의성 증대를 위한 사고예방, 사고회피, 충돌안전, 편의성 향상, 차량 정보화 그리고 자율주행 기술 등을 적용한 지능형 차량들이 상용화되고 있다.With the development of cutting-edge technology and the development of the IT industry, research, development and application of the unmanned industry are being conducted in various fields. In particular, the automobile industry is recently transforming into an era of eco-friendly, high-tech vehicles incorporating IT technologies, and along with the advancement of vehicle technology, accident prevention, accident avoidance, collision safety, improvement of convenience, and vehicle informatization to increase driver safety and convenience. And intelligent vehicles using autonomous driving technology are being commercialized.
이러한 지능형 차량은 운전자의 조작 미숙에 대한 지원기술, 음성인식 등을 통한 편의 기능을 지원하는 차량으로서, 운전자의 과실에 의한 사고를 줄일 수 있을 뿐만 아니라, 시간감소, 연료낭비, 배기가스 저감 등의 이점을 기대할 수 있는 특징이 있다.These intelligent vehicles are vehicles that support convenience functions through voice recognition and assistance technology for the driver's inexperience in operation, and not only reduce accidents caused by driver negligence, but also reduce time, fuel waste, and exhaust gas reduction. There are features that can be expected to benefit.
차량의 자율주행은 출발지로부터 탑승자가 설정한 목적지까지 탑승자의 개입 없이 차량이 주행되는 것을 의미한다. 차량의 자율주행에서의 승차감은 안정성 못지 않게 중요한 요소이다. 탑승자가 자율주행 차량의 주행 중 승차감에 불안감을 느끼게 된다면, 자율주행 차량의 안정성이 아무리 높더라도 자율주행 시스템을 신뢰하지 못하는 경우가 발생한다.Autonomous driving of a vehicle means that the vehicle is driven from the starting point to the destination set by the passenger without the intervention of the passenger. Ride comfort in autonomous vehicle driving is as important as safety. If passengers feel anxious about the ride quality while driving a self-driving vehicle, they may not trust the self-driving system, no matter how high the safety of the self-driving vehicle is.
자율주행 시스템은 차량의 종방향 제어뿐만 아니라, 횡방향 제어에 있어서도 안정성과 승차감 모두를 만족시켜야 한다. 차량의 자율주행 시스템 중 차선을 변경하는 자동 차선 변경(Auto Lane Change, ALC)의 경우에도 안정성과 승차감을 모두 만족시키기 위한 제어 기술의 개발이 필요하다.An autonomous driving system must satisfy both stability and ride comfort not only in longitudinal control of the vehicle, but also in lateral control. In the case of Auto Lane Change (ALC), which changes lanes among the vehicle's autonomous driving systems, the development of control technology is necessary to satisfy both stability and ride comfort.
본 실시예들은 자율주행 차량의 자동 차선 변경에 관한 것으로서, 변경되어야 할 변경 목표차선을 인식하고, 인식된 변경 목표차선과 차량 사이의 헤딩각에 기반하여 차선이 변경되도록 제어할 수 있고, 특히, 변경 목표차선에 장애물이 존재하는 경우에도 변경 목표차선을 인식할 수 있으므로, 자동 차선 변경시 부드러운 주행을 수행함으로써, 안정성과 승차감을 모두 만족시킬 수 있는 자율주행 차량의 제어 방법 및 장치를 제공할 수 있다.The present embodiments relate to automatic lane change of an autonomous vehicle, where the change target lane to be changed can be recognized and the lane can be controlled to change based on the heading angle between the recognized change target lane and the vehicle. In particular, Since the change target lane can be recognized even when an obstacle exists in the change target lane, it is possible to provide a control method and device for an autonomous vehicle that can satisfy both stability and ride comfort by performing smooth driving when automatically changing lanes. there is.
일 측면에서, 본 실시예들은 차량의 주행 차선을 변경하기 위한 차선 변경 신호가 수신되면, 차량이 변경되어야 할 변경 목표차선으로 차선 변경이 가능한 상태인지를 판단하는 판단 단계; 차선 변경이 가능한 상태로 판단되면, 변경 목표차선에 장애물의 존재 여부를 감지하고, 장애물의 존재 여부 및 차량에 구비된 카메라 센서에 의한 영상 정보에 기반하여 변경 목표차선의 중앙에 가상 라인을 설정하는 설정 단계 및 가상 라인에 대한 차량의 헤딩각을 산출하는 산출하고, 헤딩각에 기반하여 차량이 변경 목표차선으로 차선이 변경되도록 제어하는 제어 단계를 포함하는 자율주행 차량의 제어 방법을 제공할 수 있다.In one aspect, the present embodiments include, when a lane change signal for changing the driving lane of the vehicle is received, determining whether the vehicle is capable of changing lanes to the change target lane to be changed; When it is determined that a lane change is possible, the presence or absence of an obstacle in the target lane is detected, and a virtual line is set in the center of the target lane based on the presence of an obstacle and image information from the camera sensor installed in the vehicle. A control method for an autonomous vehicle can be provided, including a setting step and a control step of calculating the heading angle of the vehicle with respect to the virtual line and controlling the vehicle to change lanes to the change target lane based on the heading angle. .
다른 측면에서, 본 실시예들은 차량의 주행 차선을 변경하기 위한 차선 변경 신호가 수신되면, 차량이 변경되어야 할 변경 목표차선으로 차선 변경이 가능한 상태인지를 판단하는 판단부, 차선 변경이 가능한 상태로 판단되면, 변경 목표차선에 장애물의 존재 여부를 감지하고, 장애물의 존재 여부 및 차량에 구비된 카메라 센서에 의한 영상 정보에 기반하여 변경 목표차선의 중앙에 가상 라인을 설정하는 설정부 및 가상 라인에 대한 차량의 헤딩각을 산출하는 산출하고, 헤딩각에 기반하여 차량이 변경 목표차선으로 차선이 변경되도록 제어하는 제어부를 포함하는 자율주행 차량의 제어 장치를 제공할 수 있다.In another aspect, when a lane change signal for changing the driving lane of a vehicle is received, the present embodiments include a determination unit that determines whether the vehicle is in a state in which it is possible to change lanes to the change target lane to be changed, and a state in which lane change is possible. Once determined, the setting unit and virtual line detect the presence of an obstacle in the change target lane and set a virtual line in the center of the change target lane based on the presence of the obstacle and image information from a camera sensor installed in the vehicle. A control device for an autonomous vehicle can be provided, including a control unit that calculates the heading angle of the vehicle and controls the vehicle to change lanes to the change target lane based on the heading angle.
본 실시예들은 자율주행 차량의 자동 차선 변경에 관한 것으로서, 변경되어야 할 변경 목표차선을 인식하고, 인식된 변경 목표차선과 차량 사이의 헤딩각에 기반하여 차선이 변경되도록 제어할 수 있고, 특히, 변경 목표차선에 장애물이 존재하는 경우에도 변경 목표차선을 인식할 수 있으므로, 자동 차선 변경시 부드러운 주행을 수행함으로써, 안정성과 승차감을 모두 만족시킬 수 있는 자율주행 차량의 제어 방법 및 장치를 제공할 수 있다.The present embodiments relate to automatic lane change of an autonomous vehicle, where the change target lane to be changed can be recognized and the lane can be controlled to change based on the heading angle between the recognized change target lane and the vehicle. In particular, Since the change target lane can be recognized even when an obstacle exists in the change target lane, it is possible to provide a control method and device for an autonomous vehicle that can satisfy both stability and ride comfort by performing smooth driving when automatically changing lanes. there is.
도 1은 본 실시예들에 따른 자율주행 차량의 제어 방법을 도시한 흐름도이다.
도 2는 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 판단 단계를 도시한 흐름도이다.
도 3은 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 차선 접근 시간을 산출하기 위한 변수를 나타낸 도면이다.
도 4는 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 설정 단계를 도시한 흐름도이다.
도 5 및 도 6은 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 가상 라인이 설정된 차량 상태를 도시한 도면이다.
도 7은 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 제어 단계를 도시한 흐름도이다.
도 8 및 도9는 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 헤딩각에 기반하여 차선 변경이 제어되는 차량 상태를 도시한 도면이다.
도 10은 본 실시예들에 따른 자율주행 차량의 제어 장치를 도시한 블록도이다.1 is a flowchart showing a control method for an autonomous vehicle according to the present embodiments.
Figure 2 is a flowchart showing a determination step in the control method of an autonomous vehicle according to the present embodiments.
Figure 3 is a diagram showing variables for calculating lane access time in the control method of an autonomous vehicle according to the present embodiments.
Figure 4 is a flowchart showing the setting steps in the control method of an autonomous vehicle according to the present embodiments.
5 and 6 are diagrams illustrating a vehicle state in which a virtual line is set in the control method of an autonomous vehicle according to the present embodiments.
Figure 7 is a flowchart showing control steps in the control method of an autonomous vehicle according to the present embodiments.
Figures 8 and 9 are diagrams illustrating a vehicle state in which lane change is controlled based on the heading angle in the control method of an autonomous vehicle according to the present embodiments.
Figure 10 is a block diagram showing a control device for an autonomous vehicle according to the present embodiments.
이하, 본 개시의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성 요소들에 참조부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 기술 사상의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다. 본 명세서 상에서 언급된 "포함한다", "갖는다", "이루어진다" 등이 사용되는 경우 "~만"이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별한 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함할 수 있다.Hereinafter, some embodiments of the present disclosure will be described in detail with reference to illustrative drawings. In adding reference numerals to components in each drawing, the same components may have the same reference numerals as much as possible even if they are shown in different drawings. Additionally, in describing the present embodiments, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present technical idea, the detailed description may be omitted. When “comprises,” “has,” “consists of,” etc. mentioned in the specification are used, other parts may be added unless “only” is used. When a component is expressed in the singular, it can also include the plural, unless specifically stated otherwise.
또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다. Additionally, in describing the components of the present disclosure, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, sequence, order, or number of the components are not limited by the term.
구성 요소들의 위치 관계에 대한 설명에 있어서, 둘 이상의 구성 요소가 "연결", "결합" 또는 "접속" 등이 된다고 기재된 경우, 둘 이상의 구성 요소가 직접적으로 "연결", "결합" 또는 "접속" 될 수 있지만, 둘 이상의 구성 요소와 다른 구성 요소가 더 "개재"되어 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다. 여기서, 다른 구성 요소는 서로 "연결", "결합" 또는 "접속" 되는 둘 이상의 구성 요소 중 하나 이상에 포함될 수도 있다. In the description of the positional relationship of components, when two or more components are described as being “connected,” “coupled,” or “connected,” the two or more components are directly “connected,” “coupled,” or “connected.” ", but it should be understood that two or more components and other components may be further "interposed" and "connected," "combined," or "connected." Here, other components may be included in one or more of two or more components that are “connected,” “coupled,” or “connected” to each other.
구성 요소들이나, 동작 방법이나 제작 방법 등과 관련한 시간적 흐름 관계에 대한 설명에 있어서, 예를 들어, "~후에", "~에 이어서", "~다음에", "~전에" 등으로 시간적 선후 관계 또는 흐름적 선후 관계가 설명되는 경우, "바로" 또는 "직접"이 사용되지 않는 이상 연속적이지 않은 경우도 포함할 수 있다.In the description of temporal flow relationships related to components, operation methods, production methods, etc., for example, temporal precedence relationships such as “after”, “after”, “after”, “before”, etc. Or, when a sequential relationship is described, non-continuous cases may be included unless “immediately” or “directly” is used.
한편, 구성 요소에 대한 수치 또는 그 대응 정보(예: 레벨 등)가 언급된 경우, 별도의 명시적 기재가 없더라도, 수치 또는 그 대응 정보는 각종 요인(예: 공정상의 요인, 내부 또는 외부 충격, 노이즈 등)에 의해 발생할 수 있는 오차 범위를 포함하는 것으로 해석될 수 있다.On the other hand, when a numerical value or corresponding information (e.g., level, etc.) for a component is mentioned, even if there is no separate explicit description, the numerical value or corresponding information is related to various factors (e.g., process factors, internal or external shocks, It can be interpreted as including the error range that may occur due to noise, etc.).
도 1은 본 실시예들에 따른 자율주행 차량의 제어 방법을 도시한 흐름도이다.1 is a flowchart showing a control method for an autonomous vehicle according to the present embodiments.
도 1을 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 방법은 차량의 주행 차선을 변경하기 위한 차선 변경 신호가 수신되면, 차량이 변경되어야 할 변경 목표차선으로 차선 변경이 가능한 상태인지를 판단하는 판단 단계를 포함할 수 있다(S110).Referring to FIG. 1, the control method of an autonomous vehicle according to the present embodiments determines whether the vehicle is capable of changing lanes to the target lane to be changed when a lane change signal for changing the driving lane of the vehicle is received. It may include a judgment step (S110).
차량의 주행 차선을 변경하기 위한 차선 변경 신호는 자동 차선 변경을 수행하기 위한 신호를 의미할 수 있다. 차선 변경 신호는 운전자가 입력한 방향등 신호일 수 있으나, 이에 제한되지 않으며, 자동 차선 변경을 수행할 수 있는 모든 신호가 포함될 수 있다.A lane change signal for changing the driving lane of a vehicle may mean a signal for performing automatic lane change. The lane change signal may be a turn signal signal input by the driver, but is not limited thereto, and may include any signal capable of performing automatic lane change.
일례로, 차선 변경 신호는 운전자가 입력한 차선 변경을 위한 좌측 또는 우측 방향등 신호를 의미할 수 있다. 이 경우, 좌측 또는 우측 방향등 신호가 입력되면, 차량에 구비된 여러 센서에 기반하여 해당 방향으로의 차선 변경 가능 여부를 판단하고, 이에 기반하여 변경 목표차선으로 차량의 차선이 자동으로 변경될 수 있다.For example, a lane change signal may mean a left or right turn signal for lane change input by the driver. In this case, when a left or right turn light signal is input, it is determined whether a lane change in that direction is possible based on several sensors installed in the vehicle, and based on this, the vehicle's lane can be automatically changed to the change target lane. there is.
다른 예로, 차선 변경 신호는 자율주행 차량이 설정된 목적지까지 주행하기 위하여 차선 변경이 필요한 경우 자율 주행 제어 장치에서 생성되는 신호를 의미할 수 있다. 이 경우, 자율 주행 제어 장치에 의해 생성된 신호에 기반하여 차선 변경 방향으로의 방향등이 점등되고, 차량에 구비된 여러 센서에 기반하여 해당 방향으로의 차선 변경 가능 여부를 판단하고, 이에 기반하여 변경 목표차선으로 차량의 차선이 자동으로 변경될 수 있다As another example, a lane change signal may refer to a signal generated by an autonomous driving control device when a lane change is necessary to drive the autonomous vehicle to a set destination. In this case, the turn light in the lane change direction is turned on based on the signal generated by the autonomous driving control device, and based on several sensors installed in the vehicle, it is determined whether lane change in that direction is possible, and based on this, The vehicle's lane can be automatically changed to the target lane.
즉, 차선 변경 신호는 운전자가 직접 입력한 신호에 기반하여 생성될 수 있으나, 이에 제한되지 않으며, 운전자의 입력 없이 생성될 수도 있다.That is, the lane change signal may be generated based on a signal directly input by the driver, but is not limited to this and may be generated without input from the driver.
변경 목표차선은 현재 차량이 주행 중인 주행 차선에 인접한 차선을 의미할 수 있으나, 이에 제한되지 않는다. 예를 들어, 변경 목표차선은 현재 차량이 주행 중인 주행 차선에 인접한 차선의 옆차선을 의미할 수도 있다. 이 경우, 주행 차선에 인접한 차선을 제1 변경 차선으로 설정하며, 주행 차선에 인접한 차선의 옆차선을 제2 변경 차선으로 설정하고, 제1 변경 차선 및 제2 변경 차선으로의 차선 변경을 단계적으로 수행할 수도 있다.The change target lane may mean a lane adjacent to the driving lane in which the vehicle is currently traveling, but is not limited thereto. For example, the change target lane may mean a lane next to the driving lane in which the vehicle is currently traveling. In this case, the lane adjacent to the driving lane is set as the first change lane, the lane next to the lane adjacent to the driving lane is set as the second change lane, and the lane change to the first change lane and the second change lane is done in stages. It can also be done.
이하에서는, 변경 목표차선이 현재 차량이 주행 중인 주행 차선에 인접한 차선인 것을 전제로 설명하나, 전술한 바와 같이, 변경 목표차선이 현재 차량이 주행 중인 주행 차선에 인접한 차선이 아닌 경우에도, 본 실시예들이 적용될 수 있다.Hereinafter, the description will be made on the assumption that the target lane to change is a lane adjacent to the driving lane in which the vehicle is currently traveling. However, as described above, even if the target lane to change is not a lane adjacent to the driving lane in which the vehicle is currently traveling, this implementation Examples may apply.
판단 단계는 차량에 구비된 카메라 센서에 의한 영상 정보 및 동역학 센서에 의한 속도 정보에 기반하여 차선 변경이 가능한 상태인지를 판단할 수 있다. 예를 들어, 판단 단계는 영상 정보 및 속도 정보에 기반하여 차선 접근 시간을 산출하고, 차선 접근 시간이 임계 값 이하이면 차선 변경이 가능한 상태로 판단할 수 있다.The determination step may determine whether a lane change is possible based on image information from a camera sensor provided in the vehicle and speed information from a dynamic sensor. For example, in the determination step, lane approach time may be calculated based on image information and speed information, and if the lane approach time is less than a threshold value, lane change may be determined to be possible.
차선 접근 시간은 차선 변경 신호가 입력된 시점부터 산출되고, 차량의 진행방향의 변화에 따라 갱신되어 산출될 수 있다.The lane access time is calculated from the time the lane change signal is input, and can be updated and calculated according to changes in the vehicle's direction of travel.
도 1을 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 방법은 차선 변경이 가능한 상태로 판단되면, 변경 목표차선에 장애물의 존재 여부를 감지하고, 장애물의 존재 여부 및 차량에 구비된 카메라 센서에 의한 영상 정보에 기반하여 변경 목표차선의 중앙에 가상 라인을 설정하는 설정 단계를 포함할 수 있다(S120).Referring to FIG. 1, the control method of an autonomous vehicle according to the present embodiments detects the presence of an obstacle in the target lane for lane change when it is determined that a lane change is possible, and determines the presence of an obstacle and a camera installed in the vehicle. It may include a setting step of setting a virtual line at the center of the change target lane based on image information from the sensor (S120).
설정 단계는 차량에 구비된 카메라 센서, 레이더 센서 및 라이다 센서 중 적어도 하나에 기반하여 장애물의 존재 여부를 감지할 수 있다. 즉, 카메라 센서, 레이더 센서 및 라이다 센서 중 하나에 의해 장애물의 존재를 감지할 수 있으나, 이에 제한되는 것은 아니다. 설정 단계는 카메라 센서, 레이더 센서 및 라이다 센서 중 둘 이상의 조합에 의해 장애물의 존재를 감지할 수도 있다.The setting step may detect the presence of an obstacle based on at least one of a camera sensor, radar sensor, and lidar sensor provided in the vehicle. That is, the presence of an obstacle can be detected by one of a camera sensor, a radar sensor, and a lidar sensor, but is not limited thereto. The setup step may detect the presence of an obstacle by a combination of two or more of a camera sensor, radar sensor, and lidar sensor.
가상 라인의 설정에 이용되는 차량에 구비된 카메라 센서는 전방 감시를 위한 윈드실드 내부에 구비된 전방 감시 카메라를 의미할 수 있으나, 이에 제한되지 않는다. 차량에 구비된 카메라 센서는 어라운드 뷰를 생성하기 위하여 라디에이터 그릴에 장착된 어라운드 뷰 전방 카메라를 의미할 수도 있다. 또한, 차량에 구비된 카메라 센서는 전방 감시 카메라와 어라운드 뷰 전방 카메라의 조합일 수도 있고, 이 경우, 전방 카메라로 시야각은 작으나 원거리 영상 획득이 가능하고, 어라운드 뷰 전방 카메라로 시야각은 넓으나 근거리 영상 획득이 가능한 바, 이들을 조합한 영상 정보가 획득될 수도 있다.The camera sensor provided in the vehicle used to set the virtual line may refer to a front surveillance camera installed inside the windshield for front surveillance, but is not limited thereto. A camera sensor provided in a vehicle may refer to an around view front camera mounted on a radiator grill to generate an around view. In addition, the camera sensor provided in the vehicle may be a combination of a front surveillance camera and an around-view front camera. In this case, the front camera has a small viewing angle but is capable of acquiring long-distance images, and the around-view front camera has a wide viewing angle but can capture short-distance images. Since acquisition is possible, image information combining these may be obtained.
설정 단계는 장애물의 존재 여부 및 차량에 구비된 카메라 센서에 의한 영상 정보에 기반하여 변경 목표차선의 중앙에 가상 라인을 설정할 수 있다.In the setting step, a virtual line can be set in the center of the change target lane based on the presence of obstacles and image information from a camera sensor installed in the vehicle.
일례로, 설정 단계는 장애물이 존재하지 않는 경우에는 영상 정보에 기반하여 변경 목표차선의 양측 차선을 감지하고, 감지된 변경 목표차선의 양측 차선에 기반하여 가상 라인을 설정할 수 있다.For example, in the setting step, when no obstacles exist, lanes on both sides of the change target lane can be detected based on image information, and virtual lines can be set based on the detected lanes on both sides of the change target lane.
다른 예로, 설정 단계는 장애물이 존재하는 경우에는 영상 정보에 기반하여 변경 목표차선에서의 장애물의 일측 차선을 감지하고, 감지된 장애물의 일측 차선에 기반하여 장애물의 일측 전방 차선을 추정하며, 감지된 장애물의 일측 차선 및 추정된 장애물의 일측 전방 차선에 기반하여 장애물로 인하여 감지되지 않는 반대 차선을 추정할 수 있다. 이 경우, 설정 단계는 감지된 장애물의 일측 차선, 추정된 장애물의 일측 전방 차선 및 추정된 반대 차선에 기반하여 가상 라인을 설정할 수 있다. 한편, 설정 단계는 영상정보에 의해 감지된 차선에 기반하여 추정된 장애물의 일측 전방 차선과 추정된 반대 차선에 칼만필터를 적용하여 보정할 수도 있다.As another example, in the setting step, if an obstacle exists, the lane on one side of the obstacle is detected in the change target lane based on image information, the lane ahead on one side of the obstacle is estimated based on the lane on one side of the detected obstacle, and the lane ahead of the obstacle is estimated based on the lane on one side of the detected obstacle. An opposing lane that is not detected due to the obstacle can be estimated based on the lane on one side of the obstacle and the lane ahead of the estimated obstacle. In this case, the setting step may set a virtual line based on the lane on one side of the detected obstacle, the lane ahead of the estimated obstacle, and the estimated opposite lane. Meanwhile, the setting step may be corrected by applying a Kalman filter to the lane ahead of one side of the obstacle and the lane on the opposite side estimated based on the lane detected by image information.
따라서, 본 실시예들에 따른 자율주행 차량의 제어 방법에 의하면, 변경 목표차선의 장애물이 존재하는 경우에도 변경 목표차선을 인식하여 가상 라인을 설정할 수 있다.Therefore, according to the control method of an autonomous vehicle according to the present embodiments, it is possible to recognize the target lane to change and set a virtual line even when an obstacle exists in the target lane to change.
도 1을 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 방법은 가상 라인에 대한 차량의 헤딩각을 산출하고, 헤딩각에 기반하여 차량이 변경 목표차선으로 차선이 변경되도록 제어하는 제어 단계를 포함할 수 있다(S130).Referring to FIG. 1, the control method of an autonomous vehicle according to the present embodiments includes a control step of calculating a heading angle of the vehicle with respect to a virtual line and controlling the vehicle to change lanes to the change target lane based on the heading angle. may include (S130).
헤딩각은 설정 단계에서 설정된 가상 라인을 기준으로 차량의 진행방향이 이루는 각도를 의미할 수 있다. 헤딩각은 변경 목표차선으로의 차량 이동에 따른 차량의 진행방향의 변화에 따라 달라질 수 있다. 또한, 헤딩각은 영상 정보의 변화 또는 장애물의 이동에 따라 가상 라인은 갱신될 수 있고, 이에 따라 변화될 수 있다. 이 경우 헤딩각은 가상 라인의 갱신에 따라 연동하여 갱신될 수 있다.The heading angle may refer to the angle formed by the vehicle's direction of travel based on the virtual line set in the setting step. The heading angle may vary depending on the change in the direction of travel of the vehicle as the vehicle moves to the target lane. Additionally, the virtual line may be updated and the heading angle may be changed according to changes in image information or movement of obstacles. In this case, the heading angle can be updated in conjunction with the update of the virtual line.
제어 단계는 변경 목표차선으로의 차량 이동에 따라 헤딩각이 감소하도록 차량의 진행방향을 변화시킬 수 있다. 따라서, 제어 단계는 산출된 헤딩각이 차량의 차선 변경이 진행되면서 점차 감소하여 0이되도록 차량의 진행방향을 변화시킴으로써 차량이 변경 목표차선으로 차선이 변경되도록 제어할 수 있다.The control step may change the direction of travel of the vehicle so that the heading angle decreases as the vehicle moves to the change target lane. Therefore, the control step can control the vehicle to change lanes to the target lane by changing the direction of travel of the vehicle so that the calculated heading angle gradually decreases to 0 as the vehicle changes lanes.
전술한 본 실시예들에 의한 자율주행 차량의 제어 방법은 자율주행 차량의 자동 차선 변경에 관한 것으로서, 변경되어야 할 변경 목표차선을 인식하고, 인식된 변경 목표차선과 차량 사이의 헤딩각에 기반하여 차선이 변경되도록 제어할 수 있고, 특히, 변경 목표차선에 장애물이 존재하는 경우에도 변경 목표차선을 인식할 수 있으므로, 자동 차선 변경시 부드러운 주행을 수행함으로써, 안정성과 승차감을 모두 만족시킬 수 있다.The control method of the autonomous vehicle according to the above-described embodiments relates to automatic lane change of the autonomous vehicle, recognizing the target lane to be changed, and based on the heading angle between the recognized target lane to change and the vehicle. Since the lane can be controlled to change, and in particular, the target lane to change can be recognized even when an obstacle exists in the target lane to change, both stability and ride comfort can be satisfied by performing smooth driving during automatic lane change.
도 2는 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 판단 단계를 도시한 흐름도이다. 도 3은 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 차선 접근 시간을 산출하기 위한 변수를 나타낸 도면이다.Figure 2 is a flowchart showing a determination step in the control method of an autonomous vehicle according to the present embodiments. Figure 3 is a diagram showing variables for calculating lane access time in the control method of an autonomous vehicle according to the present embodiments.
본 실시예들에 따른 자율주행 차량의 제어 방법에서의 판단 단계는 차량에 구비된 카메라 센서에 의한 영상 정보 및 동역학 센서에 의한 속도 정보에 기반하여 차선 변경이 가능한 상태인지를 판단할 수 있다.The determination step in the control method of an autonomous vehicle according to the present embodiments may determine whether a lane change is possible based on image information from a camera sensor provided in the vehicle and speed information from a dynamic sensor.
카메라 센서는 차량에 구비된 전방 감시를 위한 윈드실드 내부에 구비된 전방 감시 카메라를 의미할 수 있고, 카메라 센서에 의해 전방 영상을 촬영하여 전방 영상 정보를 획득할 수 있다.A camera sensor may refer to a front surveillance camera installed inside a windshield for front surveillance of a vehicle, and front image information may be obtained by capturing a front image using the camera sensor.
동역학 센서는 차량의 동역학 상태를 센싱할 수 있는 센서로서, 속도 센서, 가속도 센도, 자이로 센서 등 차량의 속도 측정에 이용될 수 있는 센서를 의미할 수 고, 동역학 센서에 의해 차량의 속도를 센싱하여 속도 정보를 획득할 수 있다.A dynamic sensor is a sensor that can sense the dynamic state of a vehicle. It can refer to a sensor that can be used to measure the vehicle's speed, such as a speed sensor, acceleration sensor, or gyro sensor. The dynamic sensor senses the vehicle's speed and Speed information can be obtained.
도 2를 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 판단 단계는 영상 정보 및 속도 정보에 기반하여 차선 접근 시간을 산출할 수 있다(S211).Referring to FIG. 2, the determination step in the control method of an autonomous vehicle according to the present embodiments may calculate lane access time based on image information and speed information (S211).
도 3을 참조하면, 판단 단계는 영상 정보에 기반하여 상대 거리(Lr)를 산출할 수 있다. 상대 거리(Lr)는 차량(341)이 변경 목표차선(351)의 일측 차선(353)에 진입하기까지의 거리로써, 차량(341)의 진행방향 변화에 따라 변화되는 거리를 의미할 수 있다. 판단 단계는 영상 정보에 기반하여 전방 영상을 1차 방정식으로 선형 모델링화 하여 상대 거리를 산출할 수 있다.Referring to FIG. 3, the determination step may calculate the relative distance (Lr) based on image information. The relative distance (Lr) is the distance until the
도 3을 참조하면, 판단 단계는 속도 정보에 기반하여 횡방향 상대 속도(Vr)를 산출할 수 있다. 횡방향 상대 속도(Vr)는 차량(341)의 축을 중심으로 한 횡방향으로의 속도로써, 차량(341)의 속도 변화에 따라 변화되는 속도를 의미할 수 있다. 판단단계는 속도 정보로부터 차량(341)의 진행방향으로의 속도에 삼각함수를 적용하여 횡방향 상대 속도(Vr)를 산출할 수 있다.Referring to FIG. 3, the determination step may calculate the lateral relative velocity (Vr) based on velocity information. The lateral relative speed (Vr) is a speed in the lateral direction centered on the axis of the
판단 단계는 차선 변경 신호가 수신되면 영상 정보 및 속도 정보에 기반하여 상대 거리(Lr) 및 상대 횡방향 속도(Vr)의 산출을 시작할 수 있다.The determination step may begin calculating the relative distance (Lr) and relative lateral speed (Vr) based on image information and speed information when a lane change signal is received.
차선 접근 시간(Time to Lane Crossing, TLC)은 하기의 수학식에 의해 산출될 수 있다.Time to Lane Crossing (TLC) can be calculated using the following equation.
[수학식 1][Equation 1]
즉, 차선 접근 시간은 상대 거리(Lr)를 횡방향 상대 속도(Vr)로 나눈 값으로, 차량(341)이 변경 목표차선(351)의 일측 차선(353)에 진입하기까지의 시간을 의미할 수 있다. 따라서, 차선 접근 시간은 차량(341)의 진행방향 변화에 따라 변화되는 상대 거리(Lr) 또는 차량(941)의 속도 변화에 따라 변화되는 상대 속도(Vr)에 따라 변경되어 산출될 수 있다.In other words, the lane access time is the relative distance (Lr) divided by the lateral relative speed (Vr), which means the time until the
도 2를 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 판단 단계는 차선 접근 시간과 임계 값을 비교하여 차선 변경이 가능한 상태인지를 판단할 수 있다(S212).Referring to FIG. 2, the determination step in the control method of an autonomous vehicle according to the present embodiments may determine whether a lane change is possible by comparing the lane access time and the threshold value (S212).
임계 값은 차량이 차선 변경이 가능한 상태인지를 판단하는 기준 값을 의미할 수 있다. 임계 값은 실험적으로 산출된 변경 목표차선을 인식할 수 있는 차선 접근 시간 임계치에 기반하여 설정되어 저장될 수 있다. 다만, 이에 제한되는 것은 아니며, 임계 값은 0으로 설정 및 저장되어 차량이 변경 목표차선의 일측 차선에 진입한 시점이 기준 값이 될 수도 있다.The threshold may refer to a reference value for determining whether a vehicle is capable of changing lanes. The threshold may be set and stored based on an experimentally calculated lane approach time threshold that can recognize the change target lane. However, it is not limited to this, and the threshold value may be set and stored as 0, so that the time when the vehicle enters the lane on one side of the change target lane may become the reference value.
도 2를 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 판단 단계는 차선 접근 시간이 임계 값 이하이면 차선 변경이 가능한 상태로 판단할 수 있다(S213).Referring to FIG. 2, in the determination step in the control method of an autonomous vehicle according to the present embodiments, it may be determined that a lane change is possible if the lane access time is less than a threshold value (S213).
반면, 판단 단계는 차선 접근 시간이 임계 값을 초과하면, 임계 값 이하가 될 때까지 변화되는 상대 거리 및 상대 횡방향 속도에 따라 차선 접근 시간을 갱신하여 산출할 수 있다.On the other hand, in the determination step, if the lane approach time exceeds the threshold, the lane approach time can be updated and calculated according to the changing relative distance and relative lateral speed until it falls below the threshold.
다만, 도 2에 도시되지 않았으나, 차선 접근 시간이 임계 값 이하가 되기 전에 운전자로부터 차선 변경 취소 신호가 수신되는 경우에는 차선 접근 시간의 산출은 중단되고, 영상 정보에 기반하여 차량의 진행방향이 주행 차선의 중앙에 위치하도록 차량 상태를 복귀시킬 수 있다.However, although not shown in Figure 2, if a lane change cancellation signal is received from the driver before the lane access time falls below the threshold, the calculation of the lane access time is stopped, and the vehicle's direction of travel is changed based on the image information. The vehicle state can be restored to be located in the center of the lane.
차선 변경이 가능한 상태라는 것은 후술한, 변경 목표차선을 인식하고 가상 라인을 설정할 수 있는 상태를 의미할 수 있다.A state in which a lane change is possible may mean a state in which the change target lane can be recognized and a virtual line can be set, as described later.
따라서, 판단 단계는 영상 정보 및 상기 속도 정보에 기반하여 차선 접근 시간을 산출하고, 차선 접근 시간이 임계 값 이하이면 차선 변경이 가능한 상태로 판단할 수 있다.Therefore, in the determination step, the lane access time is calculated based on the image information and the speed information, and if the lane access time is less than a threshold value, it can be determined that lane change is possible.
도 4는 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 설정 단계를 도시한 흐름도이다. 도 5 및 도 6은 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 가상 라인이 설정된 차량 상태를 도시한 도면이다.Figure 4 is a flowchart showing the setting steps in the control method of an autonomous vehicle according to the present embodiments. 5 and 6 are diagrams illustrating a vehicle state in which a virtual line is set in the control method of an autonomous vehicle according to the present embodiments.
도 4를 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 설정 단계는 차량에 구비된 카메라 센서, 레이더 센서 및 라이다 센서 중 적어도 하나에 기반하여 장애물의 존재 여부를 감지할 수 있다(S421).Referring to FIG. 4, the setting step in the control method of an autonomous vehicle according to the present embodiments may detect the presence of an obstacle based on at least one of a camera sensor, a radar sensor, and a lidar sensor provided in the vehicle. There is (S421).
예를 들어, 설정 단계는 카메라 센서에 의해 획득된 영상 정보에 기반하여 인식된 객체를 추출하여 장애물의 존재를 감지하거나, 또는 레이더 센서에 의해 송수신된 전파에 기반하여 객체를 감지하거나, 또는 라이다 센서에 의해 송수신된 레이저에 기반하여 객체를 감지할 수 있다.For example, the setup step detects the presence of an obstacle by extracting a recognized object based on image information acquired by a camera sensor, or detects an object based on radio waves transmitted and received by a radar sensor, or LiDAR Objects can be detected based on the laser transmitted and received by the sensor.
장애물 존재 여부는 카메라 센서, 레이더 센서 및 라이다 센서 중 하나 또는 그 이상의 조합에 의해 감지될 수 있으나, 세가지 센서 중 하나만 이용할 수 있는 경우에는, 전술한 상대 거리 산출 및 후술할 변경 목표차선의 인식에 카메라 센서가 이용된다는 점에서, 장애물 존재 여부는 카메라 센서에 의해 감지되는 것이 바람직할 수 있다.The presence of an obstacle can be detected by one or more combinations of a camera sensor, a radar sensor, and a lidar sensor. However, if only one of the three sensors is available, the relative distance calculation described above and the recognition of the change target lane described later are used. Given that a camera sensor is used, it may be desirable for the presence of an obstacle to be detected by the camera sensor.
장애물은 변경 목표차선에 위치하고, 차선 변경이 가능한 상태인 차량의 진행방향에 위치한 타차량일 수 있다. 즉, 장애물은 변경 목표차선의 인식에 방해가 되는 타차량을 의미할 수 있다. 이하에서의 장애물은 변경 목표차선에 위치하며 차선 변경이 가능한 상태인 차량의 진행방향에 위치하되, 변경 목표차선의 인식을 방해하는 타차량을 의미하는 것으로 해석될 수 있다.The obstacle may be another vehicle located in the target lane to change and located in the direction of travel of the vehicle that is capable of changing lanes. In other words, an obstacle may mean another vehicle that interferes with recognition of the change target lane. The obstacle below is located in the target lane for change and is located in the direction of travel of a vehicle capable of changing lanes, but can be interpreted as meaning another vehicle that interferes with recognition of the target lane for change.
도 4를 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 설정 단계는 변경 목표차량에 장애물이 존재하는지를 판단할 수 있다(S422).Referring to FIG. 4, the setting step in the control method for an autonomous vehicle according to the present embodiments may determine whether an obstacle exists in the change target vehicle (S422).
설정 단계는 변경 목표차선에 장애물이 존재하는지 여부에 따라 변경 목표차선의 인식을 달리할 수 있다.In the setting stage, the recognition of the change target lane may vary depending on whether an obstacle exists in the change target lane.
도 4를 참조하면, 설정 단계는 장애물이 존재하지 않는 경우에는 영상 정보에 기반하여 변경 목표차선의 양측 차선을 감지하고(S423), 감지된 변경 목표차선의 양측 차선에 기반하여 가상 라인을 설정할 수 있다(S427).Referring to FIG. 4, in the setting step, when no obstacles exist, lanes on both sides of the change target lane are detected based on image information (S423), and virtual lines can be set based on the lanes on both sides of the detected change target lane. There is (S427).
도 4 및 도 5를 참조하면, 설정 단계는 카메라 센서에 의한 영상정보로부터 미리 저장된 차선 정보에 기반하여 변경 목표차선(551)의 양측 차선(553, 555)을 검출함으로써 감지할 수 있다. 미리 저장된 차선 정보는 공용 데이터 셋에 기반하여 딥러닝을 이용한 정보로써, 차선의 종류, 차선의 색상 및 차선의 위치에 대한 정보를 포함할 수 있다.Referring to Figures 4 and 5, the setting step can be detected by detecting
설정 단계는 차선 변경이 가능한 상태의 차량(541)의 전방에 장애물이 존재하지 않는 경우에는, 변경 목표차선(551)의 양측 차선(553, 555)을 모두 감지할 수 있으므로, 감지된 변경 목표차선(551)의 양측 차선(553, 555)의 정중앙에 가상 라인(561)을 설정할 수 있다.In the setting step, when there are no obstacles in front of the
도 5는 변경목표 차선(551)이 직선인 경우로 도시되어 있으나, 이는 예시이며, 변경 목표차선(551)이 곡선이거나, 직선과 곡선이 연결된 경우 경우에도, 장애물이 존재하지 않는 경우에 가상 라인(561)을 설정하는 본 실시예들이 적용될 수 있다.Figure 5 shows the case where the
또한, 도 5에 도시되지 않았으나, 차량의 변경 목표차선으로 이동에 따라 변화된 영상정보에 기반하여 감지되는 양측 차선은 업데이트되고, 이에 기반하여 가상 라인은 갱신되어 설정될 수 있다.In addition, although not shown in FIG. 5, both lanes detected based on the changed image information as the vehicle moves to the change target lane are updated, and the virtual line can be updated and set based on this.
도 4를 참조하면, 설정 단계는 장애물이 존재하는 경우에는 영상 정보에 기반하여 변경 목표차선에서의 장애물의 일측 차선을 감지하고(S424), 감지된 장애물의 일측 차선에 기반하여 장애물의 일측 전방 차선을 추정하며(S425), 감지된 장애물의 일측 차선 및 추정된 장애물의 일측 전방 차선에 기반하여 장애물로 인하여 감지되지 않는 반대 차선을 추정할 수 있다(S426).Referring to FIG. 4, in the setting step, if an obstacle exists, the lane on one side of the obstacle is detected in the change target lane based on image information (S424), and the lane on one side of the obstacle is changed based on the lane on one side of the detected obstacle. is estimated (S425), and an opposing lane that is not detected due to the obstacle can be estimated based on the lane on one side of the detected obstacle and the lane ahead of the estimated obstacle (S426).
따라서, 설정 단계는 감지된 장애물의 일측 차선, 추정된 장애물의 일측 전방 차선 및 추정된 반대 차선에 기반하여 가상 라인을 설정할 수 있다(S427).Accordingly, the setting step may set a virtual line based on the lane on one side of the detected obstacle, the lane ahead of the estimated obstacle, and the estimated opposite lane (S427).
도 4 및 도 6을 참조하면, 차선 변경이 가능한 상태의 차량(641)의 전방에 장애물(671)이 존재하는 경우에는 영상정보로부터 변경 목표차선(651)에서의 장애물(671)의 일측 차선(653a)은 감지할 수 있으나, 카메라 센서의 감지 가능 영역에 따라 장애물의 일측 전방 차선(653b)의 전부 또는 일부는 감지되지 않을 수 있다.Referring to FIGS. 4 and 6 , when an
이 경우, 영상정보로부터 감지되지 않는 장애물(671)의 일측 전방 차선(653b)의 곡률은 감지된 장애물(671)의 일측 차선(653a)에서의 산출된 곡률 변화량에 기반하여 추정될 수 있고, 일측 전방 차선(653b)의 위치는 감지된 장애물(671)의 일측 차선(653a)과 연속되는 것으로 추정될 수 있다.In this case, the curvature of the
또한, 장애물(671)이 존재하는 경우에는 감지된 장애물(671)의 일측 차선(653a) 및 추정된 장애물(671)의 일측 전방 차선(653b)의 반대편에 위치한 장애물(671)의 타측 차선 및 타측 전방 차선은 장애물(671)로 인하여 영상정보로부터 감지되지 않을 수 있다. 이하에서는, 장애물(671)의 타측 차선 및 타측 전방 차선으로 이루어진 차선을 반대 차선(655a)이라 한다.In addition, when an
이 경우, 영상정보로부터 감지되지 않는 반대 차선(655a)의 곡률은 감지된 장애물(671)의 일측 차선(653a)과 추정된 장애물(671)의 일측 전방 차선(653b)이 이루는 곡률과 동일한 곡률을 갖는 것으로 추정될 수 있다.In this case, the curvature of the opposing
또한, 영상정보로부터 감지되지 않는 반대 차선(655a)의 위치는 영상정보로부터 장애물(671)의 타측 하방 차선(655b)의 일부가 감지된 경우에는 일부 감지된 장애물(671)의 타측 하방 차선(655b)과 연속되는 것으로 추정될 수 있다. 다만, 영상정보로부터 장애물(671)의 타측 하방 차선(655b)이 감지되지 않는 경우에는 미리 저장된 도로 폭 정보에 기반하여 장애물(671)의 일측 차선(653a)과 추정된 장애물(671)의 일측 전방 차선(653b)으로부터의 산출된 이격 거리에 따라 이격된 것으로 추정될 수 있다.In addition, the location of the
따라서, 변경 목표차선(651)에 장애물(671)이 존재하는 경우에도, 설정 단계는 감지된 장애물(671)의 일측 차선(653a), 추정된 장애물의 일측 전방 차선(653b), 추정된 장애물(671)의 반대 차선(655a) 및 일부 감지된 장애물(671)의 타측 하방 차선(655b)을 조합하여, 조합된 양측 차선(653a, 653b, 655a, 655b) 의 중앙에 가상 라인(661)을 설정할 수 있다.Therefore, even if an
한편, 도 4에 도시되지 않았으나, 설정 단계는 영상정보에 의해 감지된 차선에 기반하여 추정된 장애물의 일측 전방 차선과 추정된 반대 차선에 칼만필터를 적용하여 보정할 수 있다.Meanwhile, although not shown in FIG. 4, the setting step can be corrected by applying a Kalman filter to the lane ahead of one side of the obstacle and the estimated opposite lane based on the lane detected by image information.
칼만 필터는 대상 시스템의 확률적인 모델과 측정값을 이용하여 시스템의 상태변수를 찾아내는 최적 추정기법이다. 즉, 상태식에 의한 시간전파와 측정식에 의한 개선을 통하여 상태값을 추정하게 되며, 실제 상태값과 추정된 상태값의 오차 공분산을 최소화하는 알고리즘이다. 시스템이 선형이고 정규분포를 갖는 백색잡음에 의해 구동되는 칼만 필터는 최소 공분산을 갖는 편향되지 않는 최적의 추정기로 알려져 있다. 칼만필터는 추정값에 대한 확률분포를 따져서 가장 확률이 높은값을 추정값으로 선택하는 방법으로 보정해서 최종 추정값을 계산한다.The Kalman filter is an optimal estimation technique that finds the state variables of the system using the probabilistic model and measured values of the target system. In other words, the state value is estimated through time propagation by the state equation and improvement by the measurement equation, and it is an algorithm that minimizes the error covariance between the actual state value and the estimated state value. The Kalman filter, whose system is linear and driven by white noise with a normal distribution, is known to be an unbiased optimal estimator with minimum covariance. The Kalman filter calculates the final estimate by calculating the final estimate by considering the probability distribution of the estimate and selecting the value with the highest probability as the estimate.
즉, 추정된 장애물의 일측 전방 차선과 추정된 반대 차선은 영상정보에 의해 감지된 장애물의 일측 차선, 또는 영상정보에 의해 감지된 장애물의 일측 차선과 장애물의 타측 하방 차선에 기반하여 칼만필터가 적용되어 노이즈가 제거되고 추정의 정확도가 향상될 수 있다. 따라서, 감지된 장애물의 일측 차선, 칼만필터가 적용되어 추정된 장애물의 일측 전방 차선 및 칼만필터가 적용되어 추정된 반대 차선에 기반하여 설정된 가상 라인은 노이즈가 제거되고 정확도가 향상될 수 있다.In other words, the Kalman filter is applied to the estimated lane ahead of one side of the obstacle and the estimated opposite lane based on the lane on one side of the obstacle detected by image information, or the lane on one side of the obstacle detected by image information and the lane below the other side of the obstacle. This can remove noise and improve the accuracy of estimation. Therefore, noise can be removed and accuracy can be improved in the virtual line established based on the lane on one side of the detected obstacle, the lane ahead of the obstacle on the side estimated by applying the Kalman filter, and the opposing lane estimated by applying the Kalman filter.
도 6는 변경 목표차선(651)이 직선과 곡선이 연결된 경우로 도시되어 있으나, 이는 예시이며, 변경 목표차선(651)이 직선 또는 곡선일 경우에도, 장애물(671)이 존재하는 경우에 가상 라인(661)을 설정하는 본 실시예들이 적용될 수 있다.In Figure 6, the
또한, 도 6에 도시되지 않았으나, 차량의 변경 목표차선으로 이동에 따라 변화된 영상정보에 기반하여 감지되는 장애물의 일측 차선은 업데이트되고, 이에 기반하여 장애물의 일측 전방 차선 및 반대 차선의 추정 또한 업데이트될 수 있으며, 이에 기반하여 가상 라인은 갱신되어 설정될 수 있다.In addition, although not shown in FIG. 6, the lane on one side of the obstacle detected based on the image information changed as the vehicle moves to the target lane is updated, and based on this, the estimation of the lane ahead and on the opposite side of the obstacle is also updated. And based on this, the virtual line can be updated and set.
도 7은 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 제어 단계를 도시한 흐름도이다.Figure 7 is a flowchart showing control steps in the control method of an autonomous vehicle according to the present embodiments.
도 8 및 도 9는 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 헤딩각에 기반하여 차선 변경이 제어되는 차량 상태를 도시한 도면이다.Figures 8 and 9 are diagrams illustrating a vehicle state in which lane change is controlled based on the heading angle in the control method of an autonomous vehicle according to the present embodiments.
도 7을 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 방법에서의 제어 단계는 가상 라인에 대한 차량의 헤딩각을 산출하고(S831), 헤딩각에 기반하여 차량이 변경 목표차선으로 차선이 변경되도록 제어할 수 있다(S832).Referring to FIG. 7, the control step in the control method of an autonomous vehicle according to the present embodiments calculates the heading angle of the vehicle with respect to the virtual line (S831), and moves the vehicle to the change target lane based on the heading angle. This can be controlled to change (S832).
제어 단계는 가상 라인에 대한 차량의 헤딩각을 산출할 수 있다. 헤딩각은 설정 단계에서 설정된 가상 라인을 기준으로 차량의 진행방향이 이루는 각도를 의미하므로, 차량의 진행방향의 변화에 따라 갱신되어 산출될 수 있다.The control step may calculate the vehicle's heading angle with respect to the virtual line. Since the heading angle refers to the angle formed by the vehicle's direction of travel based on the virtual line set in the setting step, it can be updated and calculated according to changes in the vehicle's direction of travel.
헤딩각은 차선 접근 시간이 임계 값 이하로서 차선 변경이 가능한 상태이고, 변경 목표차선의 중앙에 가상 라인이 설정된 상태에서, 차량의 진행방향의 가상선의 가상 라인에 대한 각도로 산출될 수 있다. 이후, 제어 단계는 산출된 헤딩각이 감소되도록 하여 차량이 변경 목표차선으로 차선이 변경되도록 제어할 수 있다.The heading angle can be calculated as the angle of the virtual line in the direction of travel of the vehicle with respect to the virtual line in the state in which lane change is possible as the lane approach time is below the threshold and a virtual line is set in the center of the target lane for change. Thereafter, the control step can control the vehicle to change lanes to the change target lane by reducing the calculated heading angle.
도 8은 직선 도로에서 본 실시예들에 따른 자율주행 차량의 차선 변경이 제어되는 상태를 나타내고 있는 도면이다.FIG. 8 is a diagram illustrating a state in which lane changes of an autonomous vehicle according to the present embodiments are controlled on a straight road.
도 8을 참조하면, 차선 변경이 가능한 상태에서의 전방에 장애물이 존재하지 않는 경우, 차량(841a)의 가상 라인(861)에 대한 헤딩각은 θ1으로 산출될 수 있다. 제어단계는 산출된 헤딩각 θ1을 차량(841b)이 변경 목표차선(851)으로 이동함에 따라 헤딩각 θ2로 감소되도록 할 수 있다.Referring to FIG. 8, when a lane change is possible and there is no obstacle ahead, the heading angle of the
도 8에 도시되지 않았으나, 이후, 제어단계는 차량(841b)이 변경 목표차선(851)으로 이동함에 따라 헤딩각 θ2가 감소되어 0이 되도록 제어할 수 있다. 헤딩각이 0이 된다는 것은 가상 라인(861)에 차량이 위치하여 차선 변경이 완료된 상태를 의미할 수 있다. 따라서, 차량(841a, 841b)은 헤딩각이 0이 되어 변경 목표차선으로 차선 변경이 완료될 수 있다.Although not shown in FIG. 8, in the subsequent control step, the heading angle θ2 may be controlled to decrease to 0 as the
도 9는 직선과 곡선이 연결된 도로에서 본 실시예들에 따른 자율주행 차량의 차선 변경이 제어되는 상태를 나타내고 있는 도면이다.FIG. 9 is a diagram showing a state in which lane changes of an autonomous vehicle are controlled according to the present embodiments on a road where straight lines and curves are connected.
도 9를 참조하면, 차선 변경이 가능한 상태에서의 전방에 장애물(971)이 존재하는 경우, 제어 단계는 차선 변경이 가능한 상태에서의 차량(941a)의 가상 라인(961)에 대하여 산출된 헤딩각 θ3이 변경 목표차선(951)으로의 차량(941b)의 이동에 따라 헤딩각 θ4로 감소되도록 제어할 수 있다.Referring to FIG. 9, when there is an
또한, 도 9에는 도시되지 않았으나, 이후 차량(941b)이 변경 목표차선(951)으로 이동함에 따라 헤딩각 θ4가 감소되어 0이 되도록 제어하여 변경 목표차선(981)으로 차선 변경이 완료될 수 있다.In addition, although not shown in FIG. 9, as the
또한, 제어 단계는 산출된 헤딩각(θ1, θ3)이 미리 설정된 각도 감소량에 따라 감소되도록 제어할 수 있으나, 이에 제한되지 않는다.Additionally, the control step may control the calculated heading angles (θ1, θ3) to be reduced according to a preset angle reduction amount, but is not limited to this.
예를 들어, 제어 단계는 가상 라인 접근 시간을 산출하고, 산출된 헤딩각(θ1, θ3)을 가상 라인 접근 시간으로 나눈 시간당 헤딩각 감소량을 산출하여, 시간당 헤딩각 감소량에 기반하여 산출된 헤딩각이 감소되도록 제어할 수도 있다. 이 경우, 가상 라인 접근 시간은 영상정보에 기반하여 현재 차량의 위치를 감지하고, 현재 차량의 위치와 설정된 가상 라인까지의 가상 라인 상대 거리를 산출하고, 가상 라인 상대 거리를 차량의 횡방향 속도로 나눈 값으로 산출될 수 있다.For example, the control step calculates the virtual line approach time, divides the calculated heading angles (θ1, θ3) by the virtual line approach time, calculates the hourly heading angle reduction amount, and calculates the heading angle calculated based on the hourly heading angle reduction amount. It can also be controlled to reduce this. In this case, the virtual line access time detects the current vehicle location based on image information, calculates the virtual line relative distance between the current vehicle location and the set virtual line, and calculates the virtual line relative distance by the vehicle's lateral speed. It can be calculated as the divided value.
따라서, 제어 단계는 산출된 헤딩각(θ1, θ3)이 변경 목표차선으로 차량의 이동에 따라 점차 감소되어 0이 되도록 제어함으로써 부드러운 차선 변경이 진행되도록 제어할 수 있으므로, 안정성과 승차감을 모두 만족시킬 수 있다.Therefore, the control step can control the calculated heading angles (θ1, θ3) to gradually decrease to 0 as the vehicle moves to the change target lane, thereby ensuring a smooth lane change, thereby satisfying both stability and ride comfort. You can.
전술한 본 실시예들에 의한 자율주행 차량의 제어 방법은 자율주행 차량의 자동 차선 변경에 관한 것으로서, 변경되어야 할 변경 목표차선을 인식하고, 인식된 변경 목표차선과 차량 사이의 헤딩각에 기반하여 차선이 변경되도록 제어할 수 있고, 특히, 변경 목표차선에 장애물이 존재하는 경우에도 변경 목표차선을 인식할 수 있으므로, 자동 차선 변경시 부드러운 주행을 수행함으로써, 안정성과 승차감을 모두 만족시킬 수 있다.The control method of the autonomous vehicle according to the above-described embodiments relates to automatic lane change of the autonomous vehicle, recognizing the target lane to be changed, and based on the heading angle between the recognized target lane to change and the vehicle. Since the lane can be controlled to change, and in particular, the target lane to change can be recognized even when an obstacle exists in the target lane to change, both stability and ride comfort can be satisfied by performing smooth driving during automatic lane change.
아래에서는 도 1 내지 도 9를 참조하여 설명한 자율주행 차량의 제어 방법을 수행할 수 있는 자율주행 차량의 제어 장치에 대해서 다시 한번 간략히 설명한다. 아래에서의 자율주행 차량의 제어 장치는 전술한 자율주행 차량의 제어 방법의 전부 또는 일부 동작을 수행할 수 있다. 또한, 자율주행 차량의 제어 장치는 전술한 각 실시예들의 임의의 조합으로 수행할 수 있다.Below, a control device for an autonomous vehicle capable of performing the control method for an autonomous vehicle described with reference to FIGS. 1 to 9 will be briefly described again. The autonomous vehicle control device below may perform all or part of the operations of the above-described autonomous vehicle control method. Additionally, the control device for the autonomous vehicle can be implemented using any combination of the above-described embodiments.
도 10은 본 실시예들에 따른 자율주행 차량의 제어 장치를 도시한 블록도이다.Figure 10 is a block diagram showing a control device for an autonomous vehicle according to the present embodiments.
도 10을 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 장치는 차량의 주행 차선을 변경하기 위한 차선 변경 신호가 수신되면, 차량이 변경되어야 할 변경 목표차선으로 차선 변경이 가능한 상태인지를 판단하는 판단부(1010)를 포함할 수 있다.Referring to FIG. 10, when a lane change signal for changing the driving lane of the vehicle is received, the control device of the autonomous vehicle according to the present embodiments determines whether the vehicle is in a state in which it is possible to change lanes to the change target lane to be changed. It may include a
차량의 주행 차선을 변경하기 위한 차선 변경 신호는 자동 차선 변경을 수행하기 위한 신호를 의미할 수 있다. 차선 변경 신호는 운전자가 입력한 방향등 신호일 수 있으나, 이에 제한되지 않으며, 자동 차선 변경을 수행할 수 있는 모든 신호가 포함될 수 있다.A lane change signal for changing the driving lane of a vehicle may mean a signal for performing automatic lane change. The lane change signal may be a turn signal signal input by the driver, but is not limited thereto, and may include any signal capable of performing automatic lane change.
일례로, 차선 변경 신호는 운전자가 입력한 차선 변경을 위한 좌측 또는 우측 방향등 신호를 의미할 수 있다. 이 경우, 좌측 또는 우측 방향등 신호가 입력되면, 차량에 구비된 여러 센서에 기반하여 해당 방향으로의 차선 변경 가능 여부를 판단하고, 이에 기반하여 변경 목표차선으로 차량의 차선이 자동으로 변경될 수 있다.For example, a lane change signal may mean a left or right turn signal for lane change input by the driver. In this case, when a left or right turn light signal is input, it is determined whether a lane change in that direction is possible based on several sensors installed in the vehicle, and based on this, the vehicle's lane can be automatically changed to the change target lane. there is.
다른 예로, 차선 변경 신호는 자율주행 차량이 설정된 목적지까지 주행하기 위하여 차선 변경이 필요한 경우 자율 주행 제어 장치에서 생성되는 신호를 의미할 수 있다. 이 경우, 자율 주행 제어 장치에 의해 생성된 신호에 기반하여 차선 변경 방향으로의 방향등이 점등되고, 차량에 구비된 여러 센서에 기반하여 해당 방향으로의 차선 변경 가능 여부를 판단하고, 이에 기반하여 변경 목표차선으로 차량의 차선이 자동으로 변경될 수 있다As another example, a lane change signal may refer to a signal generated by an autonomous driving control device when a lane change is necessary to drive the autonomous vehicle to a set destination. In this case, the turn light in the lane change direction is turned on based on the signal generated by the autonomous driving control device, and based on several sensors installed in the vehicle, it is determined whether lane change in that direction is possible, and based on this, The vehicle's lane can be automatically changed to the target lane.
즉, 차선 변경 신호는 운전자가 직접 입력한 신호에 기반하여 생성될 수 있으나, 이에 제한되지 않으며, 운전자의 입력 없이 생성될 수도 있다.That is, the lane change signal may be generated based on a signal directly input by the driver, but is not limited to this and may be generated without input from the driver.
변경 목표차선은 현재 차량이 주행 중인 주행 차선에 인접한 차선을 의미할 수 있으나, 이에 제한되지 않는다. 예를 들어, 변경 목표차선은 현재 차량이 주행 중인 주행 차선에 인접한 차선의 옆차선을 의미할 수도 있다. 이 경우, 주행 차선에 인접한 차선을 제1 변경 차선으로 설정하며, 주행 차선에 인접한 차선의 옆차선을 제2 변경 차선으로 설정하고, 제1 변경 차선 및 제2 변경 차선으로의 차선 변경을 단계적으로 수행할 수도 있다.The change target lane may mean a lane adjacent to the driving lane in which the vehicle is currently traveling, but is not limited thereto. For example, the change target lane may mean a lane next to the driving lane in which the vehicle is currently traveling. In this case, the lane adjacent to the driving lane is set as the first change lane, the lane next to the lane adjacent to the driving lane is set as the second change lane, and the lane change to the first change lane and the second change lane is done in stages. It can also be done.
이하에서는, 변경 목표차선이 현재 차량이 주행 중인 주행 차선에 인접한 차선인 것을 전제로 설명하나, 전술한 바와 같이, 변경 목표차선이 현재 차량이 주행 중인 주행 차선에 인접한 차선이 아닌 경우에도, 본 실시예들이 적용될 수 있다.Hereinafter, the description will be made on the assumption that the target lane to change is a lane adjacent to the driving lane in which the vehicle is currently traveling. However, as described above, even if the target lane to change is not a lane adjacent to the driving lane in which the vehicle is currently traveling, this implementation Examples may apply.
판단부(1010)는 차량에 구비된 카메라 센서에 의한 영상 정보 및 동역학 센서에 의한 속도 정보에 기반하여 차선 변경이 가능한 상태인지를 판단할 수 있다. 예를 들어, 판단부(1010)는 영상 정보 및 속도 정보에 기반하여 차선 접근 시간을 산출하고, 차선 접근 시간이 임계 값 이하이면 차선 변경이 가능한 상태로 판단할 수 있다.The
차선 접근 시간은 차선 변경 신호가 입력된 시점부터 산출되고, 차량의 진행방향의 변화에 따라 갱신되어 산출될 수 있다.The lane access time is calculated from the time the lane change signal is input, and can be updated and calculated according to changes in the vehicle's direction of travel.
도 10을 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 장치는 차선 변경이 가능한 상태로 판단되면, 변경 목표차선에 장애물의 존재 여부를 감지하고, 장애물의 존재 여부 및 차량에 구비된 카메라 센서에 의한 영상 정보에 기반하여 변경 목표차선의 중앙에 가상 라인을 설정하는 설정부(1020)를 포함할 수 있다.Referring to FIG. 10, when it is determined that a lane change is possible, the control device of the autonomous vehicle according to the present embodiments detects the presence of an obstacle in the target lane to change, and detects the presence of the obstacle and the camera installed in the vehicle. It may include a
설정부(1020)는 차량에 구비된 카메라 센서, 레이더 센서 및 라이다 센서 중 적어도 하나에 기반하여 장애물의 존재 여부를 감지할 수 있다. 즉, 카메라 센서, 레이더 센서 및 라이다 센서 중 하나에 의해 장애물의 존재를 감지할 수 있으나, 이에 제한되는 것은 아니다. 설정부(1020)는 카메라 센서, 레이더 센서 및 라이다 센서 중 둘 이상의 조합에 의해 장애물의 존재를 감지할 수도 있다.The
가상 라인의 설정에 이용되는 차량에 구비된 카메라 센서는 전방 감시를 위한 윈드실드 내부에 구비된 전방 감시 카메라를 의미할 수 있으나, 이에 제한되지 않는다. 차량에 구비된 카메라 센서는 어라운드 뷰를 생성하기 위하여 라디에이터 그릴에 장착된 어라운드 뷰 전방 카메라를 의미할 수도 있다. 또한, 차량에 구비된 카메라 센서는 전방 감시 카메라와 어라운드 뷰 전방 카메라의 조합일 수도 있고, 이 경우, 전방 카메라로 시야각은 작으나 원거리 영상 획득이 가능하고, 어라운드 뷰 전방 카메라로 시야각은 넓으나 근거리 영상 획득이 가능한 바, 이들을 조합한 영상 정보가 획득될 수도 있다.The camera sensor provided in the vehicle used to set the virtual line may refer to a front surveillance camera installed inside the windshield for front surveillance, but is not limited thereto. A camera sensor provided in a vehicle may refer to an around view front camera mounted on a radiator grill to generate an around view. In addition, the camera sensor provided in the vehicle may be a combination of a front surveillance camera and an around-view front camera. In this case, the front camera has a small viewing angle but is capable of acquiring long-distance images, and the around-view front camera has a wide viewing angle but can capture short-distance images. Since acquisition is possible, image information combining these may be obtained.
설정부(1020)는 장애물의 존재 여부 및 차량에 구비된 카메라 센서에 의한 영상 정보에 기반하여 변경 목표차선의 중앙에 가상 라인을 설정할 수 있다.The
일례로, 설정부(1020)는 장애물이 존재하지 않는 경우에는 영상 정보에 기반하여 변경 목표차선의 양측 차선을 감지하고, 감지된 변경 목표차선의 양측 차선에 기반하여 가상 라인을 설정할 수 있다.For example, when no obstacle exists, the
다른 예로, 설정부(1020)는 장애물이 존재하는 경우에는 영상 정보에 기반하여 변경 목표차선에서의 장애물의 일측 차선을 감지하고, 감지된 장애물의 일측 차선에 기반하여 장애물의 일측 전방 차선을 추정하며, 감지된 장애물의 일측 차선 및 추정된 장애물의 일측 전방 차선에 기반하여 장애물로 인하여 감지되지 않는 반대 차선을 추정할 수 있다. 이 경우, 설정부(1020)는 감지된 장애물의 일측 차선, 추정된 장애물의 일측 전방 차선 및 추정된 반대 차선에 기반하여 가상 라인을 설정할 수 있다. 한편, 설정부(1020)는 영상정보에 의해 감지된 차선에 기반하여 추정된 장애물의 일측 전방 차선과 추정된 반대 차선에 칼만필터를 적용하여 보정할 수도 있다.As another example, when an obstacle exists, the
따라서, 본 실시예들에 따른 자율주행 차량의 제어 장치에 의하면, 변경 목표차선의 장애물이 존재하는 경우에도 변경 목표차선을 인식하여 가상 라인을 설정할 수 있다.Therefore, according to the control device for an autonomous vehicle according to the present embodiments, it is possible to recognize the target lane to change and set a virtual line even when an obstacle exists in the target lane to change.
도 10을 참조하면, 본 실시예들에 따른 자율주행 차량의 제어 장치는 가상 라인에 대한 차량의 헤딩각을 산출하고, 헤딩각에 기반하여 차량이 변경 목표차선으로 차선이 변경되도록 제어하는 제어부(1030)를 포함할 수 있다.Referring to FIG. 10, the control device for an autonomous vehicle according to the present embodiments includes a control unit that calculates the heading angle of the vehicle with respect to the virtual line and controls the vehicle to change lanes to the change target lane based on the heading angle. 1030).
헤딩각은 설정부(1020)에 의해 설정된 가상 라인을 기준으로 차량의 진행방향이 이루는 각도를 의미할 수 있다. 헤딩각은 변경 목표차선으로의 차량 이동에 따른 차량의 진행방향의 변화에 따라 달라질 수 있다. 또한, 헤딩각은 영상 정보의 변화 또는 장애물의 이동에 따라 가상 라인은 갱신될 수 있고, 이에 따라 변화될 수 있다. 이 경우 헤딩각은 가상 라인의 갱신에 따라 연동하여 갱신될 수 있다.The heading angle may refer to the angle formed by the moving direction of the vehicle based on the virtual line set by the
제어부(1030)는 변경 목표차선으로의 차량 이동에 따라 헤딩각이 감소하도록 차량의 진행방향을 변화시킬 수 있다. 따라서, 제어부(1030)는 산출된 헤딩각이 차량의 차선 변경이 진행되면서 점차 감소하여 0이되도록 차량의 진행방향을 변화시킴으로써 차량이 변경 목표차선으로 차선이 변경되도록 제어할 수 있다.The
전술한 본 실시예들에 의한 자율주행 차량의 제어 장치는 자율주행 차량의 자동 차선 변경에 관한 것으로서, 변경되어야 할 변경 목표차선을 인식하고, 인식된 변경 목표차선과 차량 사이의 헤딩각에 기반하여 차선이 변경되도록 제어할 수 있고, 특히, 변경 목표차선에 장애물이 존재하는 경우에도 변경 목표차선을 인식할 수 있으므로, 자동 차선 변경시 부드러운 주행을 수행함으로써, 안정성과 승차감을 모두 만족시킬 수 있다.The control device of the autonomous vehicle according to the above-described embodiments relates to automatic lane change of the autonomous vehicle, recognizes the target lane to be changed, and based on the heading angle between the recognized target lane to change and the vehicle. Since the lane can be controlled to change, and in particular, the target lane to change can be recognized even when an obstacle exists in the target lane to change, both stability and ride comfort can be satisfied by performing smooth driving during automatic lane change.
이상의 설명은 본 개시의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 기술 사상의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 또한, 본 실시예들은 본 개시의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이므로 이러한 실시예에 의하여 본 기술 사상의 범위가 한정되는 것은 아니다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present disclosure, and those skilled in the art will be able to make various modifications and variations without departing from the essential characteristics of the present disclosure. In addition, the present embodiments are not intended to limit the technical idea of the present disclosure, but rather to explain it, so the scope of the present technical idea is not limited by these embodiments. The scope of protection of this disclosure should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of rights of this disclosure.
1010: 판단부
1020: 설정부
1030: 제어부1010: Judgment unit
1020: Setting section
1030: Control unit
Claims (15)
상기 차선 변경이 가능한 상태로 판단되면, 상기 변경 목표차선에 장애물의 존재 여부를 감지하고, 상기 장애물의 존재 여부 및 상기 차량에 구비된 카메라 센서에 의한 영상 정보에 기반하여 상기 변경 목표차선의 중앙에 가상 라인을 설정하는 설정 단계; 및
상기 가상 라인에 대한 상기 차량의 헤딩각을 산출하고, 상기 헤딩각에 기반하여 상기 차량이 상기 변경 목표차선으로 차선이 변경되도록 제어하는 제어 단계를 포함하되,
상기 판단 단계는, 차량에 구비된 카메라 센서에 의한 영상 정보 및 동역학 센서에 의한 속도 정보에 기반하여 차선 접근 시간을 산출하고, 차선 접근 시간과 임계값을 비교하여 차선 변경이 가능한 상태인지를 판단하고,
상기 설정 단계는, 상기 장애물이 존재하지 않는 경우에는 영상정보에 기반하여 변경 목표 차선의 양측 차선을 감지하고, 감지된 변경 목표차선의 양측 차선에 기반하여 가상라인을 설정하고,
상기 설정 단계는, 상기 장애물이 존재하는 경우에는, 감지된 장애물의 일측 차선, 추정된 장애물의 일측 전방 차선 및 추정된 반대 차선에 기반하여 가상라인을 설정하되, 상기 반대 차선은 감지된 장애물의 일측 차선(653a) 및 추정된 장애물의 일측 전방 차선(653b)의 반대편에 위치한 장애물의 타측 차선 및 타측 전방 차선으로 이루어진 차선을 나타내며,
변경 목표 차선이 곡선을 포함하고, 상기 장애물의 일측 전방 차선의 전부 또는 일부가 감지되지 않을 경우,
영상정보로부터 감지되지 않는 장애물의 일측 전방 차선(653b)의 곡률은 감지된 장애물의 일측 차선(653a)에서의 산출된 곡률 변화량에 기반하여 추정하고, 일측 전방 차선(653b)의 위치는 감지된 장애물의 일측 차선과 연속되는 것으로 추정하고,
영상정보로부터 감지되지 않는 반대 차선(655a)의 곡률은 감지된 장애물의 일측 차선(653a)과 추정된 장애물의 일측 전방 차선(653b)이 이루는 곡률과 동일한 곡률을 갖는 것으로 추정하고,
상기 제어 단계는, 차선 변경이 가능한 상태에서의 전방에 장애물이 존재하지 않는 경우, 차량의 가상 라인에 대하여 산출된 해당각 θ1을 차량이 변경 목표차선으로 이동함에 따라 헤딩각 θ2(θ1>θ2)로 감소되도록 하되, θ2는 0(Zero)이 되도록 제어하고,
상기 제어 단계는, 차선 변경이 가능한 상태에서의 전방에 장애물이 존재하는 경우, 차량의 가상 라인에 대하여 산출된 해당각(θ3)이 변경 목표 차선으로의 차량의 이동에 따라 헤딩각 θ4(θ3>θ4)로 감소되도록 제어하되, θ4는 0(Zero)이 되도록 제어하고,
상기 제어 단계는,
상기 차선 변경이 가능한 상태에서의 전방에 장애물이 존재하지 않는 경우, 상기 차량의 가상 라인 접근 시간을 산출하고, 상기 산출된 헤딩각 θ1에 대해 상기 가상 라인 접근 시간으로 나눈 시간당 헤딩각 감소량을 산출하고, 상기 시간당 헤딩각 감소량에 기반하여 상기 헤딩각 θ1이 감소되도록 제어하고,
차선 변경이 가능한 상태에서의 전방에 장애물이 존재하는 경우, 상기 가상 라인 접근 시간을 산출하고, 상기 산출된 헤딩각 θ3에 대해 상기 가상 라인 접근 시간으로 나눈 시간당 헤딩각 감소량을 산출하고, 상기 시간당 헤딩각 감소량에 기반하여 상기 헤딩각 θ3이 감소되도록 제어하고,
상기 가상 라인 접근 시간은,
상기 영상 정보에 기반하여 감지된 상기 차량의 위치에서 상기 가상라인까지의 거리를 상기 차량의 횡방향 속도로 나눈 값인 것을 특징으로 하는 자율주행 차량의 제어 방법.When a lane change signal for changing the vehicle's driving lane is received, a determination step of determining whether the vehicle is capable of changing lanes to the change target lane to be changed;
When it is determined that the lane change is possible, the presence or absence of an obstacle in the target lane is detected, and the center of the target lane is moved based on the presence of the obstacle and image information from a camera sensor provided in the vehicle. A setup step to set up a virtual line; and
Comprising a control step of calculating a heading angle of the vehicle with respect to the virtual line and controlling the vehicle to change lanes to the change target lane based on the heading angle,
In the determination step, the lane access time is calculated based on the image information from the camera sensor provided in the vehicle and the speed information from the dynamic sensor, and the lane access time is compared with the threshold to determine whether lane change is possible. ,
In the setting step, when the obstacle does not exist, lanes on both sides of the target change lane are detected based on image information, and virtual lines are set based on the lanes on both sides of the detected target change lane,
In the setting step, when the obstacle exists, a virtual line is set based on the lane on one side of the detected obstacle, the lane ahead of the estimated obstacle, and the estimated opposite lane, wherein the opposite lane is on one side of the detected obstacle. It represents a lane consisting of a lane 653a and a lane 653b on the other side of the obstacle located on the opposite side of the lane 653b on one side of the estimated obstacle,
If the change target lane includes a curve and all or part of the lane ahead of the obstacle is not detected,
The curvature of the lane 653b on one side of the obstacle that is not detected from the image information is estimated based on the calculated change in curvature in the lane 653a on the side of the detected obstacle, and the location of the lane 653b on the front side of the obstacle is estimated based on the detected obstacle. It is assumed to be continuous with the lane on one side of,
The curvature of the opposing lane 655a, which is not detected from the image information, is assumed to have the same curvature as the curvature formed by the lane 653a on one side of the detected obstacle and the lane 653b ahead of the estimated obstacle,
In the control step, when there is no obstacle ahead in a state where lane change is possible, the corresponding angle θ1 calculated with respect to the virtual line of the vehicle is changed to a heading angle θ2 (θ1 > θ2) as the vehicle moves to the change target lane. is reduced to , but θ2 is controlled to be 0 (Zero),
In the control step, when an obstacle exists ahead in a state where lane change is possible, the corresponding angle θ3 calculated with respect to the virtual line of the vehicle becomes the heading angle θ4 (θ3>) as the vehicle moves to the change target lane. Control it to decrease to θ4), but control θ4 to be 0 (Zero),
The control step is,
When there is no obstacle ahead in the lane change possible state, the virtual line approach time of the vehicle is calculated, and the calculated heading angle θ1 is divided by the virtual line approach time to calculate the amount of heading angle reduction per time, , Controlling the heading angle θ1 to be reduced based on the amount of heading angle reduction per time,
When an obstacle exists ahead in a lane change possible state, the virtual line approach time is calculated, the calculated heading angle θ3 is divided by the virtual line approach time, and the hourly heading angle reduction is calculated, and the hourly heading angle is calculated. Controlling the heading angle θ3 to decrease based on the angle reduction amount,
The virtual line access time is,
A control method for an autonomous vehicle, characterized in that the distance from the position of the vehicle detected based on the image information to the virtual line is divided by the lateral speed of the vehicle.
상기 판단 단계는,
상기 차선 접근 시간이 임계 값 이하이면 상기 차선 변경이 가능한 상태로 판단하는 것을 특징으로 하는 자율주행 차량의 제어 방법.According to paragraph 1,
The judgment step is,
A control method for an autonomous vehicle, characterized in that it is determined that the lane change is possible when the lane access time is less than a threshold value.
상기 설정 단계는,
상기 차량에 구비된 카메라 센서, 레이더 센서 및 라이다 센서 중 적어도 하나에 기반하여 상기 장애물의 존재 여부를 감지하는 것을 특징으로 하는 자율주행 차량의 제어 방법.According to paragraph 1,
The setting step is,
A control method for an autonomous vehicle, characterized in that detecting the presence of the obstacle based on at least one of a camera sensor, a radar sensor, and a lidar sensor provided in the vehicle.
상기 설정 단계는,
상기 장애물이 존재하는 경우에는,
상기 영상 정보에 기반하여 상기 변경 목표차선에서의 상기 장애물의 일측 차선을 감지하고,
감지된 상기 장애물의 일측 차선에 기반하여 상기 장애물의 일측 전방 차선을 추정하며,
감지된 상기 장애물의 일측 차선 및 추정된 상기 장애물의 일측 전방 차선에 기반하여 상기 장애물로 인하여 감지되지 않는 반대 차선을 추정하는 것을 특징으로 하는 자율주행 차량의 제어 방법.According to paragraph 1,
The setting step is,
If the above obstacles exist,
Detecting a lane on one side of the obstacle in the change target lane based on the image information,
Estimating the lane ahead of one side of the obstacle based on the lane on one side of the detected obstacle,
A control method for an autonomous vehicle, comprising estimating an opposing lane that is not detected due to the obstacle based on the detected lane on one side of the obstacle and the estimated lane ahead of the obstacle.
상기 설정 단계는,
영상정보로부터 감지되지 않는 반대 차선(655a)의 위치는 영상정보로부터 장애물의 타측 하방 차선(655b)의 일부가 감지된 경우에는 일부 감지된 장애물의 타측 하방 차선(655b)과 연속되는 것으로 추정하고,
영상정보로부터 장애물의 타측 하방 차선(655b)이 감지되지 않는 경우에는 미리 저장된 도로 폭 정보에 기반하여 장애물의 일측 차선(653a)과 추정된 장애물의 일측 전방 차선(653b)으로부터의 산출된 이격 거리에 따라 이격된 것으로 추정
하는 것을 특징으로 하는 자율주행 차량의 제어 방법.According to clause 6,
The setting step is,
If a part of the down lane 655b on the other side of the obstacle is detected from the image information, the position of the opposite lane 655a, which is not detected from the image information, is assumed to be continuous with the down lane 655b on the other side of the partially detected obstacle,
If the lower lane 655b on the other side of the obstacle is not detected from the image information, the calculated separation distance from the lane 653a on one side of the obstacle and the lane 653b ahead of the estimated obstacle is based on pre-stored road width information. It is assumed that they were separated according to
A control method for an autonomous vehicle, characterized in that:
상기 설정 단계는,
상기 영상정보에 의해 감지된 차선에 기반하여 추정된 상기 장애물의 일측 전방 차선과 상기 추정된 반대 차선에 칼만필터를 적용하여 보정하는 것을 특징으로 하는 자율주행 차량의 제어 방법.According to clause 6,
The setting step is,
A control method for an autonomous vehicle, characterized in that correction is made by applying a Kalman filter to the lane ahead of one side of the obstacle, which is estimated based on the lane detected by the image information, and to the estimated lane on the opposite side.
상기 차선 변경이 가능한 상태로 판단되면, 상기 변경 목표차선에 장애물의 존재 여부를 감지하고, 상기 장애물의 존재 여부 및 상기 차량에 구비된 카메라 센서에 의한 영상 정보에 기반하여 상기 변경 목표차선의 중앙에 가상 라인을 설정하는 설정부; 및
상기 가상 라인에 대한 상기 차량의 헤딩각을 산출하고, 상기 헤딩각에 기반하여 상기 차량이 상기 변경 목표차선으로 차선이 변경되도록 제어하는 제어부를 포함하되,
상기 판단부는, 차량에 구비된 카메라 센서에 의한 영상 정보 및 동역학 센서에 의한 속도 정보에 기반하여 차선 접근 시간을 산출하고, 차선 접근 시간과 임계값을 비교하여 차선 변경이 가능한 상태인지를 판단하고,
상기 설정부는, 상기 장애물이 존재하지 않는 경우에는 영상정보에 기반하여 변경 목표 차선의 양측 차선을 감지하고, 감지된 변경 목표차선의 양측 차선에 기반하여 가상라인을 설정하고,
상기 장애물이 존재하는 경우에는, 감지된 장애물의 일측 차선, 추정된 장애물의 일측 전방 차선 및 추정된 반대 차선에 기반하여 가상라인을 설정하되, 상기 반대 차선은 감지된 장애물의 일측 차선(653a) 및 추정된 장애물의 일측 전방 차선(653b)의 반대편에 위치한 장애물의 타측 차선 및 타측 전방 차선으로 이루어진 차선을 나타내며,
변경 목표 차선이 곡선을 포함하고, 상기 장애물의 일측 전방 차선의 전부 또는 일부가 감지되지 않을 경우,
영상정보로부터 감지되지 않는 장애물의 일측 전방 차선(653b)의 곡률은 감지된 장애물의 일측 차선(653a)에서의 산출된 곡률 변화량에 기반하여 추정하고, 일측 전방 차선(653b)의 위치는 감지된 장애물의 일측 차선과 연속되는 것으로 추정하고,
영상정보로부터 감지되지 않는 반대 차선(655a)의 곡률은 감지된 장애물의 일측 차선(653a)과 추정된 장애물의 일측 전방 차선(653b)이 이루는 곡률과 동일한 곡률을 갖는 것으로 추정하고,
상기 제어부는, 차선 변경이 가능한 상태에서의 전방에 장애물이 존재하지 않는 경우, 차량의 가상 라인에 대하여 산출된 해당각 θ1을 차량이 변경 목표차선으로 이동함에 따라 헤딩각 θ2(θ1>θ2)로 감소되도록 하되, θ2는 0(Zero)이 되도록 제어하고,
상기 제어부는, 차선 변경이 가능한 상태에서의 전방에 장애물이 존재하는 경우, 차량의 가상 라인에 대하여 산출된 해당각(θ3)이 변경 목표 차선으로의 차량의 이동에 따라 헤딩각 θ4(θ3>θ4)로 감소되도록 제어하되, θ4는 0(Zero)이 되도록 제어하고,
상기 제어부는,
상기 차선 변경이 가능한 상태에서의 전방에 장애물이 존재하지 않는 경우, 상기 차량의 가상 라인 접근 시간을 산출하고, 상기 산출된 헤딩각 θ1에 대해 상기 가상 라인 접근 시간으로 나눈 시간당 헤딩각 감소량을 산출하고, 상기 시간당 헤딩각 감소량에 기반하여 상기 헤딩각 θ1이 감소되도록 제어하고,
차선 변경이 가능한 상태에서의 전방에 장애물이 존재하는 경우, 상기 가상 라인 접근 시간을 산출하고, 상기 산출된 헤딩각 θ3에 대해 상기 가상 라인 접근 시간으로 나눈 시간당 헤딩각 감소량을 산출하고, 상기 시간당 헤딩각 감소량에 기반하여 상기 헤딩각 θ3가 감소되도록 제어하고,
상기 가상 라인 접근 시간은,
상기 영상 정보에 기반하여 감지된 상기 차량의 위치에서 상기 가상라인까지의 거리를 상기 차량의 횡방향 속도로 나눈 값인 것을 특징으로 하는 자율주행 차량의 제어 장치.When a lane change signal for changing the driving lane of the vehicle is received, a determination unit that determines whether the vehicle is capable of changing lanes to the change target lane to be changed;
When it is determined that the lane change is possible, the presence or absence of an obstacle in the target lane is detected, and the center of the target lane is moved based on the presence of the obstacle and image information from a camera sensor provided in the vehicle. A setting unit that sets a virtual line; and
A control unit that calculates the heading angle of the vehicle with respect to the virtual line and controls the vehicle to change lanes to the change target lane based on the heading angle,
The determination unit calculates a lane access time based on image information from a camera sensor provided in the vehicle and speed information from a dynamic sensor, and compares the lane access time and a threshold to determine whether a lane change is possible,
If the obstacle does not exist, the setting unit detects the lanes on both sides of the change target lane based on image information and sets a virtual line based on the detected lanes on both sides of the change target lane,
When the obstacle exists, a virtual line is set based on the lane on one side of the detected obstacle, the lane ahead of the estimated obstacle, and the estimated opposite lane, where the opposite lane is the lane on one side of the detected obstacle (653a) and Indicates a lane consisting of a lane on the other side of the obstacle located on the opposite side of the lane 653b on one side of the estimated obstacle and the lane ahead on the other side,
If the change target lane includes a curve and all or part of the lane ahead of the obstacle is not detected,
The curvature of the lane 653b on one side of the obstacle that is not detected from the image information is estimated based on the calculated change in curvature in the lane 653a on the side of the detected obstacle, and the location of the lane 653b on the front side of the obstacle is estimated based on the detected obstacle. It is assumed to be continuous with the lane on one side of,
The curvature of the opposing lane 655a, which is not detected from the image information, is assumed to have the same curvature as the curvature formed by the lane 653a on one side of the detected obstacle and the lane 653b ahead of the estimated obstacle,
When there is no obstacle ahead in a lane change possible state, the control unit changes the corresponding angle θ1 calculated with respect to the virtual line of the vehicle to a heading angle θ2 (θ1 > θ2) as the vehicle moves to the change target lane. It is reduced, but θ2 is controlled to be 0 (Zero),
The control unit determines that when an obstacle exists ahead in a lane change possible state, the corresponding angle θ3 calculated with respect to the virtual line of the vehicle is changed to a heading angle θ4 (θ3>θ4) as the vehicle moves to the change target lane. ), but θ4 is controlled to be 0 (Zero),
The control unit,
When there is no obstacle ahead in the lane change possible state, the virtual line approach time of the vehicle is calculated, and the calculated heading angle θ1 is divided by the virtual line approach time to calculate the amount of heading angle reduction per time, , Controlling the heading angle θ1 to be reduced based on the amount of heading angle reduction per time,
When an obstacle exists ahead in a lane change possible state, the virtual line approach time is calculated, the calculated heading angle θ3 is divided by the virtual line approach time, and the hourly heading angle reduction is calculated, and the hourly heading angle is calculated. Controlling the heading angle θ3 to decrease based on the angle reduction amount,
The virtual line access time is,
A control device for an autonomous vehicle, characterized in that the distance from the position of the vehicle detected based on the image information to the virtual line is divided by the lateral speed of the vehicle.
상기 판단부는,
상기 차선 접근 시간이 임계 값 이하이면 상기 차선 변경이 가능한 상태로 판단하는 것을 특징으로 하는 자율주행 차량의 제어 장치.According to clause 9,
The judgment department,
A control device for an autonomous vehicle, characterized in that it is determined that the lane change is possible when the lane access time is less than a threshold value.
상기 설정부는,
상기 장애물이 존재하지 않는 경우에는,
상기 영상 정보에 기반하여 상기 변경 목표차선의 양측 차선을 감지하고,
감지된 상기 변경 목표차선의 양측 차선에 기반하여 상기 가상 라인을 설정하는 것을 특징으로 하는 자율주행 차량의 제어 장치.According to clause 9,
The settings section,
If the above obstacle does not exist,
Detect lanes on both sides of the change target lane based on the image information,
A control device for an autonomous vehicle, characterized in that for setting the virtual line based on lanes on both sides of the detected change target lane.
상기 설정부는,
영상정보로부터 감지되지 않는 반대 차선(655a)의 위치는 영상정보로부터 장애물의 타측 하방 차선(655b)의 일부가 감지된 경우에는 일부 감지된 장애물의 타측 하방 차선(655b)과 연속되는 것으로 추정하고,
영상정보로부터 장애물의 타측 하방 차선(655b)이 감지되지 않는 경우에는 미리 저장된 도로 폭 정보에 기반하여 장애물의 일측 차선(653a)과 추정된 장애물의 일측 전방 차선(653b)으로부터의 산출된 이격 거리에 따라 이격된 것으로 추정하는 것을 특징으로 하는 자율주행 차량의 제어 장치.According to clause 9,
The settings section,
If a part of the down lane 655b on the other side of the obstacle is detected from the image information, the position of the opposite lane 655a, which is not detected from the image information, is assumed to be continuous with the down lane 655b on the other side of the partially detected obstacle,
If the lower lane 655b on the other side of the obstacle is not detected from the image information, the calculated separation distance from the lane 653a on one side of the obstacle and the lane 653b ahead of the estimated obstacle is based on pre-stored road width information. A control device for an autonomous vehicle, characterized in that it is estimated to be spaced apart according to the control device.
상기 설정부는,
상기 영상정보에 의해 감지된 차선에 기반하여 추정된 상기 장애물의 일측 전방 차선과 추정된 상기 반대 차선에 칼만필터를 적용하여 보정하는 것을 특징으로 하는 자율주행 차량의 제어 장치.According to clause 9,
The settings section,
A control device for an autonomous vehicle, characterized in that correction is made by applying a Kalman filter to the lane ahead of one side of the obstacle, which is estimated based on the lane detected by the image information, and to the estimated lane on the opposite side.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210166025A KR102605555B1 (en) | 2021-11-26 | 2021-11-26 | Method and device for controlling automatic driving vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210166025A KR102605555B1 (en) | 2021-11-26 | 2021-11-26 | Method and device for controlling automatic driving vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230079285A KR20230079285A (en) | 2023-06-07 |
KR102605555B1 true KR102605555B1 (en) | 2023-11-28 |
Family
ID=86761771
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210166025A KR102605555B1 (en) | 2021-11-26 | 2021-11-26 | Method and device for controlling automatic driving vehicle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102605555B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002274402A (en) * | 2001-03-14 | 2002-09-25 | Nissan Motor Co Ltd | Steering device for vehicle |
JP2016078638A (en) * | 2014-10-16 | 2016-05-16 | トヨタ自動車株式会社 | Drive support apparatus |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102203947B1 (en) * | 2014-04-29 | 2021-01-18 | 주식회사 만도 | Lane keeping assistance system and method for controlling keeping lane of the same |
KR101902291B1 (en) * | 2016-12-30 | 2018-09-28 | 주식회사 유라코퍼레이션 | Traffic lane correction system and method thereof |
KR102452553B1 (en) * | 2017-12-07 | 2022-10-07 | 현대자동차주식회사 | Autonomous driving control apparatus and method for changing target thereof |
-
2021
- 2021-11-26 KR KR1020210166025A patent/KR102605555B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002274402A (en) * | 2001-03-14 | 2002-09-25 | Nissan Motor Co Ltd | Steering device for vehicle |
JP2016078638A (en) * | 2014-10-16 | 2016-05-16 | トヨタ自動車株式会社 | Drive support apparatus |
Also Published As
Publication number | Publication date |
---|---|
KR20230079285A (en) | 2023-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9493163B2 (en) | Driving support apparatus for vehicle | |
JP5952862B2 (en) | Vehicle driving support device | |
EP1564703B1 (en) | Vehicle driving assist system | |
KR102466727B1 (en) | Parking assistance method and parking control device | |
US7742864B2 (en) | Vehicle surroundings monitoring apparatus and traveling control system incorporating the apparatus | |
US7890231B2 (en) | Lane keeping assistance equipment for automotive vehicles | |
JP4517972B2 (en) | Obstacle determination device and method | |
US6489887B2 (en) | Lane-keep assisting system for vehicle | |
JP4021344B2 (en) | Vehicle driving support device | |
KR102374916B1 (en) | Apparatus and Method for Controlling Lane-Keeping | |
US20180001894A1 (en) | Vehicle cruise control device and cruise control method | |
US20170267237A1 (en) | Vehicle travel control device | |
JP6327708B2 (en) | Vehicle driving support device | |
WO2011040119A1 (en) | Vehicle controller | |
JP6348785B2 (en) | Vehicle driving support device | |
US11247677B2 (en) | Vehicle control device for maintaining inter-vehicle spacing including during merging | |
JP6412346B2 (en) | Vehicle driving support device | |
JP6755071B2 (en) | Vehicle travel control device | |
KR102467223B1 (en) | Apparatus and method for automatic steering control based on vehicles changing lanes | |
US20200094836A1 (en) | Vehicle control system | |
KR20200018715A (en) | Driving control method and driving control device of driving assistance vehicle | |
JP7062782B2 (en) | Vehicle control method and vehicle control device | |
JP6609292B2 (en) | Outside environment recognition device | |
KR102605555B1 (en) | Method and device for controlling automatic driving vehicle | |
US20230234579A1 (en) | Vehicle driving assist device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |