KR101490905B1 - System and method for autonomous driving of vehicle - Google Patents

System and method for autonomous driving of vehicle Download PDF

Info

Publication number
KR101490905B1
KR101490905B1 KR20120142325A KR20120142325A KR101490905B1 KR 101490905 B1 KR101490905 B1 KR 101490905B1 KR 20120142325 A KR20120142325 A KR 20120142325A KR 20120142325 A KR20120142325 A KR 20120142325A KR 101490905 B1 KR101490905 B1 KR 101490905B1
Authority
KR
South Korea
Prior art keywords
value
lane
information
curvature
difference
Prior art date
Application number
KR20120142325A
Other languages
Korean (ko)
Other versions
KR20140074105A (en
Inventor
이동구
이찬규
고봉철
유현재
Original Assignee
현대자동차 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차 주식회사 filed Critical 현대자동차 주식회사
Priority to KR20120142325A priority Critical patent/KR101490905B1/en
Publication of KR20140074105A publication Critical patent/KR20140074105A/en
Application granted granted Critical
Publication of KR101490905B1 publication Critical patent/KR101490905B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/072Curvature of the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/30Road curve radius
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/10Path keeping
    • B60Y2300/12Lane keeping

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

차량의 자율 주행 시스템 및 그 방법이 개시된다.
본 발명의 실시 예에 따른 차량의 자율 주행 시스템은, 차량 전방의 영상 데이터로부터 차선 데이터를 획득하고 레이더 데이터를 통해 전방의 정지 물체에 대한 거리정보를 획득하는 전방정보 검출부; 변속기의 출력 축 회전수를 바탕으로 주행 차속을 측정하는 차속 검출부; 스티어링 휠의 작동에 따른 조향각의 변화를 검출하는 조향각 검출부; 및 주행 도로상의 양측 차선정보의 지향각이 소정의 기준값 이상 차이가 나는 비평행 상태인 것을 검출하여, 상기 전방의 정지물체에 따른 곡선 정보에 근거한 상기 차선 정보를 보정하는 제어부를 포함한다.
An autonomous vehicle running system and method thereof are disclosed.
An autonomous navigation system for a vehicle according to an embodiment of the present invention includes a forward information detecting unit for obtaining lane data from image data in front of a vehicle and obtaining distance information for a stationary object ahead through the radar data; A vehicle speed detector for measuring a running vehicle speed based on an output shaft speed of the transmission; A steering angle detection unit for detecting a change in the steering angle according to the operation of the steering wheel; And a control unit for detecting that the direction angle of both lane information on the running road is different from the predetermined reference value or more and correcting the lane information based on the curve information according to the preceding stationary object.

Description

차량의 자율 주행 시스템 및 그 방법{SYSTEM AND METHOD FOR AUTONOMOUS DRIVING OF VEHICLE}[0001] SYSTEM AND METHOD FOR AUTOMOTIVE DRIVING OF VEHICLE [0002]

본 발명은 차량의 자율 주행 시스템 및 그 방법에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an autonomous vehicle driving system and a method thereof.

일반적으로 차량에는 교통사고 저감을 위한 안전성과 도로에서의 교통 효율성, 연료절감을 통한 환경 친화성 및 편의성 등을 제공하기 위해 자율주행시스템이 적용되고 있다.In general, autonomous navigation systems are applied to vehicles to provide safety for traffic accident reduction, traffic efficiency on the road, environment friendliness and convenience through fuel saving.

최근 자율주행시스템은 카메라를 이용하여 차선을 인식하고 자동 조향을 행하는 기술로서, 카메라의 이미지 프로세싱을 기반으로 차선 폭, 차선상의 차량의 횡방향 위치, 양측 차선까지의 거리 및 차선의 형태, 도로의 곡률 반경을 측정한다. 그리고, 측정된 차량의 위치와 도로의 정보를 사용하여 차량의 주행 궤적을 추정하고 추정된 주행 궤적을 따라 차선을 변경하는 스마트 크루즈 컨트롤(Advanced Smart Cruise Control) 기능을 제공하고 있다.Recently, the autonomous navigation system is a technology that recognizes lanes and performs automatic steering by using cameras. It is based on the image processing of the camera, and is based on the lane width, the lateral position of the vehicle on the lane, the distance to both lanes and the shape of the lane, Measure the radius of curvature. The system also provides a Smart Cruise Control function that estimates the driving trajectory of the vehicle using the measured vehicle position and road information and changes the lane along the estimated driving trajectory.

이 때, 상기 능동적 스마트 크루즈 컨트롤 기능을 제공하기 위해서는 감지된 전방의 물체들 중에서 앞쪽에서 같은 방향으로 주행하는 선행 차량을 구분하고, 현재 주행 중인 차선을 정확하게 인식하는 것이 매우 중요하다.In order to provide the active smart cruise control function, it is very important to distinguish the preceding vehicles traveling in the same direction from the front of the detected front objects and accurately recognize the present driving lane.

그러나, 카메라로부터 얻어지는 이미지 정보는 정확한 차선 정보를 인식하는데 한계가 있다. 예컨대, 카메라를 통해 획득된 영상 정보의 신뢰성이 떨어지는 경우 정확한 차선 정보의 추출이 어렵고 이는 자율주행시스템 전체의 안정성을 떨어뜨리는 문제점이 있다.However, image information obtained from a camera has a limitation in recognizing correct lane information. For example, when the reliability of the image information obtained through the camera is poor, it is difficult to extract the accurate lane information, which degrades the stability of the entire autonomous driving system.

그러므로, 최근에는 카메라 기반 기술에서 자체 데이터 필터링을 통한 차선 정보 검증 기술이 연구 중에 있으나 근본적인 영상 정보의 오검지에 따른 신뢰성을 판단하는 것에는 한계가 있다.Therefore, in recent years, a technique of lane information verification through self-data filtering in a camera-based technology is being studied, but there is a limit to judging the reliability of the underlying image information due to erroneous detection.

한편, 특허문헌 한국공개특허 제2010-0005362호에는 자율주행 제어시스템을 개시하고 있으나, 상기한 문제점으로 인해 곡선 주로에서의 영상 정보를 사용하지 않고 있는 실정이다. On the other hand, Korean Patent Laid-Open Publication No. 2010-0005362 discloses an autonomous driving control system. However, the above-mentioned problem does not use the image information in the curved road.

특허문헌 1 : 한국공개특허 제2010-0005362호 (2009.01.15. 공개)Patent Document 1: Korean Patent Publication No. 2010-0005362 (published on January 15, 2009)

본 발명의 실시 예는 차량의 자율 주행을 위해 안정적으로 차선 정보를 추출하고, 영상을 통해 제공되는 차선 정보의 품질을 검증하여 신뢰성이 향상되는 차량 자율 주행 시스템 및 그 방법을 제공하는 것을 목적으로 한다It is an object of the present invention to provide a vehicle autonomous vehicle traveling system which can reliably extract lane information for autonomous driving of a vehicle and verify the quality of lane information provided through an image to improve reliability

본 발명의 실시 예에 따른, 차량의 자율 주행 시스템은, 차량 전방의 영상 데이터로부터 차선 데이터를 획득하고 레이더 데이터를 통해 전방의 정지 물체에 대한 거리정보를 획득하는 전방정보 검출부; 변속기의 출력 축 회전수를 바탕으로 주행 차속을 측정하는 차속 검출부; 스티어링 휠의 작동에 따른 조향각의 변화를 검출하는 조향각 검출부; 및 주행 도로상의 양측 차선정보의 지향각이 소정의 기준값 이상 차이가 나는 비평행 상태인 것을 검출하여, 상기 전방의 정지물체에 따른 곡선 정보에 근거한 상기 차선 정보를 보정하는 제어부를 포함한다.According to an embodiment of the present invention, an autonomous navigation system for a vehicle includes: a forward information detecting unit that obtains lane data from image data in front of the vehicle and obtains distance information on a forward stationary object through radar data; A vehicle speed detector for measuring a running vehicle speed based on an output shaft speed of the transmission; A steering angle detection unit for detecting a change in the steering angle according to the operation of the steering wheel; And a control unit for detecting that the direction angle of both lane information on the running road is different from the predetermined reference value or more and correcting the lane information based on the curve information according to the preceding stationary object.

또한, 상기 제어부는, 상기 영상 데이터의 양차선 정보의 좌우측 지향각 차이가 제1 기준값 이상인지 비교하여 적어도 하나가 상기 제1 기준값 이상이면 상기 양차선이 비평행인 것으로 판단할 수 있다.In addition, the controller may compare the difference between the left and right angles of the lane information of the image data to a first reference value or more, and if at least one is equal to or greater than the first reference value, the controller may determine that both lanes are non-parallel.

또한, 상기 제어부는, 상기 영상 데이터의 양차선 정보의 좌우측 곡률 차이가 제2 기준값 이상인지 비교하여 적어도 하나가 상기 제2 기준값 이상이면 상기 양차선이 비평행인 것으로 판단할 수 있다.The control unit compares the left and right curvature differences of both lane information of the image data with a second reference value or more, and if the difference is greater than or equal to the second reference value, the control unit may determine that both lanes are non-parallel.

또한, 상기 제어부는, 상기 레이더 데이터를 통해 획득된 상기 정지물체 데이터로부터 도로 파라미터 추출하여 가상의 차선 정보를 생성할 수 있다.The control unit may extract road parameters from the stationary object data obtained through the radar data to generate virtual lane information.

또한, 상기 도로 파라미터는 가드레일 곡선 정보인 것을 특징으로 한다.Further, the road parameter is guardrail curve information.

또한, 상기 자율 주행 시스템은, 카메라로 입력되는 영상에 상기 가드레일 곡선 정보를 표시하고 상기 가드레일 곡선 정보를 활용하여 보정된 차선 인식 정보를 표시하는 표시부를 더 포함할 수 있다.The autonomous navigation system may further include a display unit for displaying the guardrail curve information on an image input by the camera and displaying the corrected lane recognition information using the guardrail curve information.

한편, 본 발명의 실시 예에 따른, 자율 주행 시스템의 차량 자율 주행 제어 방법은, a) 차량 전방의 영상 데이터에 기초한 양차선의 좌우측 지향각 차이 및 좌우측 곡률 차이를 비교하여 양차선의 비평행 여부를 판단하는 단계; b) 레이더 데이터에 기초한 전방 정지 물체에 따른 도로 파라미터를 추출 하는 단계; 및 c) 상기 a) 단계에서 상기 양차선의 비평행을 확인하면 상기 도로 파라미터를 기준으로 문제가 발생된 차선을 보정하는 단계를 포함한다.On the other hand, the autonomous vehicle running control method of the autonomous navigation system according to the embodiment of the present invention includes the steps of: a) comparing left and right directional angle differences and left and right curvature differences of both lanes based on image data on the front of the vehicle, ; b) extracting a road parameter according to a forward stationary object based on radar data; And c) correcting the lane in which the problem has occurred based on the road parameters, when confirming the non-parallelism of the two lanes in the step a).

또한, 상기 a) 단계는, a-1) 현 시간대의 좌우측 지향각의 절대적 차이값과 관측 노이즈값-여기서, 상기관측 노이즈값은 직선구간에서 획득한 데이터로부터 산출됨-을 비교하는 단계; 및 a-2) 전 시간대와 현 시간대의 좌우측 차선의 지향각 절대적 차이 값과 조향각 변화량-여기서, 상기 조향각 변화량은 차량에서 제공하는 조향각속도와 단위시간을 곱하여 추출됨--을 각각 비교하는 단계; 및 a-3) 상기 좌우측 차선 중 적어도 하나의 지향각 변화량이 상기 조향각 변화량보다 크면 양차선 비평행으로 판단하는 단계를 포함할 수 있다.The a) may further include: a-1) comparing absolute difference values of observation angles of right and left sides of the current time zone, wherein the observation noise value is calculated from data obtained in a straight line section; And a-2) directing absolute difference values and steering angle change amounts of right and left lanes of a current time zone and a current time zone, wherein the steering angle change amount is extracted by multiplying a steering angle speed provided by a vehicle by a unit time; And a-3) determining that the two lanes are non-parallel lines if at least one of the right and left lane change amounts is larger than the steering angle change amount.

또한, 상기 a) 단계는, a-4) 현 시간대의 좌우측 곡률의 절대적 차이 값과 관측 노이즈값을 비교하는 단계; a-5) 전 시간대와 현 시간대의 좌우측 차선의 곡률 절대적 차이 값과 곡률 변화율 관측 노이즈값을 비교하는 단계; 및 a-6) 상기 좌우측 차선 중 적어도 하나의 곡률값 변화량이 상기 조향각 변화량보다 크면 양차선 비평행으로 판단하는 단계를 포함할 수 있다.The a) may further include: a-4) comparing an absolute difference value between the curvatures of the left and right sides of the current time zone with an observation noise value; a-5) comparing curvature absolute difference values of right and left lanes of the entire time zone and the current time zone with a curvature change rate observation noise value; And a-6) determining that the two lanes are non-parallel if at least one curvature value change amount of the left and right lanes is greater than the steering angle change amount.

또한, 상기 b) 단계는, b-1) 3차 곡선의 파라미터를 시스템 상태 조건으로 설정하는 단계; b-2) 상기 정지 물체 데이터의 카티지언(Cartesian) 횡방향 값을 관측 데이터로 설정하고, 상기 정지 물체 데이터의 카티지언 종방향 값을 이용하여 3차 곡선 방정식으로 표현하여 관측 업데이트 행렬로 설정하는 단계; 및 b-3) 상기 정지물체를 이용하여 가드레일 정보 추출하여 3차 곡선식을 추정하는 단계를 포함할 수 있다.The step b) may further include: setting a parameter of the b-1) cubic curve as a system state condition; b-2) setting a Cartesian horizontal value of the stationary object data as observation data, expressing the Cartesian vertical value of the stationary object data as a cubic curve equation and setting the observation update matrix step; And b-3) extracting guardrail information using the stationary object and estimating a cubic curve equation.

또한, 상기 c) 단계는, c-1) 상기 도로 파라미터를 기준으로 비평행 양차선의 지향각 및 곡률값 비교하여 문제 차선을 판단하는 단계; 및 c-2) 상기 문제가 발생된 차선과 그렇지 않은 차선의 비중을 달리하여 보정된 평균 지향각 및 평균 곡률값을 추출하여 좌우측 평균 차선 정보를 추출하는 단계를 포함할 수 있다.The step (c) may further include the steps of: (c-1) determining a problem lane by comparing a directivity angle and a curvature value of a non-parallel lane on the basis of the road parameter; And (c-2) extracting the average directivity angle and the average curvature value corrected by differentiating the weight of the lane where the problem occurs and the lanes not having the problem, and extracting the left and right average lane information.

또한, 상기 평균 지향각은, 좌 지향각과 도로 파라미터의 지향각 차이값 계산하고, 우 지향각과 도로 파라미터의 지향각 차이값을 계산하는 단계; 좌 지향각의 차등값은 좌우 차이값 합에서 우 차이값의 비중으로 하고, 우 지향각의 차등값은 좌우 차이값 합에서 좌 차이값의 비중으로 하는 단계; 및 최종 지향각은 차등값을 적용한 좌우측 지향각의 평균으로 하는 단계를 포함할 수 있다.The average directivity angle may be calculated by calculating a directivity angle difference value between a leftward directivity angle and a road parameter, and calculating a directivity angle difference value between the rightward directivity angle and the road parameter. The difference value of the left-handed angle is the weight of the right difference in the left and right difference sum, and the difference of the right direction is the weight of the left difference in the left and right difference sum; And the final directional angle may be an average of the left and right directional angles to which the difference value is applied.

상기 평균 곡률값은, 좌 곡률과 도로 파라미터의 곡률 차이값 계산하고, 우 곡률과 도로 파라미터의 곡률 차이값을 계산하는 단계; 좌 곡률의 차등값은 좌우 차이값 합에서 우 차이값의 비중으로 하고, 우 곡률의 차등값은 좌우 차이값 합에서 좌 차이값의 비중으로 하는 단계; 및 상기 평균 곡률값은 차등값을 적용한 좌우측 곡률의 평균으로 하는 단계를 포함할 수 있다.Calculating a curvature difference value of the left curvature and the road parameter, and calculating a curvature difference value of the right curvature and the road parameter; The difference value of the left curvature is the weight of the right difference value in the right and left difference value sum and the difference value of the right curvature is the weight of the left difference value in the right and left difference value sum; And the average curvature value may be an average of the left and right curvatures to which the difference value is applied.

또한, 상기 c) 단계 이후에, 보정된 좌우 차선정보를 스마트 크루즈 컨트롤 기능에 반영하여 차량의 자율 주행을 제어하는 단계를 더 포함할 수 있다.The method may further include, after the step c), controlling the self-running of the vehicle by reflecting the corrected left and right lane information to the smart cruise control function.

본 발명의 실시 예들에 따르면, 영상 데이터를 통해 측정된 차선 정보의 오류를 레이더 데이터를 이용하여 생성되는 도로 파라미터 정보를 통해 보정함으로써 차량 자율 주행의 안정성 및 신뢰도를 높일 수 있는 효과가 있다.According to the embodiments of the present invention, errors in lane information measured through image data are corrected through road parameter information generated using radar data, thereby improving the stability and reliability of autonomous vehicle traveling.

또한, 영상 데이터의 획득이 불가능한 영상 센서의 한계상황에서도 레이더 정보로부터 가상 차선을 생성하여 제어의 끊김 없는 연속성을 확보함으로써 임의의 제어 해제에 따른 위험을 예방할 수 있는 효과가 있다.In addition, even when the image sensor is unable to acquire image data, a virtual lane is generated from the radar information, thereby ensuring seamless continuity of control, thereby preventing danger due to arbitrary control cancellation.

도 1은 본 발명의 실시 예에 따른 자율 주행 시스템을 구성을 개략적으로 나타낸 블록도이다.
도 2는 본 발명의 실시 예에 따른 영상 데이터를 통해 획득된 차선 정보 보정 방법을 나타낸다.
도 3은 본 발명의 실시 예에 따른 양차선 비평행 여부를 판단하는 방법을 나타낸 흐름도이다.
도 4는 본 발명의 실시 예에 따른 거리측정센서를 이용한 도로파라미터 추출방법을 나타낸다.
도 5는 본 발명의 실시 예에 따른 좌/우값 차등시의 지향각과 곡률의 추출 방법을 나타낸 흐름도이다.
도 6은 본 발명의 실시 예에 따른 따른 영상 데이터의 피치(pitch) 오검지를 보정한 화면을 나타낸다.
1 is a block diagram schematically showing the configuration of an autonomous vehicle traveling system according to an embodiment of the present invention.
2 shows a lane information correction method obtained through image data according to an embodiment of the present invention.
FIG. 3 is a flowchart illustrating a method for determining whether a two-lane line is non-parallel according to an exemplary embodiment of the present invention.
4 illustrates a method of extracting a road parameter using a distance measuring sensor according to an embodiment of the present invention.
5 is a flowchart illustrating a method of extracting a directivity angle and a curvature at the time of left / right value difference according to an embodiment of the present invention.
FIG. 6 shows a screen for correcting a pitch misdetection of image data according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise. Also, the terms " part, "" module," and " module ", etc. in the specification mean a unit for processing at least one function or operation and may be implemented by hardware or software or a combination of hardware and software have.

명세서 전체에서, 제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1구성요소는 제2구성요소로 명명될 수 있고, 유사하게 제2구성요소는 제1구성요소로도 명명될 수 있다.Throughout the specification, the terms first or second etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are intended to distinguish one element from another, for example, without departing from the scope of the invention in accordance with the concepts of the present invention, the first element may be termed the second element, The second component may also be referred to as a first component.

이제 본 발명의 실시 예에 따른 차량의 자율 주행 시스템 및 그 방법에 대하여 도면을 참조로 하여 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An autonomous vehicle traveling system and a method thereof according to an embodiment of the present invention will now be described in detail with reference to the drawings.

도 1은 본 발명의 실시 예에 따른 자율 주행 시스템을 구성을 개략적으로 나타낸 블록도이다.1 is a block diagram schematically showing the configuration of an autonomous vehicle traveling system according to an embodiment of the present invention.

첨부된 도 1을 참조하면, 본 발명의 실시 예에 따른 자율 주행 시스템(100)은 전방정보 수집부(110), 차속 검출부(120), 조향각 검출부(130), 제어부(140) 및 표시부(150)를 포함한다.1, the autonomous vehicle driving system 100 includes a forward information collecting unit 110, a vehicle speed detecting unit 120, a steering angle detecting unit 130, a control unit 140, and a display unit 150 ).

전방정보 검출부(110)는 전방 카메라의 영상 데이터로부터 차선 데이터를 획득하고, 레이더 데이터 또는 레이저 데이터를 통해 전방의 정지 물체에 대한 거리 정보를 획득하여 제어부(140)로 전달한다.The front information detector 110 obtains lane data from the image data of the front camera and acquires distance information on the front stationary object through the radar data or the laser data and transmits the obtained distance information to the controller 140.

구체적으로, 전방정보 검출부(110)는 차량의 전방에 설치된 카메라를 통해 획득된 영상 이미지 프로세싱을 기반으로 차선의 폭, 차선에서 차량의 횡방향 위치, 양측 차선까지의 거리, 차선의 형태, 도로의 곡률 반경을 산출할 수 있다.Specifically, the front information detecting unit 110 detects the width of the lane based on the image image processing obtained through the camera installed in front of the vehicle, the lateral position of the vehicle in the lane, the distance from the lane to both lanes, The radius of curvature can be calculated.

또한, 전방정보 검출부(110)는 레이저(Laser) 또는 레이더(Radar)를 이용하여 전방에서 주행하는 선행 차량, 도로 주변에 설치된 구조물 등을 포함하는 정지물체, 반대 차선에서 다가오는 차량 등을 감지하고, 같은 방향으로 주행하는 선행 차량과의 차간거리 혹은 정지물체와의 거리를 산출할 수 있다.The forward information detecting unit 110 detects a stationary object including a preceding vehicle traveling in front from the front or a structure installed around the road using a laser or a radar and a vehicle approaching from the opposite lane, It is possible to calculate the inter-vehicle distance from the preceding vehicle or the distance to the stationary object traveling in the same direction.

차속 검출부(120)는 변속기의 출력 축 회전수를 바탕으로 주행 차속을 측정하여 제어부(140)로 제공한다.The vehicle speed detector 120 measures the running vehicle speed based on the output shaft speed of the transmission and provides the measured vehicle speed to the controller 140.

조향각 검출부(130)는 스티어링 휠의 작동에 따른 조향각의 변화를 검출하여 그에 대한 정보를 제어부(140)로 제공한다.The steering angle detection unit 130 detects a change in the steering angle due to the operation of the steering wheel and provides information on the change to the control unit 140.

제어부(140)는 자율 주행 시스템(100)의 전반적인 동작 및 스마트 크루즈 컨트롤(Advanced Smart Cruise Control) 기능을 제공하기 위한 상기 각부의 동작을 제어한다.The control unit 140 controls the operation of the legs to provide the overall operation of the autonomous traveling system 100 and the Smart Cruise Control function.

제어부(140)는 상기 각부를 통해 수집되는 차량의 위치, 차선 정보, 좌측 차선 및 우측 차선의(이하, 편의상 '좌/우' 또는 '양차선'으로 칭함) 지향각 정보, 정지물체와의 거리 측정을 이용한 가드레일 곡선 정보 중 적어도 하나의 정보를 토대로 조향각, 변속, 및 브레이크 등을 제어할 수 있다.The control unit 140 receives information about the position of the vehicle, the lane information, the left lane and the right lane (hereinafter referred to as 'left / right' or 'both lanes') orientation angle information collected through the respective units, The steering angle, the shift, and the brake can be controlled based on at least one of the information of the guardrail curves using the measurement.

특히, 제어부(140)는 거리 측정 정보를 이용하여 영상 데이터를 통해 획득된 차선 정보를 검증하고, 검증을 통해 발견된 오차를 보정함으로써 보정함으로써 스마트 크루즈 컨트롤 기능의 안정성을 보장하고 자율 주행 시스템(100)의 신뢰도를 향상시킬 수 있다. In particular, the control unit 140 verifies the lane information obtained through the image data using the distance measurement information, corrects the errors found through the verification, thereby assuring the stability of the smart cruise control function, Can be improved.

즉, 제어부(140)는 주행 도로상의 좌우측 양차선 정보의 좌/우 지향각이 소정의 기준값 이상 차이가 나는 비평행 상태인 것을 검출하여, 전방의 정지물체에 따른 곡선정보에 근거한 차선 정보를 보정한다. 여기서, 상기 전방의 정지물체는 예컨대, 도로의 차선을 따라 형성된 가드레일일 수 있으며 제어부(140)의 기능에 대해서는 뒤에서 자세히 설명하도록 한다.That is, the control unit 140 detects that the left / right directional angle of the left and right lane information on the running road is non-parallel to the predetermined reference value or more and corrects the lane information based on the curved line information according to the preceding stationary object do. Here, the forward stationary object may be, for example, a guard rail formed along the lane of the road, and the function of the control unit 140 will be described later in detail.

표시부(150)는 카메라로 입력되는 영상에 상기한 절차를 통해 생성되는 가드레일의 정보를 표시하여 가드레일의 정보를 활용하여 보다 정확한 차선의 인식이 제공될 수 있도록 한다.The display unit 150 displays the information of the guard rail generated through the above procedure on the image input by the camera so that more accurate lane recognition can be provided by utilizing the information of the guard rails.

이하, 상기한 본 발명의 실시 예에 따른 자율 주행 시스템(100)의 구성을 바탕으로 하는 자율 주행 방법을 설명한다.Hereinafter, an autonomous driving method based on the configuration of the autonomous driving system 100 according to the embodiment of the present invention will be described.

한편, 도 2는 본 발명의 실시 예에 따른 영상 데이터를 통해 획득된 차선 정보 보정 방법을 나타낸다.2 illustrates a lane information correction method obtained through image data according to an exemplary embodiment of the present invention.

첨부된 도 2를 참조하면, 본 발명의 실시 예에 따른 영상 데이터를 통해 획득된 차선 정보 보정 방법은 크게 세가지 단계로 구분할 수 있으며, 이는 영상 데이터에 기초한 양차선의 좌/우 지향각 차이와 좌/우 곡률 차이를 비교하여 양차선의 비평행 여부를 판단하는 제1 단계(S110), 레이더 데이터에 기초한 도로 파라미터(가드레일 곡선 정보)를 추출 하는 제2 단계(S120) 및 상기 도로 파라미터를 기준으로 문제가 발생된 차선을 보정하는 제3 단계(S130)를 포함한다. Referring to FIG. 2, the lane information correction method obtained through the image data according to the embodiment of the present invention can be roughly classified into three steps. That is, A second step S120 of extracting a road parameter (guardrail curve information) based on radar data, and a second step S120 of comparing the road parameter with a reference And a third step (S130) of correcting the lane where the problem has occurred.

먼저, 상기 제1 단계(S110)를 살펴보면, 자율 주행 시스템(100)은 전방 카메라로부터 차선 데이터 획득한다(S111).First, referring to the first step S110, the autonomous driving system 100 acquires lane data from a forward camera (S111).

자율 주행 시스템(100)은 상기 영상 데이터의 양차선 정보의 좌/우 지향각 차이가 제1 기준값(x) 이상 차이 나는지 비교하여 상기 제1 기준값(x) 이상이면(S112; 예), 양차선이 비평행인 것으로 판단한다(S114).The autonomous driving system 100 compares the difference between the left and right angles of the lane information of the image data by the first reference value x or more and determines whether the difference is equal to or greater than the first reference value x, (Step S114).

또한, 자율 주행 시스템(100)은 상기 S112 단계에서 좌/우 지향각의 차이가 없는 경우(S112; 아니오), 좌/우 곡률 차이가 제2 기준값(y)이상 차이가 나는지 비교하여 상기 제2 기준값(y) 이상이면(S113; 예), 양차선이 비평행인 것으로 판단한다(S114). 반면, 좌/우 곡률 차이가 제2 기준값(y) 미만이면(S113; 아니오), 정상 검지로 분류한다(S140).If the left / right curvature difference is greater than or equal to the second reference value y in step S112, the autonomous driving system 100 compares the left / If it is greater than or equal to the reference value y (S113; YES), it is determined that both lanes are non-parallel (S114). On the other hand, if the left / right curvature difference is less than the second reference value y (S113: NO), classification is made as normal detection (S140).

한편, 상기 제2 단계(S120)를 살펴보면, 자율 주행 시스템(100)은 레이더로부터 정지물체 데이터 획득한다(S121). 그리고, 자율 주행 시스템(100)은 레이더를 통해 획득된 정지물체 데이터로부터 도로 파라미터 추출한다(S122). 예컨대, 상기 도로 파라미터는 가드레일 곡선 정보일 수 있다.Meanwhile, referring to the second step S120, the autonomous driving system 100 acquires stationary object data from the radar (S121). Then, the autonomous driving system 100 extracts road parameters from the stationary object data obtained through the radar (S122). For example, the road parameter may be guardrail curve information.

한편, 상기 제3 단계(S130)를 살펴보면, 자율 주행 시스템(100)은 상기 도로 파라미터를 기준으로 비평행 양차선의 지향각 및 곡률값 비교하여 문제 차선을 판단한다(S131).In the third step S130, the autonomous driving system 100 determines the problem lane by comparing the orientation angle and the curvature value of the non-parallel lanes based on the road parameters (S131).

그리고, 자율 주행 시스템(100)은 위 비교 결과에 따라서 문제가 발생된 차선과 그렇지 않은 차선의 비중을 달리하여 보정된 평균 지향각 및 평균 곡률값을 추출하여 좌/우 평균 차선 정보를 추출한다(S132).Then, the autonomous driving system 100 extracts the average directivity angle and the average curvature value, which are corrected by differentiating the weight of the lane where the problem occurs, according to the above comparison result, and extracts the left / right average lane information S132).

이후, 도면에서는 생략되었으나 자율 주행 시스템(100)은 보정된 좌/우 차선정보를 스마트 크루즈 컨트롤 기능에 반영하여 차량의 안전한 자율 주행을 제어할 수 있다. Although not shown in the figure, the autonomous driving system 100 can control the safe autonomous driving of the vehicle by reflecting the corrected left / right lane information to the smart cruise control function.

한편, 상기 도 2에서 구분된 세가지 단계(S110, S120, S130)의 방법을 아래의 도 3 내지 도 5를 통해 구체적으로 설명한다.The method of the three steps S110, S120, and S130 shown in FIG. 2 will be described in detail with reference to FIGS. 3 through 5. FIG.

도 3은 본 발명의 실시 예에 따른 양차선 비평행 여부를 판단하는 방법을 나타낸 흐름도이다.FIG. 3 is a flowchart illustrating a method for determining whether a two-lane line is non-parallel according to an exemplary embodiment of the present invention.

첨부된 도 3을 참조하면, 본 발명이 실시 예에 따른 자율 주행 시스템(100)은 상기 S112 단계에서의 지향각(

Figure 112012102040431-pat00001
) 비교시(S112), 현(現) 시간대(
Figure 112012102040431-pat00002
)의 좌/우 지향각의 절대적 차이값과 관측 노이즈값(
Figure 112012102040431-pat00003
)을 비교한다. 이 때, 일반적인 직선구간에서 획득한 데이터로부터 상기 관측 노이즈값을 산출할 수 있다.Referring to FIG. 3, the autonomous navigation system 100 according to the embodiment of the present invention calculates the steering angle
Figure 112012102040431-pat00001
(S112), the current time zone (
Figure 112012102040431-pat00002
) And the absolute value of the observation noise value (
Figure 112012102040431-pat00003
). At this time, the observation noise value can be calculated from the data obtained in a general linear section.

그리고, 자율 주행 시스템(100)은 전(前) 시간대와 현(現) 시간대의 해당차선(좌 또는 우)의 지향각 절대적 차이 값과 조향각 변화량(

Figure 112012102040431-pat00004
)을 각각 비교한다(S112-1, S112-2). 이 때, 자율 주행 시스템(100)은 차량에서 제공하는 조향각속도(
Figure 112012102040431-pat00005
)와 단위시간(
Figure 112012102040431-pat00006
)을 곱하여 조향각 변화량 추출할 수 있다.Then, the autonomous driving system 100 calculates the steering angle absolute difference value and the steering angle variation amount (left or right) of the corresponding lane (left or right) in the previous time zone and the current time zone
Figure 112012102040431-pat00004
(S112-1, S112-2). At this time, the autonomous driving system 100 determines the steering angle speed
Figure 112012102040431-pat00005
) And unit time (
Figure 112012102040431-pat00006
) To extract the steering angle variation amount.

이상의 좌/우 지향각 비교를 위한 산출식은 아래의 수학식1 과 같다.The calculation formula for the left / right directional angle comparison is as shown in the following equation (1).

Figure 112012102040431-pat00007
Figure 112012102040431-pat00007

자율 주행 시스템(100)은 좌측 및 우측 중 적어도 하나의 지향각 변화량이 조향각 변화량보다 크면(S112-1 or S112-2; 예) 양차선 비평행으로 판단한다(S114).The autonomous driving system 100 determines that the two lane lines are non-parallel lines (S112) if at least one of the left and right steering angle changes is larger than the steering angle change amount (S112-1 or S112-2).

반면, 양차선 모두 지향각 변화량이 조향각 변화량보다 크지 않으면(S112-3; 예), 좌/곡률 차이를 제2 기준 값과 비교하는 상기 S113 단계로 넘어간다.On the other hand, if the directional angle change amount of both lanes is not larger than the steering angle change amount (S112-3; YES), the process goes to step S113 in which the left / curvature difference is compared with the second reference value.

자율 주행 시스템(100)은 상기 S112 단계에서의 곡률값(

Figure 112012102040431-pat00008
) 비교시, 현(現) 시간대(
Figure 112012102040431-pat00009
)의 좌/우 곡률의 절대적 차이 값과 관측 노이즈값(
Figure 112012102040431-pat00010
)을 비교한다. The autonomous driving system 100 determines whether or not the curvature value (
Figure 112012102040431-pat00008
), The current time zone (
Figure 112012102040431-pat00009
) And the absolute value of the observed noise value (
Figure 112012102040431-pat00010
).

자율 주행 시스템(100)은 전(前) 시간대(

Figure 112012102040431-pat00011
)와 현(現) 시간대(
Figure 112012102040431-pat00012
)의 해당차선(좌 또는 우)의 곡률 절대적 차이 값과 곡률 변화율 관측 노이즈값(
Figure 112012102040431-pat00013
)을 비교한다(S113-1, S113-2). 이때도, 일반적인 직선구간에서 획득한 데이터로부터 관측 노이즈값을 산출할 수 있다.The autonomous driving system 100 is a system in which the preceding time zone (
Figure 112012102040431-pat00011
) And the current time zone (
Figure 112012102040431-pat00012
(Left or right) curvature absolute difference value and the curvature change rate observation noise value (
Figure 112012102040431-pat00013
(S113-1, S113-2). At this time, the observation noise value can be calculated from the data obtained in a general linear section.

이상의 좌/우 곡률값 비교를 위한 산출식은 아래의 수학식2 과 같다.The calculation formula for comparing the left and right curvature values is given by the following equation (2).

Figure 112012102040431-pat00014
Figure 112012102040431-pat00014

자율 주행 시스템(100)은 좌측 및 우측 중 적어도 하나의 곡률값 변화량이 조향각 변화량보다 크면(S113-1 or S113-2; 예) 양차선 비평행으로 판단한다(S114).When the curvature value change amount of at least one of the left and right sides is larger than the steering angle change amount, the autonomous driving system 100 determines that the two lanes are nonparallel lines (S114).

반면, 양차선 모두 곡률각 변화량이 조향각 변화량보다 크지 않으면(S113-1 or S113-2; 아니오), 양차선이 평행한 정상 검지로 분류한다(S140). On the other hand, if the curvature angle change amount of both lanes is not larger than the steering angle change amount (S113-1 or S113-2;

도 4는 본 발명의 실시 예에 따른 거리측정센서를 이용한 도로파라미터 추출방법을 나타낸다.4 illustrates a method of extracting a road parameter using a distance measuring sensor according to an embodiment of the present invention.

첨부된 도 4를 참조하면, 본 발명이 실시 예에 따른 자율 주행 시스템(100)은 레이더 데이터를 이용하여 도로파라미터(가드레일)을 측정할 수 있으며, 이를 위해 아래와 같은 필터링 설정을 한다.Referring to FIG. 4, the autonomous navigation system 100 according to an embodiment of the present invention can measure road parameters (guard rails) using radar data.

① 아래의 수학식3과 같이, 3차 곡선의 파라미터를 system state로 설정한다.(1) Set the parameter of the cubic curve to the system state as shown in Equation 3 below.

Figure 112012102040431-pat00015
Figure 112012102040431-pat00015

② 아래의 수학식 4와 같이, 정지물체 데이터의 Cartesian 횡방향 값을 관측 데이터로 설정한다.(2) Set the Cartesian horizontal value of stationary object data as observation data as shown in Equation (4) below.

Figure 112012102040431-pat00016
Figure 112012102040431-pat00016

③ 아래의 수학식 5와 같이, 정지물체 데이터의 Cartesian 종방향 값을 이용하여 3차 곡선 방정식으로 표현하여 관측 업데이트 행렬로 설정한다.    (3) The Cartesian longitudinal value of the stationary object data is used to express the cubic curve equation as an observation update matrix, as shown in Equation (5) below.

Figure 112012102040431-pat00017
Figure 112012102040431-pat00017

④ 아래의 수학식 6과 같이, 시간 업데이트 행렬은 일반 단위행렬로 설정한다.    (4) As shown in Equation (6) below, the time update matrix is set to a general unit matrix.

Figure 112012102040431-pat00018
Figure 112012102040431-pat00018

그리고, 아래의 수학식 6 내지 8과 같이, 레이더 정지물체를 이용하여 가드레일 정보 추출하여 3차 곡선식을 추정한다. 이 때, 상기 추정에는 칼만필터가 사용될 수 있다.Then, as shown in Equations (6) to (8) below, guardrail information is extracted by using a radar stationary object to estimate a cubic curve equation. At this time, a Kalman filter can be used for the estimation.

① 업데이트 ① Update

Figure 112012102040431-pat00019
Figure 112012102040431-pat00019

② 예측② Forecast

Figure 112012102040431-pat00020
Figure 112012102040431-pat00020

③ 게인 계산③ Gain calculation

Figure 112012102040431-pat00021
Figure 112012102040431-pat00021

이상의 과정을 통해 자율 주행 시스템(100)은 정지물체와의 거리에 따른 도로 파라미터를 측정함으로써 가드레일 정보를 생성한다.Through the above process, the autonomous driving system 100 generates the guard rail information by measuring the road parameter according to the distance to the stationary object.

한편, 도 5는 본 발명의 실시 예에 따른 좌/우값 차등시의 지향각과 곡률의 추출 방법을 나타낸 흐름도이다.5 is a flowchart illustrating a method of extracting a directivity angle and a curvature at the time of left / right value difference according to an embodiment of the present invention.

첨부된 도 5를 참조하면, 본 발명의 실시 예에 따른 자율 주행 시스템(100)은 좌 지향각(곡률)과 도로 파라미터의 지향각(곡률) 차이값 계산한다(S101/S201). 또한, 우 지향각(곡률)과 도로 파라미터의 지향각(곡률) 차이값을 계산한다(S102/S202).Referring to FIG. 5, an autonomous navigation system 100 according to an embodiment of the present invention calculates directivity (curvature) difference values of a left-handed angle (curvature) and a road parameter (S101 / S201). Further, the difference between the rightward angle (curvature) and the orientation angle (curvature) of the road parameter is calculated (S102 / S202).

자율 주행 시스템(100)은 좌 지향각(곡률)의 차등값은 좌우 차이값 합에서 우 차이값의 비중으로 하고, 우 지향각(곡률)의 차등값은 좌우 차이값 합에서 좌 차이값의 비중으로 한다(S103/S203).In the autonomous driving system 100, the differential value of the left-handed angle (curvature) is a weight of the right-handedness difference in the left-right difference sum, and the difference in the right- (S103 / S203).

그리고, 자율 주행 시스템(100)은 최종 지향각(곡률)은 차등값을 적용한 좌/우 지향각(곡률)의 평균으로 한다(S104/S105).Then, the autonomous driving system 100 sets the final directivity angle (curvature) as an average of the left / right directivity (curvature) to which the differential value is applied (S104 / S105).

한편, 도 6은 본 발명의 실시 예에 따른 따른 영상 데이터의 피치(pitch) 오검지를 보정한 화면을 나타낸다.Meanwhile, FIG. 6 shows a screen for correcting a pitch misdetection of image data according to an embodiment of the present invention.

첨부된 도 6을 참조하면, 본 발명의 실시 예에 따른 자율 주행 시스템(100)의 표시부(150)는 영상 데이터를 통해 측정된 피치 운동 오검지를 레이더 데이터를 이용하여 생성된 가드 레일 정보를 이용하여 보정한 화면을 보여준다.6, the display unit 150 of the autonomous driving system 100 according to the embodiment of the present invention uses the guard rail information generated by using the radar data, The corrected image is displayed.

이러한, 자율 주행 시스템(100)을 현재 개발되고 있는 고속도로 주행시스템(Highway Driving Assist System, HDA)에 적용할 경우, 고속도로의 도로 연결구간에서 발생하는 차량 피치 운동으로 인해 영상 데이터의 오겸지 발생을 레이더 가공 정보로 보정할 수 있다.When the autonomous driving system 100 is applied to a highway driving assist system (HDA) that is currently being developed, the occurrence of misplacement of image data due to vehicle pitch movement occurring in a road connection section of a highway is detected by radar It can be corrected by the processing information.

또한, 역광 구간 등에서 양차선이 오랫동안 미검지 되는 영상 센서의 한계상황에서도 레이더 정보로부터 가상 차선을 생성하여 제어의 끊김 없이 연속성을 확보함으로써 임의의 제어 해제에 따른 위험을 방지할 수 있다.In addition, even in the case of an image sensor in which both lanes are not detected for a long time in the backlight section, a virtual lane is generated from the radar information, thereby ensuring continuity without interruption of control.

본 발명의 실시 예는 이상에서 설명한 장치 및/또는 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시 예의 구성에 대응하는 기능을 실현하기 위한 프로그램, 그 프로그램이 기록된 기록 매체 등을 통해 구현될 수도 있으며, 이러한 구현은 앞서 설명한 실시 예의 기재로부터 본 발명이 속하는 기술분야의 전문가라면 쉽게 구현할 수 있는 것이다.The embodiments of the present invention are not limited to the above-described apparatuses and / or methods, but may be implemented through a program for realizing functions corresponding to the configuration of the embodiment of the present invention, a recording medium on which the program is recorded And such an embodiment can be easily implemented by those skilled in the art from the description of the embodiments described above.

이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It belongs to the scope of right.

100: 자율 주해 시스템
110: 전방정보 수집부
120: 차속 검출부
130: 조향각 검출부
140: 제어부
150: 표시부
100: autonomous annotation system
110: forward information collecting unit
120:
130: steering angle detector
140:
150:

Claims (14)

차량 전방의 영상 데이터로부터 차선 데이터를 획득하고 레이더 데이터를 통해 전방의 정지 물체에 대한 거리정보를 획득하는 전방정보 검출부;
변속기의 출력 축 회전수를 바탕으로 주행 차속을 측정하는 차속 검출부;
스티어링 휠의 작동에 따른 조향각의 변화를 검출하는 조향각 검출부; 및
주행 도로상의 양측 차선정보의 지향각이 소정의 기준값 이상 차이가 나는 비평행 상태인 것을 검출하여, 상기 전방의 정지물체에 따른 곡선 정보에 근거한 상기 차선 정보를 보정하는 제어부를 포함하는 차량의 자율 주행 시스템.
A forward information detecting unit which obtains lane data from the image data of the front of the vehicle and acquires distance information of the stationary object ahead through the radar data;
A vehicle speed detector for measuring a running vehicle speed based on an output shaft speed of the transmission;
A steering angle detection unit for detecting a change in the steering angle according to the operation of the steering wheel; And
And a controller for detecting that the direction angle of both lane information on the running road is different from a predetermined reference value or more and correcting the lane information based on curve information according to the preceding stationary object, system.
제 1 항에 있어서,
상기 제어부는,
상기 영상 데이터의 양차선 정보의 좌우측 지향각 차이가 제1 기준값 이상인지 비교하여 적어도 하나가 상기 제1 기준값 이상이면 상기 양차선이 비평행인 것으로 판단하는 차량의 자율 주행 시스템.
The method according to claim 1,
Wherein,
Wherein the difference between the left and right angles of the lane information of the image data is greater than or equal to a first reference value, and if at least one of the two lane information is greater than or equal to the first reference value,
제 1 항에 있어서,
상기 제어부는,
상기 영상 데이터의 양차선 정보의 좌우측 곡률 차이가 제2 기준값 이상인지 비교하여 적어도 하나가 상기 제2 기준값 이상이면 상기 양차선이 비평행인 것으로 판단하는 차량의 자율 주행 시스템.
The method according to claim 1,
Wherein,
Compares the left and right curvature differences of both lane information of the image data with a second reference value or more and judges that both lanes are non-parallel when at least one is equal to or greater than the second reference value.
제 1 항에 있어서,
상기 제어부는,
상기 레이더 데이터를 통해 획득된 상기 정지물체 데이터로부터 도로 파라미터 추출하여 가상의 차선 정보를 생성하는 것을 특징으로 하는 차량의 자율 주행 시스템.
The method according to claim 1,
Wherein,
And generating virtual lane information by extracting road parameters from the stationary object data acquired through the radar data.
제 4 항에 있어서,
상기 도로 파라미터는 가드레일 곡선 정보인 것을 특징으로 하는 차량의 자율 주행 시스템.
5. The method of claim 4,
Wherein the road parameter is guardrail curvilinear information.
제 5 항에 있어서,
카메라로 입력되는 영상에 상기 가드레일 곡선 정보를 표시하고 상기 가드레일 곡선 정보를 활용하여 보정된 차선 인식 정보를 표시하는 표시부를 더 포함하는 차량의 자율 주행 시스템.
6. The method of claim 5,
Further comprising a display unit for displaying the guardrail curve information on an image input by the camera and displaying the corrected lane recognition information using the guardrail curve information.
자율 주행 시스템의 차량 자율 주행 제어 방법에 있어서,
a) 차량 전방의 영상 데이터에 기초한 양차선의 좌우측 지향각 차이 및 좌우측 곡률 차이를 비교하여 양차선의 비평행 여부를 판단하는 단계;
b) 레이더 데이터에 기초한 전방 정지 물체에 따른 도로 파라미터를 추출 하는 단계; 및
c) 상기 a) 단계에서 상기 양차선의 비평행을 확인하면 상기 도로 파라미터를 기준으로 문제가 발생된 차선을 보정하는 단계를 포함하는 차량 자율 주행 제어 방법.
An autonomous vehicle traveling control method for an autonomous vehicle traveling system,
a) comparing left and right directional angle differences and left and right curvature differences of both lanes based on image data on the front of the vehicle to determine whether both lanes are non-parallel;
b) extracting a road parameter according to a forward stationary object based on radar data; And
c) confirming a non-parallel line of the two lanes in the step a), and correcting the lane in which the problem has occurred based on the road parameter.
제 7 항에 있어서,
상기 a) 단계는,
a-1) 현 시간대의 좌우측 지향각의 절대적 차이값과 관측 노이즈값-여기서, 상기관측 노이즈값은 직선구간에서 획득한 데이터로부터 산출됨-을 비교하는 단계; 및
a-2) 전 시간대와 현 시간대의 좌우측 차선의 지향각 절대적 차이 값과 조향각 변화량-여기서, 상기 조향각 변화량은 차량에서 제공하는 조향각속도와 단위시간을 곱하여 추출됨--을 각각 비교하는 단계; 및
a-3) 상기 좌우측 차선 중 적어도 하나의 지향각 변화량이 상기 조향각 변화량보다 크면 양차선 비평행으로 판단하는 단계를 포함하는 차량 자율 주행 제어 방법.
8. The method of claim 7,
The step a)
a-1) comparing the absolute difference value of the left and right directional angles of the current time zone with the observation noise value, wherein the observation noise value is calculated from data obtained in a straight line section; And
a-2) directing absolute difference values of left and right lanes of a current time zone and a current time zone, and a steering angle variation amount, wherein the steering angle variation amount is extracted by multiplying a steering angle velocity provided by a vehicle by a unit time; And
a-3) determining that the two lanes are non-parallel lines if at least one of the directional angle variation amounts of the left and right lanes is greater than the steering angle variation amount.
제 8 항에 있어서,
상기 a) 단계는,
a-4) 현 시간대의 좌우측 곡률의 절대적 차이 값과 관측 노이즈값을 비교하는 단계;
a-5) 전 시간대와 현 시간대의 좌우측 차선의 곡률 절대적 차이 값과 곡률 변화율 관측 노이즈값을 비교하는 단계; 및
a-6) 상기 좌우측 차선 중 적어도 하나의 곡률값 변화량이 상기 조향각 변화량보다 크면 양차선 비평행으로 판단하는 단계를 포함하는 차량 자율 주행 제어 방법.
9. The method of claim 8,
The step a)
a-4) comparing the absolute difference value of the curvatures of the left and right cur- rents in the current time zone with the observation noise value;
a-5) comparing curvature absolute difference values of right and left lanes of the entire time zone and the current time zone with a curvature change rate observation noise value; And
a-6) determining that both lanes are non-parallel lines if at least one curvature value change amount in the left and right lanes is greater than the steering angle change amount.
제 7 항에 있어서,
상기 b) 단계는,
b-1) 3차 곡선의 파라미터를 시스템 상태 조건으로 설정하는 단계;
b-2) 상기 정지 물체 데이터의 카티지언(Cartesian) 횡방향 값을 관측 데이터로 설정하고, 상기 정지 물체 데이터의 카티지언 종방향 값을 이용하여 3차 곡선 방정식으로 표현하여 관측 업데이트 행렬로 설정하는 단계; 및
b-3) 상기 정지물체를 이용하여 가드레일 정보 추출하여 3차 곡선식을 추정하는 단계를 포함하는 차량 자율 주행 제어 방법.
8. The method of claim 7,
The step b)
b-1) setting a parameter of a cubic curve to a system state condition;
b-2) setting a Cartesian horizontal value of the stationary object data as observation data, expressing the Cartesian vertical value of the stationary object data as a cubic curve equation and setting the observation update matrix step; And
b-3) estimating a cubic curve by extracting guardrail information using the stationary object.
제 7 항에 있어서,
상기 c) 단계는,
c-1) 상기 도로 파라미터를 기준으로 비평행 양차선의 지향각 및 곡률값 비교하여 문제 차선을 판단하는 단계; 및
c-2) 상기 문제가 발생된 차선과 그렇지 않은 차선의 비중을 달리하여 보정된 평균 지향각 및 평균 곡률값을 추출하여 좌우측 평균 차선 정보를 추출하는 단계를 포함하는 차량 자율 주행 제어 방법.
8. The method of claim 7,
The step c)
c-1) judging a problem lane by comparing a directivity angle and a curvature value of a non-parallel lane on the basis of the road parameter; And
c-2) extracting the corrected average direction angle and average curvature value by differentiating the weight of the lane in which the problem occurs and the lane in which the problem occurs, and extracting the left and right average lane information.
제 11 항에 있어서,
상기 평균 지향각은,
좌 지향각과 도로 파라미터의 지향각 차이값 계산하고, 우 지향각과 도로 파라미터의 지향각 차이값을 계산하는 단계;
좌 지향각의 차등값은 좌우 차이값 합에서 우 차이값의 비중으로 하고, 우 지향각의 차등값은 좌우 차이값 합에서 좌 차이값의 비중으로 하는 단계; 및
최종 지향각은 차등값을 적용한 좌우측 지향각의 평균으로 하는 단계를 포함하는 차량 자율 주행 제어 방법.
12. The method of claim 11,
The average directivity angle may be,
Calculating a divergence angle difference value of the leftward divergence angle and the road parameter, and calculating divergence angle divergence values of the right divergence angle and the road parameter;
The difference value of the left-handed angle is the weight of the right difference in the left and right difference sum, and the difference of the right direction is the weight of the left difference in the left and right difference sum; And
Wherein the final directivity angle is an average of left and right directional angles to which the differential value is applied.
제 11 항에 있어서,
상기 평균 곡률값은,
좌 곡률과 도로 파라미터의 곡률 차이값 계산하고, 우 곡률과 도로 파라미터의 곡률 차이값을 계산하는 단계;
좌 곡률의 차등값은 좌우 차이값 합에서 우 차이값의 비중으로 하고, 우 곡률의 차등값은 좌우 차이값 합에서 좌 차이값의 비중으로 하는 단계; 및
상기 평균 곡률값은 차등값을 적용한 좌우측 곡률의 평균으로 하는 단계를 포함하는 차량 자율 주행 제어 방법.
12. The method of claim 11,
The average curvature value is calculated by:
Calculating a curvature difference value of the left curvature and the road parameter, and calculating a curvature difference value of the right curvature and the road parameter;
The difference value of the left curvature is the weight of the right difference value in the right and left difference value sum and the difference value of the right curvature is the weight of the left difference value in the right and left difference value sum; And
Wherein the average curvature value is an average of left and right curvatures applied with a differential value.
제 7 항에 있어서,
상기 c) 단계 이후에,
보정된 좌우 차선정보를 스마트 크루즈 컨트롤 기능에 반영하여 차량의 자율 주행을 제어하는 단계를 더 포함하는 차량 자율 주행 제어 방법.
8. The method of claim 7,
After step c)
And controlling the autonomous travel of the vehicle by reflecting the corrected left and right lane information to the smart cruise control function.
KR20120142325A 2012-12-07 2012-12-07 System and method for autonomous driving of vehicle KR101490905B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20120142325A KR101490905B1 (en) 2012-12-07 2012-12-07 System and method for autonomous driving of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20120142325A KR101490905B1 (en) 2012-12-07 2012-12-07 System and method for autonomous driving of vehicle

Publications (2)

Publication Number Publication Date
KR20140074105A KR20140074105A (en) 2014-06-17
KR101490905B1 true KR101490905B1 (en) 2015-02-06

Family

ID=51127403

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20120142325A KR101490905B1 (en) 2012-12-07 2012-12-07 System and method for autonomous driving of vehicle

Country Status (1)

Country Link
KR (1) KR101490905B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180078773A (en) * 2016-12-30 2018-07-10 주식회사 유라코퍼레이션 Traffic lane correction system and method thereof
US10632867B2 (en) 2017-01-09 2020-04-28 Hyundai Motor Company Vehicle and a method of controlling same
KR20200093096A (en) 2019-01-14 2020-08-05 현대모비스 주식회사 Apparatus and method for controlling a vehicle

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101755870B1 (en) 2015-10-28 2017-07-19 현대자동차주식회사 Method for correcting misrecognized information of Lane
KR102518537B1 (en) * 2016-12-16 2023-04-07 현대자동차주식회사 Driver assist apparatus and method for providing lane line information thereof
KR102055156B1 (en) 2018-02-05 2019-12-12 주식회사 만도 Control Apparatus For Smart Cruise Control System And Method Thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07311896A (en) * 1994-05-17 1995-11-28 Mazda Motor Corp Running way estimating device for automobile
KR20120038728A (en) * 2010-10-14 2012-04-24 주식회사 만도 System for estimating recognition performance of camera sensor for lane keepin control

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07311896A (en) * 1994-05-17 1995-11-28 Mazda Motor Corp Running way estimating device for automobile
KR20120038728A (en) * 2010-10-14 2012-04-24 주식회사 만도 System for estimating recognition performance of camera sensor for lane keepin control

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180078773A (en) * 2016-12-30 2018-07-10 주식회사 유라코퍼레이션 Traffic lane correction system and method thereof
KR101902291B1 (en) * 2016-12-30 2018-09-28 주식회사 유라코퍼레이션 Traffic lane correction system and method thereof
US10632867B2 (en) 2017-01-09 2020-04-28 Hyundai Motor Company Vehicle and a method of controlling same
KR20200093096A (en) 2019-01-14 2020-08-05 현대모비스 주식회사 Apparatus and method for controlling a vehicle

Also Published As

Publication number Publication date
KR20140074105A (en) 2014-06-17

Similar Documents

Publication Publication Date Title
KR101490905B1 (en) System and method for autonomous driving of vehicle
US8630793B2 (en) Vehicle controller
US8610620B2 (en) Object detecting apparatus and object detecting method
US9613280B2 (en) System and method for front detecting of vehicle
US20130030686A1 (en) Collision judgment apparatus for vehicle
JP6302519B2 (en) Vehicle driving support device
CN104569979A (en) Target detection apparatus
EP3070493B1 (en) Vehicle radar system with image reflection detection
KR102183224B1 (en) System for Correcting Misalignment of Radar Installment Angle and Method thereof
CN104648403A (en) Method, apparatus and system for detecting narrow road
US8862326B2 (en) Vehicle travel assisting device
CN105480227B (en) The method merged in active driving technology based on infrared radar with video image information
JP2009073462A (en) Operating state determination device and operation support device
KR101950175B1 (en) Method for estimating road line information
KR20140062240A (en) Lane recognition system and method
KR101891725B1 (en) Method for producing virtual lane based on short-range radar sensor
KR20160068144A (en) Vehicle Steering Apparatus and Method for Lane Keeping
KR101588787B1 (en) Method for determining lateral distance of forward vehicle and head up display system using the same
KR102545582B1 (en) System for avoiding collision in crossroad and method for control thereof
JP5682302B2 (en) Traveling road estimation device, method and program
JP2013196401A (en) Road environment recognizing apparatus
KR101491315B1 (en) Apparatus and Method for Driving Control of Vehicle
KR101244475B1 (en) Method and System for Controlling Parking
KR100820432B1 (en) A correcting method of the radius of curvature considering road slope
JP2019032607A (en) Parking support device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180130

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190130

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20191219

Year of fee payment: 6