KR101196321B1 - 차선 인식 장치 및 그 방법 - Google Patents

차선 인식 장치 및 그 방법 Download PDF

Info

Publication number
KR101196321B1
KR101196321B1 KR1020090023988A KR20090023988A KR101196321B1 KR 101196321 B1 KR101196321 B1 KR 101196321B1 KR 1020090023988 A KR1020090023988 A KR 1020090023988A KR 20090023988 A KR20090023988 A KR 20090023988A KR 101196321 B1 KR101196321 B1 KR 101196321B1
Authority
KR
South Korea
Prior art keywords
lane
quadrant
equation
area
unit
Prior art date
Application number
KR1020090023988A
Other languages
English (en)
Other versions
KR20100105126A (ko
Inventor
변재민
노명찬
성준용
김성훈
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020090023988A priority Critical patent/KR101196321B1/ko
Priority to US12/572,355 priority patent/US20100241343A1/en
Publication of KR20100105126A publication Critical patent/KR20100105126A/ko
Application granted granted Critical
Publication of KR101196321B1 publication Critical patent/KR101196321B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 차선 인식 장치 및 그 방법에 관한 것으로, 위치 인식기에 의해 감지된 이동 방향 및 속도를 가지고 이전에 계산된 차선 방정식이 영상 좌표계에서 얼마만큼 이동할 것인지를 계산하여 양쪽 차선을 나타내는 차선 방정식의 위치를 구하며, 또한 이동된 차선 방정식을 바탕으로 다음 프레임의 차선인식 검색 구간의 파라미터로 사용하는 과정을 반복 수행하여 차선의 위치를 예측함으로써, 급격한 주행환경 변화에 의해서 영상의 정보들이 왜곡되어 차선을 오인식하는 것을 방지하고, 급격하게 기후가 변화하는 환경에서 주행하게 될 경우에도 차선을 보다 정확하게 인식할 수 있다. 또한, 본 발명은 차선 인식 장치 및 그 방법을 제공함으로써, 영상 좌표계에서 차선을 표현할 수 있는 곡선 방정식이 시간에 따른 위치 변화를 예측하여 차후 차선을 검색하는 영역을 최소화시킴으로서 처리 시간을 현저하게 줄일 수 있다.
Figure R1020090023988
차선 인식, 예측, 표현, 위치 인식

Description

차선 인식 장치 및 그 방법{APPARATUS FOR DETECTING LANE AND ITS METHOD}
본 발명은 차선 인식 장치 및 그 방법에 관한 것으로, 보다 상세하게는 위치 인식기에 의해 감지된 이동 방향 및 속도를 가지고 이전에 계산된 차선 방정식이 영상 좌표계에서 얼마만큼 이동할 것인지를 계산하여 양쪽 차선을 나타내는 차선 방정식의 위치를 구하며, 또한 이동된 차선 방정식을 바탕으로 다음 프레임의 차선인식 검색 구간의 파라미터로 사용하는 과정을 반복 수행하여 차선의 위치를 예측하여 인식할 수 있는 장치 및 그 방법에 관한 것이다.
본 발명은 지식경제부 및 정보통신연구진흥원의 IT성장동력기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2008-S-030-01, 과제명: RUPI-클라이언트 기술 개발].
주지된 바와 같이, 옥외 도로 환경에서 영상 인식기를 이용하여 차선을 인식하는 기술은 무인 운송 장치의 자율 주행과 직접적으로 관련되어 있다. 이러한 무인 운송 장치는 센서에 의해 인식된 외부 환경에 따라 차량의 브레이크, 가속 장치 및 조향 장치를 조정하여 자동으로 운행하는 방식으로 이루어진다. 즉, 차량의 무 인운송장치를 보면, 고주파 송수신기를 이용하는 방식과 감시용 카메라를 이용하는 방식 등으로 구분된다.
또한, 무인 운송 장치의 자율 주행과 직접적으로 관련된 차선 인식에 대한 기술들은 소벨 필터 및 라플라시안 필터 등을 사용하여 에지를 추출하고, 이 추출된 에지를 통해 인식하는 기술들, 즉 위치 인식 기술들은 종래에 GPS(global positioning system) 및 관성 항법 장치를 이용한 다양한 방법들이 제시되고 있으며 센서 융합을 이용한 새로운 방법들도 현재 많은 연구가 진행되고 있다.
그러나, 상술한 바와 같이 언급된 종래 기술에서의 소벨 필터 및 라플라시안 필터 등을 사용하여 에지를 추출하여 인식하는 기술들은 노이즈에 대한 매우 취약한 결점이 있다.
또한, 종래의 차선 인식 기술은, 여러대의 카메라 사용 및 고성능의 카메라가 필요함에 따라 경제적인 부담이 발생할 수 있으며, 더불어 복잡한 인식 알고리즘에 의한 많은 처리 시간 발생으로 인해 어려움이 있으며, 특히 무인 운송 장치가 터널을 통과하는 경우나, 많은 눈이나 폭우 등과 같이 급격하게 기후가 변화하는 환경에서 주행하게 되었을 때, 실제 도로의 차선은 있으나 카메라에 광량 포화 상태가 발생하여 순간적으로 화면이 하얗게 되어 차선을 인식할 수 없는 상황과 카메라 영상 정보가 변질되어서 순간적인 오인식을 수행하게 되어 운행상에 위험성을 초래하게 되는 문제점이 있다.
이에, 본 발명의 기술적 과제는 상술한 바와 같은 문제점을 해결하기 위해 안출한 것으로, 위치 인식기에 의해 감지된 이동 방향 및 속도를 가지고 이전에 계산된 차선 방정식이 영상 좌표계에서 얼마만큼 이동할 것인지를 계산하여 양쪽 차선을 나타내는 차선 방정식의 위치를 구하며, 또한 이동된 차선 방정식을 바탕으로 다음 프레임의 차선인식 검색 구간의 파라미터로 사용하는 과정을 반복 수행하여 차선의 위치를 예측함으로써, 급격하게 기후가 변화하는 환경에서 주행하게 될 경우에도 차선을 정확하게 인식할 수 있는 차선 인식 장치 및 그 방법을 제공한다.
본 발명의 일 관점에 따른 차선 인식 장치는, 카메라에 의해 촬상된 칼라 영상을 흑백 영상으로 변환하는 영상 변환부와, 변환된 흑백 영상을 특정 개수로 분할하는 영상 분할부와, 분할된 흑백 영상에서 각 영역별 차선 영역을 추출하는 차선 인식부와, 추출된 차선 영역을 기반으로 양쪽 차선을 표현하기 위한 좌측 차선 방식 및 우측 차선 방정식을 표현하는 표현부와, 위치 인식기에 의해 감지된 이동 방향 및 속도를 이용하여 현재 위치를 인식하는 위치 인식부와, 표현된 좌측 차선 방식 및 우측 차선 방정식의 기반 하에 인식된 현재 위치와 이동방향 및 속도를 이용하여 현재 프레임에서 차선의 검색 위치가 다음 프레임에서 어떤 위치로 변화할지를 예측하는 차선 예측부를 포함하는 것을 특징으로 한다.
또한, 본 발명의 다른 관점에 따른 차선 인식 방법은, 위치 인식기로부터 이 동 방향 및 속도를 감지하는 단계와, 카메라에 의해 촬상된 영상을 흑백 영상으로 변환하는 단계와, 변환된 흑백 영상을 특정 개수로 분할하는 단계와, 분할된 흑백 영상에서 각 영역별 차선 영역을 추출하는 단계와, 추출된 차선 영역을 기반으로 양쪽 차선을 표현하기 위한 좌/우측 차선 방정식을 표현하는 단계와, 표현된 좌/우측 차선 방정식의 기반 하에 감지된 이동방향 및 속도를 이용하여 현재 프레임에서 차선의 검색 위치가 다음 프레임에서 어떤 위치로 변화할지를 예측하는 단계를 포함하는 것을 특징으로 한다.
본 발명은 위치 인식기에 의해 감지된 이동 방향 및 속도를 가지고 이전에 계산된 차선 방정식이 영상 좌표계에서 얼마만큼 이동할 것인지를 계산하여 양쪽 차선을 나타내는 차선 방정식의 위치를 구하며, 또한 이동된 차선 방정식을 바탕으로 다음 프레임의 차선인식 검색 구간의 파라미터로 사용하는 과정을 반복 수행하여 차선의 위치를 예측함으로써, 급격한 주행환경 변화에 의해서 영상의 정보들이 왜곡되어 차선을 오인식하는 것을 방지하고, 급격하게 기후가 변화하는 환경에서 주행하게 될 경우에도 차선을 보다 정확하게 인식할 수 있다.
또한, 본 발명은 차선 인식 장치 및 그 방법을 제공함으로써, 영상 좌표계에서 차선을 표현할 수 있는 곡선 방정식이 시간에 따른 위치 변화를 예측하여 차후 차선을 검색하는 영역을 최소화시킴으로서 처리 시간을 현저하게 줄일 수 있는 이점이 있다.
이하, 첨부된 도면을 참조하여 본 발명의 동작 원리를 상세히 설명한다. 하기에서 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 일 실시예에 따른 차선 인식 장치에 대한 블록 구성도로서, 영상 변환부(10)와 영상 분할부(20)와 차선 인식부(30)와 표현부(40)와 위치 인식부(50)와 차선 예측부(60) 등을 포함할 수 있다.
영상 변환부(10)는 카메라(S1)에 의해 촬상된 영상, 즉 칼라 영상을 입력받은 다음에, 이 입력된 칼라 영상에 대하여 차선과 차선이 아닌 부분을 명도 차이로 구분하고 처리 시간을 감소시키기 위하여 흑백 영상으로 변환하고, 이 변환된 흑백 영상을 영상 분할부(20)에 제공한다.
영상 분할부(20)는 영상 변환부(10)로부터 입력된 흑백 영상을 4개의 영역으로 분할하고, 이 분할된 4개 영역의 흑백 영상을 차선 인식부(30)내 영역 검색부(31)에 제공한다.
차선 인식부(30)는 분할된 4개의 각 영역에서 차선을 찾는 블록으로서, 도 2 에 도시된 바와 같이 영역 검색부(31)와 위치 파악부(33)와 판단부(35) 등을 포함할 수 있다.
영역 검색부(31)는 영상 분할부(20)로부터 입력되는 4개 영역으로 분할된 흑백 영상에서 3개의 검색 영역 범위, 예컨대 3가지의 높이를 통하여 각 높이에 해당하는 차선 검색 영역내에서 명도값의 차이가 문턱치값 보다 크면서 X축(예컨대, 가로축)의 방향으로 일정 폭 이상을 갖는 영역을 검색하고, 이 검색된 영역을 위치 파악부(33)에 제공한다.
위치 파악부(33)는 영역 검색부(31)로부터 입력되는 검색된 영역의 중앙점의 위치를 파악하고, 이 파악된 중앙점의 위치를 판단부(35)에 제공한다.
판단부(35)는 위치 파악부(33)로부터 입력되는 중앙점의 위치를 기준으로 Y축(예컨대, 세로축)의 방향으로 최상단의 점과 최하단의 점을 지나는 직선을 구하고, 이 구한 직선 위 중간의 점이 있는지를 판단하고, 점이 있는 경우 중앙점으로부터 떨어진 정도가 기설정된 오차 범위 내에 있는 경우에 대하여 3개의 점을 지나는 차선으로 인식하고, 이 인식된 차선을 표현부(40)내 좌측 차선 표현부(41) 및 우측 차선 표현부(43) 각각에 제공한다.
표현부(40)는 양쪽 차선을 표현할 수 있는 차선 방정식을 구하는 블록으로서, 도 3에 도시된 바와 같이 좌측 차선 표현부(41) 및 우측 차선 표현부(43) 등을 포함할 수 있다.
좌측 차선 표현부(41)는 차선 인식부(30)내 판단부(35)로부터 입력되는 4개의 영역 중 좌측 차선을 표현하기 위하여 4개의 각 영역중 2,3 사분면에 6개의 점 을 이용하여 좌측 차선 방정식을 구하고, 이 구한 좌측 차선 방정식을 차선 예측부(60)에 제공한다.
우측 차선 표현부(43)는 차선 인식부(30)내 판단부(35)로부터 입력되는 4개의 영역 중 우측 차선을 표현하기 위하여 4개의 각 영역중 1,4 사분면에 6개의 점을 이용하여 우측 차선 방정식을 구하고, 이 구한 우측 차선 방정식을 차선 예측부(60)에 제공한다.
위치 인식부(50)는 현재 위치를 인식하는 블록으로서, 위치 인식기(S2), 예컨대 DGPS(differential global positioning system) 및 내부의 로터리 엔코더 및 자이로 및 디지털 컴파스 센서 등에 의해 감지된 이동 방향 및 속도를 이용하여 현재 위치를 인식하고, 이 인식된 현재 위치와 이때의 이동방향 및 속도를 차선 예측부(60)에 제공한다.
차선 예측부(60)는 위치 인식부(50)로부터 입력되는 현재 위치와 이때의 이동방향 및 속도를 가지고 표현부(40)로부터 입력되는 좌/우측 차선 방정식의 기반 하에 영상 좌표계에서 얼마만큼 이동할 것인지를 계산하여 양쪽 차선을 나타내는 차선 방정식의 위치를 구하며, 이동된 차선 방정식을 바탕으로 다음 프레임의 차선인식 검색 구간의 파라미터로 사용하는 과정을 반복 수행하여 차선의 위치를 Δx,Δy 방향으로 예측하는 방식으로 차선검색구간을 결정한다.
따라서, 본 발명은 위치 인식기에 의해 감지된 이동 방향 및 속도를 가지고 이전에 계산된 차선 방정식이 영상 좌표계에서 얼마만큼 이동할 것인지를 계산하여 양쪽 차선을 나타내는 차선 방정식의 위치를 구하며, 또한 이동된 차선 방정식을 바탕으로 다음 프레임의 차선인식 검색 구간의 파라미터로 사용하는 과정을 반복 수행하여 차선의 위치를 예측함으로써, 급격한 주행환경 변화에 의해서 영상의 정보들이 왜곡되어 차선을 오인식하는 것을 방지하고, 급격하게 기후가 변화하는 환경에서 주행하게 될 경우에도 차선을 보다 정확하게 인식할 수 있다.
다음에, 상술한 바와 같은 구성을 갖는 본 발명의 일 실시예에서 차선 인식과정에 대하여 설명한다.
도 4는 본 발명의 일 실시예에 따른 차선 인식 방법에 대하여 순차적으로 도시한 흐름도이다.
먼저, 영상 변환부(10)에서는 카메라(S1)에 의해 촬상된 영상, 즉 칼라 영상을 입력(S401)받은 다음에, 이 입력된 칼라 영상에 대하여 차선과 차선이 아닌 부분을 명도 차이로 구분하고 처리 시간을 감소시키기 위하여 흑백 영상으로 변환(S403)하고, 이 변환된 흑백 영상이 영상 분할부(20)에 제공(S405)되도록 한다.
영상 분할부(20)에서는 영상 변환부(10)로부터 입력된 흑백 영상을 도 5에 도시된 바와 같이 4개의 영역(1사분면~4사분면의 영역)으로 분할(S407)하고, 이 분할된 4개 영역의 흑백 영상이 차선 인식부(30)내 영역 검색부(31)에 제공(S409)되도록 한다.
차선 인식부(30)내 영역 검색부(31)에서는 영상 분할부(20)로부터 입력되는 4개 영역으로 분할된 흑백 영상에서 3개의 검색 영역 범위, 예컨대 초기값 혹은 전 프레임에서 예측된 차선의 검색 영역을 3가지의 높이에 대하여 각각 검색하기 위한 범위를 통하여 각 높이에 해당하는 차선 검색 영역내에서 명도값의 차이가 문턱치 값 보다 크면서 X축의 방향으로 일정 폭 이상을 갖는 영역을 검색(S411)하고, 이 검색된 영역이 위치 파악부(33)에 제공(S413)되도록 한다.
위치 파악부(33)에서는 영역 검색부(31)로부터 입력되는 검색된 영역의 중앙점의 위치를 파악(S415)하고, 이 파악된 중앙점의 위치가 판단부(35)에 제공(S417)되도록 한다.
판단부(35)에서는 위치 파악부(33)로부터 입력되는 중앙점의 위치를 기준으로 Y축의 방향으로 최상단의 점과 최하단의 점을 지나는 직선을 구하고(S419), 이 구한 직선 위 중간의 점이 있는지를 판단(S421)한다.
상기 판단(S421)결과, 직선 위 중간의 점이 있는 경우 중앙점으로부터 떨어진 정도가 기설정된 오차 범위 내에 있는지를 체크(S423)한다.
상기 체크(S423)결과, 범위 내에 있는 경우에 대하여 3개의 점을 지나는 차선으로 인식(S425)하는데 반하여, 상기 체크(S423)결과, 범위 내에 있지 않는 경우 3개의 점을 지나는 차선으로 인식되지 않아 상술한 체크 과정을 계속적으로 반복 수행한다.
상기 판단(S421)결과, 직선 위 중간의 점이 없는 경우 상술한 판단 과정을 계속적으로 반복 수행한다.
이어서, 판단부(35)에서는 3개의 점을 지나는 차선으로 인식하고, 이 인식된 차선이 표현부(40)내 좌측 차선 표현부(41) 및 우측 차선 표현부(43) 각각에 제공(S427)되도록 한다.
표현부(40)내 좌측 차선 표현부(41)에서는 차선 인식부(30)내 판단부(35)로 부터 입력되는 4개의 영역 중 좌측 차선을 표현하기 위하여 도 5에 도시된 2,3 사분면에 있는 6개의 점을 이용하여 좌측 차선 방정식을 구하고(S429), 이 구한 좌측 차선 방정식이 차선 예측부(60)에 제공(S431)되도록 한다. 여기서, 좌측 차선 방정식은, 2사분면의 3개 점과 3사분면의 3개 점을 합한 6개의 위치를 이용하여 좌측차선을 표현하는 방정식인 것이 바람직하다.
우측 차선 표현부(43)에서는 차선 인식부(30)내 판단부(35)로부터 입력되는 4개의 영역 중 우측 차선을 표현하기 위하여 도 5에 도시된 1,4 사분면에 있는 6개의 점을 이용하여 우측 차선 방정식을 구하고(S433), 이 구한 우측 차선 방정식이 차선 예측부(60)에 제공(S435)되도록 한다. 우측 차선 방정식은, 1사분면의 3개 점과 4사분면의 3개 점을 합한 6개의 위치를 이용하여 우측차선을 표현하는 방정식인 것이 바람직하다.
이때, 위치 인식부(50)에서는 위치 인식기(S2), 예컨대 DGPS(differential global positioning system) 및 내부의 로터리 엔코더 및 자이로 및 디지털 컴파스 센서 등에 의해 감지된 이동 방향 및 속도를 이용하여 현재 위치를 인식(S437)하고, 이 인식된 현재 위치와 이때의 이동방향 및 속도가 차선 예측부(60)에 제공(S439)되도록 한다.
차선 예측부(60)에서는 위치 인식부(50)로부터 입력되는 현재 위치와 이때의 이동방향 및 속도를 가지고 표현부(40)로부터 입력되는 좌/우측 차선 방정식의 기반 하에 영상 좌표계에서 얼마만큼 이동할 것인지를 계산하여 양쪽 차선을 나타내는 차선 방정식의 위치를 구하며, 이동된 차선 방정식을 바탕으로 다음 프레임의 차선인식 검색 구간의 파라미터로 사용하는 과정을 반복 수행하여 차선의 위치를 도 6에 도시된 바와 같이 Δx,Δy 방향으로 예측(S441)하는 방식으로 차선검색구간을 결정한다.
본 발명에 의한 차선 인식 방법은 컴퓨터 프로그램으로 작성 가능하다. 이 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 해당 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 컴퓨터에 의하여 읽혀지고 실행됨으로써 영상기반 자연표식물 지도 작성 방법을 구현한다. 정보저장매체는 자기 기록매체, 광 기록매체 및 캐리어 웨이브 매체를 포함한다.
이상에서와 같이, 본 발명은 차선 인식 장치 및 그 방법을 제공함으로써, 영상 좌표계에서 차선을 표현할 수 있는 곡선 방정식이 시간에 따른 위치 변화를 예측하여 차후 차선을 검색하는 영역을 최소화시킴으로서 처리 시간을 현저하게 줄일 수 있다.
지금까지 본 발명에 대하여 그 일부 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
도 1은 본 발명의 일 실시예에 따른 차선 인식 장치에 대한 블록 구성도,
도 2는 도 1에 도시된 차선 인식부에 대한 상세 블록 구성도,
도 3은 도 1에 도시된 표현부에 대한 상세 블록 구성도,
도 4는 본 발명의 일 실시예에 따른 차선 인식 방법에 대하여 순차적으로 도시한 흐름도,
도 5는 도 1에 도시된 영상 분할부에 의해 4개의 영역으로 분할된 도면,
도 6은 도 1에 도시된 차선 예측부에 의해 Δx,Δy 방향으로 예측되는 방식으로 차선검색구간이 결정되는 것을 도시한 도면.
<도면의 주요부분에 대한 부호의 설명>
10 : 영상 변환부 20 : 영상 분할부
30 : 차선 인식부 31 : 영역 검색부
33 : 위치 파악부 35 : 판단부
40 : 표현부 41 : 좌측 차선 표현부
43 : 우측 차선 표현부 50 : 위치 인식부
60 : 차선 예측부
S1 : 카메라
S2 : 위치 인식기

Claims (21)

  1. 카메라에 의해 촬상된 칼라 영상을 흑백 영상으로 변환하는 영상 변환부와,
    상기 변환된 흑백 영상을 특정 개수로 분할하는 영상 분할부와,
    상기 분할된 흑백 영상에서 각 영역별 차선 영역을 추출하는 차선 인식부와,
    상기 추출된 차선 영역을 기반으로 양쪽 차선을 표현하기 위한 좌측 차선 방정식 및 우측 차선 방정식을 표현하는 표현부와,
    위치 인식기에 의해 감지된 이동 방향 및 속도를 이용하여 현재 위치를 인식하는 위치 인식부와,
    상기 표현된 좌측 차선 방정식 및 우측 차선 방정식의 기반 하에 상기 인식된 현재 위치와 상기 이동방향 및 속도를 이용하여 현재 프레임에서 차선의 검색 위치가 다음 프레임에서 어떤 위치로 변화할지를 예측하는 차선 예측부를 포함하며,
    상기 차선 인식부는,
    4개 영역으로 분할된 상기 흑백 영상에서 3개의 검색 영역 범위를 통하여 각 구간에서 명도값의 차이가 문턱치값 보다 크면서 가로축의 방향으로 일정 폭 이상을 갖는 영역을 검색하는 영역 검색부와,
    상기 검색된 영역에 대해 중앙점의 위치를 파악하는 위치 파악부와,
    상기 파악된 3개의 중앙점 중에서 위치를 기준으로 세로축의 방향으로 최상단의 점과 최하단의 점을 지나는 직선을 구하고, 상기 3개의 중앙점 중에서 중간의 점이 상기 직선으로부터 떨어진 정도가 기설정된 오차 범위 내에 있는 경우에만 차선으로 인식하는 판단부
    를 포함하는 차선 인식 장치.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 검색 영역 범위는, 초기값 혹은 전 프레임에서 예측된 차선의 검색 영역을 3가지의 높이에 대하여 각각 검색하기 위한 범위인 차선 인식 장치.
  4. 제 1 항에 있어서,
    상기 표현부는,
    상기 추출된 차선 영역을 기반으로 상기 특정 개수의 영역 중 좌측 차선을 표현하기 위하여 좌측사분면에 위치한 점을 이용하여 상기 좌측 차선 방정식을 구하는 좌측 차선 표현부와,
    상기 추출된 차선 영역을 기반으로 상기 특정 개수의 영역 중 우측 차선을 표현하기 위하여 우측사분면에 위치한 점을 이용하여 상기 우측 차선 방정식을 구 하는 우측 차선 표현부
    를 포함하는 차선 인식 장치.
  5. 제 4 항에 있어서,
    상기 좌측사분면은,
    상기 특정 개수의 영역 중 2사분면과 3사분면인 차선 인식 장치.
  6. 제 5 항에 있어서,
    상기 좌측 차선 방정식은, 상기 2사분면의 3개 점과 상기 3사분면의 3개 점을 합한 6개의 위치를 이용하여 상기 좌측차선을 표현하는 방정식인 차선 인식 장치.
  7. 제 4 항에 있어서,
    상기 우측사분면은,
    상기 특정 개수의 영역 중 1사분면과 4사분면인 차선 인식 장치.
  8. 제 7 항에 있어서,
    상기 우측 차선 방정식은, 상기 1사분면의 3개 점과 상기 4사분면의 3개 점을 합한 6개의 위치를 이용하여 상기 우측차선을 표현하는 방정식인 차선 인식 장치.
  9. 제 1 항에 있어서,
    상기 차선 예측부는,
    상기 예측된 차선의 검색 위치를 이용하여 차선검색구간을 결정하는 차선 인식 장치.
  10. 제 1 항에 있어서,
    상기 위치 인식기는, DGPS(differential global positioning system)와 로터리 엔코더와 자이로 및 디지털 컴파스 센서 중 적어도 어느 하나인 차선 인식 장치.
  11. 위치 인식기로부터 이동 방향 및 속도를 감지하는 단계와,
    카메라에 의해 촬상된 영상을 흑백 영상으로 변환하는 단계와,
    상기 변환된 흑백 영상을 특정 개수로 분할하는 단계와,
    상기 분할된 흑백 영상에서 각 영역별 차선 영역을 추출하는 단계와,
    상기 추출된 차선 영역을 기반으로 양쪽 차선을 표현하기 위한 좌/우측 차선 방정식을 표현하는 단계와,
    상기 표현된 좌/우측 차선 방정식의 기반 하에 상기 감지된 이동방향 및 속도를 이용하여 현재 프레임에서 차선의 검색 위치가 다음 프레임에서 어떤 위치로 변화할지를 예측하는 단계를 포함하며,
    상기 추출하는 단계는,
    4개의 영역으로 분할된 상기 흑백 영상에서 3개의 검색 영역 범위를 통하여 각 구간에서 명도값의 차이가 문턱치값 보다 크면서 가로축의 방향으로 일정 폭 이상을 갖는 영역을 검색하는 단계와,
    상기 검색된 영역의 중앙점의 위치를 파악하는 단계와,
    상기 파악된 3개의 중앙점 중에서 위치를 기준으로 세로축의 방향으로 최상단의 점과 최하단의 점을 지나는 직선을 구하는 단계와,
    상기 3개의 중앙점 중에서 중간의 점이 상기 직선으로부터 떨어진 정도가 기설정된 오차 범위 내에 있는 경우에만 차선으로 인식하는 단계
    를 포함하는 차선 인식 방법.
  12. 제 11 항에 있어서,
    상기 감지하는 단계는,
    상기 감지된 이동 방향 및 속도를 이용하여 현재 위치를 인식하는 차선 인식 방법.
  13. 제 12 항에 있어서,
    상기 이동 방향 및 속도는, DGPS와 로터리 엔코더와 자이로 및 디지털 컴파스 센서 중 적어도 어느 하나를 이용하여 감지하는 차선 인식 방법.
  14. 삭제
  15. 제 11 항에 있어서,
    상기 검색 영역 범위는, 초기값 혹은 전 프레임에서 예측된 차선의 검색 영역을 3가지의 높이에 대하여 각각 검색하기 위한 범위인 차선 인식 방법.
  16. 제 11 항에 있어서,
    상기 표현하는 단계는,
    상기 추출된 차선 영역을 기반으로 상기 특정 개수의 영역 중 좌측 차선을 표현하기 위하여 좌측사분면에 위치한 점을 이용하여 좌측 차선 방정식을 구하는 단계와,
    상기 추출된 차선 영역을 기반으로 상기 특정 개수의 영역 중 우측 차선을 표현하기 위하여 우측사분면에 위치한 점을 이용하여 우측 차선 방정식을 구하는 단계
    를 포함하는 차선 인식 방법.
  17. 제 16 항에 있어서,
    상기 좌측사분면은,
    상기 특정 개수의 영역 중 2사분면과 3사분면인 차선 인식 방법.
  18. 제 17 항에 있어서,
    상기 좌측 차선 방정식은, 상기 2사분면의 3개 점과 상기 3사분면의 3개 점을 합한 6개의 위치를 이용하여 상기 좌측차선을 표현하는 방정식인 차선 인식 방법.
  19. 제 16 항에 있어서,
    상기 우측사분면은,
    상기 특정 개수의 영역 중 1사분면과 4사분면인 차선 인식 방법.
  20. 제 19 항에 있어서,
    상기 우측 차선 방정식은, 상기 1사분면의 3개 점과 상기 4사분면의 3개 점을 합한 6개의 위치를 이용하여 상기 우측차선을 표현하는 방정식인 차선 인식 방법.
  21. 제 11 항에 있어서,
    상기 예측하는 단계는,
    상기 예측된 차선의 검색 위치를 이용하여 차선검색구간을 결정하는 차선 인식 방법.
KR1020090023988A 2009-03-20 2009-03-20 차선 인식 장치 및 그 방법 KR101196321B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020090023988A KR101196321B1 (ko) 2009-03-20 2009-03-20 차선 인식 장치 및 그 방법
US12/572,355 US20100241343A1 (en) 2009-03-20 2009-10-02 Apparatus and method for recognizing traffic line

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090023988A KR101196321B1 (ko) 2009-03-20 2009-03-20 차선 인식 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20100105126A KR20100105126A (ko) 2010-09-29
KR101196321B1 true KR101196321B1 (ko) 2012-11-01

Family

ID=42738366

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090023988A KR101196321B1 (ko) 2009-03-20 2009-03-20 차선 인식 장치 및 그 방법

Country Status (2)

Country Link
US (1) US20100241343A1 (ko)
KR (1) KR101196321B1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101365557B1 (ko) * 2012-04-25 2014-02-27 (주)아이머큐리 차선 검출장치 및 그 방법
KR102310280B1 (ko) * 2014-10-23 2021-10-07 현대모비스 주식회사 차량 자율 주행 장치 및 차량 자율 주행 방법
CN105243366A (zh) * 2015-10-10 2016-01-13 北京微尘嘉业科技有限公司 一种基于二维码的车辆定位方法
CN105825689A (zh) * 2016-06-02 2016-08-03 西安费斯达自动化工程有限公司 基于图像检测与多车速度差约束模型的交通信号控制方法
CN107901907B (zh) * 2017-09-30 2019-12-20 惠州市德赛西威汽车电子股份有限公司 一种基于色块统计的车道线检测方法
CN110287779B (zh) * 2019-05-17 2021-10-15 百度在线网络技术(北京)有限公司 车道线的检测方法、装置及设备
KR20220028709A (ko) * 2020-08-31 2022-03-08 현대모비스 주식회사 차량용 주행 제어방법 및 시스템
CN111930877B (zh) * 2020-09-18 2021-01-05 蘑菇车联信息科技有限公司 地图路牌的生成方法及电子设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006331389A (ja) * 2005-04-26 2006-12-07 Fuji Heavy Ind Ltd 車線認識装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3722487B1 (ja) * 2004-05-19 2005-11-30 本田技研工業株式会社 車両用走行区分線認識装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006331389A (ja) * 2005-04-26 2006-12-07 Fuji Heavy Ind Ltd 車線認識装置

Also Published As

Publication number Publication date
KR20100105126A (ko) 2010-09-29
US20100241343A1 (en) 2010-09-23

Similar Documents

Publication Publication Date Title
KR101196321B1 (ko) 차선 인식 장치 및 그 방법
KR102266830B1 (ko) 차선 결정 방법, 디바이스 및 저장 매체
Jeong et al. Road-SLAM: Road marking based SLAM with lane-level accuracy
CN110807350B (zh) 用于面向扫描匹配的视觉slam的***和方法
US7327855B1 (en) Vision-based highway overhead structure detection system
CN103781685B (zh) 车辆用自主行驶控制***
US9852357B2 (en) Clear path detection using an example-based approach
KR102091580B1 (ko) 이동식 도면화 시스템을 이용한 도로 표지 정보 수집 방법
US20100097456A1 (en) Clear path detection using a hierachical approach
CN105405154A (zh) 基于颜色-结构特征的目标对象跟踪方法
US11371851B2 (en) Method and system for determining landmarks in an environment of a vehicle
US20200082182A1 (en) Training data generating method for image processing, image processing method, and devices thereof
US20100259609A1 (en) Pavement marker recognition device, pavement marker recognition method and pavement marker recognition program
CN111507160B (zh) 集成从执行协同驾驶的车辆获取的行驶图像的方法及装置
US20210156704A1 (en) Updating map data
JP2003123197A (ja) 道路標示等認識装置
US20190311209A1 (en) Feature Recognition Assisted Super-resolution Method
JP5522475B2 (ja) ナビゲーション装置
US20210394782A1 (en) In-vehicle processing apparatus
CN112379681A (zh) 无人机避障飞行方法、装置及无人机
JP2022512165A (ja) 交差点検出、ニューラルネットワークトレーニング及びインテリジェント走行方法、装置及びデバイス
JP2012215442A (ja) 自位置特定システム、自位置特定プログラム及び自位置特定方法
KR20160081190A (ko) 카메라를 이용한 보행자 인식 방법 및 그 기록 매체
EP3522073A1 (en) Method and apparatus for detecting road surface marking
Markelic et al. The driving school system: Learning basic driving skills from a teacher in a real car

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151023

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170324

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170911

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee