KR100809417B1 - Traveling lane recognizing apparatus and method thereof - Google Patents

Traveling lane recognizing apparatus and method thereof Download PDF

Info

Publication number
KR100809417B1
KR100809417B1 KR1020060095024A KR20060095024A KR100809417B1 KR 100809417 B1 KR100809417 B1 KR 100809417B1 KR 1020060095024 A KR1020060095024 A KR 1020060095024A KR 20060095024 A KR20060095024 A KR 20060095024A KR 100809417 B1 KR100809417 B1 KR 100809417B1
Authority
KR
South Korea
Prior art keywords
lane
driving
area
adjacent
adjacent lane
Prior art date
Application number
KR1020060095024A
Other languages
Korean (ko)
Inventor
윤영보
조성익
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020060095024A priority Critical patent/KR100809417B1/en
Application granted granted Critical
Publication of KR100809417B1 publication Critical patent/KR100809417B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

A relative position recognizing apparatus of a traveling lane and a method are provided to recognize a lane-driving line where a vehicle runs and to judge whether the adjacent lane regions of the determined traveling lane are available or not. In a relative position recognizing apparatus(200) of a traveling lane, a traveling lane deciding unit(210) recognizes left and right lane-driving lines of the traveling lane by processing images around a vehicle obtained from a sensor(100) installed in the traveling vehicle and then determines a traveling lane region. An adjacent lane deciding unit(220) determines the adjacent lane region expanded to the left and right side of the traveling lane region, from lane data of the determined traveling lane region and judges whether the adjacent lane region is available or not on the basis of lane data of the traveling lane region and the adjacent lane region. A total lane deciding unit(230) determines the number of lanes of the road by using the repeated number of traveling availability deciding operations executed by the adjacent lane deciding unit, until a driver is unable to drive the vehicle on the adjacent lane region. A relative position deciding unit(240) determines the relative position of the present traveling lane by synthesizing the total number of lanes, geographical information of the road, and position information of the vehicle.

Description

주행 차선의 상대적 위치 인식 장치 및 방법{Traveling lane recognizing apparatus and method thereof}Traveling lane recognizing apparatus and method

도 1은 본 발명의 일실시예에 따른 주행 차선의 상대적 위치 인식 시스템의 개략도이다. 1 is a schematic diagram of a relative position recognition system of a driving lane according to an embodiment of the present invention.

도 2는 본 발명의 일실시예에 따른 주행 차선의 상대적 위치 인식 방법을 설명하는 순서도이다. 2 is a flowchart illustrating a relative position recognition method of a driving lane according to an embodiment of the present invention.

도 3은 본 발명의 일실시예에 따라 주행 차선의 상대적 위치를 인식한 결과를 정보제공장치에 보여주는 획득된 영상 및 차선 결정 결과를 나타낸다.FIG. 3 is a diagram illustrating an acquired image and a lane determination result showing an information providing apparatus indicating a result of recognizing a relative position of a driving lane according to an embodiment of the present invention.

본 발명은 현재 주행 중인 차선의 상대적 위치를 인식하는 장치 및 방법에 관한 것으로, 좀 더 상세하게는 현재 주행 중인 차선으로부터 확장되는 인접 차선 영역의 주행 가능 여부를 판단하여 도로의 전체 차선 수 및 주행 차선의 상대적 위치를 추론하는 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and a method for recognizing a relative position of a currently driving lane. More particularly, the present invention relates to an apparatus for determining a driving position of an adjacent lane area that extends from a currently driving lane, and thus to determine the total number of lanes and driving lanes. An apparatus and method for inferring a relative position of

일반적으로, 차량의 자율 주행 시스템에서 사용되고 있는 기존의 주행 차선 인식 방법은 단순히 차량이 주행 차선을 벗어나지 않도록 하기 위해 소정의 차선분 리선 내에서 차량이 주행하는지 여부만을 판단할 수 있도록 되어 있고, 현재 주행하고 있는 차선이 몇 번째 차선인지에 대한 정보는 제공하지 않고 있다. 즉, 카메라에 의해 촬영된 차량의 전방 영상으로부터 현재 주행 차선을 인식하고, 차량이 해당 차선분리선 안에서 주행하고 있는지 여부만을 인식할 수 있을 뿐이다. In general, the existing driving lane recognition method used in the autonomous driving system of the vehicle can determine only whether the vehicle is traveling within a predetermined lane separation line so that the vehicle does not leave the driving lane. It does not provide information on which lane you are in. That is, only the current driving lane can be recognized from the front image of the vehicle photographed by the camera, and only the vehicle can be recognized whether the vehicle is traveling within the lane separation line.

따라서 현재 주행 중인 차선만을 인식하게 되어 전체 도로의 차선수와 현재 주행 중인 차선이 몇 번째 차선인지를 알 수 없어 차선 변경 등 도로 주행을 위한 정보가 부족하다는 문제점이 있었다.Therefore, only the lanes currently driving are recognized, and thus, there is a problem in that there is a lack of information for driving on the road, such as changing lanes, because it is impossible to know the lanes of the entire road and the number of lanes currently running.

또한 "주행차로 인식방법 및 이를 이용한 주행차로 변경방법(대한민국 공개번호 제2005-0042889)"은 기 저장된 차선분리선의 패턴 데이터를 캡쳐된 영상의 처리에서 획득한 차선분리선 패턴 데이터와 비교하여 주행 차선을 인식하는 방법으로, 기 저장된 차선분리선의 패턴 데이터가 부정확하거나 없는 경우 현재 주행 중인 차선을 인식할 수 없게 되는 문제점이 있다.In addition, the method for recognizing a driving lane and a method for changing a driving lane using the same (Korean Publication No. 2005-0042889) compares the pattern data of a lane dividing line, which is previously stored, with the lane dividing line pattern data obtained by processing a captured image. As a method of recognizing, there is a problem in that the currently driving lane cannot be recognized if the pattern data of the previously divided lane separation line is incorrect or absent.

본 발명은 상기한 바와 같은 종래의 제 문제점을 해소하기 위한 것으로, 자동차가 주행 중인 차선의 영역을 인식하고, 주행 차선 영역의 차선 데이터를 이용하여 인접한 차선 영역의 추론 및 인접 차선의 주행 가능 여부를 판단하고, 도로의 지리정보와 차량의 위치정보를 이용하여 현재 주행 중인 차선의 상대적 위치를 추론하여 운전자의 주행을 도와주는데 그 목적이 있다.The present invention is to solve the above-mentioned problems of the prior art, and to recognize the area of the lane in which the vehicle is driving, and to determine the inference of the adjacent lane area and whether the adjacent lane can travel by using the lane data of the driving lane area. The purpose of the determination is to help the driver drive by inferring the relative position of the currently driving lane using geographic information of the road and position information of the vehicle.

본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 명확히 알게될 것이다. 또한 본 발명의 목적 및 장 점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present invention can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. It will also be readily apparent that the objects and advantages of the invention may be realized by the means and combinations thereof indicated in the claims.

상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 주행 차선의 상대적 위치 인식 장치는 주행 중인 차량에 탑재된 센서로부터 획득된 차량 주변 영상의 화상 처리를 통해 주행 중인 차선의 좌우 차선분리선을 인식하여 주행 차선 영역을 결정하는 주행 차선 결정부; 상기 결정된 주행 차선 영역의 차선 데이터로부터 상기 주행 차선 영역 좌우로 확장되는 인접 차선 영역을 결정하는 인접 차선 결정부; 상기 인접 차선 영역 결정부의 영역 결정 동작 반복 횟수를 이용하여 주행 도로의 전체 차선 수를 결정하는 전체 차선 결정부; 및 상기 결정된 전체 차선 수, 도로의 지리 정보 및 차량의 위치 정보를 종합하여 현재 주행 중인 차선의 상대적 위치를 결정하는 상대적 위치 결정부를 포함한다. In order to achieve the above technical problem, an apparatus for detecting a relative position of a driving lane according to the present invention recognizes left and right lane separation lines of a driving lane through image processing of a vehicle surrounding image obtained from a sensor mounted on a driving vehicle. A driving lane determination unit determining a lane area; An adjacent lane determination unit configured to determine an adjacent lane area extending left and right from the determined lane data of the driving lane area; An entire lane determination unit that determines the total number of lanes of the driving road by using the number of repetition of the area determination operation of the adjacent lane area determination unit; And a relative position determiner configured to determine the relative position of the currently driving lane by combining the determined total number of lanes, road geographic information, and vehicle position information.

상기 인접 차선 결정부는 상기 결정된 주행 차선 영역의 좌우 양측으로 인접 차선 영역을 선택하고, 상기 주행 차선 영역과 상기 각각의 선택된 인접 차선 영역의 차선 데이터를 이용하여 유사도를 계산하고, 상기 유사도 값을 임계값과 비교하여 상기 유사도 값이 임계값 범위 내이면 상기 인접 차선 영역을 주행 가능 차선으로 결정할 수 있다.The adjacent lane determination unit selects adjacent lane areas to the left and right sides of the determined driving lane area, calculates a similarity using the lane data of the driving lane area and each of the selected adjacent lane areas, and sets the similarity value to a threshold value. When the similarity value is within a threshold range, the adjacent lane area may be determined as a driving lane.

상기 유사도 계산은 주행 차선 영역과 인접 차선 영역의 차선 데이터로부터 차선의 칼라 정보, 상호 상관(cross-correlation), 계차(difference) 정보 등을 획득하여 이용할 수 있다. The similarity calculation may be obtained by using color information, cross-correlation, difference information, and the like, of lanes from lane data of a driving lane region and an adjacent lane region.

상기 주행 도로의 전체 차선 및 주행 차선의 상대적 위치 정보는 정보제공장치를 통해 사용자에게 제공될 수 있다. The entire lane of the driving road and the relative position information of the driving lane may be provided to the user through the information providing device.

상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 주행 차선의 상대적 위치 인식 방법은 주행 중인 차량에 탑재된 센서로부터 획득된 차량 주변 영상의 화상 처리를 통해 주행 중인 차선의 좌우 차선분리선을 인식하여 주행 차선 영역을 결정하는 단계; 상기 결정된 주행 차선 영역의 차선 데이터로부터 상기 주행 차선 영역 좌우로 확장된 인접 차선 영역을 결정하는 단계; 상기 인접 차선 영역 결정 단계의 반복 횟수를 이용하여 주행 도로의 전체 차선 수를 결정하는 단계; 및 상기 결정된 전체 차선 수, 도로의 지리 정보 및 차량의 위치 정보를 종합하여 현재 주행 중인 차선의 상대적 위치를 결정하는 단계를 포함한다. In order to achieve the above technical problem, the relative position recognition method of the driving lane according to the present invention is to drive by recognizing the left and right lane separation line of the driving lane through the image processing of the image around the vehicle obtained from the sensor mounted on the driving vehicle Determining a lane area; Determining adjacent lane areas extended left and right in the driving lane area from the determined lane data of the driving lane area; Determining the total number of lanes of the driving road by using the number of repetitions of the step of determining the adjacent lane area; And determining the relative position of the currently driving lane by combining the determined total number of lanes, geographic information of the road, and position information of the vehicle.

상기의 기술적 과제를 달성하기 위해 본 발명은 본 발명의 주행 차선의 상대적 위치 인식 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.In order to achieve the above technical problem, the present invention provides a computer-readable recording medium having recorded thereon a program for executing the method of recognizing the relative position of the driving lane of the present invention.

이하에서, 첨부된 도면들을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하겠다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the present invention.

도 1은 본 발명의 일실시예에 따른 주행 차선의 상대적 위치 인식 시스템의 개략도이다. 상기 시스템(1)은 센서(100), 위치인식장치(200), 정보제공장치(300)를 포함하고, 상기 상대적 위치 인식 시스템은 센서(100)로부터 획득된 영상을 위치인식장치(200)에서 영상처리를 통해 주행 차선을 결정하고 주행 차선으로부터 좌우로 확장되는 인접 차선 영역의 주행 가능 여부를 판단하여 주행 차선의 상대적 위치를 추론하여 정보제공장치(300)를 통해 운전자에게 제공한다. 1 is a schematic diagram of a relative position recognition system of a driving lane according to an embodiment of the present invention. The system 1 includes a sensor 100, a position recognition device 200, and an information providing device 300, and the relative position recognition system receives an image obtained from the sensor 100 from the position recognition device 200. The driving lane is determined through the image processing, the driving lane is determined whether the adjacent lane area extending left and right from the driving lane is inferred, and the relative position of the driving lane is inferred and provided to the driver through the information providing apparatus 300.

상기 센서(100)는 주행 중인 차량에 부착된 영상 인식 장치(예를 들어, 카메라)로서 차량의 주변 영상을 획득한다. 상기 센서(100)는 차량의 전방, 후방, 또는 측방에 설치될 수 있으며, 도로의 영상을 최적으로 획득할 수 있도록 적절한 위치에 선택 장착이 가능하다. 상기 센서(100)에 의해 획득되는 주변 영상의 범위는 차량에 장착되는 카메라의 종류에 따라 달라질 수 있지만 도로의 전체 폭이 영상에 나타날 수 있도록 하는 것이 바람직하며, 이를 위해 최소 5°이상의 시야각을 갖는 것이 바람직하다. 상기 센서(100)에 의해 획득된 영상은 위치인식장치(200)로 전달된다.The sensor 100 is an image recognition device (for example, a camera) attached to a driving vehicle, and acquires a surrounding image of the vehicle. The sensor 100 may be installed at the front, rear, or side of the vehicle, and may be selectively mounted at an appropriate position to optimally acquire an image of a road. The range of the surrounding image obtained by the sensor 100 may vary depending on the type of camera mounted on the vehicle, but it is preferable to allow the entire width of the road to appear on the image. It is preferable. The image acquired by the sensor 100 is transmitted to the position recognition device 200.

상기 위치인식장치(200)는 센서(100)로부터 획득된 영상에서 현재 주행 중인 차선의 상대적 위치를 인식하게 된다. 상기 위치인식장치(200)는 주행 차선 결정부(210), 인접 차선 결정부(220), 전체 차선 결정부(230) 및 상대적 위치 결정부(240)를 포함한다. The position recognizing apparatus 200 recognizes the relative position of the currently driving lane in the image acquired from the sensor 100. The position recognition device 200 includes a driving lane determiner 210, an adjacent lane determiner 220, an entire lane determiner 230, and a relative position determiner 240.

상기 주행 차선 결정부(210)는 상기 센서(100)가 획득한 영상을 전송받아 영상처리프로세스에 의해 처리하여 현재 주행 차선(lane)의 좌우 차선분리선(lane-dividing line)을 인식함으로써 주행 차선을 결정하게 된다. The driving lane determination unit 210 receives the image acquired by the sensor 100 and processes the image by the image processing process, thereby recognizing the left and right lane-dividing lines of the current driving lane. Will be decided.

상기 영상처리프로세스는 카메라로 촬영된 영상의 차선분리선 및 차선에 대한 정보를 얻기 위한 과정으로 처리 결과를 2차원 또는 3차원의 영상으로 제공하는 영상분석 및 영상인식에 관한 공지된 다양한 방법이 사용될 수 있으며, 주행 차선의 좌우 차선분리선을 인식하기 위해 영상처리프로세스 중 에지 추출, 하프(Hough) 변환 등의 방법이 바람직하다. 또한 국내공개특허의 "차선이탈인식 방법(2005. 09. 23. 공개)"에서 개시된 방법이 이용될 수 있으며, 상기 차선 인식 방법은 공지된 바, 이에 대한 상세한 설명은 생략하겠다. The image processing process is a process for obtaining information on lane separation lines and lanes of an image taken by a camera, and various known methods for image analysis and image recognition, which provide processing results as 2D or 3D images, may be used. In order to recognize the left and right lane separation line of the driving lane, an edge extraction, a Hough transform, or the like is preferable in the image processing process. In addition, the method disclosed in the "lane departure recognition method (published on September 23, 2005)" of the domestic publication can be used, the lane recognition method is known, a detailed description thereof will be omitted.

주행 차선의 좌우 차선분리선의 인식시 상기 영상처리프로세스에 의해 추출된, 주행 차선의 차선 폭, 차선 칼라, 차선분리선 패턴, 차선분리선 칼라 등의 차선 데이터는 메모리(미도시)에 저장된다. 상기 추출된 주행 차선 데이터는 인접 차선을 결정하는데 이용된다.Lane data such as lane width, lane color, lane divider pattern, lane divider color, etc. of the traveling lane, which are extracted by the image processing process upon recognition of the left and right lane split lines of the driving lane, are stored in a memory (not shown). The extracted driving lane data is used to determine an adjacent lane.

상기 인접 차선 결정부(220)는 상기 주행 차선의 좌우 차선분리선이 인식된 결과 주행 차선이 결정되면 상기 주행 차선의 좌우 차선분리선 양측으로 인접 차선 영역을 선택한다. 상기 선택된 인접 차선 영역에 대해 주행 차선과 마찬가지로 차선 데이터를 추출한다. When the driving lane is determined as a result of the recognition of the left and right lane separation lines of the driving lane, the adjacent lane determination unit 220 selects adjacent lane areas to both sides of the left and right lane separation line of the driving lane. Lane data is extracted for the selected adjacent lane area in the same manner as the driving lane.

다음으로 상기 주행 차선과 인접 차선 영역의 차선 데이터를 이용하여 주행 차선과 인접 차선의 유사도를 계산한다. 즉, 좌우 차선분리선이 인식된 주행 차선의 영상 패치와 그 좌우로 확장된 인접 차선 영역의 패치의 유사도를, 추출된 차선 데이터로부터의 패치의 칼라 정보, 상호 상관(cross-correlation), 계차(difference) 정보 등을 이용하여 계산할 수 있다. 상기 유사도 계산은 전술된 정보 및 방법 외에 두 개 차선의 비교를 위한 다양한 데이터 및 가공 방법들이 사용될 수 있을 것이다. 계산된 유사도가 동일한 대상의 동일 영역에 대해 이론적으로 구할 수 있는 유사도의 최대값(임계값)에 가까울수록 유사도가 높다고 볼 수 있다. 유사도 판별을 위해 임계값을 결정하고 상기 유사도 값이 임계값 범위 내이면 예상된 인접 차선 영역을 주행 가능 차선으로 결정한다. 상기 임계값 결정의 일 예로서, 상호 상관의 평균값을 이용하여, 유사도가 평균값 이하인 경우는 차선이 아니거나 주행이 불가능한 영역으로 결정할 수 있다. 이러한 인접 차선 영역 선택 및 유사도 판단은 주행이 불가능한 영역이 결정될 때까지 반복 실행되어 도로 전체에 대한 차선 예측이 이루어진다. Next, the similarity between the driving lane and the adjacent lane is calculated using the lane data of the driving lane and the adjacent lane area. That is, the similarity between the image patch of the driving lane where the left and right lane separation lines are recognized and the patch of the adjacent lane area extended to the left and right, color information, cross-correlation, and difference of the patch from the extracted lane data ) Can be calculated using information. The similarity calculation may use various data and processing methods for the comparison of two lanes in addition to the information and method described above. The closer the calculated similarity is to the maximum value (threshold) of the similarity theoretically obtained for the same region of the same object, the higher the similarity is. The threshold value is determined for the similarity determination, and if the similarity value is within the threshold range, the expected adjacent lane area is determined as the driving lane. As an example of the determination of the threshold value, when the similarity is less than the average value, the average value of the cross correlation may be determined as an area that is not a lane or is impossible to drive. The adjacent lane area selection and the similarity determination are repeatedly executed until the area in which driving is impossible is determined, and the lane prediction for the entire road is made.

상기 전체 차선 결정부(230)는 상기 인접 차선 결정부(220)에서의 주행 불가능 영역의 결정까지 인접 차선 영역 선택 및 유사도 판단의 반복 횟수를 카운트하여 전체 차선수를 결정한다. The all lane determination unit 230 determines the total lane heading by counting the number of repetitions of the selection of the adjacent lane region and the similarity determination until the determination of the non-driving region in the adjacent lane determination unit 220.

상기 상대적 위치 결정부(240)는 상기 전체 차선 결정부(230)로부터의 전체 차선수, 도로 주변의 지리 정보, 도로의 차선 정보를 갖는 항법 맵 및 GPS 측위 시스템으로부터 제공되는 차량의 위치 정보를 종합하여 현재 주행중인 차선의 상대적 위치, 즉 전체 차선 중 몇 차선에서 주행하고 있는지를 결정한다.The relative position determiner 240 aggregates the position information of the vehicle provided from the GPS map system and the navigation map having all the lanes, geographic information around the road, lane information of the road, and the like from the all lane determiner 230. It determines the relative position of the current lane, that is, how many lanes of the total lanes.

상기 위치인식장치(200)로부터 결정된 주행 차선과 인접 차선의 예측 결과는 정보제공장치(300)로 전달된다.The prediction result of the driving lane and the adjacent lane determined from the position recognition apparatus 200 is transmitted to the information providing apparatus 300.

상기 정보제공장치(300)는 상기 센서(100)로부터 획득된 영상 및 상기 위치인식장치(200)로부터 결정된 주행 차선과 인접 차선의 예측 결과를 제공하는 디스플레이장치로서, 영상 또는 문자, 음성 등 다양한 방법으로 운전자에게 정보를 제공할 수 있으며, 영상 제공시 사용자와 합의된 방식으로 설정된 표시방법(예를 들어, 색상별로 차선과 비차선 안내 등)을 제공하여 사용자가 용이하게 인식할 수 있도록 할 수 있다. 상기 정보제공장치(300)가 제공하는 도로의 범위는 상기 센서(100)가 획득한 영상의 범위에 따라 달라질 수 있으며, 획득된 영상의 전체를 제공할 수도 있고 현재 주행하고 있는 방향의 도로만을 제공할 수도 있다.The information providing device 300 is a display device that provides an image obtained from the sensor 100 and a prediction result of a driving lane and an adjacent lane determined by the position recognition device 200. The driver can provide information to the driver and provide a display method (for example, lane and non-lane guide for each color) set in a manner agreed with the user when providing an image so that the user can easily recognize the image. . The range of the road provided by the information providing device 300 may vary according to the range of the image acquired by the sensor 100, and may provide the entirety of the acquired image or provide only the road in the direction in which the vehicle is currently traveling. You may.

도 2는 본 발명의 일실시예에 따른 주행 차선의 상대적 위치 인식 방법을 설명하는 순서도이다. 2 is a flowchart illustrating a relative position recognition method of a driving lane according to an embodiment of the present invention.

상기 도 2를 참조하면, 본 발명의 주행 차선의 상대적 위치 인식 방법은, 주행 중인 차량에 탑재된 센서로부터 획득된 차량 주변 영상으로부터 주행 중인 차선의 좌우 차선분리선을 인식하여 주행 차선 영역을 결정하고, 상기 결정된 주행 차선 영역의 차선 데이터로부터 상기 주행 차선 영역 좌우로 확장된 인접 차선 영역을 결정하고, 상기 인접 차선 영역 결정 단계의 반복 횟수로부터 주행 도로의 전체 차선 수를 결정하고, 상기 결정된 전체 차선 수, 도로의 지리 정보 및 차량의 위치 정보를 종합하여 현재 주행 중인 차선의 상대적 위치를 결정하게 된다. Referring to FIG. 2, in the relative position recognition method of the driving lane of the present invention, a driving lane region is determined by recognizing left and right lane separation lines of a driving lane from a vehicle surrounding image acquired from a sensor mounted in a driving vehicle. Determining an adjacent lane area extended to the left and right of the driving lane area from the determined lane data of the driving lane area, determining the total number of lanes of the driving road from the number of repetitions of the determining the adjacent lane area, and determining the determined total number of lanes, The geographic information of the road and the location information of the vehicle are combined to determine the relative position of the currently driving lane.

먼저, 주행 중인 차량에서 차량에 탑재된 카메라를 이용하여 차량의 주변 영상을 획득한다(S21). 카메라는 차량의 전방, 후방, 또는 측방에 설치될 수 있으며, 획득되는 주변 영상의 범위는 차량에 장착되는 카메라의 종류에 따라 달라질 수 있지만 최소 5°이상의 시야각을 가져 도로의 전체 폭이 영상에 나타날 수 있도록 하는 것이 바람직하다. First, the surrounding image of the vehicle is obtained by using a camera mounted on the vehicle in the driving vehicle (S21). The camera can be installed in front of, behind, or on the side of the vehicle. The range of surrounding images obtained can vary depending on the type of camera mounted on the vehicle, but with a viewing angle of at least 5 °, the full width of the road appears in the image. It is desirable to be able to.

상기 획득된 영상은 영상처리프로세스를 이용하여 처리되고 이를 통해 주행 중인 차선의 좌우 차선분리선을 인식함으로써 주행 차선을 결정한다(S22). 상기 좌우 차선분리선의 인식 방법은 다양한 영상처리프로세스 중 에지 추출, 하프(Hough) 변환 등이 이용될 수 있다. 상기 이용되는 영상처리프로세스는 공지된 기술이므로 그에 대한 상세한 설명은 생략한다. 영상처리프로세스에 의한 주행 차선 결정시, 주행 차선의 차선 폭, 차선 칼라, 차선분리선 패턴, 차선분리선 칼라 등의 차선 데이터가 추출되어 저장된다.The obtained image is processed using an image processing process, and the driving lane is determined by recognizing the left and right lane separation lines of the driving lane through the image processing process (S22). As the recognition method of the left and right lane separation lines, edge extraction, half transform, etc. may be used among various image processing processes. Since the image processing process used is a known technique, detailed description thereof will be omitted. When determining the driving lane by the image processing process, lane data such as the lane width of the driving lane, the lane color, the lane dividing line pattern, and the lane dividing line color is extracted and stored.

상기와 같이 주행 차선이 결정되면 주행 차선의 좌우 차선분리선 양측으로 확장된 인접 차선 영역을 선택하고, 선택된 인접 차선 영역에 대한 차선 데이터를 추출한다(S23). When the driving lane is determined as described above, adjacent lane regions extending to both sides of the left and right lane separation lines of the driving lane are selected, and lane data of the selected adjacent lane region is extracted (S23).

상기 추출된 주행 차선 영역과 인접 차선 영역의 차선 데이터를 이용하여 주행 차선 영역과 좌우 인접 차선 영역 각각의 유사도를 계산한다(S24). 유사도 계산시에 사용되는 정보에는 차선의 칼라 정보, Cross-Correlation(상호 상관), Difference(계차) 정보 등 다양한 데이터 및 방법이 이용될 수 있다. Similarity between each of the driving lane region and the left and right adjacent lane regions is calculated using the extracted lane data of the driving lane region and the adjacent lane region (S24). Various data and methods, such as lane color information, cross-correlation, and difference information, may be used for the information used when calculating the similarity.

상기 각각의 인접 차선 영역에 대해 계산된 유사도 값을 임계값 범위에 부합하는지 여부를 판단한다(S25). It is determined whether or not the similarity value calculated for each adjacent lane area corresponds to a threshold range (S25).

인접 차선 영역의 유사도 값이 상기 동일한 대상의 동일 영역에 대해 이론적으로 구할 수 있는 유사도의 최대값(임계값)에 거의 근사하면 주행 가능한 차선 영역으로 판단하고(S26), 그렇지 않은 경우 주행 불가능한 차선이거나 차선이 아닌 영역으로 판단한다(S27). If the similarity value of the adjacent lane area is approximately close to the maximum value (threshold value) of the similarity theoretically obtained for the same area of the same object, it is determined that the lane area is capable of driving (S26). It is determined that the area is not a lane (S27).

임계값 결정의 다른 일예로서, Cross-Correlation의 평균값을 계산하여 임계값으로 결정하며, 상기 유사도 값이 임계값 이하인 경우는 차선이 아니거나 주행이 불가능한 영역으로 결정할 수도 있다. 이 외에도 유사도 계산에 이용되는 파라미터에 따라 적절하게 임계값이 설정될 수 있을 것이다.As another example of determining the threshold value, the average value of the cross-correlation is calculated and determined as a threshold value. When the similarity value is less than or equal to the threshold value, it may be determined as an area that is not a lane or is impossible to drive. In addition, the threshold value may be appropriately set according to the parameter used for the similarity calculation.

상기 인접 차선 영역의 선택 및 유사도 판단 단계(S23 내지 S27)는 주행 불가능 영역이 나타날 때까지 계속 반복된다.The selection of the adjacent lane area and the similarity determination step S23 to S27 are repeated until the non-driving area appears.

상기 인접 차선 영역의 선택 및 유사도 판단 단계(S23 내지 S27)에 의한 인접 차선 영역 결정 단계의 반복 횟수가 카운트되고 카운팅 횟수에 의해 도로의 전체 차선 수를 결정한다(S28).The number of repetitions of the adjacent lane area determination step by the selection of the adjacent lane area and the similarity determination step (S23 to S27) is counted, and the total number of lanes on the road is determined by the counting number (S28).

상기 결정된 전체 차선 수 및 도로 주변의 지리 정보, 도로의 차선 정보를 갖는 항법 맵 그리고 GPS 측위 시스템으로부터 제공되는 차량의 위치 정보를 이용하여는 전체 차선에 대한 현재 주행 차선이 몇 차선인지 주행 차선의 상대적 위치를 판별한다(S29).Using the determined total number of lanes and geographic information around the road, a navigation map having lane information of the road, and position information of the vehicle provided from the GPS positioning system, the number of lanes in which the current driving lane is relative to the entire lane is relative to the driving lane. The position is determined (S29).

따라서 본 발명은 주행 도로의 전체 차선 수 및 자신의 주행 차선의 상대적 위치를 알 수 있어 안전 운행 및 차선 변경 등에 효과적으로 이용할 수 있게 된다.Therefore, the present invention can know the total number of lanes of the driving road and the relative position of their own driving lane can be effectively used for safe driving and lane change.

도 3은 본 발명의 일실시예에 따라 정보제공장치에 보여지는 획득된 영상 및 차선 결정 결과를 나타낸다.3 shows the obtained image and the lane determination result shown in the information providing apparatus according to an embodiment of the present invention.

도 3을 참조하면, 차량에 탑재된 센서로 촬영된 영상의 영상처리프로세스에 의해 현재 주행 차선의 좌우 차선분리선을 인식하고, 인식 결과에 따라 주행 차선 영역을 결정한다. 주행 차선 영역을 결정시 주행 차선의 좌우 차선분리선을 기초로 주행 차선 영역의 폭, 컬러 등의 차선 데이터가 추출된다. Referring to FIG. 3, a left and right lane separation line of a current driving lane is recognized by an image processing process of an image captured by a sensor mounted on a vehicle, and a driving lane area is determined according to the recognition result. When determining the driving lane area, lane data such as a width and a color of the driving lane area are extracted based on the left and right lane separation lines of the driving lane.

상기 결정된 주행 차선의 좌우로 인접 차선 영역을 선택하고, 인접 차선 영역의 차선 데이터를 추출하여 주행 차선 영역과 인접 차선 영역의 유사도를 계산한다.An adjacent lane area is selected to the left and right of the determined driving lane, and lane data of the adjacent lane area is extracted to calculate the similarity between the driving lane area and the adjacent lane area.

유사도 계산에 의한 유사도 값을 임계값과 비교하여 임계값 범위 내이면 인접 차선 영역을 주행 가능 차선으로 판단하고, 임계값 범위 밖이면 인접 차선 영역을 주행 불가능 차선 또는 비차선 영역으로 판단한다. 이와 같이 판단된 결과 영상이 디스플레이되어 운전자는 주행 도로의 전체 차선의 주행 가능 여부, 전체 차선 수 및 주행 차선의 상대적 위치를 파악할 수 있어 차선 변경 등의 운행에 도움을 받을 수 있다.The similarity value calculated by the similarity calculation is compared with the threshold to determine that the adjacent lane area is a driving lane when it is within the threshold range, and when the range is outside the threshold value, the adjacent lane area is determined as a non-driving lane or a non-lane area. As a result of the determination, the image is displayed so that the driver can determine whether the entire lane of the driving road can be driven, the total number of lanes, and the relative position of the driving lane, thereby helping to change lanes.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The invention can also be embodied as computer readable code on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may also be implemented in the form of a carrier wave (for example, transmission over the Internet). Include. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

지금까지 본 발명에 대하여 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been described with reference to preferred embodiments. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.

이상에서 설명한 바와 같이 본 발명에 따르면, 차량이 주행하고 있는 차선분리선을 인식하는 것뿐만 아니라, 주행 차선분리선의 인식에 의해 결정된 주행 차선 좌우의 인접 차선 영역들이 주행 가능한 차선인지 여부를 판단할 수 있어 운전자가 차선을 변경하는데 도움을 줄 수 있다.As described above, according to the present invention, in addition to recognizing the lane separation line in which the vehicle is traveling, it is possible to determine whether adjacent lane areas to the left and right of the driving lane determined by the recognition of the driving lane separation line are lanes that can be driven. The driver can help you change lanes.

또한 주행 차선과 인접 차선의 결정 결과로부터 주행 중인 도로의 전체 차선 수 및 전체 차선에서 자신의 현재 주행 차선의 위치를 파악할 수 있기 때문에 차선의 상대적 위치 추론을 통해 운전자의 주행에 도움을 줄 수 있다.In addition, since the total number of lanes on the road and the location of one's current driving lane in the entire lane can be determined from the result of the determination of the driving lane and the adjacent lane, the relative position inference of the lane can help the driver's driving.

그리고 차량에 부착된 센서로부터 획득된 영상의 영상처리프로세스에 의해 차선분리선을 인식하고 차선 데이터를 추출하기 때문에 차선분리선의 인식 및 차선 결정을 정확히 할 수 있다.In addition, since the lane separation line is recognized and the lane data are extracted by the image processing process of the image acquired from the sensor attached to the vehicle, it is possible to accurately recognize the lane separation line and determine the lane.

Claims (7)

주행 중인 차량에 탑재된 센서로부터 획득된 차량 주변 영상의 화상 처리를 통해 주행 중인 차선의 좌우 차선분리선을 인식하여 주행 차선 영역을 결정하는 주행 차선 결정부;A driving lane determination unit determining a driving lane area by recognizing left and right lane separation lines of a driving lane through image processing of an image of a vehicle surrounding image acquired from a sensor mounted on a driving vehicle; 상기 결정된 주행 차선 영역의 차선 데이터로부터 상기 주행 차선 영역 좌우로 확장되는 인접 차선 영역을 결정하고, 상기 주행 차선 영역과 인접 차선 영역의 차선 데이터를 기초로 상기 인접 차선 영역의 주행 가능 여부를 결정하는 인접 차선 결정부; An adjacent lane area that is extended to the left and right of the driving lane area from the determined lane data of the driving lane area, and determines whether the adjacent lane area can be driven based on the lane data of the driving lane area and the adjacent lane area Lane determination unit; 상기 인접 차선 영역의 주행이 불가능할 때까지의 상기 인접 차선 결정부에 의한 주행 가능 여부 결정 동작 반복 횟수를 이용하여 주행 도로의 전체 차선 수를 결정하는 전체 차선 결정부; 및An entire lane determination unit that determines the total number of lanes on the driving road by using the number of times of repeating the operation availability determination operation by the adjacent lane determination unit until the driving of the adjacent lane area is impossible; And 상기 결정된 전체 차선 수, 도로의 지리 정보 및 차량의 위치 정보를 종합하여 현재 주행 중인 차선의 상대적 위치를 결정하는 상대적 위치 결정부;를 포함하는 것을 특징으로 하는 주행 차선의 상대적 위치 인식 장치.And a relative position determiner configured to determine the relative position of the currently driving lane by combining the determined total number of lanes, road geographic information, and position information of the vehicle. 제1항에 있어서, 상기 인접 차선 결정부는, The method of claim 1, wherein the adjacent lane determination unit, 상기 결정된 주행 차선 영역의 좌우 차선분리선의 좌우 양측으로 인접 차선 영역을 선택하고, 상기 주행 차선 영역과 상기 각각의 선택된 인접 차선 영역의 차선 데이터를 이용하여 유사도를 계산하고, 상기 유사도 값을 임계값과 비교하여 상기 유사도 값이 임계값 범위 내이면 상기 인접 차선 영역을 주행 가능 차선으로 결정하는 것을 특징으로 하는 주행 차선의 상대적 위치 인식 장치.Adjacent lane areas are selected to the left and right sides of the determined left and right lane separation lines of the driving lane area, and the similarity is calculated using the lane data of the driving lane area and each of the selected adjacent lane areas, and the similarity value is set to a threshold value. And comparing the similarity value within the threshold range to determine the adjacent lane area as a driving possible lane. 제1항에 있어서,The method of claim 1, 상기 주행 차선의 상대적 위치 정보를 제공하는 정보제공장치를 포함하는 것을 특징으로 하는 주행 차선의 상대적 위치 인식 장치.And an information providing device for providing relative position information of the driving lane. 주행 중인 차량에 탑재된 센서로부터 획득된 차량 주변 영상의 화상 처리를 통해 주행 중인 차선의 좌우 차선분리선을 인식하여 주행 차선 영역을 결정하는 단계;Determining a driving lane area by recognizing left and right lane separation lines of a driving lane through image processing of a vehicle surrounding image acquired from a sensor mounted on a driving vehicle; 상기 결정된 주행 차선 영역의 차선 데이터로부터 상기 주행 차선 영역 좌우로 확장되는 인접 차선 영역을 결정하고, 상기 주행 차선 영역과 인접 차선 영역의 차선 데이터를 기초로 상기 인접 차선 영역의 주행 가능 여부를 결정하는 단계; Determining an adjacent lane area that extends to the left and right of the driving lane area from the determined lane data of the driving lane area, and determining whether the adjacent lane area is capable of traveling based on the lane data of the driving lane area and the adjacent lane area; ; 상기 인접 차선 영역의 주행이 불가능할 때까지의 상기 인접 차선 결정부에 의한 주행 가능 여부 결정 동작 반복 횟수를 이용하여 주행 도로의 전체 차선 수를 결정하는 단계; 및Determining the total number of lanes on the driving road by using the number of repetition times of determining whether the driving is possible by the adjacent lane determination unit until the driving of the adjacent lane area is impossible; And 상기 결정된 전체 차선 수, 도로의 지리 정보 및 차량의 위치 정보를 종합하여 현재 주행 중인 차선의 상대적 위치를 결정하는 단계;를 포함하는 것을 특징으로 하는 주행 차선의 상대적 위치 인식 방법.And determining the relative position of the currently driving lane by combining the determined total number of lanes, geographic information of the road, and position information of the vehicle. 제4항에 있어서, 상기 인접 차선 영역 결정 단계는, The method of claim 4, wherein the determining the adjacent lane area, 상기 결정된 주행 차선 영역의 좌우 차선분리선의 좌우 양측으로 인접 차선 영역을 선택하는 단계; Selecting adjacent lane areas to both left and right sides of the determined left and right lane separation lines of the driving lane area; 상기 결정된 주행 차선 영역과 상기 각각의 선택된 인접 차선 영역의 차선 데이터를 이용하여 유사도를 계산하는 단계; 및Calculating a similarity degree using the lane data of the determined driving lane area and each selected adjacent lane area; And 상기 유사도 값을 임계값과 비교하여 상기 유사도 값이 임계값 범위 내이면 상기 인접 차선 영역을 주행 가능 차선으로 결정하는 단계를 포함하는 것을 특징으로 하는 주행 차선의 상대적 위치 인식 방법.And comparing the similarity value with a threshold value and determining the adjacent lane area as an available lane when the similarity value is within a threshold range. 제4항에 있어서,The method of claim 4, wherein 상기 결정된 주행 차선 및 인접 차선의 위치를 디스플레이하는 단계;를 더 포함하는 것을 특징으로 하는 주행 차선의 상대적 위치 인식 방법.And displaying the determined positions of the driving lane and the adjacent lane. 제4항 내지 제6항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing the method of any one of claims 4 to 6.
KR1020060095024A 2006-09-28 2006-09-28 Traveling lane recognizing apparatus and method thereof KR100809417B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060095024A KR100809417B1 (en) 2006-09-28 2006-09-28 Traveling lane recognizing apparatus and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060095024A KR100809417B1 (en) 2006-09-28 2006-09-28 Traveling lane recognizing apparatus and method thereof

Publications (1)

Publication Number Publication Date
KR100809417B1 true KR100809417B1 (en) 2008-03-05

Family

ID=39397425

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060095024A KR100809417B1 (en) 2006-09-28 2006-09-28 Traveling lane recognizing apparatus and method thereof

Country Status (1)

Country Link
KR (1) KR100809417B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101500082B1 (en) * 2013-06-10 2015-03-18 현대자동차주식회사 Apparatus and method for recognizing driving lane
KR20150084234A (en) 2014-01-13 2015-07-22 한화테크윈 주식회사 System and methof of detecting vehicle and lane position
KR20160064275A (en) * 2014-11-27 2016-06-08 연세대학교 산학협력단 Apparatus and method for recognizing position of vehicle
CN118094476A (en) * 2024-04-24 2024-05-28 吉林大学 Method for judging driving vehicle lane by fusing satellite remote sensing image and digital road network

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0138711Y1 (en) * 1996-12-17 1999-04-01 대우자동차주식회사 Road lane readout apparatus
JP2000099896A (en) 1998-09-22 2000-04-07 Denso Corp Traveling path detecting device and vehicle traveling controller and recording medium
KR20050042889A (en) * 2003-11-04 2005-05-11 현대자동차주식회사 Traveling lane recognizing method and traveling lane changing method
KR20050117470A (en) * 2004-06-10 2005-12-14 주식회사 현대오토넷 Apparatus and method for preventing collision of vehicles using gps

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0138711Y1 (en) * 1996-12-17 1999-04-01 대우자동차주식회사 Road lane readout apparatus
JP2000099896A (en) 1998-09-22 2000-04-07 Denso Corp Traveling path detecting device and vehicle traveling controller and recording medium
KR20050042889A (en) * 2003-11-04 2005-05-11 현대자동차주식회사 Traveling lane recognizing method and traveling lane changing method
KR20050117470A (en) * 2004-06-10 2005-12-14 주식회사 현대오토넷 Apparatus and method for preventing collision of vehicles using gps

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101500082B1 (en) * 2013-06-10 2015-03-18 현대자동차주식회사 Apparatus and method for recognizing driving lane
KR20150084234A (en) 2014-01-13 2015-07-22 한화테크윈 주식회사 System and methof of detecting vehicle and lane position
KR20160064275A (en) * 2014-11-27 2016-06-08 연세대학교 산학협력단 Apparatus and method for recognizing position of vehicle
KR101635831B1 (en) * 2014-11-27 2016-07-05 연세대학교 산학협력단 Apparatus and method for recognizing position of vehicle
CN118094476A (en) * 2024-04-24 2024-05-28 吉林大学 Method for judging driving vehicle lane by fusing satellite remote sensing image and digital road network

Similar Documents

Publication Publication Date Title
US10204277B2 (en) Electronic device, traveling lane identifying system, and traveling lane identifying method
US9460352B2 (en) Lane boundary line recognition device
JP4327389B2 (en) Travel lane recognition device
JP4321821B2 (en) Image recognition apparatus and image recognition method
RU2629433C2 (en) Device for detecting three-dimensional objects
EP2065835B1 (en) Image recognition apparatus and image recognition program
US6411898B2 (en) Navigation device
US7327855B1 (en) Vision-based highway overhead structure detection system
KR101500082B1 (en) Apparatus and method for recognizing driving lane
JPH09319872A (en) Road white line detector, curvature radium calculator, and navigation device
EP2605181A2 (en) Method and apparatus for detecting road partition
US9352746B2 (en) Lane relative position estimation method and system for driver assistance systems
KR20170124299A (en) A method and apparatus of assisting parking by creating virtual parking lines
JP4899647B2 (en) Distance measuring program, distance measuring device, distance measuring method
US20140002658A1 (en) Overtaking vehicle warning system and overtaking vehicle warning method
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
JP6129268B2 (en) Vehicle driving support system and driving support method
JP2005004442A (en) Traveling lane discriminating device
KR100809417B1 (en) Traveling lane recognizing apparatus and method thereof
JP2007278813A (en) Vehicle-position positioning device
JP2024019588A (en) Map data generation device
CN103577790B (en) road turn type detection method and device
KR20180047149A (en) Apparatus and method for risk alarming of collision
JP4968369B2 (en) In-vehicle device and vehicle recognition method
JP5012522B2 (en) Roadside boundary surface detection device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20120131

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee