KR101906436B1 - Driving-related guidance method for a moving body, electronic apparatus and computer-readable recording medium - Google Patents

Driving-related guidance method for a moving body, electronic apparatus and computer-readable recording medium Download PDF

Info

Publication number
KR101906436B1
KR101906436B1 KR1020180001547A KR20180001547A KR101906436B1 KR 101906436 B1 KR101906436 B1 KR 101906436B1 KR 1020180001547 A KR1020180001547 A KR 1020180001547A KR 20180001547 A KR20180001547 A KR 20180001547A KR 101906436 B1 KR101906436 B1 KR 101906436B1
Authority
KR
South Korea
Prior art keywords
lane
traveling
vehicle
image
information
Prior art date
Application number
KR1020180001547A
Other languages
Korean (ko)
Other versions
KR20180005274A (en
Inventor
조창빈
우승완
이해일
김진영
Original Assignee
팅크웨어(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 팅크웨어(주) filed Critical 팅크웨어(주)
Priority to KR1020180001547A priority Critical patent/KR101906436B1/en
Publication of KR20180005274A publication Critical patent/KR20180005274A/en
Application granted granted Critical
Publication of KR101906436B1 publication Critical patent/KR101906436B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3658Lane guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • G01C21/3682Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities output of POI information on a road map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Navigation (AREA)

Abstract

전자 기기를 이용한 이동체의 주행 관련 안내 방법이 개시된다. 본 방법은 이동체의 현재 위치 데이터를 획득하는 단계, 기 저장된 객체 중 획득된 현재 위치 데이터에 대응되는 객체를 선택하는 단계, 선택된 객체의 정보를 이용하여 이동체의 주행에 관련된 안내 정보를 디스플레이부에 표시하는 단계를 포함한다. 여기서, 객체는 이동체가 주행하는 도로에 관련된 정보를 제공하기 위한 비 텍스트 형태의 도형 또는 텍스트일 수 있다. A driving-related guidance method for a moving object using an electronic device is disclosed. The method includes the steps of acquiring current position data of a moving object, selecting an object corresponding to current position data acquired from previously stored objects, displaying guidance information related to traveling of the moving object on the display unit using information of the selected object . Here, the object may be a non-text form figure or text for providing information related to the road on which the moving object travels.

Description

이동체의 주행 관련 안내 방법, 전자 기기 및 컴퓨터 판독 가능한 기록 매체{Driving-related guidance method for a moving body, electronic apparatus and computer-readable recording medium}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a driving-related guidance method for a moving object, an electronic apparatus, and a computer-

전자 기기 및 전자 기기의 차선 안내 방법에 관한 것이다. An electronic device and an electronic device.

인터넷 망이 개방되고 위치데이터와 관련된 법률이 정비됨에 따라, 위치 기반 서비스(Location Based Service; LBS) 관련 산업이 활성화되고 있다. 이러한 위치 기반 서비스를 이용하는 대표적인 디바이스로는 차량 등의 현재위치를 측위 하거나 목적지까지의 이동 경로를 안내해주는 경로 안내 서비스를 제공하는 차량용 내비게이션을 들 수 있다. With the opening of the Internet network and the revision of laws related to location data, a location based service (LBS) related industry is being activated. Typical devices utilizing the location-based service include a navigation device for a vehicle that provides a route guidance service for positioning a current position of a vehicle or the like or guiding a route to a destination.

또한, 차량의 정차 또는 운행 중 발생한 사고의 책임소재에 따른 과실비율을 판단하기 위하여 객관적인 자료가 필요한 경우가 증가하고 있다. 이에 따라, 객관적인 자료를 제공할 수 있는 차량용 블랙박스가 사용되고 있다. In addition, there is an increasing need to provide objective data in order to determine the rate of negligence according to the responsibility of the accidents that occur during the stopping or operation of the vehicle. Accordingly, a vehicle black box capable of providing objective data is used.

최근, 차량용 블랙박스를 통해 획득되는 차량용 주행 영상을 이용하여 차선을 인식하고 더 나아가서는 차량이 올바른 차선으로 주행하도록 유도하기 위한 여러 가지 연구들이 활발히 진행되고 있다. 2. Description of the Related Art Recently, various researches have been actively conducted to recognize a lane by using a running image for a vehicle obtained through a black box for a vehicle, and further to induce a vehicle to travel in the right lane.

본 발명은 운전자가 올바른 차선으로 주행하도록 유도하는 전자 기기 및 전자 기기의 차선 안내 방법을 제공한다. The present invention provides a lane guiding method of an electronic device and an electronic device for guiding a driver to drive in a correct lane.

상기한 과제를 실현하기 위한 본 발명의 일 양상으로서 본 발명에 따른 전자 기기는, 영상을 수신하는 통신부; 및 상기 영상으로부터 도로에 표시된 적어도 하나의 객체에 대한 객체 정보를 획득하고, 상기 객체 정보를 토대로 상기 차량이 주행 중인 차선의 차선 정보를 획득하며, 상기 차선 정보를 토대로 차선 안내를 수행하는 제어부를 포함한다.According to an aspect of the present invention, there is provided an electronic apparatus comprising: a communication unit for receiving an image; And a control unit for acquiring object information for at least one object displayed on the road from the image, acquiring lane information of the lane on which the vehicle is traveling based on the object information, and performing lane guidance based on the lane information do.

상기한 과제를 실현하기 위한 본 발명의 다른 양상으로서 본 발명에 따른 전자 기기는, 영상을 획득하는 카메라; 및 상기 영상으로부터 도로에 표시된 적어도 하나의 객체에 대한 객체 정보를 획득하고, 상기 객체 정보를 토대로 상기 차량이 주행 중인 차선의 차선 정보를 획득하며, 상기 차선 정보를 토대로 차선 안내를 수행하는 제어부를 포함한다. According to another aspect of the present invention for realizing the above-mentioned problem, an electronic apparatus according to the present invention includes: a camera for acquiring an image; And a control unit for acquiring object information for at least one object displayed on the road from the image, acquiring lane information of the lane on which the vehicle is traveling based on the object information, and performing lane guidance based on the lane information do.

상기한 과제를 실현하기 위한 본 발명의 양상으로서 본 발명에 따른 시스템은, 영상을 획득하는 제1 전자 기기; 및 상기 제1 전자 기기에 연결하며, 상기 영상으로부터 도로에 표시되는 적어도 하나의 객체에 대한 객체 정보를 획득하고, 상기 객체 정보를 토대로 상기 차량이 주행 중인 차선의 차선 정보를 획득하여 차선 안내를 수행하는 제2 전자 기기를 포함한다. According to an aspect of the present invention for realizing the above object, a system according to the present invention includes: a first electronic device for acquiring an image; And acquiring object information of at least one object displayed on the road from the image, acquiring lane information of the lane in which the vehicle is traveling based on the object information, and performing lane guidance The second electronic device.

상기 과제를 실현하기 위한 본 발명의 일 양상으로서 본 발명에 따른 전자 기기의 차선 안내 방법은, 차량의 주행 관련 영상을 수신하는 단계; 상기 영상으로부터 도로 위에 표시되는 적어도 하나의 객체를 추출하는 단계; 상기 추출된 적어도 하나의 객체를 토대로 상기 차량이 주행 중인 차선의 주행 방향을 포함하는 차선 정보를 획득하는 단계; 및 상기 차선 정보를 토대로 차선 안내를 수행하는 단계를 포함한다.According to another aspect of the present invention, there is provided a lane guidance method for an electronic device, the method comprising: receiving a driving-related image of a vehicle; Extracting at least one object displayed on the road from the image; Obtaining lane information including the driving direction of the lane in which the vehicle is traveling based on the extracted at least one object; And performing lane guidance based on the lane information.

상기 과제를 실현하기 위한 본 발명의 일 양상으로서 본 발명에 따른 컴퓨터 판독 가능한 기록 매체는 상기한 방법 중 어느 하나를 수행하는 프로그램을 기록한다.As one aspect of the present invention for realizing the above object, a computer-readable recording medium according to the present invention records a program that performs any one of the above methods.

본 발명에 따르면, 차량이 주행 중인 차선의 주행 방향을 확인하는 것이 가능하여, 차량이 올바른 차선에서 주행 중인지를 판단하는 것이 가능하다. 또한, 사용자가 올바른 차선으로 주행 중이지 않거나, 목적지까지 이동하기 위해 차선을 변경할 필요가 있는 경우, 이를 운전자에게 알려줌으로써 차량의 경로 이탈을 방지하거나 차량이 올바른 경로로 주행하도록 지원하는 효과가 있다. According to the present invention, it is possible to confirm the running direction of the lane in which the vehicle is running, and it is possible to determine whether the vehicle is running in the correct lane. In addition, when the user is not driving in the right lane or needs to change lanes in order to move to the destination, it is notified to the driver so as to prevent the vehicle from departing from the route or to support the vehicle to travel on the correct route.

도 1은 본 발명의 실시 예들에 따른 차선 안내 방법을 구현하기 위한 시스템의 일 예를 도시한 도면이다.
도 2는 본 발명의 실시 예들에 따른 차선 안내 방법을 구현하기 위한 시스템의 다른 예를 도시한 도면이다.
도 3은 본 발명의 실시 예들에 따른 차량용 내비게이션의 일 예를 도시한 구조도이다.
도 4는 본 발명의 실시 예들에 따른 차량용 내비게이션의 일 예를 도시한 구조도이다.
도 5는 본 발명의 실시 예들에 따른 내비게이션 시스템을 포함하는 통신망의 일 예를 도시한 구성도이다.
도 6은 본 발명의 제1 실시 예에 따른 내비게이션 시스템(10)의 차선 안내 방법 방법을 도시한 흐름도이다.
도 7은 본 발명의 제1일 실시 예에 따른 내비게이션 시스템(10)에서 영상으로부터 차량이 주행 중인 차선과 관련된 차선 표시선을 선택하는 일 예를 도시한 것이다.
도 8은 도로에 표시되는 객체의 일 예를 도시한 것이다.
도 9는 본 발명의 제1 실시 예에 따른 내비게이션 시스템(10)에서 후보 객체 데이터베이스를 이용하여 객체 정보를 획득하는 일 예를 도시한 흐름도이다.
도 10은 본 발명의 제1 실시 예에 따른 내비게이션 시스템(10)에서 후보 객체 데이터베이스를 이용하여 객체 정보를 획득하는 다른 예를 도시한 흐름도이다.
도 11은 본 발명의 제1 실시 예에 따른 내비게이션 시스템(10)에서 차량이 현재 주행 중인 차선에 대한 안내 정보를 디스플레이 모듈(141)을 통해 표시하는 일 예를 도시한 것이다.
도 12는 본 발명의 제1 실시 예에 따른 내비게이션 시스템(10)에서 차선 변경을 안내하는 방법의 일 예를 도시한 흐름도이다.
도 13은 본 발명의 제1 실시 예에 따른 내비게이션 시스템(10)에서 차선 변경을 안내하는 방법의 다른 예를 도시한 흐름도이다.
도 14는 본 발명의 제2 실시 예에 따른 내비게이션 시스템(10)의 차선 안내 방법 방법을 도시한 흐름도이다.
1 is a diagram illustrating an example of a system for implementing a lane guidance method according to embodiments of the present invention.
2 is a view showing another example of a system for implementing the lane guidance method according to the embodiments of the present invention.
3 is a structural view showing an example of a navigation system for a vehicle according to an embodiment of the present invention.
4 is a structural view showing an example of a navigation system for a vehicle according to an embodiment of the present invention.
5 is a block diagram illustrating an example of a communication network including a navigation system according to embodiments of the present invention.
6 is a flowchart illustrating a lane guidance method method of the navigation system 10 according to the first embodiment of the present invention.
FIG. 7 shows an example of selecting a lane marking line associated with a lane in which a vehicle is traveling from an image in the navigation system 10 according to the first embodiment of the present invention.
8 shows an example of an object displayed on a road.
9 is a flowchart illustrating an example of acquiring object information using the candidate object database in the navigation system 10 according to the first embodiment of the present invention.
10 is a flowchart illustrating another example of acquiring object information using the candidate object database in the navigation system 10 according to the first embodiment of the present invention.
FIG. 11 illustrates an example of displaying guidance information on a lane on which a vehicle is currently traveling through the display module 141 in the navigation system 10 according to the first embodiment of the present invention.
12 is a flowchart showing an example of a method of guiding a lane change in the navigation system 10 according to the first embodiment of the present invention.
13 is a flowchart showing another example of a method of guiding a lane change in the navigation system 10 according to the first embodiment of the present invention.
14 is a flowchart showing a lane guidance method method of the navigation system 10 according to the second embodiment of the present invention.

본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예들을 가질 수 있는 바, 이하에서는 특정 실시 예들을 도면에 예시하고 이를 상세히 설명하고자 한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 일, 일 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다The above objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. It is to be understood, however, that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and similarities. Like reference numerals designate like elements throughout the specification. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. In addition, numerals (e.g., days, days, etc.) used in the description of the present invention are merely an identifier for distinguishing one component from another component

어떤 구성요소가 다른 구성요소에 "접속되어" 있다거나 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 접속되어 있거나 또는 연결되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 한다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 접속되어" 있다거나 "직접 연결되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffix "module" and " part "for constituent elements used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

이하, 첨부된 도면들을 참조하여 본 발명에 대하여 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시 예들에 따른 차선 안내 방법을 구현하기 위한 시스템의 일 예를 도시한 도면이다.1 is a diagram illustrating an example of a system for implementing a lane guidance method according to embodiments of the present invention.

도 1을 참조하면, 시스템(10)은 차량의 운행, 유지 등과 관련된 각종 데이터를 차량의 운전자 및 동승자에게 알려주는 제1 전자 기기(100)와 차량의 운행과 관련된 데이터를 기록하는 제2 전자 기기(200)를 포함할 수 있다. Referring to FIG. 1, the system 10 includes a first electronic device 100 for notifying a driver and a passenger of the vehicle of various data related to the operation, maintenance, and the like of the vehicle, and a second electronic device (200).

아래에서는, 차량 안내 방법을 구현하기 위한 시스템(10)이 '내비게이션 시스템'이고, 제1 전자 기기(100) 및 제2 전자 기기(200)가 각각 '차량용 내비게이션' 및 '차량용 블랙박스'인 경우를 예로 들어 설명한다. 그러나, 본 발명은 이에 한정되지 않으며, 본 발명에서는 차선 안내 방법을 구현하기 위해 다른 종류의 전자 기기를 사용할 수도 있다. 예를 들어, 제1 전자 기기(100) 또는 제2 전자 기기(200)는 이동통신 단말기, 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 등으로 구현될 수도 있다. 또한, 본 발명의 실시 예들에서는, 차량용 내비게이션(100)과 차량용 블랙박스(200)가 서로 별도로 마련되는 경우를 예로 들어 설명하나, 본 발명은 이에 한정되지 않는다. 본 발명에 따르면, 차량용 내비게이션(100)과 차량용 블랙박스(200)가 일체화되는 경우도 가능하다. Hereinafter, when the system 10 for implementing the vehicle guidance method is a 'navigation system' and the first electronic device 100 and the second electronic device 200 are 'navigation for vehicle' and 'vehicle black box', respectively As an example. However, the present invention is not limited to this, and other types of electronic devices may be used to implement the lane guidance method in the present invention. For example, the first electronic device 100 or the second electronic device 200 may be implemented as a mobile communication terminal, a digital broadcasting terminal, a personal digital assistant (PDA), or a portable multimedia player (PMP). In the embodiments of the present invention, the vehicle navigation system 100 and the vehicle black box 200 are separately provided. However, the present invention is not limited thereto. According to the present invention, it is also possible that the vehicle navigation system 100 and the vehicle black box 200 are integrated.

차량용 내비게이션(100)은 내비게이션 하우징(191)의 전면에 마련된 디스플레이부(145)와, 내비게이션 조작키(193)와, 내비게이션 마이크(195)를 포함할 수 있다.The vehicle navigation system 100 may include a display unit 145 provided on the front surface of the navigation housing 191, a navigation operation key 193, and a navigation microphone 195.

내비게이션 하우징(191)은 차량용 내비게이션(100)의 외관을 형성한다. 차량용 내비게이션(100)은, 계절적인 요인 등에 의한 고온 또는 저온에 노출되거나, 직/간접적인 외부 충격을 받는 등 다양한 조건의 환경에 노출될 수 있다. 내비게이션 하우징(191)은 외부 환경의 변화로부터 차량용 내비게이션(100) 내부의 각종 전자부품을 보호하는 한편, 차량용 내비게이션(100)의 외관을 미려하게 할 목적을 가질 수 있다. 이와 같은 목적을 달성하기 위하여, 내비게이션 하우징(191)은 ABS, PC 또는 강도가 강화된 엔지니어링 플라스틱 등의 소재를 사출 성형하는 방법으로 가공될 수 있다.The navigation housing 191 forms the appearance of the navigation system 100 for a vehicle. The vehicle navigation system 100 may be exposed to various conditions such as exposure to a high temperature or a low temperature due to seasonal factors or a direct / indirect external shock. The navigation housing 191 may have a purpose of protecting various electronic components in the navigation system 100 of the vehicle from the change of the external environment and making the appearance of the navigation system 100 of the vehicle better. In order to achieve the above object, the navigation housing 191 can be processed by a method of injection-molding a material such as ABS, PC, or engineering plastic reinforced with strength.

디스플레이부(145)는 각종 데이터를 시각적으로 표시하는 부분이다. 디스플레이부(145)에 표시되는 각종 데이터는, 경로 데이터 등이 결합된 지도(map) 데이터이거나, DMB 방송을 포함한 각종 방송 화면이거나, 메모리에 저장되어 있던 영상일 수 있다. 디스플레이부(145)는 물리적 또는 논리적으로 수개로 분할될 수 있다. 물리적으로 분할된 디스플레이부(145)는 2개 이상의 디스플레이부(145)가 인접하여 마련된 경우를 의미한다. 논리적으로 분할된 디스플레이부(145)는, 물리적으로 1개의 디스플레이부(145)에 복수개의 독립된 화면을 표시하는 경우를 의미한다. 예를 들어, DMB 방송을 수신하여 표시하고 있는 도중에 디스플레이부(145)의 일부 영역에 경로데이터를 표시하거나, 디스플레이부(145)의 일부 영역과 다른 영역에 각각 DMB 방송과 지도 화면을 표시하는 경우일 수 있다. 각종 기능이 차량용 내비게이션(100)에 컨버젼스(convergence)되는 경향에 따라 디스플레이부(145)를 논리적으로 분할하여 다양한 데이터를 표시하는 경우가 점차 증가하고 있다. 나아가, 각종 데이터를 표시하기 위하여, 디스플레이부(145)는 점차 대화면화 되고 있다.The display unit 145 is a part for visually displaying various data. Various data displayed on the display unit 145 may be map data combined with route data or the like, various broadcast screens including DMB broadcasting, or images stored in the memory. The display unit 145 may be physically or logically divided into several. The physically divided display unit 145 means a case where two or more display units 145 are provided adjacent to each other. The logically divided display unit 145 means a case where a plurality of independent screens are displayed on one display unit 145 physically. For example, when DMB broadcasting is received and displayed, route data is displayed in a part of the display unit 145, or DMB broadcasting and a map screen are displayed in a different area from a part of the display unit 145 Lt; / RTI > The display portion 145 is logically divided to display various data in accordance with a tendency that various functions converge on the navigation system 100 for a vehicle. Further, in order to display various data, the display unit 145 is gradually becoming a large-sized screen.

디스플레이부(145)의 전면(全面) 또는 일부는 사용자의 터치입력을 수신할 수 있는 터치스크린일 수 있다. 예를 들어, 디스플레이부(145)에 표시된 기능선택 버튼을 터치함으로써 그 기능을 활성화할 수 있다. 즉, 디스플레이부(145)가 영상의 출력부(도 3의 140)인 동시에 입력부(도 3의 120)일 수 있음을 의미한다.The entire surface or a part of the display unit 145 may be a touch screen capable of receiving a user's touch input. For example, by touching a function selection button displayed on the display unit 145, the function can be activated. That is, it means that the display unit 145 can be an output unit (140 in FIG. 3) and an input unit (120 in FIG. 3).

내비게이션 조작키(193)는 차량용 내비게이션(100)의 각종 기능을 실행하거나 사용자가 직접 필요한 데이터를 입력하도록 하기 위하며 마련될 수 있다. 빈번하게 사용하는 특정 기능을 내비게이션 조작키(193)에 맵핑(mapping)하여 사용편의성을 향상할 수 있다.The navigation operation key 193 may be provided to execute various functions of the navigation system 100 for a vehicle or to allow a user to input necessary data directly. It is possible to improve the usability by mapping a specific function frequently used to the navigation operation keys 193.

내비게이션 마이크(195)는 음성과 음향을 포함하는 소리(sound)를 수신하기 위하여 마련될 수 있다. 예를 들어, 내비게이션 마이크(195)로 수신한 음성 신호에 기초하여 차량용 내비게이션(100)의 특정 기능의 실행이 가능할 수 있다. 또한, 내비게이션 마이크(195)로 수신한 음향 신호에 기초하여 사고의 발생 등 차량의 현 상태를 감지할 수 있다.The navigation microphone 195 may be provided to receive sounds including voice and sound. For example, it is possible to execute the specific function of the vehicle navigation device 100 based on the voice signal received by the navigation microphone 195. [ Further, based on the acoustic signal received by the navigation microphone 195, it is possible to detect the current state of the vehicle such as an accident.

차량용 블랙박스(200)는 차량용 내비게이션(100)과 신호를 교환하여 차량의 사고 처리 과정 등에 필요한 데이터를 저장할 수 있다. 예를 들어, 차량의 운행 중에 사고가 발생한 경우에, 차량용 블랙박스(200)에서 획득하여 저장한 영상을 분석하여 사고의 경위 및 과실의 정도를 판단하는데 사용할 수 있다. 또한, 차량용 내비게이션(100)과 연결되어 있는 차량용 블랙박스(200)는, 차량용 내비게이션(100)에 저장되어 있는 각종 데이터를 활용할 수 있다. 예를 들어, 차량용 블랙박스(200)에서 획득한 영상을 차량용 내비게이션(100)에 저장된 지도 데이터에 매핑시켜 차량용 블랙박스(200)의 효용성을 증대시킬 수 있음을 의미한다.The vehicle black box 200 can exchange data with the vehicle navigation system 100 to store data necessary for the accident process of the vehicle and the like. For example, when an accident occurs while the vehicle is in operation, the image acquired and stored in the vehicle black box 200 may be analyzed to determine the degree of accident and the extent of the accident. The vehicle black box 200 connected to the navigation system 100 for a vehicle can utilize various data stored in the navigation system 100 for a vehicle. For example, it is possible to increase the utility of the vehicle black box 200 by mapping the image acquired by the vehicle black box 200 to the map data stored in the vehicle navigation system 100.

차량용 블랙박스(200)는 주행 중 및 정차 중에 차량의 데이터를 획득할 수 있다. 즉, 차량의 주행 중의 영상을 촬영할 수 있음은 물론, 차량이 정차하여 있는 경우에도 영상을 촬영할 수 있다. 차량용 블랙박스(200)를 통하여 획득된 영상의 화질은, 일정하거나 변화될 수 있다. 예를 들어, 사고의 발생을 전후하여서는 영상의 화질을 높게 하고, 통상적인 경우에는 영상의 화질을 낮게 함으로써 요구되는 저장공간을 최소화하면서도 핵심적인 영상을 저장할 수 있다.The vehicle black box 200 can acquire the data of the vehicle during driving and stopping. That is, it is possible not only to shoot a moving image of a vehicle, but also to shoot an image even when the vehicle is stationary. The image quality of the image obtained through the vehicle black box 200 may be constant or changed. For example, it is possible to store a core image while minimizing a required storage space by increasing the image quality before and after occurrence of an accident, and lowering the image quality in a normal case.

차량용 블랙박스(200)는 블랙박스 카메라(222)와, 블랙박스 마이크(224)와, 부착부(281)를 포함할 수 있다.The vehicle black box 200 may include a black box camera 222, a black box microphone 224, and an attaching portion 281. [

블랙박스 카메라(222)는 차량의 외부 또는 실내를 촬영할 수 있다. 또한, 블랙박스 카메라(222)는 단수개 또는 복수개 마련될 수 있다. 블랙박스 카메라(222)가 복수개인 경우에는, 1개는 차량용 블랙박스(200)와 일체화 되고 나머지는 차량의 각 부분에 부착된 상태에서 촬영한 영상을 차량용 블랙박스(200)로 송신할 수 있다. 블랙박스 카메라(222)가 단수개인 경우에, 블랙박스 카메라(222)는 차량의 전방을 촬영하도록 설치될 수 있다. 블랙박스 카메라(222)에서 촬영된 영상은, 차량용 블랙박스(200) 또는 차량용 내비게이션(100)에 저장될 수 있다.The black box camera 222 can photograph the outside of the vehicle or the inside of the vehicle. The number of the black box cameras 222 may be one or more. When there are a plurality of black box cameras 222, one can transmit an image captured in a state of being integrated with the vehicle black box 200 and the remaining one attached to each part of the vehicle to the vehicle black box 200 . In the case where the black box camera 222 is a single person, the black box camera 222 may be installed to photograph the front of the vehicle. The image photographed by the black box camera 222 may be stored in the vehicle black box 200 or the vehicle navigation system 100. [

블랙박스 마이크(224)는 차량 내외부에서 발생하는 사운드(sound)를 획득할 수 있다. 블랙박스 마이크(224)는, 전술한 내비게이션 마이크(195)와 유사한 기능을 수행할 수 있다.The black box microphone 224 can acquire a sound generated from the inside and the outside of the vehicle. The black box microphone 224 can perform a function similar to the navigation microphone 195 described above.

부착부(281)는 차량용 블랙박스(200)를 차량에 고정되도록 할 수 있다. 부착부(281)는, 차량용 블랙박스(200)를 차량의 전면유리에 부착할 수 있는 흡착판이거나, 차량의 룸 밀러 등에 결합할 수 있는 고정장치일 수 있다.The attachment portion 281 can fix the vehicle black box 200 to the vehicle. The attachment portion 281 may be a suction plate capable of attaching the vehicle black box 200 to the front glass of the vehicle or a fixing device capable of engaging with a room mirror or the like of the vehicle.

도 2는 본 발명의 실시 예들에 따른 차선 안내 방법을 구현하기 위한 시스템의 다른 예를 도시한 도면이다. 2 is a view showing another example of a system for implementing the lane guidance method according to the embodiments of the present invention.

도 2를 참조하면, 내비게이션 시스템(10)을 구성하는 차량용 내비게이션(100)과 차량용 블랙박스(200)은 무선으로 서로 연결될 수 있다. 즉, 차량용 내비게이션(100)과 차량용 블랙박스(200)가 별도의 디바이스이며, 그 사이에 물리적인 연결장치가 없을 수 있음을 의미한다. 차량용 내비게이션(100)과 차량용 블랙박스(200)는, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, Infrared Data Association), UWB(Ultra WideBand), 지그비(ZigBee) 등의 통신 방식을 이용하여 통신할 수 있다.Referring to FIG. 2, the navigation system 100 and the vehicle black box 200 constituting the navigation system 10 may be wirelessly connected to each other. That is, the vehicle navigation system 100 and the vehicle black box 200 are separate devices, meaning that there is no physical connection device between them. The vehicle navigation system 100 and the vehicle black box 200 are connected to each other by a communication method such as Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (UDA), Ultra WideBand (UWB) To communicate with each other.

도 3은 본 발명의 실시 예들에 따른 차량용 내비게이션의 구조도이다.3 is a structural view of a navigation system for a vehicle according to an embodiment of the present invention.

*도 3을 참조하면, 차량용 내비게이션(100)은 제1 통신부(110), 제1 입력부(120), 제 1센싱부(130), 출력부(140), 제1 저장부(150), 제1 전원부(160) 및 제1 제어부(170)를 포함할 수 있다. 도 3에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 전자 기기를 구현될 수도 있다.3, the vehicle navigation system 100 includes a first communication unit 110, a first input unit 120, a first sensing unit 130, an output unit 140, a first storage unit 150, 1 power supply unit 160 and a first control unit 170. [ The components shown in FIG. 3 are not essential, and an electronic device having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

제1 통신부(110)는 차량용 내비게이션(100)과 통신 시스템 사이 또는 차량용 내비게이션(100)과 차량용 내비게이션(100)이 위치한 네트워크 사이 또는 차량용 내비게이션(100)과 다른 전자 기기와의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 제1 통신부(100)는, 제1 위치 데이터 모듈(111), 제1 무선 인터넷 모듈(113), 방송 송수신 모듈(115), 제1 근거리 통신 모듈(117), 제1 유선 통신 모듈(119) 등을 포함할 수 있다.The first communication unit 110 is connected to the vehicle navigation system 100 and the communication system or between the vehicle navigation system 100 and the network in which the vehicle navigation system 100 is located or the vehicle navigation system 100, The above modules may be included. For example, the first communication unit 100 may include a first location data module 111, a first wireless Internet module 113, a broadcast transmission / reception module 115, a first short distance communication module 117, Module 119, and the like.

제1 위치 데이터 모듈(111)은 차량용 내비게이션(100)의 위치 데이터를 확인하거나 얻기 위한 모듈이다. 제1 위치 데이터 모듈(111)이 위치 데이터를 획득하는 방법으로는 GNSS(Global Navigation Satellite System)를 통하여 위치 데이터를 획득하는 방법이 사용될 수 있다. GNSS는 인공위성(도 5의 20)으로부터 수신한 전파신호를 이용하여 수신 단말기의 위치를 산출할 수 있는 항법 시스템을 의미한다. GNSS의 구체적인 예로는, 그 운영 주체에 따라서 GPS(Global Positioning System), Galileo, GLONASS(Global Orbiting Navigational Satellite System), COMPASS, IRNSS(Indian Regional Navigational Satellite System), QZSS(Quasi-Zenith Satellite System) 등 일 수 있다. 본 발명의 제1 실시 예에 따른 차량용 내비게이션(100)의 위치 데이터 모듈(111)은, 차량용 내비게이션(100)이 사용되는 지역에서 서비스하는 GNSS 신호를 수신하여 위치 데이터를 획득할 수 있다. 제1 위치 데이터 모듈(111)은 차량용 내비게이션(100)의 현재 위치를 실시간으로 계속 산출하고, 이를 이용하여 속도 정보를 산출하기도 한다.The first position data module 111 is a module for confirming or obtaining the position data of the vehicle navigation system 100. As a method of acquiring the position data by the first position data module 111, a method of acquiring position data through a Global Navigation Satellite System (GNSS) can be used. GNSS means a navigation system capable of calculating the position of a receiving terminal using a radio wave signal received from an artificial satellite (20 in FIG. 5). A specific example of GNSS is a GPS (Global Positioning System), a Galileo, a GLONASS (Global Orbiting Navigational Satellite System), a COMPASS, an Indian Regional Navigational Satellite System (IRNSS), a Quasi-Zenith Satellite System . The position data module 111 of the vehicle navigation system 100 according to the first embodiment of the present invention can receive the GNSS signal serviced in the area in which the vehicle navigation system 100 is used and obtain the position data. The first position data module 111 continues to calculate the current position of the navigation system 100 in real time, and calculates the speed information using the calculated current position.

제1 무선 인터넷 모듈(113)은 무선 인터넷에 접속하여 데이터를 획득하거나 송신하는 장치이다. 무선 인터넷 모듈(113)을 통하여 접속할 수 있는 무선 인터넷은, WLAN(Wireless LAN), Wibro(Wireless broadband), Wimax(World interoperability for microwave access), HSDPA(High Speed Downlink Packet Access) 등 일 수 있다.The first wireless Internet module 113 is a device that accesses the wireless Internet and acquires or transmits data. The wireless Internet that can be connected through the wireless Internet module 113 may be a wireless LAN (WLAN), a wireless broadband (WIBRO), a world interoperability for microwave access (WIMAX), or a high speed downlink packet access (HSDPA).

방송 송수신 모듈(115)은 각종 방송 시스템을 통하여 방송 신호를 수신하는 장치이다. 방송 송수신 모듈(115)을 통하여 수신할 수 있는 방송 시스템은, DMBT(Digital Multimedia Broadcasting Terrestrial), DMBS(Digital Multimedia Broadcasting Satellite), MediaFLO(Media Forward Link Only), DVBH(Digital Video Broadcast Handheld), ISDBT(Integrated Services Digital Broadcast Terrestrial) 등일 수 있다. 방송 송수신 모듈(115)을 통하여 수신되는 방송 신호에는 교통데이터, 생활데이터 등이 포함될 수 있다.The broadcast transmission / reception module 115 is a device for receiving broadcast signals through various broadcasting systems. The broadcast system that can receive the broadcast signal through the broadcast transmission / reception module 115 may be a DMBT (Digital Multimedia Broadcasting Terrestrial), a DMBS (Digital Multimedia Broadcasting Satellite), a MediaFLO (Media Forward Link Only), a DVBH (Digital Video Broadcast Handheld) Integrated Services Digital Broadcast Terrestrial) and the like. The broadcast signal received through the broadcast transmission / reception module 115 may include traffic data, living data, and the like.

제1 근거리 통신 모듈(117)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The first short range communication module 117 is a module for short range communication. Bluetooth, radio frequency identification (RFID), infrared data association (IrDA), ultra wideband (UWB), ZigBee, and the like can be used as the short distance communication technology.

제1 유선 통신 모듈(119)은 차량용 내비게이션(100)에 연결되는 다른 전자 기기와의 인터페이스를 제공하는 역할을 수행한다. 예를 들어, 제1 유선 통신 모듈(119)은, USB Port를 통하여 통신할 수 있는 USB 모듈일 수 있다. The first wired communication module 119 serves to provide an interface with other electronic devices connected to the navigation system 100 for the vehicle. For example, the first wired communication module 119 may be a USB module that can communicate through a USB port.

제1 입력부(120)는 차량용 내비게이션(100)의 동작 제어를 위한 입력 데이터를 발생시키는 모듈로서, 외부로부터의 물리적 입력을 특정한 전기 신호로 변환하여 입력 데이터를 발생시킬 수 있다. 제1 입력부(120)는 제1 사용자 입력 모듈(121), 제1 마이크(123) 등을 포함할 수 있다.The first input unit 120 is a module for generating input data for controlling the operation of the navigation system 100 for a vehicle, and can convert input data from an external physical input into a specific electric signal to generate input data. The first input unit 120 may include a first user input module 121, a first microphone 123, and the like.

제1 사용자 입력 모듈(121)은 사용자로부터 차량용 내비게이션(100)의 동작 제어를 위한 제어 입력을 수신한다. 제1 사용자 입력 모듈은 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. 예를 들어, 제1 사용자 입력 모듈(121)은 차량용 내비게이션(100)의 하우징(도 1의 191) 외부에 마련된 내비게이션 조작키(도 1의 193)로 구현될 수 있다.The first user input module 121 receives a control input for controlling the operation of the vehicle navigation system 100 from the user. The first user input module may include a key pad dome switch, a touch pad (static / static), a jog wheel, a jog switch, and the like. For example, the first user input module 121 may be implemented with a navigation operation key (193 in FIG. 1) provided outside the housing (191 in FIG. 1) of the vehicle navigation device 100.

제1 마이크(123)은 사용자의 음성 및 차량의 내외부에서 발생한 음향을 수신하는 장치이다. 제1 마이크(123)은 차량용 내비게이션(100)의 하우징(도 1의 191) 외부에 마련된 내비게이션 마이크(195)로 구현될 수 있다.The first microphone 123 is a device for receiving user's voice and sound generated from the inside and the outside of the vehicle. The first microphone 123 may be implemented as a navigation microphone 195 provided outside the housing 191 of the navigation system 100 of the vehicle 100.

제1 센싱부(130)는 차량용 내비게이션(100)의 현재 상태를 감지하여 차량용 내비게이션(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 제1 센싱부(130)는 제1 모션 센싱 모듈(131), 광 센싱 모듈(133) 등을 포함할 수 있다.The first sensing unit 130 senses the current state of the vehicle navigation system 100 and generates a sensing signal for controlling the operation of the vehicle navigation system 100. The first sensing unit 130 may include a first motion sensing module 131, an optical sensing module 133, and the like.

제1 모션 센싱 모듈(131)은 차량용 내비게이션(100)의 3차원 공간 상에서의 움직임을 감지할 수 있다. 제1 모션 센싱 모듈(131)은, 3축 지자기 센서 및 3축 가속도 센서를 포함할 수 있다. 제1 모션 센싱 모듈(131)을 통하여 획득한 움직임 데이터를 위치 데이터 모듈(111)을 통하여 획득한 위치 데이터와 결합하여, 차량용 내비게이션(100)을 부착한 차량의 보다 정확한 궤적을 산출할 수 있다.The first motion sensing module 131 may sense movement of the navigation system 100 in the three-dimensional space. The first motion sensing module 131 may include a three-axis geomagnetic sensor and a three-axis acceleration sensor. The movement data obtained through the first motion sensing module 131 is combined with the position data acquired through the position data module 111 to calculate a more accurate trajectory of the vehicle with the vehicle navigation device 100 attached thereto.

광 센싱 모듈(133)은 차량용 내비게이션(100)의 주변 조도(luminance)를 측정하는 장치이다. 광 센싱 모듈(133)을 통하여 획득한 조도 데이터를 이용하여, 디스플레이부(145)의 밝기를 주변 밝기에 대응되도록 변화시킬 수 있다.The optical sensing module 133 is a device for measuring the luminance of the surroundings of the vehicle navigation system 100. The brightness of the display unit 145 can be changed to correspond to the ambient brightness using the illumination data acquired through the optical sensing module 133. [

출력부(140)는 차량용 내비게이션(100)이 데이터를 출력하는 장치이다. 출력부(140)는 디스플레이 모듈(141), 오디오 출력 모듈(143) 등을 포함할 수 있다.The output unit 140 is a device for the vehicle navigation device 100 to output data. The output unit 140 may include a display module 141, an audio output module 143, and the like.

디스플레이 모듈(141)은 차량용 내비게이션(100)이 시각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 디스플레이 모듈(141)은, 차량용 내비게이션(100)의 하우징(도 1의 191) 전면(前面)에 마련된 디스플레이부(도 1의 145)로 구현될 수 있다. 한편, 디스플레이 모듈(141)이 터치스크린인 경우라면, 데이터의 출력부(140)인 동시에 제1 입력부(120)의 역할을 동시에 할 수 있음은 전술한 바와 같다.The display module 141 is a device for outputting data that can be visually recognized by the vehicle navigation device 100. [ The display module 141 may be implemented as a display unit 145 (FIG. 1) provided on the front surface of the housing 191 (FIG. 1) of the navigation system 100 for a vehicle. In the case where the display module 141 is a touch screen, the data output unit 140 and the first input unit 120 can be simultaneously operated as described above.

오디오 출력 모듈(143)은 청각적으로 인식될 수 있는 오디오 데이터를 출력한다. 오디오 출력 모듈(143)은, 차량용 내비게이션(100)에서 수행되는 기능(예를 들어, 경로 안내 기능)과 관련된 오디오 신호를 출력한다. 이러한 오디오 출력 모듈(143)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output module 143 outputs audio data that can be audibly recognized. The audio output module 143 outputs an audio signal related to a function (e.g., a route guidance function) performed in the navigation system 100 for the vehicle. The audio output module 143 may include a receiver, a speaker, a buzzer, and the like.

제1 저장부(150)는 차량용 내비게이션(100)의 동작을 위한 프로그램을 저장할 수 있고, 차량용 내비게이션(100)과 관련하여 입/출력되는 데이터(경로 데이터, 영상 데이터)들을 임시 저장할 수도 있다. 또한, 제1 저장부(150)는 경로 안내 서비스에 사용되는 지도(map) 데이터를 저장할 수도 있다. 제1 저장부(150)는 차량용 내비게이션(100)의 내부에 내장되거나, 탈 부착이 가능하며, 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(ReadOnly Memory, ROM), EEPROM(Electrically Erasable Programmable ReadOnly Memory), PROM(Programmable ReadOnly Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 차량용 내비게이션(100)은 인터넷(internet)상에서 상기 제1 저장부(150)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The first storage unit 150 may store a program for the operation of the vehicle navigation system 100 and may temporarily store data (route data, image data) input / output related to the navigation system 100 for the vehicle. Also, the first storage unit 150 may store map data used in the route guidance service. The first storage unit 150 may be built in or detached from the vehicle navigation system 100 and may be a flash memory type, a hard disk type, a multimedia card micro type, card type memory (such as SD or XD memory), random access memory (RAM), static random access memory (SRAM), read only memory (ROM), electrically erasable programmable read only Memory, a programmable read-only memory (PROM), a magnetic memory, a magnetic disk, and an optical disk. The navigation system 100 for a vehicle may operate in association with a web storage for performing a storage function of the first storage unit 150 on the Internet.

제1 전원부(160)는 외부의 전원, 내부의 전원을 인가받아 차량용 내비게이션(100)의 각 구성요소들 또는 차량용 내비게이션(100)에 연결된 다른 디바이스의 동작을 위하여 필요한 전원을 공급한다. The first power supply unit 160 receives power from an external power supply and supplies power to internal components of the navigation system 100 or other devices connected to the navigation system 100.

제1 제어부(170)는 통상적으로 차량용 내비게이션(100)의 전반적인 동작을 제어한다. 나아가, 제1 제어부(170)는 차량용 내비게이션(100)에 연결된 다른 디바이스를 제어하는 제어신호를 출력할 수도 있다.The first control unit 170 typically controls the overall operation of the navigation system 100 of the vehicle. Further, the first control unit 170 may output a control signal for controlling another device connected to the navigation system 100 for the vehicle.

도 4는 본 발명의 실시 예들과 관련된 차량용 블랙박스의 구조도이다.4 is a structural view of a vehicle black box related to embodiments of the present invention.

도 4를 참조하면, 차량용 블랙박스(200)는 제2 통신부(210), 제2 입력부(220), 제2 센싱부(230), 제2 저장부(250), 제2 전원부(260), 제2 제어부(270) 등을 포함할 수 있다. 도 4에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 전자 기기를 구현될 수도 있다.4, the vehicle black box 200 includes a second communication unit 210, a second input unit 220, a second sensing unit 230, a second storage unit 250, a second power source unit 260, A second controller 270, and the like. The components shown in Fig. 4 are not essential, and an electronic device having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

제2 통신부(210)는 차량용 블랙박스(200)와 통신 시스템 사이 또는 차량용 블랙박스(200)와 차량용 블랙박스(200)가 위치한 네트워크 사이 또는 차량용 블랙박스(200)와 다른 전자 기기(예를 들어, 차량용 내비게이션(100))와의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 제2 통신부(210)는 제2 위치 데이터 모듈(211), 제2 무선 인터넷 모듈(213), 제2 근거리 통신 모듈(217), 제2 유선 통신 모듈(219) 등을 포함할 수 있다. 제2 위치 데이터 모듈(211), 제2 무선 인터넷 모듈(213), 제2 근거리 통신 모듈(217) 및 제2 유선 통신 모듈(219)은 각각 제1 위치 데이터 모듈(111), 제1 무선 인터넷 모듈(113), 제1 근거리 통신 모듈(117) 및 제1 유선 통신 모듈(119)과 유사한 동작을 수행하므로, 아래에서는 상세한 설명을 생략한다. The second communication unit 210 may be connected to the vehicle black box 200 and the communication system or between the vehicle black box 200 and the vehicle black box 200 or between the vehicle black box 200 and another electronic device (E.g., vehicle navigation 100), as will be appreciated by those skilled in the art. For example, the second communication unit 210 includes a second location data module 211, a second wireless Internet module 213, a second short-range communication module 217, a second wired communication module 219, and the like . The second location data module 211, the second wireless internet module 213, the second short distance communication module 217 and the second wired communication module 219 are connected to the first location data module 111, Module 113, the first short-range communication module 117, and the first wired communication module 119, detailed description thereof will be omitted below.

제2 입력부(220)는 차량용 블랙박스(200)의 외부로부터의 입력을 특정한 전기 신호로 변환하여 입력 데이터를 발생시킬 수 있다. 제2 입력부(220)는 제2 사용자 입력 모듈(221), 제2 마이크(223), 카메라(225) 등을 포함할 수 있다.The second input unit 220 may convert the input from the outside of the vehicle black box 200 into a specific electric signal to generate input data. The second input unit 220 may include a second user input module 221, a second microphone 223, a camera 225, and the like.

제2 사용자 입력 모듈(221)은 사용자로부터 차량용 블랙박스(200)의 동작 제어를 위한 제어 입력을 수신할 수 있다. 제2 사용자 입력 모듈(221)은 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치, 푸시 버튼 등으로 구성될 수 있다. 제2 사용자 입력 모듈(221)은 필수적인 구성 요소는 아니어서, 차량용 블랙박스(200)가 차량용 내비게이션(100)에 의해 제어되는 경우, 차량용 블랙박스(200)의 구성 요소에서 제외될 수도 있다.The second user input module 221 may receive a control input for controlling the operation of the vehicle black box 200 from the user. The second user input module 221 may include a key pad dome switch, a touch pad (static / static), a jog wheel, a jog switch, a push button, and the like. The second user input module 221 is not an essential component and may be excluded from components of the vehicle black box 200 when the vehicle black box 200 is controlled by the vehicle navigation 100. [

제2 마이크(223)는 외부로부터 수신되는 오디오 신호를 특정 전기 신호로 변환하여 오디오 데이터를 발생시킨다. 예를 들어, 제2 마이크는 차량의 주행과 관련된 오디오 데이터를 획득할 수 있다. 제2 마이크(223)는 도 1에 도시된 차량용 블랙박스(200)의 마이크(224)에 대응될 수 있다. The second microphone 223 converts an audio signal received from the outside into a specific electric signal to generate audio data. For example, the second microphone may acquire audio data related to the running of the vehicle. The second microphone 223 may correspond to the microphone 224 of the vehicle black box 200 shown in Fig.

카메라(225)은 외부로부터 수신되는 영상 신호를 특정 전기 신호로 변환하여 영상 데이터를 발생시킨다. 예를 들어, 카메라(225)는 차량의 주행과 관련된 차량의 내, 외부의 영상 데이터를 획득할 수 있다. 카메라(225)는 도 1에 도시된 차량용 블랙박스(200)의 카메라(222)에 대응될 수 있다. The camera 225 converts image signals received from the outside into specific electric signals to generate image data. For example, the camera 225 can acquire image data of the inside and outside of the vehicle related to the running of the vehicle. The camera 225 may correspond to the camera 222 of the vehicle black box 200 shown in Fig.

제2 센싱부(230)는 차량용 블랙박스(200)의 현재 상태를 감지하여 차량용 블랙박스(200)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 제2 센싱부(230)는 제2 모션 센싱 모듈(231) 등을 포함할 수 있으며, 제2 모션 센싱 모듈(231)은 전술한 제1 모션 센싱 모듈(도 3의 131)과 유사한 동작을 수행한다.The second sensing unit 230 senses the current state of the vehicle black box 200 and generates a sensing signal for controlling the operation of the vehicle black box 200. The second sensing unit 230 may include a second motion sensing module 231 and the second motion sensing module 231 may perform an operation similar to the first motion sensing module 131 do.

제2 저장부(250)는 차량용 블랙박스(200)의 동작을 위한 프로그램을 저장할 수 있고, 차량용 블랙박스(200)와 관련하여 입/출력되는 데이터(영상 데이터, 오디오 데이터 등)들을 저장할 수도 있다. 예를 들어, 제2 저장부(250)는 제2 마이크(223)를 통해 획득되는 오디오 데이터 또는 카메라(225)를 통해 획득되는 영상 데이터를 저장할 수 있다. 제2 저장부(250)는 차량용 블랙박스(200)의 내부에 내장되거나, 탈 부착이 가능하며, 플래시 메모리 타입, 하드디스크 타입, 멀티미디어 카드 마이크로 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬, PROM, 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 차량용 블랙박스(200)는 인터넷(internet)상에서 상기 제2 저장부(250)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The second storage unit 250 may store a program for operation of the vehicle black box 200 and may store data (image data, audio data, etc.) input / output in association with the vehicle black box 200 . For example, the second storage unit 250 may store audio data obtained through the second microphone 223 or image data obtained through the camera 225. [ The second storage unit 250 may be built in or disassembled from the vehicle black box 200 and may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD Memory, etc.), a RAM, a ROM, a PROM, a magnetic memory, a magnetic disk, or an optical disk. The vehicle black box 200 may operate in association with a web storage that performs a storage function of the second storage unit 250 on the Internet.

제2 전원부(260)는 외부의 전원, 내부의 전원을 인가받아 차량용 블랙박스(200)의 각 구성요소들 또는 차량용 블랙박스(200)에 연결된 다른 디바이스의 동작을 위하여 필요한 전원을 공급한다. The second power supply unit 260 receives power from an external power source and supplies power to the components of the vehicle black box 200 or other devices connected to the vehicle black box 200.

제2 제어부(270)는 통상적으로 차량용 블랙박스(200)의 전반적인 동작을 제어한다. 제2 제어부(270)는 차량용 내비게이션(도 3의 100)의 제1 제어부(도 3의 170)의 제어신호에 영향 받을 수 있다. 즉, 제2 제어부(270)는 제1 제어부(도 3의 170)에 종속적일 수 있음을 의미한다.The second control unit 270 typically controls the overall operation of the vehicle black box 200. The second control unit 270 may be affected by the control signal of the first control unit 170 (Fig. 3) of the vehicle navigation system 100 (Fig. 3). That is, the second control unit 270 may be dependent on the first control unit 170 (FIG. 3).

도 5는 본 발명의 실시 예들과 관련된 내비게이션 시스템을 포함하는 통신망의 구성도이다.5 is a configuration diagram of a communication network including a navigation system according to embodiments of the present invention.

도 5를 참조하면, 내비게이션 시스템(10)은 다양한 통신망 및 다른 전자 기기(61 내지 64)와 접속할 수 있다.Referring to FIG. 5, the navigation system 10 may be connected to various communication networks and other electronic devices 61 to 64.

내비게이션 시스템(10)은, 인공위성(20)으로부터 수신한 전파신호를 사용하여 현재의 위치를 산출할 수 있다. 각각의 인공위성(20)은 주파수 대역이 상이한 L밴드 주파수를 송신할 수 있다. 내비게이션 시스템(10)은, 각각의 인공위성(20)에서 송신된 L밴드 주파수가 내비게이션 시스템(10)에 도달하는데 까지 소요된 시간에 기초하여 현재 위치를 산출할 수 있다.The navigation system 10 can calculate the current position using the radio wave signal received from the satellite 20. Each of the satellites 20 can transmit L-band frequencies having different frequency bands. The navigation system 10 can calculate the current position based on the time taken for the L-band frequency transmitted from each satellite 20 to reach the navigation system 10. [

내비게이션 시스템(10)은 제어국(40, ACR), 기지국(50, RAS) 등을 통하여 네트워크(30)에 무선으로 접속할 수 있다. 네트워크(30)에 내비게이션 시스템(10)이 접속하면, 네트워크(30)에 접속한 전자 디바이스(61, 62)와도 간접적으로 접속하여 데이터를 교환할 수 있다.The navigation system 10 can wirelessly connect to the network 30 through the control station 40 (ACR), the base station 50 (RAS), and the like. When the navigation system 10 is connected to the network 30, the electronic devices 61 and 62 connected to the network 30 can also be indirectly connected to exchange data.

내비게이션 시스템(10)은, 통신 기능을 가진 다른 디바이스(63)를 통하여 간접적으로 네트워크(30)에 접속할 수도 있다. 예를 들어, 네트워크(30)에 접속할 수 있는 장치가 내비게이션 시스템(10)에 마련되지 않은 경우에, 근거리 통신을 이용하여 통신 기능을 가진 다른 디바이스(63)와 통신할 수 있음을 의미한다.The navigation system 10 may indirectly connect to the network 30 through another device 63 having a communication function. For example, this means that when a device capable of connecting to the network 30 is not provided in the navigation system 10, it is possible to communicate with another device 63 having a communication function by using close range communication.

본 문서에서 개시되는 실시 예는 도 1 내지 도 5를 참조하여 설명한 내비게이션 시스템(10)에서 구현될 수 있다. 아래에서는 도로에서 차선을 구분하기 위해 주행 방향을 따라 일정한 간격으로 그어 놓은 선을 '차선 표시선'이라 명명하여 사용한다. The embodiments disclosed in this document can be implemented in the navigation system 10 described with reference to Figs. 1-5. In order to distinguish the lane on the road, a line drawn at regular intervals along the direction of travel is called 'lane marking line'.

이하, 필요한 도면들을 참조하여 본 발명의 제1 실시 예에 따른 차선 안내 방법 및 이를 구현하기 위한 내비게이션 시스템의 동작을 상세하게 설명한다. Hereinafter, the lane guidance method according to the first embodiment of the present invention and the operation of the navigation system for implementing the lane guidance method will be described in detail with reference to required drawings.

도 6은 본 발명의 제1 실시 예에 따른 내비게이션 시스템(10)의 차선 안내 방법 방법을 도시한 흐름도이다. 또한, 도 7 내지 도 13은 본 발명의 제1 실시 예에 따른 내비게이션 시스템(10)의 차선 안내 방법 방법을 설명하기 위한 도면들이다. 6 is a flowchart illustrating a lane guidance method method of the navigation system 10 according to the first embodiment of the present invention. 7 to 13 are diagrams for explaining a lane guidance method method of the navigation system 10 according to the first embodiment of the present invention.

도 6을 참조하면, 차량용 내비게이션(100)의 제1 제어부(170)는 제1 통신부(110)를 통해 차량용 블랙박스(200)에 연결한다(S101). 또한, 차량용 블랙박스(200)로부터 차량의 주행과 관련된 영상을 수신한다(S102). 차량용 블랙박스(200)는 적어도 하나의 카메라(225)를 이용하여 내비게이션 시스템(10)이 장착된 차량의 주행과 관련된 영상을 실시간으로 획득하고, 이를 차량용 내비게이션(100)으로 전송한다. 한편, 본 발명의 제1 실시 예에서는 차량용 내비게이션(100)과 차량용 블랙박스(200)가 별도로 구비되고, 유무선 통신을 통해 서로 통신하는 경우를 예로 들어 설명하였으나, 본 발명은 이에 한정되지 않는다. 본 발명에 따르면, 차량용 내비게이션(100)과 차량용 블랙박스(200)는 일체형으로 구현될 수도 있다. 또한, 본 발명의 제1 실시 예에서는 차량의 주행 영상을 차량용 블랙박스(200)로부터 수신하는 경우를 예로 들어 설명하였으나, 본 발명은 이에 한정되지 않는다. 본 발명에서는, 외부의 적어도 하나의 카메라(미도시)로부터 직접 차량의 주행과 관련된 영상을 수신할 수도 있다. Referring to FIG. 6, the first controller 170 of the vehicle navigation system 100 connects to the vehicle black box 200 through the first communication unit 110 (S101). Also, an image related to the running of the vehicle is received from the vehicle black box 200 (S102). The vehicle black box 200 acquires an image related to the running of the vehicle equipped with the navigation system 10 in real time using at least one camera 225 and transmits the acquired image to the vehicle navigation 100 in real time. Meanwhile, in the first embodiment of the present invention, the vehicle navigation system 100 and the vehicle black box 200 are separately provided and they are communicated with each other through wired / wireless communication. However, the present invention is not limited thereto. According to the present invention, the vehicle navigation system 100 and the vehicle black box 200 may be integrated. Also, in the first embodiment of the present invention, a case has been described in which the traveling image of the vehicle is received from the vehicle black box 200, but the present invention is not limited thereto. In the present invention, it is also possible to receive an image related to the running of the vehicle directly from at least one external camera (not shown).

차량용 내비게이션(100)의 제1 제어부(170)는 차량용 블랙박스(200)로부터 수신되는 영상을 분석하여 차선 정보를 획득한다(S103). 차선 정보는 도로 위에 표시되는 차선 표시선, 도형, 텍스트 등을 토대로 획득된다.The first control unit 170 of the navigation system 100 of the vehicle analyzes the image received from the vehicle black box 200 to obtain lane information (S103). Lane information is obtained based on lane markings, figures, texts, etc. displayed on the road.

차선 정보 중 차선 표시선과 관련된 정보는 차선 표시선의 표시 형태(예를 들어, 직선, 곡선, 실선, 점선 등), 색상 등을 포함할 수 있다. The information related to the lane marking line in the lane information may include the display form of the lane marking line (for example, a straight line, a curve, a solid line, a dotted line, etc.), a color, and the like.

제1 제어부(170)는 다양한 필터링 알고리즘을 이용하여 차량의 주행 영상으로부터 도로 위에 표시되는 차선 표시선을 인식할 수 있다. 예를 들어, 제1 제어부(170)는 에지(edge) 필터를 이용하여 영상으로부터 차선을 구분하기 위한 차선 표시선을 추출할 수 있다. 에지 필터를 이용하는 경우, 제1 제어부(170)는 영상에 포함된 각 픽셀의 명도 값을 이용하여 영상에서 경계를 이루는 부분을 검색한다. 그리고, 검색된 경계 부분을 토대로 차선 표시선을 인식한다. 한편, 에지 필터를 이용하여 차선 표시선을 인식하는 방법은, 차선 표시선을 인식하는 방법의 일 예로서, 본 문서에 개시되는 내비게이션 시스템(10)은 에지 필터를 이용한 방법 이외에도 다양한 필터링 알고리즘을 이용하여 영상에 포함된 차선 표시선을 추출할 수 있다. 차선 표시선이 추출되면, 제1 제어부(170)는 추출된 차선 표시선의 외곽선을 토대로 직선, 곡선, 실선, 점선 등의 차선 표시선의 표시 형태를 획득할 수 있다. 또한, 제1 제어부(170)는 추출된 차선 표시선에 대한 색상 인식을 통해 차선 표시선의 색상 정보를 획득할 수 있다. The first control unit 170 can recognize a lane marking line displayed on the road from the traveling image of the vehicle using various filtering algorithms. For example, the first controller 170 may extract a lane marking line for distinguishing a lane from an image using an edge filter. When the edge filter is used, the first controller 170 searches for a boundary portion of the image using the brightness value of each pixel included in the image. Then, the lane marking line is recognized based on the searched boundary portion. On the other hand, a method of recognizing a lane marking line using an edge filter is an example of a method of recognizing a lane marking line. The navigation system 10 disclosed in this document uses various filtering algorithms The lane markings included in the lane marking line can be extracted. When the lane marking line is extracted, the first control unit 170 can obtain the display form of the lane marking line such as a straight line, a curve, a solid line and a dotted line based on the outline of the extracted lane marking line. Also, the first controller 170 can acquire the color information of the lane marking line through the color recognition of the extracted lane marking line.

영상으로부터 복수 개의 차선 표시선이 추출되는 경우, 제1 제어부(170)는 복수의 차선 표시선 중에서 차량이 주행 중인 차선에 대응하는 적어도 하나의 차선 표시선을 인지할 수 있다. 여기서, 영상에 포함된 차선 표시선들 중 차량이 주행 중인 차선에 대응하는 차선 표시선을 선택하기 위해 제1 제어부(170)는 영상으로부터 추출된 각 차선 표시선의 영상 내 표시 위치를 이용할 수 있다. 예를 들어, 영상으로부터 복수 개의 차선 표시선이 검출되는 경우, 제1 제어부(170)는 영상을 수직으로 가로지르는 기준선을 설정하고, 기준선과 각 차선 표시선 간의 거리를 토대로 차량이 주행 중인 차선에 대응하는 차선 표시선을 선택할 수 있다. 즉, 기준선에서 가까운 차선 표시선을 차량이 주행 중인 차선과 관련된 차선 표시선으로 선택할 수 있다. 또한, 제1 제어부(170)는 기준선을 기준으로 어느 방향에 위치하느냐에 따라 차량이 주행 중인 차선의 왼쪽 표시선과 오른쪽 표시선을 구분할 수도 있다. When a plurality of lane marking lines are extracted from the image, the first control unit 170 can recognize at least one lane marking line corresponding to the lane in which the vehicle is running among the plurality of lane marking lines. Here, among the lane markers included in the image, the first controller 170 can use the in-video display position of each lane marking line extracted from the image to select the lane marking line corresponding to the lane in which the vehicle is running. For example, when a plurality of lane marking lines are detected from the image, the first control unit 170 sets a reference line that vertically crosses the image, and based on the distance between the reference line and each lane marking line, You can select the lane marking line. That is, the lane marking line near the reference line can be selected as the lane marking line related to the lane in which the vehicle is running. The first controller 170 may distinguish the left and right lines of the lane on which the vehicle is traveling depending on which direction the reference line is located.

도 7은 영상으로부터 차량이 주행 중인 차선과 관련된 차선 표시선을 선택하는 일 예를 도시한 것이다. 도 7을 참조하면, 제1 제어부(170)는 차량용 블랙박스(200)로부터 차량의 주행과 관련된 영상(7)를 수신한다(S201). 또한, 필터링 알고리즘을 이용하여 영상(7)로부터 차선 표시선(7a, 7b, 7c, 7d)을 검출한다(S202). 제1 제어부(170)는 검출된 차선 표시선들(7a, 7b, 7c, 7d) 각각의 영상(7) 내 위치를 토대로, 차량이 주행 중인 차선과 관련된 차선 표시선(7b, 7c)을 선택할 수 있다. 이를 위해, 제1 제어부(170)는 영상(7)를 수직으로 가로지르는 기준선(7e)를 설정한다. 그리고, 기준선(7e)을 기준으로 좌측에 위치하는 차선 표시선들(7a, 7b) 중에서 기준선(7e)에 가장 가까운 차선 표시선(7a)을 차량이 주행 중인 차선의 좌측 차선 표시선으로 인지한다. 또한, 기준선(7e)을 기준으로 우측에 위치하는 차선 표시선들(7c, 7d) 중에서 기준선(7e)에 가장 가까운 차선 표시선(7c)을 차량이 주행 중인 차선의 우측 차선 표시선으로 인지한다. 한편, 기준선과 각 차선 표시선 간의 거리 또는 상대적인 위치를 토대로 차량이 주행 중인 차선과 관련된 차선 표시선을 선택하는 방법은, 차량이 주행 중인 차선과 관련된 차선 표시선을 선택하는 방법의 일 예로서, 본 발명은 이에 한정되지 않는다. 본 문서에 개시되는 내비게이션 시스템(10)은 기준선과 각 차선 표시선의 상대적인 위치를 이용하여 차선 표시선을 선택하는 방법 이외에도 다양한 방법을 이용하여 차량이 주행 중인 차선과 관련된 차선 표시선을 선택할 수 있다.Fig. 7 shows an example of selecting a lane marking line associated with a lane in which the vehicle is traveling from the image. 7, the first controller 170 receives the image 7 related to the running of the vehicle from the vehicle black box 200 (S201). Further, the lane marking lines 7a, 7b, 7c and 7d are detected from the image 7 by using the filtering algorithm (S202). The first control unit 170 can select the lane marking lines 7b and 7c related to the lane in which the vehicle is running based on the position of each of the detected lane marking lines 7a, 7b, 7c and 7d in the image 7 . To this end, the first controller 170 sets a reference line 7e that vertically crosses the image 7. The lane marking line 7a closest to the reference line 7e among the lane marking lines 7a and 7b located on the left side with respect to the reference line 7e is recognized as the left lane marking line of the lane in which the vehicle is running. The lane marking line 7c closest to the reference line 7e among the lane marking lines 7c and 7d located on the right side with respect to the reference line 7e is recognized as the right lane marking line of the lane in which the vehicle is running. On the other hand, a method of selecting a lane marking line associated with a lane in which the vehicle is running based on the distance or relative position between the reference line and each lane marking line is an example of a method of selecting a lane marking line associated with a lane in which the vehicle is traveling, But is not limited thereto. The navigation system 10 disclosed in this document can select a lane marking line related to the lane in which the vehicle is traveling by using various methods other than the method of selecting the lane marking line by using the relative positions of the reference line and each lane marking line.

차선 정보는 도로 위에 표시되는 적어도 하나의 객체와 관련된 객체 정보를 포함할 수도 있다. 여기서, 객체는 차선 표시선과 구분되며, 대응하는 도로 또는 대응하는 차선과 관련된 정보를 제공하기 위해 도로 위에 표시되는 비 텍스트 형태의 도형(예를 들어, 화살표) 또는 텍스트를 의미한다. 도로 위에 표시되는 객체는 대응하는 차선의 주행 방향(직진, 좌회전, 우회전, 유턴 등), 대응하는 차선의 경유지 또는 목적지 정보, 도로의 분기 여부 등의 정보를 제공할 수 있다. 객체가 도형으로 표시되는 경우, 제1 제어부(170)는 도형의 모양을 토대로 해당 도형에 대응되어 있는 객체 정보를 획득할 수 있다. 예를 들어, 화살표 모양의 도형이 추출되면, 화살표의 방향에 대응되어 있는 주행 방향을 객체 정보로 획득할 수 있다. 객체가 텍스트로 표시되는 경우, 제1 제어부(170)는 해당 텍스트를 객체 정보로 획득할 수 있다. 예를 들어, 텍스트가 차선의 경유지 또는 목적지를 가리키는 경우, 해당 경유지 또는 목적지를 객체 정보로 획득할 수 있다. 제1 제어부(170)는 객체 정보를 획득하기 위해 영상으로부터 도로가 표시되는 도로 영역을 추출할 수 있으며, 추출된 도로 영역 내에서 차선과 구분되는 객체를 추출할 수 있다. 여기서, 제1 제어부(170)는 영상 내 위치, 표시 형태 등을 토대로 차선과 객체를 구분할 수 있다. The lane information may include object information associated with at least one object displayed on the road. Here, an object is distinguished from a lane marking line and means a non-text form graphic (e.g., an arrow) or text displayed on the road in order to provide information related to the corresponding road or the corresponding lane. The object displayed on the road can provide information such as the driving direction (straight forward, leftward turn, right turn, U-turn) of the corresponding lane, stopover or destination information of the corresponding lane, and whether or not the road is branched. When the object is displayed as a graphic object, the first controller 170 can acquire the object information corresponding to the graphic object based on the graphic object's shape. For example, when an arrow-shaped figure is extracted, the running direction corresponding to the direction of the arrow can be obtained as object information. When the object is displayed as text, the first controller 170 can acquire the text as object information. For example, if the text indicates a waypoint or a destination of a lane, the waypoint or destination may be obtained as object information. The first controller 170 may extract a road area in which roads are displayed from the image to obtain object information and extract an object that is different from the lane in the extracted road area. Here, the first controller 170 can distinguish the lane and the object based on the position in the image, the display form, and the like.

도 8은 도로에 표시되는 객체의 일 예를 도시한 것이다. 도 8을 참조하면, 영상(8)에 포함되는 도로에는 차선을 구분하기 위한 표시선(8a) 이외에도 화살표 형태의 제1 객체(8b) 및 텍스트 형태의 제2 객체(8c)가 표시된다. 도 8에서는 비 텍스트 형태의 객체(8b)와 텍스트 형태의 객체(8c)가 결합되어 표시되는 경우를 예로 들어 설명하였으나, 본 발명은 비 텍스트 형태의 객체와 텍스트 형태의 객체 중 어느 하나만이 도로 상에 표시되는 경우에도 적용이 가능하다. 8 shows an example of an object displayed on a road. 8, a first object 8b in the form of an arrow and a second object 8c in the form of a text are displayed on the road included in the image 8, in addition to the display line 8a for distinguishing the lane. 8 illustrates an example in which a non-text object 8b and a text object 8c are displayed in a combined manner. However, the present invention is applicable to a case where only one of an object of non- It can be applied to the case where it is displayed on the display screen.

제1 제어부(170)는 전술한 차선 인식 방법에서와 같이, 다양한 필터링 알고리즘을 이용하여 영상으로부터 도로 위에 표시된 객체 정보를 획득할 수 있다. 예를 들어, 제1 제어부(170)는 에지 필터를 이용하여 영상으로부터 도로 위에 표시된 객체를 인식할 수 있다. 에지 필터를 이용하는 경우, 제1 제어부(170)는 차선 표시선을 검출 시와 마찬가지로 영상에 포함된 각 픽셀의 명도 값을 이용하여 영상에서 경계를 이루는 부분을 검색한다. 그리고, 검색된 경계 부분을 토대로 영상으로부터 객체를 추출한다. 객체는 표시 형태, 표시 위치 등을 토대로 차선 표시선과 구분될 수 있다. 한편, 에지 필터를 이용하여 객체가 표시된 객체를 인식하는 방법은, 객체를 인식하는 방법의 일 예로서, 본 문서에 개시되는 내비게이션 시스템(10)은 에지 필터를 이용한 방법 이외에도 다양한 필터링 알고리즘을 이용하여 영상에 포함된 객체를 추출할 수 있다. 객체가 추출되면, 제1 제어부(170)는 추출된 객체의 외곽선을 토대로 객체의 표시 형태(예를 들어, 화살표, 텍스트 등), 객체가 텍스트인 경우 대응하는 텍스트 등을 포함하는 객체 정보를 획득할 수 있다. The first controller 170 can acquire the object information displayed on the road from the image using various filtering algorithms as in the lane recognition method described above. For example, the first controller 170 may recognize an object displayed on the road from an image using an edge filter. In the case of using an edge filter, the first controller 170 searches for a portion forming a boundary in the image using the brightness values of the pixels included in the image as in the case of detecting the lane marking line. Then, the object is extracted from the image based on the retrieved boundaries. The object can be distinguished from the lane marking line based on the display form, the display position and the like. The navigation system 10 disclosed in this document uses a variety of filtering algorithms in addition to the edge filter method to recognize an object in which the object is displayed using the edge filter. The object included in the image can be extracted. When the object is extracted, the first controller 170 acquires the object information including the display form of the object (e.g., arrow, text, etc.) based on the outline of the extracted object, and the corresponding text if the object is text can do.

한편, 영상에 복수 개의 차선이 포함되는 경우, 제1 제어부(170)는 복수 개의 차선 중 차량이 주행 중인 차선을 인식하고, 주행 중인 차선에 표시된 객체를 인식할 수도 있다. 제1 제어부(170)는 전술한 바와 같이, 차량이 주행 중인 차선의 차선 표시선을 인지하면, 영상으로부터 차량이 주행 중인 차선 영역을 획득할 수 있다. 즉, 차량이 주행 중인 차선의 표시선 사이의 영역을 현재 주행 중인 차선으로 인지한다. 그리고, 이를 토대로 주행 중인 차선에 표시되는 영역과 이웃하는 차선에 표시되는 객체를 구분하는 것이 가능하다. On the other hand, when the image includes a plurality of lanes, the first controller 170 may recognize the lane in which the vehicle is traveling, and recognize the object displayed in the lane in which the vehicle is traveling. As described above, when the first control unit 170 recognizes the lane marking line of the lane in which the vehicle is running, the first control unit 170 can obtain the lane area in which the vehicle is running from the image. That is, the area between the display lines of the lane in which the vehicle is driving is recognized as the lane in which the vehicle is currently traveling. Based on this, it is possible to distinguish between the area displayed in the driving lane and the object displayed in the neighboring lane.

영상으로부터 도로 위에 표시된 객체를 추출 시, 차량용 내비게이션(100)은 객체 인식률을 상승시키고, 객체 정보의 정확도를 상승시키기 위해, 기 저장된 후보 객체들을 이용할 수도 있다. 이 경우, 제1 저장부(150)는 영상에서 추출된 객체의 비교대상이 되는 후보 객체들을 관리하기 위한 후보 객체 데이터베이스를 저장한다. 또한, 후보 객체 데이터베이스에 포함되는 각 후보 객체에 대해 대응하는 객체 정보를 미리 저장할 수도 있다. 또한, 후보 객체 데이터베이스에 저장되는 각 후보 객체에 대해 대응하는 위치 데이터를 저장할 수도 있다. When extracting the object displayed on the road from the image, the vehicle navigation device 100 may use previously stored candidate objects to raise the object recognition rate and increase the accuracy of the object information. In this case, the first storage unit 150 stores a candidate object database for managing candidate objects to be compared with objects extracted from the image. In addition, corresponding object information may be stored in advance for each candidate object included in the candidate object database. In addition, it is also possible to store corresponding position data for each candidate object stored in the candidate object database.

도 9는 후보 객체 데이터베이스를 이용하여 객체 정보를 획득하는 일 예를 도시한 흐름도이다. 도 9를 참조하면, 제1 제어부(170)는 차량의 주행과 관련된 영상으로부터 객체가 추출되면(S301), 제1 저장부(150)에 저장된 후보 객체 데이터베이스를 이용하여 추출된 객체와의 매칭 과정을 수행한다(S302). 즉, 후보 객체 데이터베이스에 기 저장된 후보 객체들 중 영상으로부터 추출된 객체에 기 설정된 비율 이상 매칭되는 후보 객체를 검색한다. 매칭되는 후보 객체가 검색되면, 제1 제어부(170)는 해당 후보 객체를 이용하여 객체 정보를 획득한다(S303). 예를 들어, 제1 제어부(170)는 매칭되는 후보 객체에 대응하는 객체 정보를 제1 저장부(150)로부터 읽어올 수 있다. 또한, 예를 들어, 제1 제어부(170)는 매칭되는 후보 객체를 이용하여 텍스트를 인식하거나, 해당 후보 객체가 나타내는 도형 등을 분석하여, 객체 정보를 획득할 수도 있다. 한편, 후보 객체 데이터베이스에 기 저장된 후보 객체들 중 추출된 객체와 매칭되는 후보 객체가 존재하지 않는 경우, 제1 제어부(170)는 추출된 후보 객체를 무시할 수도 있다. 도로 상에 표시되는 모든 객체들이 후보 객체 데이터베이스에 후보 객체로 저장되는 경우, 제1 제어부(170)는 영상으로부터 추출된 객체와 매칭되는 후보 객체가 존재하지 않으면, 영상으로부터 추출된 객체가 잘못된 객체이거나 인식 불가한 객체로 판단하고, 이를 무시하거나 객체 인식이 실패하였음을 알리는 안내 정보를 출력할 수도 있다. 9 is a flowchart illustrating an example of acquiring object information using a candidate object database. 9, when the object is extracted from the image related to the driving of the vehicle (S301), the first controller 170 performs a matching process with the extracted object using the candidate object database stored in the first storage unit 150 (S302). That is, a candidate object that matches a predetermined ratio or more is searched for the object extracted from the image among the candidate objects previously stored in the candidate object database. If a matching candidate object is found, the first controller 170 acquires object information using the candidate object (S303). For example, the first controller 170 may read the object information corresponding to the matching candidate object from the first storage unit 150. For example, Also, for example, the first controller 170 may recognize the text using the matching candidate object, or may analyze the graphic object represented by the candidate object to obtain the object information. On the other hand, when there is no candidate object matching the extracted object among the candidate objects previously stored in the candidate object database, the first control unit 170 may ignore the extracted candidate object. When all the objects displayed on the road are stored as candidate objects in the candidate object database, the first control unit 170 determines whether the object extracted from the image is an invalid object if there is no candidate object matching the object extracted from the image It may be determined that the object is an unrecognizable object, and the information may be ignored or information indicating that the object recognition has failed may be output.

도 10은 후보 객체 데이터베이스를 이용하여 객체 정보를 획득하는 다른 예를 도시한 흐름도이다. 도 10을 참조하면, 제1 제어부(170)는 차량의 주행과 관련된 영상으로부터 객체를 추출하고(S401), 제1 위치 데이터 모듈(111)을 통해 차량의 현재 위치 데이터를 획득한다(S402). 또한, 제1 제어부(170)는 제1 저장부(150)에 저장된 후보 객체 데이터베이스를 이용하여 추출된 객체의 매칭 과정을 수행한다(S403). 여기서, 제1 저장부(170)는 차량의 현재 위치를 토대로, 후보 객체 데이터베이스에 저장된 후보 객체들 중 일부만을 비교대상으로 선택한다. 즉, 후보 객체 데이터베이스에 저장되는 후보 객체들 중 차량의 현재 위치에 대응되는 후보 객체들만을 비교 대상으로 선택한다. 비교 대상으로 선택된 후보 객체들 중 추출된 객체와 매칭되는 후보 객체가 검색되면, 제1 제어부(170)는 해당 후보 객체를 이용하여 객체 정보를 획득한다(S404). 여기서, 객체 정보를 획득하는 방법은 전술한 도 9에 도시된 객체 정보 획득 방법과 유사하므로, 아래에서는 상세한 설명을 생략한다. 10 is a flowchart illustrating another example of acquiring object information using a candidate object database. Referring to FIG. 10, the first controller 170 extracts an object from an image related to driving of the vehicle (S401), and acquires current position data of the vehicle through the first position data module 111 (S402). In addition, the first controller 170 performs a matching process of the extracted object using the candidate object database stored in the first storage unit 150 (S403). Here, the first storage unit 170 selects only a part of the candidate objects stored in the candidate object database as a comparison object, based on the current position of the vehicle. That is, only the candidate objects corresponding to the current position of the vehicle among the candidate objects stored in the candidate object database are selected as comparison objects. If a candidate object matching the extracted object among the candidate objects selected for comparison is found, the first controller 170 acquires the object information using the candidate object (S404). Here, the method of acquiring object information is similar to the method of acquiring object information shown in FIG. 9 described above, so a detailed description will be omitted below.

도 9 및 도 10에 도시된 바와 같이, 본 발명의 제1 실시 예에 따른 차량용 내비게이션(100)은 도로 상에 표시되는 객체들을 비교 대상으로 미리 저장하고, 영상으로부터 추출되는 객체를 기 저장된 후보 객체들과 매칭시키는 과정을 수행함으로써, 객체 인식률을 높이고, 객체 정보의 정확도를 향상시킬 수 있다. As shown in FIGS. 9 and 10, the vehicle navigation system 100 according to the first embodiment of the present invention stores objects displayed on the road in advance as comparison objects, and stores objects extracted from the images as previously stored candidate objects The object recognition rate can be improved and the accuracy of the object information can be improved.

다시, 도 6을 보면, 차선 정보를 획득한 제1 제어부(170)는 이를 이용하여 차선 안내를 수행한다(S104). Referring again to FIG. 6, the first controller 170, which has obtained the lane information, performs lane guidance using the lane information (S104).

제1 제어부(170)는 차선 정보에 포함된 차선 표시선과 관련된 정보를 이용하여 차량이 차선을 이탈하는지 여부를 감지하고, 출력부(140)를 통해 차선 이탈 안내 정보를 출력함으로써, 차선 안내를 수행할 수 있다. 즉, 차량이 차선을 이탈하면, 이를 경고하는 경고음 또는 경고 메시지를 오디오 출력 모듈(143)을 통해 출력하거나, 경고 메시지를 디스플레이부(145)에 표시한다. The first control unit 170 detects whether or not the vehicle leaves the lane by using the information related to the lane marking included in the lane information and outputs the lane departure guide information through the output unit 140 to perform the lane guidance can do. That is, when the vehicle leaves the lane, the alarm output unit 143 outputs a warning sound or a warning message to warn the user through the audio output module 143 or displays a warning message on the display unit 145.

또한, 제1 제어부(170)는 차량의 주행 영상으로부터 획득한 객체 정보를 토대로, 차량이 현재 주행 중인 차선에 대한 안내 정보를 출력함으로써, 차선 안내를 수행할 수 있다. 차량이 주행 중인 차선에 대한 안내 정보는 좌회전/우회전/유턴/직진 차선, 좌회전/우회전/유턴/직진 금지 차선, 일방 통행 차선, 분기 차선임을 안내하는 안내 정보, 차량이 주행 중인 차선의 경유지, 목적지 등을 안내하는 안내 정보 등을 포함할 수 있으며, 이외에도 차선 위에 표시되는 다양한 안내 정보를 포함할 수 있다. 제1 제어부(170)는 차량이 현재 주행 중인 차선에 대한 안내 정보를 오디오 출력 모듈(143)을 통해 출력할 수 있다. 예를 들어, 차량이 주행 중인 차선이 서울 방향으로 주행하는 차선인 경우, "서울 방향 차선을 주행 중입니다."와 같이 차선의 목적지를 안내하는 오디오 신호를 오디오 출력 모듈(143)을 통해 출력할 수 있다. 또한, 제1 제어부(170)는 차량이 현재 주행 중인 차선에 대한 안내 정보를 디스플레이 모듈(141)을 통해 출력할 수 있다. Also, the first control unit 170 can output lane guidance based on the object information obtained from the running image of the vehicle, by outputting guidance information on the lane in which the vehicle is currently traveling. The guide information for the lane in which the vehicle is traveling includes guide information indicating that the lane on which the vehicle is traveling is a left turn / right turn / U-turn / straight lane, left turn / right turn / And the like, and may also include various guide information displayed on the lane. The first control unit 170 may output guidance information on the lane in which the vehicle is currently traveling through the audio output module 143. [ For example, when the lane in which the vehicle is traveling is a lane traveling in the direction of Seoul, an audio signal for guiding the destination of the lane is outputted through the audio output module 143, such as " . In addition, the first controller 170 may output guidance information on the lane in which the vehicle is currently traveling through the display module 141. [

도 11은 차량이 현재 주행 중인 차선에 대한 안내 정보를 디스플레이 모듈(141)을 통해 표시하는 일 예를 도시한 것이다. 도 11을 참조하면, 제1 제어부(170)는 영상으로부터 추출한 객체 정보를 토대로 차량이 주행 중인 차선의 주행 방향 정보를 획득하고, 이를 안내하는 안내 정보(11a)를 디스플레이부(145)에 표시한다. 11 shows an example in which guidance information on a lane in which the vehicle is currently traveling is displayed through the display module 141. In FIG. Referring to FIG. 11, the first controller 170 acquires the traveling direction information of the lane on which the vehicle is traveling based on the object information extracted from the image, and displays the guide information 11a for guiding the information on the display unit 145 .

*또한, 제1 제어부(170)는 차량의 주행 영상으로부터 획득한 객체 정보와 차량의 경로 정보를 토대로 차량의 차선 변경 안내 정보를 출력함으로써, 차선 안내를 수행할 수도 있다. 경로 정보는 사용자 입력 모듈(121)을 통해 입력된 목적지 데이터와 제1 위치 데이터 모듈(111)을 통해 획득되는 현재 차량의 위치 데이터를 토대로 산출된 차량의 이동 경로를 안내하기 위한 정보이다. 차선 변경 여부를 판단하기 위해서, 제1 제어부(170)는 차량의 주행 영상으로부터 차량이 현재 주행 중인 차선뿐만 아니라, 해당 차선과 이웃한 차선에 표시된 객체의 객체 정보 또한 획득할 필요가 있다. 제1 제어부(170)는 경로 정보를 토대로 교차로, 분기점 등에서의 차량의 이동 방향을 미리 예측할 수 있다. 제1 제어부(170)는 경로 정보를 토대로 미리 예측한 차량의 주행 방향을 차량의 주행 영상에서 추출한 객체 정보를 이용하여 획득한 차량이 현재 주행 중인 차선의 주행 방향과 비교하여 차량이 현재 올바른 차선으로 주행 중인지 판단한다. 그리고, 올바른 차선으로 주행 중이지 않은 경우, 올바른 차선으로 차선 변경을 유도하는 안내 정보를 출력한다. In addition, the first controller 170 may output lane change guidance information of the vehicle based on the object information obtained from the running image of the vehicle and the vehicle path information, thereby performing the lane guidance. The route information is information for guiding the route of the vehicle calculated based on the destination data input through the user input module 121 and the current vehicle location data obtained through the first location data module 111. In order to determine whether or not the lane change has been made, the first control unit 170 needs to acquire not only the lane on which the vehicle is currently traveling from the running image of the vehicle but also the object information of the object displayed on the lane adjacent to the lane. The first control unit 170 can predict in advance the moving direction of the vehicle at an intersection, a turning point or the like based on the route information. The first control unit 170 compares the traveling direction of the vehicle predicted in advance based on the route information with the traveling direction of the lane in which the vehicle is acquired using the object information extracted from the traveling image of the vehicle, It is judged whether or not it is running. When the vehicle is not traveling in the correct lane, guidance information for guiding the lane change to the correct lane is output.

도 12는 차선 변경을 안내하는 방법의 일 예를 도시한 흐름도이다. 도 12를 참조하면, 제1 제어부(170)는 경로 정보를 이용하여 예측한 주행 방향과 차량의 주행 영상으로부터 획득한 객체 정보를 이용하여 획득한 현재 주행 중인 차선의 주행 방향을 비교한다(S501). 그리고, 이를 토대로 차량이 올바른 차선으로 주행 중인지 판단하고, 차량이 올바른 주행 차선으로 주행 중이지 않은 경우(S502), 제1 제어부(170)는 차선 변경을 안내하는 정보를 출력한다(S503). 예를 들어, 경로 정보를 이용하여 예측한 주행 방향은 다음 교차로에서의 좌회전에 대응되나, 현재 차량이 직진 차선으로 주행 중인 경우, 제1 제어부(170)는 좌회전 차선으로의 차선 변경을 유도하는 안내 정보를 출력한다. 12 is a flowchart showing an example of a method for guiding a lane change. 12, the first controller 170 compares the travel direction of the currently-traveled lane using the travel direction predicted using the route information and the object information obtained from the travel image of the vehicle (S501) . If the vehicle is not traveling in the correct driving lane (S502), the first control unit 170 outputs information for guiding the lane change (S503). For example, the driving direction predicted by using the route information corresponds to the left turn at the next intersection, but when the current vehicle is running in the straight lane, the first controller 170 instructs the lane change to the left turn lane Output information.

도 13은 차선 변경을 안내하는 방법의 다른 예를 도시한 흐름도이다. 도 13을 참조하면, 제1 제어부(170)는 제1 저장부(150)에 기 저장된 지도 데이터로부터 현재 주행 중인 도로의 각 차선의 주행 방향을 포함하는 도로 정보를 획득한다. 그리고, 이를 토대로 차량이 현재 어느 차선으로 주행 중인지 판단한다(S601). 즉, 차량이 현재 몇 차선에서 주행 중인지 판단한다. 제1 제어부(170)는 제1 저장부(150)에서 읽어온 지도 데이터를 이용하여 획득한 각 차선의 주행 방향과, 차량의 주행 영상으로부터 획득한 객체 정보를 이용하여 파악한 현재 차량이 주행 중인 차선의 주행 방향을 비교하고, 비교 결과를 토대로 차량이 어느 차선으로 주행 중인지 판단할 수 있다. 예를 들어, 기 저장된 지도 데이터를 토대로 제1 차선이 좌회전 차선이고 제2 차선이 직진 차선으로 파악되고, 현재 차량이 주행 중인 차선의 주행 방향이 직진 차선인 경우, 제1 제어부(170)는 현재 차량은 제2 차선으로 주행 중임을 알 수 있다. 13 is a flowchart showing another example of a method of guiding a lane change. Referring to FIG. 13, the first controller 170 obtains the road information including the running direction of each lane of the current road from the pre-stored map data in the first storage unit 150. Based on this, it is determined which lane the vehicle is currently driving (S601). That is, it judges whether the vehicle is currently running in a few lanes. The first controller 170 receives the map data read from the first storage unit 150 and the object information acquired from the running image of the vehicle, And it is possible to judge to which lane the vehicle is traveling based on the comparison result. For example, when the first lane is the left turn lane, the second lane is the straight lane, and the driving direction of the lane in which the vehicle is currently traveling is the straight lane based on the pre-stored map data, It can be seen that the vehicle is running on the second lane.

한편, 실제 도로 상에 주행 방향이 동일한 복수 개의 차선이 존재하는 경우, 제1 제어부(170)는 영상으로부터 획득한 차선의 색상 정보를 이용하여 차량이 현재 몇 차선으로 주행 중인지 판단할 수도 있다. 서로 반대 방향으로 주행하는 차선을 구분하기 위한 중앙선의 경우, 다른 차선 표시 선과 색상이 서로 다르다. 따라서, 제1 제어부(170)는 영상으로부터 획득한 차선의 색상 정보를 토대로, 현재 주행 중인 차선의 차선 표시선이 중앙선인지 또는, 중앙선으로부터 몇 번째 위치하는 차선 표시선인지 판단한다. 그리고, 이를 토대로 차량이 현재 몇 차선으로 주행 중인지 판단할 수 있다. On the other hand, when there are a plurality of lanes having the same traveling direction on the actual road, the first controller 170 may use the color information of the lanes acquired from the image to determine how many lanes the vehicle is currently traveling. In the case of a center line to distinguish lanes traveling in opposite directions, the different lane markings and colors are different. Accordingly, the first controller 170 determines whether the lane marking line of the currently driving lane is the center line or the lane marking line located at a certain position from the center line, based on the color information of the lane obtained from the image. Based on this, it is possible to determine which lane the vehicle is currently traveling on.

또한, 실제 도로 상에 주행 방향이 동일한 복수 개의 차선이 존재하는 경우, 제1 제어부(170)는 영상으로부터 획득한 객체 정보를 이용하여 차량이 현재 어느 차선으로 주행 중인지 판단할 수도 있다. 이 경우, 객체 정보는 현재 차량이 주행 중인 차선에 표시된 객체뿐만 아니라 이웃하는 차선에 표시된 객체의 객체 정보 또한 포함한다. 제1 제어부(170)는 차량의 주행 영상으로부터 획득한 객체 정보를 토대로, 현재 주행 중인 차선뿐만 아니라 이웃하는 차선의 주행 방향을 획득하고, 이를 지도 데이터를 이용하여 획득한 각 차선의 주행 방향과 비교함으로써, 차량이 현재 어느 차선으로 주행 중인지 파악할 수 있다. In addition, when there are a plurality of lanes having the same traveling direction on the actual road, the first controller 170 may use the object information obtained from the image to determine which lane the vehicle is currently traveling. In this case, the object information includes the object information of the object displayed in the neighboring lane as well as the object currently displayed in the lane in which the vehicle is running. The first controller 170 acquires the traveling direction of the neighboring lane as well as the lane on the road based on the object information obtained from the traveling image of the vehicle and compares the traveling direction with the traveling direction of each lane acquired using the map data Thus, it is possible to know which lane the vehicle is currently driving.

다시, 도 13을 보면, 제1 제어부(170)는 현재 차량이 어느 차선으로 주행 중인지 판단되면 (S602), 경로 정보를 토대로 차량이 현재 올바른 차선으로 주행 중인지 판단한다(S603). 그리고, 차량이 올바른 차선으로 주행 중이지 않은 경우, 제1 제어부(170)는 차선 변경을 안내하는 정보를 출력한다(S604). Referring again to FIG. 13, when it is determined in which lane the current vehicle is currently traveling (S602), the first controller 170 determines whether the vehicle is currently traveling in the correct lane based on the route information (S603). If the vehicle is not traveling in the correct lane, the first controller 170 outputs information for guiding the lane change (S604).

한편, 제1 제어부(170)는 차량이 현재 어느 차선으로 주행 중인지를 토대로, 올바른 주행을 위해 여러 번의 차선 변경이 필요하다고 판단되면, 차선 변경 안내 정보를 순차적으로 출력할 수도 있다. 예를 들어, 현재 제3 차선을 주행 중이고, 교차로에서의 좌회전을 위해 제1 차선으로 이동해야 하는 경우, 제1 제어부(170)는 교차로에 진입하기 200미터 전에 제2 차선으로의 차선 변경을 안내하고, 교차로에 진입하기 100미터 전에 다시 제1 차선으로의 차선 변경을 안내할 수도 있다. On the other hand, the first control unit 170 may sequentially output the lane change guidance information if it is determined that the lane change is necessary for correct driving based on which lane the vehicle is currently driving. For example, if the user is currently driving on the third lane and must go to the first lane for a left turn at the intersection, the first control unit 170 instructs the lane change to the second lane 200 meters before entering the intersection , And guide the lane change to the first lane 100 meters before entering the intersection.

이하, 필요한 도면들을 참조하여 본 발명의 제2 실시 예에 따른 차선 안내 방법 및 이를 구현하기 위한 내비게이션 시스템의 동작을 상세하게 설명한다. Hereinafter, the operation of the lane guidance method according to the second embodiment of the present invention and the navigation system for implementing the lane guidance method will be described in detail with reference to required drawings.

도 14는 본 발명의 제2 실시 예에 따른 내비게이션 시스템(10)의 차선 안내 방법 방법을 도시한 흐름도이다. 14 is a flowchart showing a lane guidance method method of the navigation system 10 according to the second embodiment of the present invention.

도 14를 참조하면, 차량용 블랙박스(200)의 제2 제어부(270)는 적어도 하나의 카메라(221)를 통해 차량의 주행과 관련된 영상을 획득한다(S701). 한편, 본 발명의 제2 실시 예에서는 차량용 블랙박스(200)에 카메라(221)가 일체형으로 구비되는 경우를 예로 들어 설명하나, 차량용 블랙박스(200)는 카메라를 구비하지 않을 수도 있다. 이 경우, 차량용 블랙박스(200)는 제2 통신부(210)를 통해 외부의 적어도 하나의 카메라(미도시)로부터 차량의 주행과 관련된 영상을 수신할 수도 있다. Referring to FIG. 14, the second controller 270 of the vehicle black box 200 acquires an image related to driving of the vehicle through at least one camera 221 (S701). In the second embodiment of the present invention, the camera 221 is integrated into the vehicle black box 200, but the vehicle black box 200 may not include the camera. In this case, the vehicle black box 200 may receive an image related to driving of the vehicle from at least one external camera (not shown) via the second communication unit 210.

차량용 블랙박스(200)의 제2 제어부(270)는 카메라(221)를 통해 획득한 영상을 분석하여 차선 정보를 획득한다(S702). 그리고, 획득한 차선 정보를 차량용 내비게이션(100)으로 전송한다(S703). 이에 따라, 차선 정보를 수신한 차량용 내비게이션(100)은 수신된 차선 정보를 토대로 차선 안내를 수행한다. 여기서, 차량용 블랙박스(200)에서 영상으로부터 차선 정보를 획득하는 방법은 전술한 본 발명의 제1 실시 예에 개시된 차선 정보 획득 방법과 동일하게 수행되므로 상세한 설명을 생략한다. 또한, 차량용 내비게이션(100)에서 차선 정보를 토대로 차선 안내를 수행하는 방법 또한 전술한 본 발명의 제1 실시 예에 개시된 차선 안내 방법과 동일하게 수행되므로 상세한 설명을 생략한다.The second control unit 270 of the vehicle black box 200 analyzes the image acquired through the camera 221 to acquire lane information (S702). Then, the acquired lane information is transmitted to the vehicle navigation system 100 (S703). Accordingly, the navigation system 100 for the vehicle that has received the lane information performs the lane guidance based on the received lane information. Here, the method of acquiring lane information from the image in the vehicle black box 200 is performed in the same manner as the lane information acquiring method disclosed in the first embodiment of the present invention, and thus a detailed description thereof will be omitted. In addition, the method of performing the lane guidance based on the lane information in the navigation system 100 of the vehicle is performed in the same manner as the lane guidance method disclosed in the first embodiment of the present invention, and thus detailed description thereof will be omitted.

한편, 본 발명의 제2 실시 예에서는 차선 안내 정보를 차량용 내비게이션(100)으로 전송함으로써, 이를 토대로 차량용 내비게이션(100)에서 차선 안내를 수행하는 경우를 예로 들어 술명하였으나, 본 발명은 이에 한정되지 않는다. 본 발명에 따르면, 차량용 블랙박스(200)가 디스플레이 모듈 또는 오디오 출력 모듈 등의 출력 모듈을 구비하는 경우, 이러한 출력 모듈을 이용하여 차량용 블랙박스(200)가 직접 차선 정보를 이용한 차선 안내를 수행할 수도 있다. Meanwhile, in the second embodiment of the present invention, the lane guidance information is transmitted to the vehicle navigation system 100 and the lane guidance is performed by the vehicle navigation system 100 based on the information. However, the present invention is not limited thereto . According to the present invention, when the vehicle black box 200 includes an output module such as a display module or an audio output module, the vehicle black box 200 performs lane guidance using the lane information directly using the output module It is possible.

전술한 본 발명의 실시 예들에 따르면, 내비게이션 시스템(10)은 차량의 주행 영상으로부터 주행 중인 차선의 주행 방향을 획득하는 것이 가능하다. 또한, 차량이 어느 차선으로 주행 중인지를 판단할 수도 있다. 이에 따라, 내비게이션 시스템(10)은 차량이 올바른 차선으로 주행 중이지 않은 경우, 올바른 차선으로의 차선 변경을 유도할 수 있으므로, 사용자의 부주의나 차선 정보 부족으로 인해 경로를 이탈하는 것을 방지할 수 있다. According to the embodiments of the present invention described above, the navigation system 10 is capable of obtaining the running direction of the running lane from the running image of the vehicle. It is also possible to determine in which lane the vehicle is traveling. Accordingly, when the vehicle is not traveling in the correct lane, the navigation system 10 can induce the lane change to the correct lane, thereby preventing the user from leaving the route due to carelessness or lack of lane information .

본 발명의 실시 예는 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터로 읽을 수 있는 매체(media)를 포함한다. 이 매체는 지금까지 설명한 차선 안내 방법을 실행시키기 위한 프로그램을 기록한다. 이 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 이러한 매체의 예에는 하드 디스크(hard disk), 플로피 디스크(floppy disk) 및 자기 테이프(magnetic tape)와 같은 자기 매체(magnetic media), CD 및 DVD와 같은 광 기록 매체(optical recording media), 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같은 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치 등이 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함한다.Embodiments of the present invention include computer readable media including program instructions for performing various computer-implemented operations. This medium records a program for executing the lane guidance method described so far. The medium may include program instructions, data files, data structures, etc., alone or in combination. Examples of such media include magnetic media such as a hard disk, a floppy disk and a magnetic tape, optical recording media such as CD and DVD, ROM, RAM, flash memory, and the like, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that may be executed by a computer using an interpreter, etc.

본 발명은 기재된 실시 예들에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음은 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서, 그러한 수정 예 또는 변형 예들은 본 발명의 특허청구범위에 속한다 하여야 할 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit and scope of the invention. Accordingly, such modifications or variations are intended to fall within the scope of the appended claims.

Claims (17)

전자 기기를 이용한 이동체의 주행 관련 안내 방법에 있어서,
복수의 객체 각각에 대응되는 객체 정보 및 상기 복수의 객체 각각에 대응되는 위치 데이터를 저장하는 단계;
상기 이동체의 주행 영상을 획득하는 단계;
상기 이동체의 현재 위치 데이터를 획득하는 단계;
기 저장된 복수의 객체 중 상기 획득된 이동체의 현재 위치 데이터에 대응되는 객체를 선택하는 단계;
상기 획득된 주행 영상으로부터 상기 이동체가 주행 중인 차로에 대응되는 차선을 인식하는 단계;
상기 이동체가 상기 인식된 차선을 이탈하는지 여부를 감지하는 단계;
상기 선택된 객체의 정보를 이용하여 상기 이동체가 주행 중인 도로에 관련된 안내 정보를 디스플레이부에 표시하고, 상기 이동체의 주행 중 상기 인식된 차선의 이탈이 감지되면 차선 이탈 안내 정보를 상기 디스플레이부에 표시하는 단계;를 포함하고,
상기 객체는 상기 이동체가 주행하는 도로에 관련된 정보를 제공하기 위한 비 텍스트 형태의 도형 또는 텍스트이고, 상기 객체는 상기 차선을 포함하지 않는 것을 특징으로 하는 이동체의 주행 관련 안내 방법.
A driving-related guidance method for a moving object using an electronic device,
Storing object information corresponding to each of the plurality of objects and position data corresponding to each of the plurality of objects;
Obtaining a traveling image of the moving object;
Obtaining current position data of the moving body;
Selecting an object corresponding to current position data of the obtained moving object among a plurality of previously stored objects;
Recognizing a lane corresponding to a lane on which the moving object is traveling from the obtained traveling image;
Detecting whether the moving object deviates from the recognized lane;
And displays lane departure guidance information on the display unit when the departure of the recognized lane is detected during traveling of the moving object Comprising:
Wherein the object is a graphic or text in a non-text form for providing information related to the road on which the moving object travels, and the object does not include the lane.
삭제delete 제1항에 있어서,
상기 획득된 주행 영상으로부터 상기 이동체가 주행 중인 도로에 관련된 객체를 추출하는 단계;를 더 포함하고,
상기 선택하는 단계는,
상기 기 저장된 복수의 객체 중 상기 획득된 현재 위치 데이터에 대응되는 객체를 검출하고, 상기 검출된 객체 중 상기 추출된 객체와 매칭되는 객체를 선택하는 것을 특징으로 하는 이동체의 주행 관련 안내 방법.
The method according to claim 1,
And extracting an object related to a road on which the moving object is traveling from the obtained traveling image,
Wherein the selecting comprises:
Detecting an object corresponding to the obtained current position data among a plurality of previously stored objects and selecting an object matched with the extracted object among the detected objects.
제1항에 있어서,
상기 인식하는 단계는,
상기 획득된 주행 영상으로부터 복수의 차선이 검출되는 경우, 상기 검출된 차선의 상기 주행 영상 내 위치를 이용하여 상기 주행 영상으로부터 상기 이동체가 주행 중인 차로에 대응되는 차선을 인식하는 것을 특징으로 하는 이동체의 주행 관련 안내 방법.
The method according to claim 1,
Wherein the recognizing comprises:
Wherein when a plurality of lanes are detected from the obtained running image, a lane corresponding to the lane on which the moving object is traveling is recognized from the running image by using the position in the running image of the detected lane Driving guidance method.
제4항에 있어서,
상기 이동체가 주행 중인 차로에 대응되는 차선을 인식하는 단계는,
상기 주행 영상을 수직으로 가로지르는 기준선을 설정하는 단계; 및
상기 기준선과 상기 검출된 복수의 차선들 사이의 거리를 기초로 상기 이동체가 주행 중인 차로에 대응되는 차선을 인식하는 단계;를 포함하는 것을 특징으로 하는 이동체의 주행 관련 안내 방법.
5. The method of claim 4,
The step of recognizing the lane corresponding to the lane on which the mobile body is traveling,
Setting a reference line perpendicular to the traveling image; And
And recognizing a lane corresponding to the lane on which the mobile body is traveling based on the distance between the reference line and the detected plurality of lanes.
제3항에 있어서,
상기 이동체가 주행 중인 도로에 관련된 객체를 추출하는 단계는,
상기 획득된 주행 영상으로부터 복수의 차선이 검출되는 경우, 상기 이동체가 주행 중인 차로에 표시된 객체를 인식하는 단계;를 더 포함하는 것을 특징으로 하는 이동체의 주행 관련 안내 방법.
The method of claim 3,
Wherein the step of extracting the object related to the road on which the mobile body is traveling comprises:
And recognizing an object displayed in the lane on which the mobile body is traveling when a plurality of lanes are detected from the obtained running image.
삭제delete 제1항에 있어서,
상기 객체가 선택되면, 상기 선택된 객체의 정보를 이용하여 획득한 이동체 주행 차로의 주행 방향과 상기 이동체의 목적지까지의 경로 정보를 이용하여 예측한 이동체의 주행 방향을 비교하여 상기 이동체의 차로 변경이 필요한지 여부를 판단하는 단계;를 더 포함하는 것을 특징으로 하는 이동체의 주행 관련 안내 방법.
The method according to claim 1,
When the object is selected, comparing the travel direction of the predicted moving object with the traveling direction of the moving vehicle traveling lane acquired using the information of the selected object and the route information to the destination of the moving object, And determining whether or not the vehicle is traveling.
전자 기기에 있어서,
복수의 객체 각각에 대응되는 객체 정보 및 상기 복수의 객체 각각에 대응되는 위치 데이터를 저장하는 저장부;
이동체의 주행 영상을 획득하는 영상 획득부;
화면을 표시하는 디스플레이부;
상기 이동체의 현재 위치 데이터를 획득하는 위치 데이터부; 및
기 저장된 복수의 객체 중 상기 획득된 이동체의 현재 위치 데이터에 대응되는 객체를 선택하고, 상기 획득된 주행 영상으로부터 상기 이동체가 주행 중인 차로에 대응되는 차선을 인식하며, 상기 이동체가 상기 인식된 차선을 이탈하는지 여부를 감지하는 제어부;를 포함하고,
상기 제어부는, 상기 선택된 객체의 정보를 이용하여 상기 이동체의 주행에 관련된 안내 정보를 상기 디스플레이부에 표시하고, 상기 이동체의 주행 중 상기 인식된 차선의 이탈이 감지되면 차선 이탈 안내 정보를 상기 디스플레이부에 표시하도록 제어하는 제어부;를 포함하고,
상기 객체는 상기 이동체가 주행하는 도로에 관련된 정보를 제공하기 위한 비 텍스트 형태의 도형 또는 텍스트이고, 상기 객체는 상기 차선을 포함하지 않는 것을 특징으로 하는 전자 기기.
In the electronic device,
A storage unit for storing object information corresponding to each of the plurality of objects and position data corresponding to each of the plurality of objects;
An image acquisition unit for acquiring a traveling image of the moving object;
A display unit for displaying a screen;
A position data portion for obtaining current position data of the mobile body; And
Wherein the control unit selects an object corresponding to the acquired current position data of the plurality of previously stored objects and recognizes a lane corresponding to the lane on which the moving vehicle is traveling from the obtained traveling image, And a control unit for detecting whether or not the vehicle leaves,
Wherein the control unit displays guidance information related to the traveling of the moving object on the display unit using the information of the selected object and displays the lane departure guidance information on the display unit when the detected departure of the lane is detected during traveling of the moving object, And a control unit for controlling the display unit
Wherein the object is a graphic form or text in a non-text form for providing information related to a road on which the mobile is traveling, and the object does not include the lane.
삭제delete 제9항에 있어서,
상기 제어부는,
상기 획득된 주행 영상으로부터 상기 이동체가 주행 중인 도로에 관련된 객체를 추출하고, 상기 기 저장된 복수의 객체 중 상기 획득된 현재 위치 데이터에 대응되는 객체를 검출하고, 상기 검출된 객체 중 상기 추출된 객체와 매칭되는 객체를 선택하는 것을 특징으로 하는 전자 기기.
10. The method of claim 9,
Wherein,
Extracting an object related to a road on which the mobile body is traveling from the obtained running image, detecting an object corresponding to the obtained current position data among the previously stored plurality of objects, And selects an object to be matched.
제9항에 있어서,
상기 제어부는, 상기 획득된 주행 영상으로부터 복수의 차선이 검출되는 경우, 상기 검출된 차선의 상기 주행 영상 내 위치를 이용하여 상기 주행 영상으로부터 상기 이동체가 주행 중인 차로에 대응되는 차선을 인식하는 것을 특징으로 하는 전자 기기.
10. The method of claim 9,
The control unit recognizes a lane corresponding to the lane on which the mobile body is traveling from the traveling image by using the position in the traveling image of the detected lane when a plurality of lanes are detected from the obtained traveling image .
제12항에 있어서,
상기 제어부는,
상기 주행 영상을 수직으로 가로지르는 기준선을 설정하고,
상기 기준선과 상기 검출된 복수의 차선들 사이의 거리를 기초로 상기 이동체가 주행 중인 차로에 대응되는 차선을 인식하는 것을 특징으로 하는 전자 기기.
13. The method of claim 12,
Wherein,
A reference line that vertically traverses the traveling image is set,
And recognizes a lane corresponding to the lane on which the mobile body is traveling based on the distance between the reference line and the detected plurality of lanes.
제9항에 있어서,
상기 제어부는,
상기 획득된 주행 영상으로부터 복수의 차선이 검출되는 경우, 상기 이동체가 주행 중인 차로에 표시된 객체를 인식하는 것을 특징으로 하는 전자 기기.
10. The method of claim 9,
Wherein,
And when the plurality of lanes are detected from the obtained running image, the moving object recognizes the object displayed on the driving lane.
제9항에 있어서,
상기 제어부는,
상기 획득된 주행 영상으로부터 상기 이동체가 주행 중인 차로에 대응되는 차선을 인식하고,
상기 이동체가 상기 인식된 차선을 이탈하는지 여부를 감지하고, 감지 결과에 따라 차선 이탈 안내 정보를 상기 디스플레이부에 표시하도록 제어하는 것을 특징으로 하는 전자 기기.
10. The method of claim 9,
Wherein,
Recognizes a lane corresponding to a lane on which the mobile body is traveling from the obtained running image,
Detects whether or not the moving object deviates from the recognized lane, and controls the lane departure guidance information to be displayed on the display unit in accordance with the detection result.
제9항에 있어서,
목적지를 입력 받는 사용자 입력부;를 더 포함하고,
상기 제어부는,
상기 입력된 목적지와 상기 이동체의 위치 데이터를 기초로 경로 정보를 생성하고,
상기 객체 정보를 이용하여 획득한 이동체 주행 차로의 주행 방향과 상기 경로 정보를 이용하여 예측한 이동체의 주행 방향을 비교하여 상기 이동체의 차로 변경이 필요한지 여부를 판단하는 것을 특징으로 하는 전자 기기.
10. The method of claim 9,
And a user input unit for inputting a destination,
Wherein,
Generating route information based on the input destination and the location data of the moving object,
And judges whether or not the vehicle needs to be changed to a vehicle by comparing the running direction of the moving vehicle lane acquired using the object information with the predicted traveling direction of the vehicle using the route information.
전자 기기를 이용한 이동체의 주행 관련 안내 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체에 있어서,
상기 이동체의 주행 관련 안내 방법은,
복수의 객체 각각에 대응되는 객체 정보 및 상기 복수의 객체 각각에 대응되는 위치 데이터를 저장하는 단계;
상기 이동체의 주행 영상을 획득하는 단계;
상기 이동체의 현재 위치 데이터를 획득하는 단계;
기 저장된 복수의 객체 중 상기 획득된 이동체의 현재 위치 데이터에 대응되는 객체를 선택하는 단계;
상기 획득된 주행 영상으로부터 상기 이동체가 주행 중인 차로에 대응되는 차선을 인식하는 단계;
상기 이동체가 상기 인식된 차선을 이탈하는지 여부를 감지하는 단계;
상기 선택된 객체의 정보를 이용하여 상기 이동체가 주행 중인 도로에 관련된 안내 정보를 디스플레이부에 표시하고, 상기 이동체의 주행 중 상기 인식된 차선의 이탈이 감지되면 차선 이탈 안내 정보를 상기 디스플레이부에 표시하는 단계;를 포함하고,
상기 객체는 상기 이동체가 주행하는 도로에 관련된 정보를 제공하기 위한 비 텍스트 형태의 도형 또는 텍스트이고, 상기 객체는 상기 차선을 포함하지 않는 것을 특징으로 하는 컴퓨터 판독 가능한 기록 매체.
A computer-readable recording medium on which a program for performing a driving-related guidance method of a moving object using an electronic device is recorded,
The driving-related guidance method for the moving body comprises:
Storing object information corresponding to each of the plurality of objects and position data corresponding to each of the plurality of objects;
Obtaining a traveling image of the moving object;
Obtaining current position data of the moving body;
Selecting an object corresponding to current position data of the obtained moving object among a plurality of previously stored objects;
Recognizing a lane corresponding to a lane on which the moving object is traveling from the obtained traveling image;
Detecting whether the moving object deviates from the recognized lane;
And displays lane departure guidance information on the display unit when the departure of the recognized lane is detected during traveling of the moving object Comprising:
Wherein the object is a graphic or text in a non-text form for providing information related to a road on which the mobile is traveling, and the object does not include the lane.
KR1020180001547A 2018-01-05 2018-01-05 Driving-related guidance method for a moving body, electronic apparatus and computer-readable recording medium KR101906436B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180001547A KR101906436B1 (en) 2018-01-05 2018-01-05 Driving-related guidance method for a moving body, electronic apparatus and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180001547A KR101906436B1 (en) 2018-01-05 2018-01-05 Driving-related guidance method for a moving body, electronic apparatus and computer-readable recording medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020100132404A Division KR20120070886A (en) 2010-12-22 2010-12-22 Electronic device and lane guide method of electronic device

Publications (2)

Publication Number Publication Date
KR20180005274A KR20180005274A (en) 2018-01-15
KR101906436B1 true KR101906436B1 (en) 2018-10-10

Family

ID=61001254

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180001547A KR101906436B1 (en) 2018-01-05 2018-01-05 Driving-related guidance method for a moving body, electronic apparatus and computer-readable recording medium

Country Status (1)

Country Link
KR (1) KR101906436B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001336941A (en) * 2000-05-25 2001-12-07 Sony Corp Car navigation device
JP2004205527A (en) * 2004-04-09 2004-07-22 Matsushita Electric Ind Co Ltd Navigation system
JP2007086052A (en) * 2005-08-24 2007-04-05 Denso Corp Navigation device and program
JP2008187347A (en) * 2007-01-29 2008-08-14 Toshiba Corp On-vehicle navigation system, road marking identifying program and road marking identifying method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001336941A (en) * 2000-05-25 2001-12-07 Sony Corp Car navigation device
JP2004205527A (en) * 2004-04-09 2004-07-22 Matsushita Electric Ind Co Ltd Navigation system
JP2007086052A (en) * 2005-08-24 2007-04-05 Denso Corp Navigation device and program
JP2008187347A (en) * 2007-01-29 2008-08-14 Toshiba Corp On-vehicle navigation system, road marking identifying program and road marking identifying method

Also Published As

Publication number Publication date
KR20180005274A (en) 2018-01-15

Similar Documents

Publication Publication Date Title
JP4293917B2 (en) Navigation device and intersection guide method
JP4881493B1 (en) Navigation device, control method, program, and storage medium
JP2008216205A (en) On-vehicle navigation device
KR20040073270A (en) Navigation Apparatus, And Program And Recording Medium For The Same
JP4339178B2 (en) Parking space empty space guidance device and parking space empty space guidance method
KR20120079341A (en) Method, electronic device and recorded medium for updating map data
KR101759975B1 (en) Navigation for vehicel and land departure warning method of navigation for vehicel
US9702708B2 (en) Vehicle navigation system, method for controlling vehicle navigation system, and vehicle black box
KR20120070886A (en) Electronic device and lane guide method of electronic device
JP2013036930A (en) Navigation device and navigation system comprising the same
JP2012037475A (en) Server device, navigation system and navigation device
JP4619442B2 (en) Image display device, display control method, display control program, and recording medium
KR101912853B1 (en) Electronic device and lane guide method of electronic device
KR101906436B1 (en) Driving-related guidance method for a moving body, electronic apparatus and computer-readable recording medium
KR101818956B1 (en) Electronic apparatus, method and recording medium for providing lane-changing information
KR102058620B1 (en) Electronic device and driving related guidance maethod for moving body
KR102041300B1 (en) Electronic device and course guide method of electronic device
KR20120070887A (en) Electronic device and course guide method of electronic device
KR101906430B1 (en) Navigation for vehicel and land departure warning method of navigation for vehicel
KR20120078876A (en) Electronic device and lane guide method of electronic device
KR101856255B1 (en) Navigation display system
JP6877694B2 (en) Navigation devices, navigation methods, and navigation programs
KR20180111746A (en) Navigation for vehicel and land departure warning method of navigation for vehicel
JP2012137482A (en) Navigation device and control method
KR20180118086A (en) Electronic device and navigation service method of electronic device

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant