KR101027516B1 - 주행 정보 획득 장치 및 방법 - Google Patents

주행 정보 획득 장치 및 방법 Download PDF

Info

Publication number
KR101027516B1
KR101027516B1 KR1020080131240A KR20080131240A KR101027516B1 KR 101027516 B1 KR101027516 B1 KR 101027516B1 KR 1020080131240 A KR1020080131240 A KR 1020080131240A KR 20080131240 A KR20080131240 A KR 20080131240A KR 101027516 B1 KR101027516 B1 KR 101027516B1
Authority
KR
South Korea
Prior art keywords
image
driving information
trace
trail
driving
Prior art date
Application number
KR1020080131240A
Other languages
English (en)
Other versions
KR20100072748A (ko
Inventor
박승환
이유철
유원필
Original Assignee
에스케이 텔레콤주식회사
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이 텔레콤주식회사, 한국전자통신연구원 filed Critical 에스케이 텔레콤주식회사
Priority to KR1020080131240A priority Critical patent/KR101027516B1/ko
Publication of KR20100072748A publication Critical patent/KR20100072748A/ko
Application granted granted Critical
Publication of KR101027516B1 publication Critical patent/KR101027516B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 주행 정보 획득 장치 및 방법에 관한 것으로, 이동체가 어떠한 주행면을 가진 환경에서 이동하더라도 이동체가 움직인 거리 및/또는 방향을 정확히 알 수 있으며, 이동부의 구조적 불일치로 인한 위치 인식 오차가 전혀 발생하지 않기에 외부의 랜드마크나 환경 분석이 필요 없어져 보다 효율적인 자기 위치 인식이 가능해지고, 로봇 등과 같은 이동체의 내부에 장착되는 형태로 구현할 수 있으므로 외부 환경에 상관없이 항상 일정한 수준의 결과를 얻을 수 있는 이점이 있다.
주행 정보, 오도메트리(odometry), 위치 인식

Description

주행 정보 획득 장치 및 방법{METHOD AND APPARATUS FOR ACQUISITION OF ODOMETRY DATA}
본 발명은 주행 정보 획득에 관한 것으로서, 더욱 상세하게는 자율 이동체가 자기 위치 인식에 이용되는 주행 정보(odometry data)를 획득할 수 있는 주행 정보 획득 장치 및 방법에 관한 것이다.
본 발명은 지식경제부 및 정보통신연구진흥원의 IT성장동력기술개발 사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호 : 2008-S-031-01, 과제명 : u-Robot 인지인프라 기술개발].
로봇 등의 자율 이동체가 서비스를 수행하기 위해서는 자기가 지도상에서 어디에 있는지 알아야 한다. 이를 자기 위치 인식이라고 한다. 위치 인식을 하기 위해 필요한 정보는 자율 이동체에 장착된 센서가 주는 것과 외부 환경에서 얻을 수 있는 것으로 나뉜다.
자율 이동체가 내부적으로 장착하여 위치 인식에 사용되는 센서는 레이저, 초음파 등을 이용한 거리 측정 센서, 비전 센서, 엔코더 등이 있다. 자율 이동체의 초기 위치가 정확히 알려진 상태에서는 일정 시간의 주행 후 현재의 위치를 알아내기 위해 엔코더를 사용하는 추측 항법(dead-reckoning) 기법과 위에서 언급한 다양한 센서들로부터 얻어진 데이터를 융합하여 사용하는 센서 퓨전(sensor fusion) 기법이 따로 혹은 병행하여 쓰인다.
엔코더는 자율 이동체의 위치 인식에 가장 기본적으로 쓰이는 센서로서, 초기 위치에서 바퀴의 회전에 따라 펄스를 발생시키며 이를 바탕으로 위치를 추정하게 되는데, 값싸고 구현이 쉽다는 장점이 있지만 오차가 계속 누적되어 시간이 지날수록 결과의 신뢰성이 떨어지는 문제점이 있다. 엔코더의 오차 발생에 대한 주된 원인은 이동부의 구조가 정확히 일치하지 못하는 데서 오는 오차와 고르지 못한 환경이다. 바퀴를 사용하는 자율 이동체의 경우에 동력이 전달되는 바퀴에 엔코더를 사용하게 되는데, 이 바퀴들이 완전히 똑같은 형태를 가지기 못하므로 직진 및 회전 시에 오차가 발생하게 된다. 바퀴의 형태가 일치하지 않아 생기는 이러한 오차는 특히 회전할 경우에 크게 나타난다. 즉 회전 운동에 대한 엔코더의 신뢰도가 직선 운동의 경우보다 많이 떨어진다. 이러한 이동부 자체의 구조적 문제에 덧붙여 환경의 구조적 문제로 인해서도 오차가 발생한다. 비교적 바닥이 고른 실내의 경우에서도 작은 요철이나 장애물로 인해 이동부의 흔들림이 발생하게 되고 이로 인해 엔코더 값에 오차가 발생한다. 또한 너무 매끄러운 바닥 면에서 바퀴가 미끄러진다든지, 카펫 같은 바닥에서 바퀴가 헛돈 다든지 하게 되면 추가로 엔코더의 오차가 발생된다. 이러한 오차는 외부 센서의 도움으로 초기화되지 않는 한 계속 누적되며 없어지지 않는다.
엔코더의 큰 오차율로 인해 자율 이동체의 위치 인식에 추가적인 센서를 사용하게 된다. 이 경우 센서 결과의 정확도를 높이기 위해 다양한 종류의 센서 값을 융합하여 최종적으로 위치 인식을 위한 정보를 생성한다. 센서 값의 처리 및 가공에는 칼만 필터(kalman filter)나 여러 종류의 확률 함수(probabilistic function) 등이 쓰인다. 센서 융합 기법은 센서 자체의 정확성 및 감지 범위 등에 영향을 받게 되므로 고성능의 센서를 사용하면 센서들의 정보를 많이 융합하지 않아도 더 좋은 결과를 얻을 수 있으며, 저가의 센서를 사용하게 되면 여러 가지 융합 방법을 사용해도 전체적인 성능은 조금 떨어지게 된다.
외부 환경에서 얻어지는 정보를 이용하여 자율 이동체의 위치 인식을 하는 경우가 있다. 이 때 사용되는 외부 정보는 랜드마크에서 얻어진다. 랜드마크는 자연적 랜드마크와 인공적 랜드마크가 있다.
자연적 랜드마크란 사람이 인위적으로 랜드마크의 역할을 맡기기 위해 만들어내지 않았지만 그 특징으로 인해 랜드마크의 역할을 하게 되는 것들을 말한다. 일반적으로 야외에서는 산, 호수, 강 등이 랜드마크의 역할을 할 수 있으며, 실내의 경우에 특징적인 그림, 특정한 가구나 가전제품 등 장소의 구분을 위해 사용될 수 있는 모든 것이 랜드마크가 될 수 있다. 반면, 인공적 랜드마크란 랜드마크의 역할을 수행하도록 하기 위해 인위적으로 만들어 낸 것이다. 자율 이동체에 적용될 수 있는 인공 랜드마크로는 로봇 업체 또는 연구소에서 개발 및 실용화한 스타라이트(StarLITE), 스타게이저(StarGazer), 노스스타(NorthStar), 바코드(Barcode) 시 스템 등이 있다.
앞서 설명한 바와 같이 자율 이동체의 위치 인식을 위해 랜드마크를 사용하든지 또는 센서 퓨전을 사용하든지 기본적으로는 엔코더 모듈이 자율 이동체에 장착되며, 이는 자율 이동체의 위치 인식에 관한 다른 정보가 제대로 전달되지 않는 경우에 가장 확실하게 정보를 얻을 수 있는 수단이 된다. 다만 그 오차가 누적되어 커질 수 있으므로 오랜 시간 동안 사용되기에는 어려운 문제점이 있다.
본 발명은 전술한 엔코더의 오차 누적 특성을 상쇄시키며, 랜드마크 등 외부 정보가 원활히 제공되지 못하는 상황에서 단일 장치의 사용으로 우수한 위치 인식 결과를 얻어낼 수 있는 주행 정보 획득 장치 및 방법을 제공한다.
본 발명의 제 1 관점으로서 주행 정보 획득 장치는, 이동체가 이동하는 주행면에 흔적을 표시할 수 있는 표시부와, 상기 주행면에 표시한 상기 흔적을 포함하는 흔적 영상을 획득할 수 있는 영상 획득부와, 상기 이동체의 이동 전에 상기 영상 획득부에 의해 1차로 획득한 1차 흔적 영상과 상기 이동체의 이동 후에 상기 영상 획득부에 의해 2차로 획득한 2차 흔적 영상을 비교하여 상기 이동체의 주행 정 보를 산출 및 출력할 수 있는 제어부를 포함한다.
여기서, 상기 표시부는, 상기 흔적이 휘발성을 가지도록 표시할 수 있다.
상기 영상 획득부는, 상기 주행면에 빛을 조사하여 조도를 높일 수 있는 조명부와, 상기 빛을 조사한 상기 주행면을 촬영하여 획득한 상기 1차 흔적 영상 및 상기 2차 흔적 영상을 상기 제어부에게 제공할 수 있는 촬영부를 포함한다.
상기 제어부는, 상기 1차 흔적 영상과 상기 2차 흔적 영상의 비교 결과에 의거하여 상기 이동체의 이동거리와 이동방향 중에서 적어도 어느 하나를 상기 주행 정보로서 산출할 수 있다.
상기 주행 정보 획득 장치는, 상기 표시부와 상기 영상 획득부를 쌍이라 할 때에 복수의 쌍을 포함하며, 상기 복수의 쌍 중에서 어느 하나의 쌍이 상기 흔적 영상을 획득할 때에 다른 하나의 쌍이 상기 흔적을 표시할 수 있다.
본 발명의 제 2 관점으로서 주행 정보 획득 방법은, 이동체의 이동 전에 상기 이동체의 주행면에 흔적을 표시하는 단계와, 상기 주행면에 표시한 상기 흔적을 포함하는 흔적 영상을 1차로 획득하는 단계와, 상기 이동체의 이동 후에 상기 흔적 영상을 2차로 획득하는 단계와, 상기 1차로 획득한 1차 흔적 영상과 상기 2차로 획득한 2차 흔적 영상을 비교하여 상기 이동체의 주행 정보를 산출 및 출력하는 단계를 포함한다.
여기서, 상기 흔적을 표시하는 단계는, 상기 흔적이 휘발성을 가지도록 표시한다.
상기 흔적 영상을 1차로 획득하는 단계 또는 상기 흔적 영상을 2차로 획득하 는 단계는, 상기 주행면에 빛을 조사하여 조도를 높이는 단계와, 상기 빛을 조사한 상기 주행면을 촬영하여 상기 흔적 영상을 획득하는 단계를 포함한다.
상기 주행 정보를 산출 및 출력하는 단계는, 상기 1차 흔적 영상과 상기 2차 흔적 영상의 비교 결과에 의거하여 상기 이동체의 이동거리와 이동방향 중에서 적어도 어느 하나를 상기 주행 정보로서 산출한다.
상기 주행 정보 획득 방법은, 상기 주행면의 임의 위치에 표시한 상기 흔적 영상을 포함하는 흔적 영상을 획득할 때에 상기 주행면의 다른 위치에 새로운 상기 흔적을 표시한다.
본 발명에 의하면, 이동체가 어떠한 주행면을 가진 환경에서 이동하더라도 이동체가 움직인 거리 및/또는 방향을 정확히 알 수 있으며, 이동부의 구조적 불일치로 인한 위치 인식 오차가 전혀 발생하지 않는다. 그러므로 외부의 랜드마크나 환경 분석이 필요 없어져 보다 효율적인 자기 위치 인식이 가능해진다.
아울러, 로봇 등과 같은 이동체의 내부에 장착되는 형태로 구현할 수 있으므로 외부 환경에 상관없이 항상 일정한 수준의 결과를 얻을 수 있는 효과가 있다.
이하, 본 발명의 일부 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 아울러 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설 명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.
도 1은 본 발명의 실시예에 따른 주행 정보 획득 장치의 블록 구성도이다.
이에 나타낸 바와 같이 본 발명의 주행 정보 획득 장치(100)는, 이동체가 이동하는 주행면에 휘발성을 가지는 흔적을 표시할 수 있는 표시부(110)와, 주행면에 표시한 흔적을 포함하는 흔적 영상을 획득할 수 있는 영상 획득부(120)와, 이동체의 이동 전에 영상 획득부(120)에 의해 1차로 획득한 1차 흔적 영상과 이동체의 이동 후에 영상 획득부(120)에 의해 2차로 획득한 2차 흔적 영상을 비교하여 이동체의 이동거리와 이동방향 중에서 어느 하나 또는 모두를 이동체의 주행 정보로서 산출 및 출력할 수 있는 제어부(130) 등을 포함한다.
영상 획득부(120)는 주행면에 빛을 조사하여 조도를 높일 수 있는 조명부(121)와, 빛을 조사한 주행면을 촬영하여 획득한 1차 흔적 영상 및 2차 흔적 영상을 제어부(130)에게 제공할 수 있는 촬영부(123) 등을 포함한다.
도면 중의 미설명 부호인 200은 제어부(130)로부터 출력되는 주행 정보에 의거한 자기 위치 인식에 따라 이동체를 이동시키는 이동부이다. 이러한 이동부(200)는 이동체를 구성하는 요소라 할 수 있다.
이와 같이 구성된 주행 정보 획득 장치에 의한 주행 정보 획득 과정을 도 1 내지 도 4를 참조하여, 도 2에 나타낸 본 발명의 실시예에 따른 주행 정보 획득 과 정을 설명하기 위한 흐름도를 중심으로 설명하면 아래와 같다.
먼저, 이동체의 이동 전에 표시부(110)는 제어부(130)에 의한 제어신호에 따라 이동체의 주행면에 흔적을 표시한다(S201). 이때, 흔적이 휘발성을 가지도록 표시하여 시간이 경과할수록 희미해져서 종국에는 사라지도록 한다. 이는 이동체가 이동을 반복하여 동일한 위치로 복귀할 때에 새롭게 표시하는 흔적과의 겹침 또는 교차에 의한 혼동을 미연에 방지하기 위한 것이다. 또한 미관을 고려하여 인간의 시각으로는 식별할 수 없는 특성을 가지는 흔적을 표시한다. 만약 이동체가 동일한 위치로 복귀하지 않는 이동 특성을 가지거나 미관을 고려할 필요가 없다면 흔적이 비휘발성을 가지거나 인간의 시각으로 식별할 수 있는 특성을 가지더라도 무방하다고 할 것이다. 표시부(110)는 예컨대, 도료 분사 또는 열 전사 등의 방법으로 흔적을 표시할 수 있다.
그리고, 영상 획득부(120)는 제어부(130)에 의한 제어신호에 따라 주행면에 표시한 흔적을 포함하는 흔적 영상을 1차로 획득하여 제어부(130)에게 제공한다(S203). 여기서, 조명부(121)는 주행면에 빛을 조사하여 조도를 높이며, 촬영부(123)는 빛을 조사한 주행면을 촬영하여 양호한 화질의 흔적 영상을 획득할 수 있다.
이동부(200)가 이동체를 이동(S205)시키면 이러한 이동 상황을 신호 전달받은 제어부(130)가 이동체의 이동 상황을 인지하며, 영상 획득부(120)는 제어부(130)에 의한 제어신호에 따라 주행면에 표시한 흔적을 포함하는 흔적 영상을 2차로 획득하여 제어부(130)에게 제공한다(S207).
그러면, 제어부(130)는 영상 획득부(120)가 1차로 획득한 1차 흔적 영상과 2차로 획득한 2차 흔적 영상을 비교하며(S209), 그 비교 결과에 의거하여 이동체의 이동거리와 이동방향 중에서 적어도 어느 하나 또는 모두를 이동체의 주행 정보로서 산출하고, 이러한 산출을 통해 획득한 이동체의 주행 정보를 이동부(200)에게 제공한다(S211).
도 3은 본 발명의 실시예에 따라 주행 정보 획득 장치(100)를 구성하는 표시부(110), 조명부(121), 촬영부(123)의 배열 및 형태가 나타나도록 이동체의 저면에서 바라본 도면이다. 도 3에 나타낸 바와 같이, 표시부(110)는 흔적을 삼각형태로 표시할 수 있도록 삼각형태를 가지며, 조명부(121)는 표시부(110)의 가장자리를 따라 배열하고, 촬영부(123)는 삼각형태의 중심부분에 배열한다.
도 4는 본 발명의 실시예에 따라 주행 정보 획득 장치(100)를 구성하는 표시부(110)가 주행면에 표시하는 흔적의 예를 나타난 도면이다. 도 3의 실시예와 같이 표시부(110)가 삼각형태를 가지면 흔적을 도 4와 같이 삼각형태로 표시할 수 있으며, 이동체의 이동 전의 흔적(301)과 이동 후의 흔적(303)을 비교하여 이동체의 이동거리(305)와 이동방향(307)을 산출할 수 있다는 것을 보여주고 있다.
도 1 내지 도 4를 참조하여 설명한 본 발명의 실시예에 의하면, 처음에 흔적을 표시하여 흔적 영상을 획득한 이후에 다시 흔적을 표시하기까지의 사이에 이동체의 이동을 계산하지 못하는 시간이 발생한다. 이에, 표시부(110)와 영상 획득부(120)를 쌍이라 할 때에 복수의 쌍을 포함하여 주행 정보 획득 장치(100)를 구성 하고, 복수의 쌍 중에서 어느 하나의 쌍이 흔적 영상을 획득할 때에 다른 하나의 쌍이 새로운 흔적을 표시하도록 구현하면 이동체의 이동을 계산하지 못하는 시간을 극복할 수 있다. 이러한 실시예에 의한 주행 정보 획득 장치를 도 5에 나타내었다.
도 5는 본 발명의 다른 실시예에 따른 주행 정보 획득 장치의 블록 구성도이다. 이에 나타낸 바와 같이 주행 정보 획득 장치(300)는, 제 1 표시부(310)와 제 1 영상 획득부(320)가 한 쌍을 이루고, 제 2 표시부(340)와 제 2 영상 획득부(350)가 다른 한 쌍을 이루며, 두 쌍 중에서 어느 하나의 쌍이 흔적 영상을 획득할 때에 다른 하나의 쌍이 새로운 흔적을 표시하도록 흔적 표시 및 영상 획득 과정을 제어하는 제어부(330)를 포함한다. 제 1 영상 획득부(320)는 제 1 조명부(321) 및 제 1 촬영부(323)를 포함하며, 제 2 영상 획득부(350)는 제 2 조명부(351) 및 제 2 촬영부(353)를 포함한다.
도 6은 본 발명의 다른 실시예에 따른 주행 정보 획득 장치에 의한 주행 정보 획득 과정을 설명하기 위한 흐름도이다. 이러한 주행 정보 획득 과정은 앞서 상술한 실시예의 주행 정보 획득 과정으로부터 쉽게 유추할 수 있기에 개략적으로 설명하여 중복 기재를 회피하기로 한다.
먼저, 이동체의 이동 전에 주행 정보 획득 장치(300)의 제 1 표시부(310)가 주행면의 임의 위치에 흔적을 표시하고(S401), 제 1 영상 획득부(320)가 주행면의 영상을 1차로 획득하며(S403), 이동부(200)가 이동체를 이동시킨다(S405).
이동체의 이동 후에는 제 1 영상 획득부(320)가 주행면의 영상을 2차로 획득하며(S411), 동시에 제 2 표시부(340)가 주행면의 다른 위치에 새로운 흔적을 표시 한다(S421).
이후, 제어부(330)는 제 1 영상 획득부(320)에 의해 1차로 획득한 흔적 영상과 2차로 획득한 흔적 영상을 비교(S431)하여 이동체의 주행 정보를 산출한다(S433).
아울러, 단계 S421의 이후에 제 2 영상 획득부(350)는 주행면의 영상을 1차로 획득하며(S423), 이동부(200)가 이동체를 이동(S425)시킨 후에는 제 2 영상 획득부(350)가 주행면의 영상을 2차로 획득하고(S427), 다시 제어부(330)는 제 2 영상 획득부(350)에 의해 1차로 획득한 흔적 영상과 2차로 획득한 흔적 영상을 비교(S431)하여 이동체의 주행 정보를 산출한다(S433).
본 발명에 의한 주행 정보 획득 방법은 컴퓨터 프로그램으로 작성 가능하다. 이 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 해당 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 컴퓨터에 의하여 읽혀지고 실행됨으로써 주행 정보 획득 방법을 구현한다. 정보저장매체는 자기 기록매체, 광 기록매체 및 캐리어 웨이브 매체를 포함한다.
지금까지 본 발명에 대하여 그 일부 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
도 1은 본 발명의 실시예에 따른 주행 정보 획득 장치의 블록 구성도이다.
도 2에 나타낸 본 발명의 실시예에 따른 주행 정보 획득 과정을 설명하기 위한 흐름도이다.
도 3은 본 발명의 실시예에 따라 주행 정보 획득 장치를 구성하는 표시부, 조명부, 촬영부의 배열 및 형태가 나타나도록 이동체의 저면에서 바라본 도면이다.
도 4는 본 발명의 실시예에 따라 주행 정보 획득 장치를 구성하는 표시부가 주행면에 표시하는 흔적의 예를 나타난 도면이다.
도 5는 본 발명의 다른 실시예에 따른 주행 정보 획득 장치의 블록 구성도이다.
도 6은 본 발명의 다른 실시예에 따른 주행 정보 획득 장치에 의한 주행 정보 획득 과정을 설명하기 위한 흐름도이다.
<도면의 주요 부분에 대한 부호의 설명>
100 : 주행 정보 획득 장치 110 : 표시부
120 : 영상 획득부 121 : 조명부
123 : 촬영부 130 : 제어부
200 : 이동부

Claims (10)

  1. 이동체가 이동하는 주행면에 흔적을 표시할 수 있는 표시부와,
    상기 주행면에 표시한 상기 흔적을 포함하는 흔적 영상을 획득할 수 있는 영상 획득부와,
    상기 이동체의 이동 전에 상기 영상 획득부에 의해 1차로 획득한 1차 흔적 영상과 상기 이동체의 이동 후에 상기 영상 획득부에 의해 2차로 획득한 2차 흔적 영상을 비교하여 상기 이동체의 주행 정보를 산출 및 출력할 수 있는 제어부
    를 포함하는 주행 정보 획득 장치.
  2. 제 1 항에 있어서,
    상기 표시부는, 상기 흔적이 휘발성을 가지도록 표시할 수 있는
    주행 정보 획득 장치.
  3. 제 1 항에 있어서,
    상기 영상 획득부는,
    상기 주행면에 빛을 조사하여 조도를 높일 수 있는 조명부와,
    상기 빛을 조사한 상기 주행면을 촬영하여 획득한 상기 1차 흔적 영상 및 상 기 2차 흔적 영상을 상기 제어부에게 제공할 수 있는 촬영부
    를 포함하는 주행 정보 획득 장치.
  4. 제 1 항에 있어서,
    상기 제어부는, 상기 1차 흔적 영상과 상기 2차 흔적 영상의 비교 결과에 의거하여 상기 이동체의 이동거리와 이동방향 중에서 적어도 어느 하나를 상기 주행 정보로서 산출할 수 있는
    주행 정보 획득 장치.
  5. 제 1 항에 있어서,
    상기 주행 정보 획득 장치는, 상기 표시부와 상기 영상 획득부를 쌍이라 할 때에 복수의 쌍을 포함하며, 상기 복수의 쌍 중에서 어느 하나의 쌍이 상기 흔적 영상을 획득할 때에 다른 하나의 쌍이 상기 흔적을 표시할 수 있는
    주행 정보 획득 장치.
  6. 이동체의 이동 전에 상기 이동체의 주행면에 흔적을 표시하는 단계와,
    상기 주행면에 표시한 상기 흔적을 포함하는 흔적 영상을 1차로 획득하는 단 계와,
    상기 이동체의 이동 후에 상기 흔적 영상을 2차로 획득하는 단계와,
    상기 1차로 획득한 1차 흔적 영상과 상기 2차로 획득한 2차 흔적 영상을 비교하여 상기 이동체의 주행 정보를 산출 및 출력하는 단계
    를 포함하는 주행 정보 획득 방법.
  7. 제 6 항에 있어서,
    상기 흔적을 표시하는 단계는, 상기 흔적이 휘발성을 가지도록 표시하는
    주행 정보 획득 방법.
  8. 제 6 항에 있어서,
    상기 흔적 영상을 1차로 획득하는 단계 또는 상기 흔적 영상을 2차로 획득하는 단계는,
    상기 주행면에 빛을 조사하여 조도를 높이는 단계와,
    상기 빛을 조사한 상기 주행면을 촬영하여 상기 흔적 영상을 획득하는 단계
    를 포함하는 주행 정보 획득 방법.
  9. 제 6 항에 있어서,
    상기 주행 정보를 산출 및 출력하는 단계는, 상기 1차 흔적 영상과 상기 2차 흔적 영상의 비교 결과에 의거하여 상기 이동체의 이동거리와 이동방향 중에서 적어도 어느 하나를 상기 주행 정보로서 산출하는
    주행 정보 획득 방법.
  10. 제 6 항에 있어서,
    상기 주행 정보 획득 방법은, 상기 주행면의 임의 위치에 표시한 상기 흔적 영상을 포함하는 흔적 영상을 획득할 때에 상기 주행면의 다른 위치에 새로운 상기 흔적을 표시하는
    주행 정보 획득 방법.
KR1020080131240A 2008-12-22 2008-12-22 주행 정보 획득 장치 및 방법 KR101027516B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080131240A KR101027516B1 (ko) 2008-12-22 2008-12-22 주행 정보 획득 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080131240A KR101027516B1 (ko) 2008-12-22 2008-12-22 주행 정보 획득 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20100072748A KR20100072748A (ko) 2010-07-01
KR101027516B1 true KR101027516B1 (ko) 2011-04-06

Family

ID=42635865

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080131240A KR101027516B1 (ko) 2008-12-22 2008-12-22 주행 정보 획득 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101027516B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210048647A (ko) 2019-10-23 2021-05-04 국민대학교산학협력단 사용자 관점의 자율주행 정보 제공 장치 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08130705A (ja) * 1994-11-02 1996-05-21 Nec Corp 映像記録装置および映像再生装置
KR20050080997A (ko) * 2004-02-12 2005-08-18 엘지전자 주식회사 영상표시기기의 컨버전스 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08130705A (ja) * 1994-11-02 1996-05-21 Nec Corp 映像記録装置および映像再生装置
KR20050080997A (ko) * 2004-02-12 2005-08-18 엘지전자 주식회사 영상표시기기의 컨버전스 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210048647A (ko) 2019-10-23 2021-05-04 국민대학교산학협력단 사용자 관점의 자율주행 정보 제공 장치 및 방법

Also Published As

Publication number Publication date
KR20100072748A (ko) 2010-07-01

Similar Documents

Publication Publication Date Title
Croce et al. An indoor and outdoor navigation system for visually impaired people
CN107110953B (zh) 水下定位***
CN102741653B (zh) 安装磁信号源以便定位
CN103150786B (zh) 一种非接触式无人驾驶车辆行驶状态测量***及测量方法
JP5642341B2 (ja) レンジ測定デバイス
CN109764887A (zh) 用于显示虚拟路线的方法和装置
KR101251729B1 (ko) 주차 제어 방법 및 그 장치
CN108496057A (zh) 基于照明源定位
DE602005007847D1 (de) System zur Lokalisation einer in-Vivo Signalquelle
JP2021123330A (ja) 車線変更経路を計画する方法、装置、電子機器及びコンピュータ読み取り可能な媒体
Pfaff et al. Towards mapping of cities
JP6997112B2 (ja) 加速度計
KR102561263B1 (ko) 지도 데이터를 생성하는 전자 장치 및 그 동작 방법
Kachurka et al. WeCo-SLAM: Wearable cooperative SLAM system for real-time indoor localization under challenging conditions
JP2012084149A (ja) モバイル機器のナビゲーション
CN108981687A (zh) 一种视觉与惯性融合的室内定位方法
CN108458712A (zh) 无人驾驶小车导航***及导航方法、无人驾驶小车
JPWO2020184013A1 (ja) 車両制御装置
Matsuda et al. Parent–child‐based navigation method of multiple autonomous underwater vehicles for an underwater self‐completed survey
US20200072614A1 (en) Automated emergency response
KR101027516B1 (ko) 주행 정보 획득 장치 및 방법
JP5105595B2 (ja) 自律走行移動体の走行経路決定用地図作成装置及び走行経路決定用地図作成方法
JP2022501613A (ja) 位置確認システム及び方法
Pfingsthorn et al. Full 3D navigation correction using low frequency visual tracking with a stereo camera
ES2826856T3 (es) Concepto para crear un mapa digital

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150309

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160302

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190219

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20200220

Year of fee payment: 10