KR20090061296A - 이동 로봇의 자세 보정 방법 및 장치 - Google Patents

이동 로봇의 자세 보정 방법 및 장치 Download PDF

Info

Publication number
KR20090061296A
KR20090061296A KR1020070128264A KR20070128264A KR20090061296A KR 20090061296 A KR20090061296 A KR 20090061296A KR 1020070128264 A KR1020070128264 A KR 1020070128264A KR 20070128264 A KR20070128264 A KR 20070128264A KR 20090061296 A KR20090061296 A KR 20090061296A
Authority
KR
South Korea
Prior art keywords
distance data
doorway
entrance
distance
mobile robot
Prior art date
Application number
KR1020070128264A
Other languages
English (en)
Other versions
KR101409987B1 (ko
Inventor
김동조
이형기
박동렬
방석원
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020070128264A priority Critical patent/KR101409987B1/ko
Priority to US12/153,600 priority patent/US8165717B2/en
Publication of KR20090061296A publication Critical patent/KR20090061296A/ko
Application granted granted Critical
Publication of KR101409987B1 publication Critical patent/KR101409987B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

이동 로봇의 자세 보정 방법 및 장치가 제공된다. 본 발명의 실시예에 따른 이동 로봇의 자세 보정 방법은 이동 로봇에 장착된 거리 측정 센서를 이용하여 출입구를 감지하는 단계, 감지된 출입구의 제 1 거리 데이터를 저장하는 단계, 주행 후 거리 측정 센서를 이용하여 다시 출입구를 감지하는 단계, 및 제 1 거리 데이터와 다시 감지된 출입구의 제 2 거리 데이터를 이용하여 이동 로봇의 자세를 보정하는 단계를 포함한다.
이동 로봇, 자세 보정, 스트럭쳐드 라이트, 출입구, 문

Description

이동 로봇의 자세 보정 방법 및 장치{Method and apparatus for correcting pose of moving robot}
본 발명은 이동 로봇의 자세 보정 및 방법에 관한 것으로, 보다 상세하게는 이동 로봇의 주행 중에 발생하는 슬립이나 센서 신호의 오차의 누적으로 발생하는 이동 로봇의 자세 오차를 보정하는 것에 관한 것이다.
최근에는 산업체에서 이용되는 산업용 로봇뿐만 아니라 일반 가정이나 사무실 등에서 가사일이나 사무 보조로서 로봇이 실용화되고 있다. 이에 해당하는 대표적인 예로서 청소용 로봇, 안내 로봇, 방범 로봇 등을 들 수 있다.
이러한 로봇은 기본적으로 주어진 공간 내에서 이동을 하면서 로봇 자신의 고유한 기능을 수행한다. 로봇이 주어진 환경 속에서 주행과 기능 수행을 위해서는 주변 공간에 대한 맵(map)의 작성과 로봇의 위치(position) 및 방향각(heading angle)에 대한 정보를 필요로 한다. 이러한 맵 작성과 함께 자신의 위치를 인식하는 방법으로 슬램(SLAM; Simultaneous Localization And Mapping) 알고리즘이 사용될 수 있다.
슬램 알고리즘은 어떤 위치에서 주변 환경의 맵을 작성하고, 작성된 맵을 바 탕으로 다시 움직인 로봇의 위치를 알아내는 반복을 통해 로봇의 위치와 주변 환경의 맵을 동시에 추정할 수 있다.
그러나, 이동 로봇이 SLAM을 수행함에 있어서 슬립이나 엔코더와 같은 주행 센서 오차의 누적으로 인하여, 이동 로봇의 위치와 방향각에 오차가 발생하고 이러한 오차가 누적됨에 따라서 생성된 맵도 실제와 비교하여 흐트러지게 된다.
따라서, 주행 중에 이동 로봇의 위치와 방향각 오차를 보정함으로써, 오차의 누적으로 발생하는 이동 로봇 성능 저하를 방지하도록 하는 것이 필요하다.
본 발명은 상기한 문제점을 개선하기 위해 고안된 것으로, 본 발명이 이루고자 하는 목적은 이동 로봇이 출입구를 들어갈 때와 나올 때의 출입구의 거리 데이터를 이용하여 이동 로봇의 자세를 보정함으로써 이동 로봇의 자세 오차가 누적되는 것을 방지하는 방법 및 장치를 제공하는 것이다.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 목적을 달성하기 위하여, 본 발명의 실시예에 따른 이동 로봇의 자세 보정 방법은 이동 로봇에 장착된 거리 측정 센서를 이용하여 출입구를 감지하는 단계; 상기 감지된 출입구의 제 1 거리 데이터를 저장하는 단계; 주행 후 상기 거리 측정 센서를 이용하여 다시 상기 출입구를 감지하는 단계; 및 상기 제 1 거리 데이터와 상기 다시 감지된 출입구의 제 2 거리 데이터를 이용하여 상기 이동 로봇의 자세를 보정하는 단계를 포함한다.
상기 목적을 달성하기 위하여, 본 발명의 실시예에 따른 이동 로봇의 자세 보정 장치는 이동 로봇에 장착된 거리 측정 센서로부터 거리 데이터를 획득하는 거리 데이터 획득부; 상기 거리 데이터를 이용하여 출입구를 감지하는 출입구 감지부; 상기 감지된 출입구의 거리 데이터를 저장하는 저장부; 및 상기 저장된 출입구의 거리 데이터를 비교하여 상기 이동 로봇의 자세를 보정하는 자세 보정부를 포함하는데, 상기 자세 보정부는 최초 감지되어 저장된 상기 출입구의 제 1 거리 데이 터와 주행후 상기 다시 감지된 출입구의 제 2 거리 데이터를 이용하여 상기 이동 로봇의 자세를 보정한다.
실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
이하, 본 발명의 실시예들에 의한 이동 로봇의 자세 보정 방법 및 장치를 설명하기 위한 블록도 또는 처리 흐름도에 대한 도면들을 참고하여 본 발명에 대해 설명하도록 한다. 이 때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑제되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록은 특정된 논리적 기능(들)을 실해하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨데, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
이동 로봇이 주행을 하면서 맵 생성을 포함하는 이동 로봇의 고유한 작업(예를 들어 청소 로봇의 경우 청소 작업)을 하는 전체 영역은 일반적으로 출입구로 그 영역이 분리된다. 예를 들어 일반 가정의 경우 거실, 방, 주방 등의 영역이 출입구(출입문)를 통하여 분리된다. 이동 로봇은 출입구를 통해 방에 들어가서 주행을 하면서 작업을 수행하고 다시 출입구를 통해 방을 나오게 되고, 다시 다른 방의 출 입구를 통해 들어가서 작업을 수행하고 다시 출입구를 통해서 나오는 과정을 전체 영역에 대하여 반복하게 된다.
이때, 출입구를 통해 특정 영역(예를 들어 방일 수 있다)에 들어간 후 다시 나왔을 때 이동 로봇의 자세 오차가 발생하게 된다. 이러한 오차는 전술한 바와 같이 주행 중에 발생하는 이동 로봇의 슬립 또는 주행 센서의 오차 누적 등에 의해 발생할 수 있다.
특히, 특징점이 없는 천장 영역을 이동할 때에는 슬립 발생시 이동 로봇의 위치 보정이 부정확하여 이동 로봇의 자세 오차값이 커질 수 있다. 본 발명에서 언급하는 '자세(pose)'는 이동 로봇의 평면 상의 2차원 좌표계 위치(position) 및 방향각을 의미한다. 또한, 침대, 탁자 등 아래를 주행할 때에는 dead-reckoning 정보만을 이용하면서 주행하므로 특징점을 이용한 자세 보정을 할 수 없어서 오차값이 커질 수 있다.
이와 같이 이동 로봇의 자세에 대한 오차가 계속 누적됨에 따라서, 이동 로봇이 판단하고 있는 위치와 실제 이동 로봇의 위치 사이에 오차가 커지게 되고, 또한 생성된 맵도 부정확해질 수밖에 없다.
도 1은 출입구를 통하여 이동 로봇이 영역을 들어가 영역 내 주행을 한 후 다시 동일한 출입구를 통하여 나왔을 때 자세의 오차가 발생하는 것을 설명하는 도면이고, 도 2는 도 1의 100b 및 100c 부분을 확대하여 보정되어야 할 위치 오차와 방향각 오차를 도시한 도면이다.
도 1의 굵은 실선은 실제 벽면을 나타낸다. 100a의 자세에서 이동 로봇이 출 입구를 통해 방으로 들어가서 방 내에 주행을 하고 난 뒤에 다시 출입구를 통해 나오게 되는데, 도 1에서 점선은 주행을 하면서 이동 로봇이 생성한 맵으로 전술한 슬립 등의 오차 등으로 실제 벽면과 오차가 발생하게 된다. 따라서, 다시 출입구를 나왔을 때 실제 이동 로봇의 자세는 100b인데 반하여 부정확하게 생성된 맵을 기초로 이동 로봇이 판단하는 자세는 100c가 된다. 따라서, 또 다른 방 또는 거실 등을 주행하기에 앞서, 출입구를 통해 나왔을 때 이동 로봇의 자세를 보정해줌으로써 이동 로봇의 자세 오차가 누적되는 것을 방지하는 것이 필요하다.
도 2에서 실제 이동 로봇의 자세(100b)와 이동 로봇이 판단하는 자세(100c)를 도시하고 있는데, 도시한 위치와 방향각만큼 오차를 보정해야 한다.
도 3은 본 발명의 일 실시예에 따른 이동 로봇의 자세 보정 방법의 순서도이다.
먼저, 본 발명에서 이동 로봇은 거리 측정 센서를 이용해서 현재 이동 로봇의 위치에서 벽면 등의 장애물과의 거리 정보를 이용하여 SLAM 과정을 수행하게 된다. 거리 측정 센서로 스트럭쳐드 라이트 센서 또는 적외선 센서를 사용할 수 있다.
스트럭쳐드 라이트 센서는 레이저(laser)와 같은 능동 광원(active vision)을 이용하여 빛을 장애물에 비추고 카메라와 센서를 사용하여 장애물에 반사한 영상 정보를 획득한다. 이때, 카메라 센서는 광원과 일정한 거리를 유지하면서 광원 위에 위치하며 영상 정보를 획득한다. 이때, 광원으로 근적외선 라인 레이저 빔을 사용하여 수평으로 일정한 시야각 범위로 빛을 조사함으로써 시야각 범위 내에 도 달하는 장애물과의 거리 정보를 획득할 수 있다. 또한 레이저 빔을 사용함으로써 조명이 없는 어두운 영역에서도 거리 정보를 획득할 수 있다.
이때 카메라 센서는 라인 프로파일 형태의 영상 정보를 획득하게 되는데, 획득한 영상의 Y축의 방향은 카메라 센서와 장애물 사이의 거리에 비례하는 값으로 그 거리를 구할 수 있다. 카메라 영상 정보의 좌표로부터 얻어진 카메라 센서와 장애물 사이의 거리와 장애물을 향한 카메라 센서의 각도, 카메라 센서와 광원 사이의 거리에 의하여 광원과 장애물 사이의 거리 데이터를 삼각도 법(triangular method)에 의해 구할 수 있다.
이하, 스트럭쳐드 라이트 센서를 이용하여 장애물과의 거리 정보를 획득하여 본 발명을 수행하는 과정을 설명하기로 한다.
이동 로봇은 주행하면서 거리 측정 센서를 이용해서 장애물과의 거리 데이터를 획득하여 이를 기초로 SLAM 알고리즘을 이용해서 이동 로봇의 현재 자세와 맵 갱신을 반복 수행하게 되는데, 이때 획득한 거리 데이터를 기초로 출입구를 감지한다(S210).
출입구를 감지하는 방법은 도 4 내지 도 6을 참조하여 이하 설명하기로 한다.
도 4는 본 발명의 일 실시예에 따른 거리 측정 센서를 이용하여 출입구를 감지하는 방법의 순서도이고, 도 5는 도 4의 순서도에 따라 여닫이 문에 대하여 거리 데이터로부터 코너점을 추출하는 것을 도시한 도면이며, 도 6은 도 4의 순서도에 따라 미닫이 문에 대하여 거리 데이터로부터 코너점을 추출하는 것을 도시한 도면 이다.
먼저, 거리 측정 센서를 이용해서 거리 데이터를 획득한다(S310). 도 5와 도 6에서는 통상적으로 출입구에 형성된 여닫이문과 미닫이문이 있을 경우에 거리 측정 센서를 통해 획득한 거리 데이터를 도시하고 있다.
다음, 획득한 거리 데이터로부터 라인을 추출한다(S320). 거리 데이터로부터 직선을 검출하는 방법으로 허프 변환(Hough Transform) 알고리즘을 이용할 수 있다. 허프 변환 기법은 잡음 성분을 포함한 이차원 영상의 데이터 점들을 계수 공간(Hough Space 또는 Parameter Space)으로 변환시켜 계수 공간에서 극대값으로 표현되는 특정값을 검출함으로써 직선이나 윤곽선을 구한다. 예컨데, 촬영된 영상에 있어서 영상의 에지(Edge) 부분의 이미지의 각 점(x, y)들이 직선 상의 한 점이라는 가정하에 직선의 파라미터 (r, δ)를 다음의 식으로 구할 수 있다.
[식 1]
Figure 112007088975884-PAT00001
여기서 r는 원점에서 직선까지의 법선거리를 나타내며, δ는 각도를 나타낸다.
거리 데이터로부터 라인을 추출한 후, 이로부터 출입구의 양 코너점을 추출할 수 있다(S330). 여닫이 문의 경우에는 문이 회전하는 중심에 코너점을 형성하게 되는데 벽면을 형성하는 라인과 문을 형성하는 라인이 교차하는 지점을 구하여 코너점을 추출할 수 있다. 도 5에서 문을 기준으로 우측 벽면을 나타내는 직선에서는 왼쪽 끝단을 코너점으로 추출할 수 있다. 오른쪽 끝단은 스트럭쳐드 라이트의 조사 범위에 의해 생긴 코너점이기 때문이다.
코너점을 추출하는 방법으로 공지된 Harris corner detector 알고리즘을 사용할 수도 있다.
다음, 구한 양쪽 코너점 사이의 간격을 구하고 이 간격이 통상적으로 출입구로 판단하는 값의 범위 내에 있는지를 비교(S340)하여 이로부터 출입구임을 감지할 수 있다. 설정값 범위 내에 있으면 출입구로 감지(S350)하고, 설정값 범위 밖이면 출입구가 아닌 것으로 판단(S360)할 수 있다. 예를 들어, 통상의 가정에 여닫이 문의 폭이 1m 라고 할 때, 설정값을 0.9~1.1m로 설정하여, 코너점의 간격이 이 범위 내에 있으면 출입구로 감지하고, 코너점의 간격이 이 범위 밖에 있으면 출입구가 아닌 것으로 감지할 수 있다.
다시 도 3을 참조하면, 전술한 내용과 같이 획득한 거리데이터로부터 출입구를 감지한 이후, 감지된 출입구의 거리 데이터를 저장한다(S220). 여기서 거리 데이터를 저장한다는 것은 거리 측정 센서에 의해 구한 각각의 거리 값을 데이터로 저장한 것일 수도 있고, 도 5 및 6에 나타난 것과 같이 거리 데이터를 나타내는 카메라 영상을 저장한 것일 수도 있다.
출입구를 감지한 이후에 이동 로봇은 출입구를 통해 구분되는 영역으로 들어가거나 아니면 현재 위치한 영역에서 주행을 반복을 하면서 SLAM 과정을 반복 수행한다.
이러한 과정에서 거리 측정 센서를 이용하여 다시 동일한 출입구를 감지한다(S230). 출입구를 감지하는 방법은 전술한 방법과 동일하므로 설명을 생략하기로 한다.
다음, 최초 출입구를 감지하여 저장한 거리 데이터를 제 1 거리 데이터, 이후 다시 감지한 출입구의 거리 데이터를 제 2 거리 데이터라고 할 때, 이 두 거리 데이터를 이용하여 이동 로봇의 자세를 보정한다(S240). 도 1과 도 2를 참조로 전술한 바와 같이 제 1 거리 데이터를 획득한 이후 다시 제 2 거리 데이터를 획득할 때까지 주행에 의해 슬립 등의 오차 발생 요인으로 실제 이동 로봇의 자세와 이동 로봇이 판단하는 자세는 차이를 가지게 되는데, 두 거리 데이터를 이용하여 제 2 거리 데이터를 획득할 때의 이동 로봇의 자세를 보정한다.
본 발명의 일 실시예에 따른 이동 로봇의 자세 보정 방법은 동일한 출입구에 대하여 제 1 거리 데이터와 제 2 거리 데이터를 획득한 후 이를 비교하여 이동 로봇의 자세를 보정하는데, 통상적으로 이동 로봇이 주행하는 전체 영역에는 출입구가 다수 존재하게 된다. 따라서, 제 1 거리 데이터의 출입구와 제 2 거리 데이터의 출입구가 동일한 출입구로부터 획득한 데이터인지를 식별하는 것이 필요하다. 동일한 출입구인지를 식별하는 과정은 도 7을 참조로 이하, 설명하기로 한다.
도 7은 본 발명의 일 실시예에 따른 출입구를 감지한 후 이전에 감지한 출입구와 동일한 출입구인지를 식별하는 방법의 순서도이다.
이동 로봇이 주행하는 전체 영역에 출입구가 복수 있을 때 출입구의 폭은 통상적으로 동일하다. 예를 들어 일반 가정에서 각 방문의 폭은 일반적으로 동일하다. 따라서, 출입구의 폭을 가지고 출입구를 식별하는 것을 어렵고, 본 발명의 일 실시예에 따른 이동 로봇의 자세 보정 방법에서는 출입구 주변의 거리 데이터 정보 를 이용하여 동일한 출입구인지를 식별한다. 일반 가정에서 각각의 방은 그 크기가 다르고, 가구 등의 배치에 따라서 출입구 주변의 거리 데이터가 서로 다르다. 따라서, 출입구 주변의 거리 데이터를 비교함으로써 새롭게 감지한 출입구가 이전에 감지한 출입구와 동일한 출입구인지를 식별할 수 있다.
먼저, 거리 측정 센서를 이용해서 출입구 주변의 거리 데이터를 획득한다(S410). 즉, 출입구를 감지한 이후 이동 로봇의 방향각을 바꾸는 방법 등으로 이동 로봇의 자세를 바꾸면서 출입구 주변의 거리 데이터를 획득한다.
다음, 획득한 출입구 주변의 거리 데이터와 미리 저장된 출입구 주변의 거리 데이터를 매칭시킨다(S420). 거리 데이터를 매칭시킨다고 하면 동일한 영역이라고 판단되는 부분이 일치하도록 거리 데이터를 나타내는 영상을 정합시키는 것을 나타낸다. 정합 방법으로 공지된 Lucas-Kanade 알고리즘을 이용할 수 있다.
정합하는 두 영상이 유사할수록 정렬에 의해 겹치는 픽셀값이 많을 것이고, 반대로 유사하지 않으면 정렬에 의해 겹치는 픽셀값이 적을 것이다. 따라서 매칭된 값이 소정의 문턱값과 비교(S430)하여 매칭된 값이 크면 두 거리 데이터의 영상은 동일한 출입구 주변의 거리 데이터를 나타내므로 감지한 출입구를 이전에 감지한 출입구와 동일한 출입구로 식별(S440)할 수 있다. 반대로 매칭된 값이 소정의 문턱값보다 작으면 두 거리 데이터 영상은 서로 다른 출입구 주변의 거리 데이터를 나타내므로 감지한 출입구는 이전에 감지한 출입구와 서로 다른 출입구로 식별(S450)할 수 있다. 새로운 출입구로 식별되면 출입구에 대한 거리 데이터와 출입구 주변의 거리 데이터를 새로운 출입구에 관한 데이터로 저장할 수 있을 것이다.
본 발명에서는 복수의 출입구가 있을 때 이전에 감지한 출입구에 대하여서는 출입구 주변의 거리 데이터를 미리 저장해 두고, 주행 중 출입구를 감지하면 미리저장된 출입구 주변이 거리 데이터를 각각 비교하여 동일한 출입구인지를 식별한다. 비교에 의해 동일한 출입구를 식별할 수 없으면, 새로운 출입구로 식별하고 새로운 출입구 주변의 거리 데이터를 추가로 저장한다. 예를 들어 출입구 1과 출입구 2에 대해서 주행 중에 이동 로봇이 출입구로 감지하여 출입구 주변의 거리 데이터를 각각 저장해 놓은 상태에서, 주행 중 출입구를 감지하였을 때 미리 저장된 출입구 1 주변의 거리 데이터와 비교하여 동일한 출입구가 아니라고 식별되면, 다시 출입구 2 주변의 거리 데이터와 비교하게 된다. 출입구 2도 동일한 출입구라고 식별되지 않으면 감지한 출입구는 새로운 출입구로 출입구 3으로 그 주변 거리 데이터를 저장하는 방식으로 동일한 출입구인지 판단하고 새로운 출입구를 추가할 수 있다.
다시, 도 3을 참조하면 S240에서 동일한 출입구에 대한 두 개의 거리 데이터를 이용하여 이동 로봇의 자세를 보정하는 과정을 도 8 내지 도 10을 참조로 이동 로봇의 자세를 보정하는 과정을 설명하기로 한다.
도 8은 본 발명의 일 실시예에 따른 출입구로부터 획득한 거리 데이터로부터 이동 로봇의 자세를 보정하는 방법의 순서도이고, 도 9와 도 10은 출입구를 들어가기 전의 제 1 거리 데이터와 출입구를 나온 후에 획득한 제 2 거리데이터를 도시한다.
먼저, 제 1 거리 데이터와 제 2 거리 데이터에서 출입문의 양쪽 코너점을 추 출한다(S510). 코너점을 추출하는 방법은 전술한 바와 같이 거리 데이터로부터 라인을 추출하고 라인으로부터 코너점을 추출하는 방법을 이용할 수 있다. 도 9와 도 10에 각 코너점은 x로 도시되어 있다.
다음, 제 1 거리 데이터로부터 추출된 양쪽 코너점과 제 2 거리 데이터로부터 추출된 양쪽 코너점이 일치되도록 하는 회전 각도와 이동 거리를 구한다(S520). 도 9와 도 10에 나타난 바와 같이 양쪽 코너점의 위치와 양쪽 코너점을 잇는 직선의 방향이 다름을 알 수 있다. 제 1 거리 데이터와 제 2 거리 데이터의 양쪽 코너점을 일치시키기 위해 제 2 거리 데이터에서 양쪽 코너점의 중심점(xc , yc)을 기준으로 제 2 거리 데이터의 양쪽 코너점을 Θ만큼 회전시키고,(xt , yt)만큼 이동시켰을 때, 제 1 거리 데이터의 양쪽 코너점과 일치된다고 하면, 회전 각도 Θ와 이동 거리 (xt , yt)를 구하는 것이다. 양쪽 코너점의 중심을 기준으로 회전시키면서 양쪽 코너점을 일치시키는 경우를 설명하였는데, 양쪽 코너점을 일치시키기 위한 회전 중심이 달라지면 Θ 값은 동일하나 이동 거리 (xt , yt)는 바뀔 수 있다. 즉, 양쪽 코너점의 회전 중심에 따라서 이동 로봇의 자세를 보정하기 위해 이용하는 회전 각도와 이동 거리 값은 다양하게 바뀔 수 있다.
다음, 전술한 방법으로 구한 회전 각도와 이동 거리를 이용하여 이동 로봇의 자세를 보정한다(S530). 전술한 바와 같이 제 2 거리 데이터의 양쪽 코너점의 중심을 기준으로 회전시키면서 양쪽 코너점을 일치시켰을 때, 이동 로봇의 위치를 보정하기 위한 식은 아래와 같다.
[식 2]
Figure 112007088975884-PAT00002
여기서 (x, y)는 제 2 거리 데이터를 획득할 때의 이동 로봇의 위치이고, (x', y')는 보정된 이동 로봇의 위치이다.
이동 로봇의 방향각은 제 2 거리 데이터를 획득할 때의 이동 로봇의 방향각에서 회전 각도 Θ만큼 더한 값이 보정된 값이 된다.
전술한 방법과 같이 제 1 거리 데이터와 제 2 거리 데이터의 양쪽 코너점을 일치시키기 위한 회전 각도와 이동 거리를 구하고, 이를 이용하여 제 2 거리 데이터를 획득할 때의 이동 로봇의 자세를 보정할 수 있다. 이후, 새롭게 보정된 자세를 기초로 SLAM 과정을 수행하게 된다. SLAM 과정에서 출입구를 감지하면 다시 S210에서 S240 단계를 반복하면서 이동 로봇의 자세를 보정한다.
도 11은 본 발명의 일 실시예에 따른 이동 로봇의 자세 보정 장치의 블록도이다.
본 발명의 일 실시예에 따른 이동 로봇의 자세 보정 장치는 거리 데이터 획득부(610), 출입구 감지부(620), 저장부(630), 및 자세 보정부(640)를 포함할 수 있다. 또한, 출입구 식별부(625)를 더 포함할 수 있다.
이 때, 본 실시예에서 사용되는 '~부'는 일종의 모듈로 구현될 수 있다. 여기서 '모듈'은 소프트웨어 또는 Field Programmable Gate Array(FPGA) 또는 주문형 반도체(Application Specific Integrated Circuit, ASIC)와 같은 하드웨어 구성요 소를 의미하며, 모듈은 어떤 역할들을 수행한다. 그렇지만 모듈은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 모듈은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 모듈은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 모듈들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들 및 모듈들로 결합되거나 추가적인 구성요소들과 모듈들로 더 분리될 수 있다.
거리 데이터 획득부(610)는 이동 로봇에 장착된 거리 측정 센서로부터 거리 데이터를 획득한다. 이때, 거리 측정 센서는 스트럭쳐드 라이트 센서 또는 적외선 센서일 수 있다.
출입구 감지부(620)는 거리 데이터 획득부(610)에서 획득한 거리 데이터를 이용하여 출입구를 감지한다. 출입구 감지부(620)는 라인 추출부(미도시) 및 코너점 추출부(미도시)를 더 포함할 수 있다. 라인 추출부(미도시)는 거리 데이터로부터 Hough transform 알고리즘 등을 이용해서 라인을 추출한다. 그리고, 코너점 추출부(미도시)는 추출된 라인을 기초로 출입문의 양쪽 코너점을 추출한다. 이때, 공지된 Harris corner detector 알고리즘을 이용할 수 있다. 출입구 감지부(620)는 코너점 사이의 거리와 출입구로 판단하는 설정값을 비교하여 출입구를 감지한다.
저장부(630)는 감지된 출입구의 거리 데이터를 저장한다. 뿐만 아니라, SLAM 과정에서 획득한 거리 데이터를 저장할 수도 있고, 동일한 출입구인지를 비교하기위해 출입구 주변의 거리 데이터를 저장할 수도 있다.
자세 보정부(640)는 저장된 출입구의 거리 데이터를 비교하여 이동 로봇의 자세를 보정한다. 자세히 설명하면, 최초 감지되어 저장된 출입구의 제 1 거리 데이터와 주행 후 다시 감지한 동일 출입구의 제 2 거리 데이터를 이용하여 이동 로봇의 자세를 보정한다. 더욱 자세히 설명하면, 제 1 거리 데이터와 제 2 거리 데이터로부터 각각 감지된 출입구의 양쪽 코너점을 추출하고, 제 1 거리 데이터로부터 추출된 양쪽 코너점과 제 2 거리 데이터로부터 추출된 양쪽 코너점이 일치되도록 하는 회전 각도와 이동 거리를 구하며, 회전 각도와 이동 거리를 이용하여 이동 로봇의 자제를 보정한다.
본 발명의 이동 로봇의 자세 보정 장치(600)는 출입구 식별부(625)를 더 포함할 수 있다. 본 발명은 전술한 바와 같이 동일한 출입구에 대하여 두 개의 거리 데이터를 획득하여 이로부터 로봇의 자세를 보정하는데, 출입구 감지부(620)가 출입구임을 감지한 이후, 감지한 출입구가 이전에 감지한 출입구와 동일한 출입구인지를 식별하는 것이 필요하다. 따라서, 출입구 식별부(625)는 출입구가 감지될 때 이전에 감지된 출입구와 동일한 출입구인지를 식별한다. 출입구를 감지하였을 때 출입구 주변의 거리 데이터를 미리 저장된 출입구 주변의 거리 데이터와 매칭시켜, 매칭시킨 값이 소정의 문턱값보다 크면 동일한 출입구로 식별하고, 문턱값보다 작으면 새로운 출입구로 인식할 수 있다.
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
도 1은 출입구를 통하여 이동 로봇이 영역을 들어가 영역 내 주행을 한 후 다시 동일한 출입구를 통하여 나왔을 때 자세의 오차가 발생하는 것을 설명하는 도면이다.
도 2는 도 1의 100b 및 100c 부분을 확대하여 보정되어야 할 위치 오차와 방향각 오차를 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 이동 로봇의 자세 보정 방법의 순서도이다.
도 4는 본 발명의 일 실시예에 따른 거리 측정 센서를 이용하여 출입구를 감지하는 방법의 순서도이다.
도 5는 도 4의 순서도에 따라 여닫이 문에 대하여 거리 데이터로부터 코너점을 추출하는 것을 도시한 도면이다.
도 6은 도 4의 순서도에 따라 미닫이 문에 대하여 거리 데이터로부터 코너점을 추출하는 것을 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 출입구를 감지한 후 이전에 감지한 출입구와 동일한 출입구인지를 식별하는 방법의 순서도이다.
도 8은 본 발명의 일 실시예에 따른 출입구로부터 획득한 거리 데이터로부터 이동 로봇의 자세를 보정하는 방법의 순서도이다.
도 9와 도 10은 출입구를 들어가기 전과 나온 후에 각각 획득한 출입구의 거리데이터를 도시한다.
도 11은 본 발명의 일 실시예에 따른 이동 로봇의 자세 보정 장치의 블록도이다.
<도면의 주요 부분에 관한 부호의 설명>
610: 거리 데이터 획득부
620: 출입구 감지부
630: 저장부
640: 자세 보정부

Claims (14)

  1. 이동 로봇에 장착된 거리 측정 센서를 이용하여 출입구를 감지하는 단계;
    상기 감지된 출입구의 제 1 거리 데이터를 저장하는 단계;
    주행 후 상기 거리 측정 센서를 이용하여 다시 상기 출입구를 감지하는 단계; 및
    상기 제 1 거리 데이터와 상기 다시 감지된 출입구의 제 2 거리 데이터를 이용하여 상기 이동 로봇의 자세를 보정하는 단계를 포함하는 이동 로봇의 자세 보정 방법.
  2. 제 1 항에 있어서,
    상기 거리 측정 센서는 스트럭쳐드 라이트(structured light) 센서 및 적외선 센서, 초음파 센서 중 어느 하나를 포함하는 이동 로봇의 자세 보정 방법.
  3. 제 1 항에 있어서,
    상기 출입구를 감지하는 단계는
    상기 거리 측정 센서로부터 거리 데이터를 획득하는 단계;
    상기 거리 데이터로부터 라인을 추출하는 단계;
    상기 추출된 라인으로부터 코너점을 추출하는 단계; 및
    상기 코너점 사이의 거리와 상기 출입구로 판단하는 설정값을 비교하여 상기 출입구를 감지하는 단계를 포함하는 이동 로봇의 자세 보정 방법.
  4. 제 1 항에 있어서,
    상기 출입구를 다시 감지하는 단계는 동일한 출입구인지 식별하는 단계를 더 포함하는 이동 로봇의 자세 보정 방법.
  5. 제 4 항에 있어서,
    상기 동일한 출입구인지 식별하는 단계는
    상기 다시 감지한 출입구 주변의 거리 데이터를 획득하는 단계;
    상기 획득된 거리 데이터와 미리 저장된 상기 출입구 주변의 거리 데이터를 매칭시키는 단계; 및
    상기 매칭시킨 값이 소정의 문턱값보다 크면 동일한 출입구로 식별하는 단계를 포함하는 이동 로봇의 자세 보정 방법.
  6. 제 1 항에 있어서,
    상기 이동 로봇의 자세를 보정하는 단계는
    상기 제 1 거리 데이터와 상기 제 2 거리 데이터로부터 상기 감지된 출입구의 양쪽 코너점을 각각 추출하는 단계;
    상기 제 1 거리 데이터로부터 추출된 양쪽 코너점과 상기 제 2 거리 데이터로부터 추출된 양쪽 코너점이 일치되도록 하는 회전 각도와 이동 거리를 구하는 단 계; 및
    상기 회전 각도와 상기 이동 거리를 이용하여 상기 이동 로봇의 자세를 보정하는 단계를 포함하는 이동 로봇의 자세 보정 방법.
  7. 제 1 항에 있어서,
    상기 자세는 상기 이동 로봇의 위치 및 방향각인 이동 로봇의 자세 보정 방법.
  8. 이동 로봇에 장착된 거리 측정 센서로부터 거리 데이터를 획득하는 거리 데이터 획득부;
    상기 거리 데이터를 이용하여 출입구를 감지하는 출입구 감지부;
    상기 감지된 출입구의 거리 데이터를 저장하는 저장부; 및
    상기 저장된 출입구의 거리 데이터를 비교하여 상기 이동 로봇의 자세를 보정하는 자세 보정부를 포함하며,
    상기 자세 보정부는 최초 감지되어 저장된 상기 출입구의 제 1 거리 데이터와 주행후 상기 다시 감지된 출입구의 제 2 거리 데이터를 이용하여 상기 이동 로봇의 자세를 보정하는 이동 로봇의 자세 보정 장치.
  9. 제 8 항에 있어서,
    상기 거리 측정 센서는 스트럭쳐드 라이트(structured light) 센서 및 적외 선 센서, 초음파 센서 중 어느 하나를 포함하는 이동 로봇의 자세 보정 장치.
  10. 제 8 항에 있어서,
    상기 출입구 감지부는
    상기 거리 데이터로부터 라인을 추출하는 라인 추출부; 및
    상기 추출된 라인으로부터 코너점을 추출하는 코너점 추출부를 포함하고,
    상기 코너점 사이의 거리와 상기 출입구로 판단하는 설정값을 비교하여 상기 출입구를 감지하는 이동 로봇의 자세 보정 장치.
  11. 제 8 항에 있어서,
    상기 출입구가 다시 감지될 때 상기 최초 감지된 출입구와 동일한 출입구인지를 식별하는 출입구 식별부를 더 포함하는 이동 로봇의 자세 보정 장치.
  12. 제 11 항에 있어서,
    상기 출입구 식별부는
    상기 거리 데이터 획득부가 획득한 상기 다시 감지한 출입구 주변의 거리 데이터를 미리 저장된 상기 출입구 주변의 거리 데이터와 매칭시켜, 상기 매칭시킨 값이 소정의 문턱값보다 크면 동일한 출입구로 식별하는 이동 로봇의 자세 보정 장치.
  13. 제 8 항에 있어서,
    상기 자세 보정부는
    상기 제 1 거리 데이터와 상기 제 2 거리 데이터로부터 상기 감지된 출입구의 양쪽 코너점을 각각 추출하고, 상기 제 1 거리 데이터로부터 추출된 양쪽 코너점과 상기 제 2 거리 데이터로부터 추출된 양쪽 코너점이 일치되도록 하는 회전 각도와 이동 거리를 구하며, 상기 회전 각도와 상기 이동 거리를 이용하여 상기 이동 로봇의 자세를 보정하는 이동 로봇의 자세 보정 장치.
  14. 제 8 항에 있어서,
    상기 자세는 상기 이동 로봇의 위치 및 방향각인 이동 로봇의 자세 보정 장치.
KR1020070128264A 2007-12-11 2007-12-11 이동 로봇의 자세 보정 방법 및 장치 KR101409987B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020070128264A KR101409987B1 (ko) 2007-12-11 2007-12-11 이동 로봇의 자세 보정 방법 및 장치
US12/153,600 US8165717B2 (en) 2007-12-11 2008-05-21 Method, medium, and apparatus for correcting pose of moving robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070128264A KR101409987B1 (ko) 2007-12-11 2007-12-11 이동 로봇의 자세 보정 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20090061296A true KR20090061296A (ko) 2009-06-16
KR101409987B1 KR101409987B1 (ko) 2014-06-23

Family

ID=40722453

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070128264A KR101409987B1 (ko) 2007-12-11 2007-12-11 이동 로봇의 자세 보정 방법 및 장치

Country Status (2)

Country Link
US (1) US8165717B2 (ko)
KR (1) KR101409987B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020197135A1 (en) * 2019-03-25 2020-10-01 Lg Electronics Inc. Moving robot and controlling method for the same
WO2024048940A1 (ko) * 2022-08-31 2024-03-07 주식회사 알지티 자동문 인식 자율 주행 서비스 로봇 수단

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101553653B1 (ko) * 2009-01-07 2015-09-16 삼성전자 주식회사 로봇의 슬립 감지 장치 및 방법
KR101524020B1 (ko) * 2009-03-06 2015-05-29 엘지전자 주식회사 로봇 청소기의 점진적 지도 작성 및 위치 보정 방법
US8744665B2 (en) * 2009-07-28 2014-06-03 Yujin Robot Co., Ltd. Control method for localization and navigation of mobile robot and mobile robot using the same
EP2495079B1 (en) * 2009-10-30 2018-09-05 Yujin Robot Co., Ltd. Slip detection apparatus and method for a mobile robot
US8736676B2 (en) 2011-04-04 2014-05-27 CyPhy Works, Inc. Imaging based stabilization
US10198008B2 (en) * 2013-11-15 2019-02-05 Hitachi, Ltd. Mobile robot system
KR101697857B1 (ko) * 2015-04-08 2017-01-18 엘지전자 주식회사 이동 로봇 및 그의 위치인식방법
CN105043396B (zh) * 2015-08-14 2018-02-02 北京进化者机器人科技有限公司 一种移动机器人室内自建地图的方法和***
CN108646733B (zh) * 2018-04-27 2021-08-10 杭州艾豆智能科技有限公司 一种自动矫正的移动机器人的矫正方法
CN110895408B (zh) * 2018-08-22 2023-05-02 杭州海康机器人股份有限公司 一种自主定位方法、装置及移动机器人
CN113029133B (zh) * 2019-12-25 2024-05-28 北京极智嘉科技股份有限公司 机器人、校正方法及计算机可读存储介质
CN113907645A (zh) * 2021-09-23 2022-01-11 追觅创新科技(苏州)有限公司 移动机器人的定位方法及装置、存储介质及电子装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002287824A (ja) * 2001-03-26 2002-10-04 Toshiba Tec Corp 自律走行ロボット
RU2220643C2 (ru) 2001-04-18 2004-01-10 Самсунг Гванджу Электроникс Ко., Лтд. Автоматическое чистящее устройство, автоматическая чистящая система и способ управления этой системой (варианты)
KR100500842B1 (ko) 2002-10-31 2005-07-12 삼성광주전자 주식회사 로봇청소기와, 그 시스템 및 제어방법
KR20040086940A (ko) 2003-04-03 2004-10-13 엘지전자 주식회사 이미지센서를 채용한 이동로봇 및 그의 이동거리 측정방법
KR100557682B1 (ko) 2003-07-21 2006-03-07 주식회사 한울로보틱스 주행 바닥면 영상정보를 이용한 이동로봇의 주행제어방법
JP3914906B2 (ja) * 2003-08-13 2007-05-16 株式会社東芝 自走式移動装置及び位置補正方法
KR100643305B1 (ko) * 2005-02-14 2006-11-10 삼성전자주식회사 컨볼루션 커널을 이용한 라인 패턴 처리 방법 및 장치
KR100834761B1 (ko) * 2005-11-23 2008-06-05 삼성전자주식회사 이동 로봇의 자기 위치 인식 방법 및 장치
WO2008013568A2 (en) * 2005-12-30 2008-01-31 Irobot Corporation Autonomous mobile robot
KR100791384B1 (ko) * 2006-07-05 2008-01-07 삼성전자주식회사 특징점을 이용한 영역 구분 방법 및 장치와 이를 이용한이동 청소 로봇
KR100809352B1 (ko) * 2006-11-16 2008-03-05 삼성전자주식회사 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치
KR100877071B1 (ko) * 2007-07-18 2009-01-07 삼성전자주식회사 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020197135A1 (en) * 2019-03-25 2020-10-01 Lg Electronics Inc. Moving robot and controlling method for the same
WO2024048940A1 (ko) * 2022-08-31 2024-03-07 주식회사 알지티 자동문 인식 자율 주행 서비스 로봇 수단

Also Published As

Publication number Publication date
US8165717B2 (en) 2012-04-24
US20090149994A1 (en) 2009-06-11
KR101409987B1 (ko) 2014-06-23

Similar Documents

Publication Publication Date Title
KR20090061296A (ko) 이동 로봇의 자세 보정 방법 및 장치
KR101461185B1 (ko) 스트럭쳐드 라이트를 이용한 3차원 맵 생성 장치 및 방법
US10275649B2 (en) Apparatus of recognizing position of mobile robot using direct tracking and method thereof
US8351646B2 (en) Human pose estimation and tracking using label assignment
US8265425B2 (en) Rectangular table detection using hybrid RGB and depth camera sensors
Saeedi et al. Vision-based 3-D trajectory tracking for unknown environments
US8849036B2 (en) Map generating and updating method for mobile robot position recognition
US10354361B2 (en) Image stitching method and camera system with an image stitching function
US20150235367A1 (en) Method of determining a position and orientation of a device associated with a capturing device for capturing at least one image
JP4264380B2 (ja) 自己位置同定方法及び該装置
KR20110011424A (ko) 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇
JP2016081525A (ja) 車両用画像認識システム、及び対応法
KR102547274B1 (ko) 이동 로봇 및 이의 위치 인식 방법
JP2013508183A (ja) 移動ロボットのスリップ感知装置および方法
WO2012023593A1 (en) Position and orientation measurement apparatus, position and orientation measurement method, and storage medium
JP5756709B2 (ja) 身長推定装置、身長推定方法、及び身長推定プログラム
BR112021017728B1 (pt) Veículo e método para operar um sistema de detecção de colisão de veículo
Sekkal et al. Simple monocular door detection and tracking
Moreno et al. Stereo vision specific models for particle filter-based SLAM
US20100262290A1 (en) Data matching apparatus, data matching method and mobile robot
KR20160126254A (ko) 도로 영역 검출 시스템
KR100593503B1 (ko) 이동로봇의 위치인식 장치 및 방법
Mühlenbrock et al. Fast and robust registration of multiple depth-sensors and virtual worlds
Bevilacqua et al. Automatic perspective camera calibration based on an incomplete set of chessboard markers
US11719825B2 (en) Method and device for determining a parallax problem in sensor data of two sensors

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20170522

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180518

Year of fee payment: 5