KR100601960B1 - 로봇의 위치 추적 및 지도 작성 방법 - Google Patents

로봇의 위치 추적 및 지도 작성 방법 Download PDF

Info

Publication number
KR100601960B1
KR100601960B1 KR1020040061790A KR20040061790A KR100601960B1 KR 100601960 B1 KR100601960 B1 KR 100601960B1 KR 1020040061790 A KR1020040061790 A KR 1020040061790A KR 20040061790 A KR20040061790 A KR 20040061790A KR 100601960 B1 KR100601960 B1 KR 100601960B1
Authority
KR
South Korea
Prior art keywords
robot
markers
chromosome
marker
chromosomes
Prior art date
Application number
KR1020040061790A
Other languages
English (en)
Other versions
KR20060013022A (ko
Inventor
명현
홍선기
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020040061790A priority Critical patent/KR100601960B1/ko
Priority to US11/175,396 priority patent/US7957836B2/en
Publication of KR20060013022A publication Critical patent/KR20060013022A/ko
Application granted granted Critical
Publication of KR100601960B1 publication Critical patent/KR100601960B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/12Computing arrangements based on biological models using genetic models
    • G06N3/126Evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S1/00Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/19Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by positioning or contouring control systems, e.g. to control position from one programmed point to another or to control movement along a programmed continuous path
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Mathematical Physics (AREA)
  • Tourism & Hospitality (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Genetics & Genomics (AREA)
  • Molecular Biology (AREA)
  • Physiology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Manipulator (AREA)

Abstract

로봇의 위치 추적 및 지도 작성 방법이 개시된다. 본 발명에 따른 로봇의 위치 추적 및 지도 작성 방법은 로봇의 자세 및 표식들의 위치를 초기화하는 단계; 로봇의 움직임에 따라 로봇의 새로운 자세를 샘플링하고, 표식들의 위치를 이용하여 염색체를 구성하는 단계; 로봇의 현재 위치에서 표식들을 관측하는 단계; 염색체들로부터 후손들을 생성하는 단계; 및 표식들의 관측값을 이용하여 염색체들과 후손들중 다음 세대의 염색체를 선택하는 단계를 포함함을 특징으로한다.

Description

로봇의 위치 추적 및 지도 작성 방법{Simultaneous localization and map building method for robot}
도 1은 본 발명에 따른 위치 추적 및 지도 작성 방법에 대한 흐름도를 도시한 것이다.
도 2는 로봇에서 표식을 관측하는 예를 도시한 것이다.
도 3은 본 발명을 적용하기위한 실험 환경을 설명한 것이다.
도 4는 본 발명에 적용되는 로봇을 도시한 것이다.
도 5a 및 도 5b는 입자의 개수와 표식의 개수는 각각 100개씩일 때, 각각 종래 기술과 본 발명의 위치 추적 및 지도 작성 방법에 대한 실험결과를 도시한 것이다.
도 6a 및 도 6b는 입자의 개수가 100개이고, 표식의 개수는 200개일 때, 각각 종래 기술과 본 발명의 위치 추적 및 지도 작성 방법에 대한 실험결과를 도시한 것이다.
도 7은 100개의 입자에 대해 표식의 개수를 10, 100, 250 및 500개로 변환시켜가면서 1회당 300번을 총 20회 반복수행한 평균 계산 시간을 에러 바(error-bar)로 나타낸 것이다.
본 발명은 로봇의 위치 추적(localization) 및 지도 작성(map building) 방법에 관한 것으로, 로봇의 위치 추적과 지도 작성을 동시에 수행하는 방법(Simultaneous Localization And Map building, SLAM)에 관한 것이다.
장애물이 있는(non-trivial) 환경에서 움직이는 로봇의 네비게이션(navigation)을 위해서는 자신의 위치를 추적하고, 주위 환경에 대한 지도를 작성하는 것이 필수적이다. 작성된 지도를 이용하여 로봇의 경로 계획(path planning), 객체의 조작 또는 사람과의 통신 등의 작업을 수행할 수 있기 때문이다.
잘 알려지지않은 환경에서 네비게이션하기 위해서, 로봇은 자신의 위치를 추적하면서 지도를 작성해야한다. 그러나, 기본적으로 잡음이 있는 센서 데이터를 사용하여 위치를 추적하고 지도를 작성하게되므로 계산에 어려움이 있다.
위치 추적은 여러 센서 정보와 비콘(beacon) 또는 자연 표식(natural landmark) 등을 이용하여 작업환경 내에서 로봇의 절대위치를 파악하는 것을 말한다. 로봇이 주행하는 동안 여러 원인(바퀴와 지면과의 미끄러짐 현상, 바퀴 직경의 변경 등)에 의해 오차가 발생하므로 주행이 진행될수록 로봇의 위치에 오차가 발생하게 되고, 이에 따른 보정이 필요하게 된다.
지도 작성은 센서 데이터를 기반으로하여 자연 또는 인공 표식들을 관측함으로써 환경을 모델링하는 것이며, 이러한 모델링을 통해 로봇은 자신의 경로를 설정하게된다. 복잡한 환경에 대한 모델링을 수행하기 위해서는 위치추적이 보장되어야 만 신뢰할만한 지도를 작성할 수 있게 된다. 따라서, 빠른 시간내에 지도작성과 위치추적의 문제를 동시에 수행할 수 있는 방법이 필요하다.
본 발명이 이루고자하는 기술적 과제는 입자 필터(particle filter)를 사용하여 로봇의 경로를 결정하고, 진화 연산(evolutionary computation)을 도입하여 표식의 위치를 추정하여 지도를 작성하는 로봇의 위치 추적 및 지도 작성 방법을 제공하는데 있다.
상기 기술적 과제를 이루기위한, 본 발명은 로봇의 자세 및 표식들의 위치를 초기화하는 단계; 로봇의 움직임에 따라 로봇의 새로운 자세를 샘플링하고, 상기 표식들의 위치를 이용하여 염색체를 구성하는 단계; 상기 로봇의 현재 위치에서 표식들을 관측하는 단계; 상기 염색체들로부터 후손들을 생성하는 단계; 및 상기 표식들의 관측값을 이용하여 상기 염색체들과 후손들중 다음 세대의 염색체를 선택하는 단계를 포함함을 특징으로한다.
상기 로봇의 위치추적 및 지도 작성 방법은 바람직하게는 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체로 구현할 수 있다.
이하에서 첨부된 도면을 참조하여 본 발명을 보다 상세하게 설명하기로 한다.
도 1은 본 발명에 따른 위치 추적 및 지도 작성 방법에 대한 흐름도를 도시한 것이다. 먼저, 로봇의 자세(pose)와 표식(landmark)들의 위치를 초기화한다(10 단계). 여기서, 로봇의 자세라 함은 로봇의 위치를 나타내는 (x,y)좌표 외에 로봇의 정면이 향하는 방향을 포함한다. 본 발명에서는 로봇의 위치 추적에 입자 필터를 사용하므로, 초기화를 위해 로봇의 초기 자세 주변에서 복수의 입자를 생성한다. 이때, 초기 자세의 주변이라 함은 초기 자세를 중심으로 실험적으로 정해지는 범위 이내를 말한다.
표식들의 위치의 초기화는, 생성된 각 입자의 위치에서 표식들을 관측한 결과에 따라 결정된다. 도 2는 로봇에서 표식을 관측하는 예를 도시한 것이다. 참조번호 20은 로봇을 나타내고, 21은 표식 그리고 22는 로봇이 향하고있는 방향을 나타낸다. 관측은 로봇(20)으로부터 표식(21)까지의 거리 r과 로봇(20)의 방향(22)으로부터 표식(21) 이 있는 방향 사이의 사이각 φ로 표현될 수 있다. 도 2에서 로봇(20)의 자세가 (St,x,St,y,St,θ)로 표현될 때, 표식 위치의 초기화는 관측된 r, φ값으로부터 다음 식과 같은 관측함수 g(st, θnt)의 역함수를 이용하여 설정될 수 있다. 여기서, t는 초기시간, 즉, 0이지만, 초기화 이후의 t는 t번째의 시간 스텝을 나타낸다.
Figure 112004035131922-pat00001
여기서, θnt는 표식 nt의 x,y좌표를 나타낸다.
새로운 표식의 초기 위치 (μx,t, μy,t)는 다음 식과 같이 구할 수 있다.
Figure 112004035131922-pat00002
초기화가 이루어진 후, 로봇이 이동함에 따라 로봇의 새로운 자세(pose)를 샘플링한다(11단계). 새로운 자세에 대한 샘플링은 다음에 설명되는 입자 필터(particle filter)를 이용하여 이루어진다.
(t-1)시간의 입자 군(population)을 St-1이라 하면, 입자의 위치 또는 경로 st-1,[m]은 다음 식과 같은 확률밀도함수로부터 얻어진다.
Figure 112004035131922-pat00003
여기서, u는 움직임 명령 또는 원하는 움직임 벡터, n ∈ {1, …, K}은 표식, z는 표식의 위치 및 방향에 대한 관측값을 나타낸다.
각 m∈ {1, …, M}에 대해, t시간의 각 경로의 끝점, 즉 로봇의 자세인 st [m]은 경로 st-1,[m]의 끝점(end point)인 st-1 [m]과 다음의 수학식 4와 같은 움직임 모델에 의해 수학식 5와 같이 구할 수 있다.
Figure 112004035131922-pat00004
Figure 112004035131922-pat00005
t시간의 입자 군(population)은
Figure 112004035131922-pat00006
로 표현될 수 있다.
St p에서의 새로운 입자는 다음 식과 같은 확률밀도함수에 따라 분포된다.
Figure 112004035131922-pat00007
로봇의 자세가 결정되면, 진화연산을 위한 염색체를 구성한다(12단계). 여기서, 염색체라 함은 진화연산 방식에서 개체로 표현되는 것으로 본 발명에서는 각 입자 위치에서 파악되는 표식(landmark)들의 위치를 말한다.
진화연산 방식이라 함은 실세계의 문제를 풀기 위해 잠재적인 해들을 컴퓨터 상에서 코딩된 개체로 나타내고, 여러 개의 개체들을 모아 개체군을 형성한 뒤, 세대를 거듭하면서 이들의 유전 정보를 서로 교환하거나 새로운 유전 정보를 부여하면서 적자 생존의 법칙에 따라 모의 진화를 시킴으로써, 주어진 문제에 대한 최적의 해를 찾는 계산 모델이다.
염색체, 즉, 표식의 위치 (μx',μy')는 이전 시간에 예측된 값 (μxy)으로부터 다음 식과 같이 얻을 수 있다.
Figure 112004035131922-pat00008
여기서, i=1,…,N 이고, N은 표식의 개수이다.
xy)의 예측 방법은 후술하기로 한다.
그러나 각 입자의 위치가 다르기 때문에 로봇의 평균 자세로부터 각 입자의 변위(displacement)를 고려하여 표식의 위치를 조절할 수도 있다. 즉, 표식의 위치도 입자의 평균 자세로부터 상대적인 변위를 감산하여 결정된다.
각 입자의 위치를 (x,y)로 표현하고, 입자들의 평균 위치를
Figure 112004035131922-pat00009
라 하면, 각 입자의 위치에서 관측되는 표식의 위치(μ'ix,μ'iy)는 다음 식과 같이 변화된다.
Figure 112004035131922-pat00010
다음으로, 수학식 6과 같이 얻어진 각 경로의 자세에서 레이저 또는 초음파 와 같은 센서를 이용하여 도 2에 도시된 바와 같이 표식을 관측한다(13단계).
각 표식에 대한 관측이 이루어지면, 관측된 표식들중에 새로운 표식이 있는지를 판별한다(14단계). 새로운 표식인지에 대한 판별은 종래의 데이터 조합(data association) 방법으로 이루어질 수 있다. 데이터 조합 방법으로는 최대 유사(maximum likelihood), 최인접 이웃(Nearest neighbor), 카이 자승 테스트(Chi-square test)방법 등이 있다.
새로운 표식으로 판별되면, 수학식 1 및 2에 따라 관측값들을 이용하여 새로운 표식에 대한 표식 위치를 초기화한다(15단계).
상기 14단계에서 새로운 표식이 없다면, 진화연산 방식에 따라 현재 염색체들로 후손(offspring)을 생성한다(16단계). 본 실시예에서 후손 μi,t는 부모인 μi,t-1로부터 다음 식과 같이 가우시안 분포(Gaussian distribution)를 이용하는 가우시안 돌연변이(Gaussian mutation) 방식에 따라 이루어진다. 참고로, 더욱 빠른 수렴을 위해서는 변형된 코시분포 (Cauchy distribution)를 사용할 수도 있다.
Figure 112004035131922-pat00011
여기서, Ni()는 i번째 표식에 대한 가우시안 분포(Gaussian distribution)에 따른 랜덤 값을 나타내고, σi는 i번째 표식에 대한 분산을 나타낸다.
수학식 6에서 가우시안 분포에 곱해지는 분산 σi,t는 다음 식과 같이 구할 수 있다.
Figure 112004035131922-pat00012
여기서, N()는 가우시안 분포를 따르며 모든 표식들에 대해 동일한 값을 나타내고, τ' 및 τ는 표식의 개수에 따라 정해지는 상수이다.
후손이 생성되면, 부모와 후손에 대해 적합도를 평가한다(17단계). 적합도 평가는 각 표식에 대한 관측치와 예측치의 차에 따른 목적함수 wt로 정의된다.
Figure 112004035131922-pat00013
여기서, T는 전치(transpose), R은 상수이고, zt는 관측치,
Figure 112004035131922-pat00014
는 예측치이다.
여기서, 예측치는 로봇의 현재 위치에서 표식에 대한 상대적인 거리와 각도를 예측한 값으로, 수학식 1의 관측함수에서 θnt를 (μ'x,μ'y)로, s t를 수학식 5에 따른 로봇의 자세 예측치로 했을 때 얻어지는 값이다.
상기 수학식 11에서 R은 사용자에 의해 정해지는 상수로서, 관측치에 대한 분산값이다. 예를 들어, 로봇에서 표식까지의 거리를 관측한다고할 때, 측정값의 분산이 0.1이라면, R=0.1이 될 수 있다.
수학식 11에 따른 목적함수에 따라 선택된 표식들과 15단계에서 초기화된 표 식을 다음 세대의 표식으로 선택한다(16단계). 다음 세대의 선택은 수학식 11에 따른 목적함수의 계산결과에 따라 진화연산 방식에서 사용되는 랜덤 룰렛 휠(random roulette wheel) 방식이나, 랜덤 경쟁(random competition) 방식 또는 토너먼트(tournament) 방식 등을 사용하여 이루어진다.
다음 세대가 선택되면, 입자 필터를 이용하여 다음 시간의 로봇의 위치를 샘플링하거나(10단계), 모든 과정을 종료한다(17단계).
도 3은 본 발명을 적용하기위한 실험 환경을 설명한 것으로, 7m x 7m의 2차원 공간에서 100개의 표식을 랜덤하게 생성한 예를 도시한 것이다. 도 4는 본 발명에 적용되는 로봇을 도시한 것이다. 참조번호 30은 로봇을 나타내고, 31은 센서 그리고 32는 표식을 나타낸다.
센서(31)는 Vc=0.7 m/sec의 속도로 움직이며, 로봇의 선단은 진행방향으로부터 R(α)=5°정도 기울어져서 진행하게된다. 센서(31)를 이용하여 표식(32)을 관측하는 경우, 관측값의 분산은 R(φ)=3°, R(r)=0.1이다. 센서(31)로부터 표식(32)까지의 거리분산 R(r)은 1미터를 초과할 때마다 1/4씩 선형적으로 증가한다.
도 5a 및 도 5b는 입자의 개수와 표식의 개수는 각각 100개씩일 때, 각각 칼만 필터(Kalman filter)를 이용하는 종래 기술과 본 발명의 위치 추적 및 지도 작성 방법에 대한 실험결과를 도시한 것이다. 도 5a는 시간 스텝에 대한 로봇의 위치 에러, 즉,
Figure 112004035131922-pat00015
를 도시한 것이고, 도 5b는 시간 스텝에 대한 표식위치의 에러를 도시한 것이다.
도시된 바에 따르면, 로봇의 자세에 대한 에러 수준은 종래 기술과 본 발명의 결과가 비슷한 수준을 보이고 있지만, 표식 위치에 있어서는 본원발명이 상대적으로 빠른 수렴 속도를 보이는 것을 알 수 있다.
도 6a 및 도 6b는 입자의 개수가 100개이고, 표식의 개수는 200개일 때, 각각 종래 기술과 본 발명의 위치 추적 및 지도 작성 방법에 대한 실험결과를 도시한 것이다. 도 6a는 시간 스텝에 대한 로봇의 위치 에러를 도시한 것이고, 도 6b는 시간 스텝에 대한 표식위치의 에러를 도시한 것이다.
도시된 바에 따르면, 로봇의 자세에 대한 에러 수준은 도 5a의 경우와 마찬가지로 종래 기술과 본 발명의 결과가 비슷한 수준을 보이고 있지만, 표식 위치에 있어서는 본원발명이 상대적으로 빠른 수렴 속도를 보이는 것을 알 수 있다.
도 7은 100개의 입자에 대해 표식의 개수를 10, 100, 250 및 500개로 변환시켜가면서 1회당 300번을 총 20회 반복수행한 평균 계산 시간을 에러 바(error-bar)로 나타낸 것이다. 에러 바는 에러의 평균을 꺽은 선 그래프로 그리고 각 에러의 표준편차를 '|' 형태의 선분 길이로 나타낸 것이다.
도시된 바에 따르면, 본 발명의 경우가 표식의 개수가 증가할수록 상대적으로 훨씬 빠른 것을 알 수 있다. 표식의 개수가 500개인 경우, 본 발명의 경우가 종래 기술에 비해 약 40배 정도 빠른 것을 알 수 있다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한 다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플라피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
본 발명에 따르면, 종래의 표식의 위치 설정을 위한 역행렬, 미분 등의 계산을 피함으로써 계산 시간을 줄일 수 있다. 또한 진화연산을 기본적으로 병렬 처리가 가능하므로 다중 프로세서 사용시 계산시간을 더욱 줄일 수 있다.
본 발명에 대해 상기 실시예를 참고하여 설명하였으나, 이는 예시적인 것에 불과하며, 본 발명에 속하는 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.

Claims (17)

  1. 로봇의 자세 및 표식들의 위치를 초기화하는 단계;
    로봇의 움직임에 따라 로봇의 새로운 자세를 샘플링하고, 상기 표식들의 위 치를 이용하여 염색체를 구성하는 단계;
    상기 로봇의 현재 위치에서 표식들을 관측하는 단계;
    상기 염색체들로부터 후손들을 생성하는 단계; 및
    상기 표식들의 관측값을 이용하여 상기 염색체들과 후손들중 다음 세대의 염색체를 선택하는 단계를 포함함을 특징으로하는 로봇의 위치 추적 및 지도 작성 방법.
  2. 제1항에 있어서, 상기 로봇의 자세의 초기화는
    상기 로봇의 자세에서 복수의 입자들을 생성하여 이루어짐을 특징으로하는 로봇의 위치 추적 및 지도 작성 방법.
  3. 제2항에 있어서, 상기 표식들의 위치는
    상기 입자들의 각 위치에서 상기 표식들까지의 거리 및 방향을 관측한 값들로부터 결정되는 것을 특징으로하는 로봇의 위치 추적 및 지도 작성 방법.
  4. 제3항에 있어서, 상기 표식들의 초기 자세, (μx,0y,0)는
    상기 거리를 r, 상기 방향을 φ, 상기 로봇의 초기자세를 (S0, x,S0, y,S0, θ)로 표현할 때, 다음 식의 관측함수 g(st, θnt)의 역함수
    [수학식]
    Figure 112004035131922-pat00016
    여기서, θnt는 표식 nt의 (x,y)좌표이고, t=0
    [수학식]
    Figure 112004035131922-pat00017
    여기서, t=0
    에 의해 결정되는 것을 특징으로하는 로봇의 위치 추적 및 지도 작성 방법.
  5. 제2항에 있어서, 상기 로봇의 새로운 자세의 샘플링은
    상기 로봇이 이전시간에 움직인 경로의 끝점에서 움직임 명령에 따른 로봇의 움직임을 예측한 확률에 의해 결정됨을 특징으로하는 로봇의 위치 추적 및 지도 작성 방법.
  6. 제2항에 있어서, 상기 염색체의 구성은
    초기시간에는 상기 표식들의 위치, 초기시간이 아니면 이전시간에 선택된 다음 세대의 염색체를 현재 시간의 염색체로 구성하는 것을 특징으로하는 로봇의 위치 추적 및 지도 작성 방법.
  7. 제2항에 있어서, 상기 염색체의 구성은
    초기시간에는 상기 표식들의 위치, 초기시간이 아니면 이전시간에 선택된 다음 세대의 염색체에서 각 입자 위치의 평균 변이를 반영하여 현재 시간의 염색체로 구성하는 것을 특징으로하는 로봇의 추적 및 지도 작성 방법.
  8. 제7항에 있어서,
    상기 현재 시간의 염색체는 다음의 수학식
    [수학식]
    Figure 112004035131922-pat00018
    여기서, (μix',μiy')는 현재 시간의 염색체, (μixiy)는 이전 시간에 선택된 다음 세대의 염색체, (x,y)는 각 입자의 위치,
    Figure 112004035131922-pat00019
    는 입자들의 평균 위치
    와 같이 결정되는 것을 특징으로하는 로봇의 추적 및 지도 작성 방법.
  9. 제1항에 있어서, 상기 후손들의 생성은
    i번째 염색체를
    Figure 112004035131922-pat00020
    , 그에 따른 후손을
    Figure 112004035131922-pat00021
    라 하면, 다음 식
    [수학식]
    Figure 112004035131922-pat00022
    여기서, Ni()는 i번째 표식에 대한 가우시안 분포로부터 얻어지는 랜덤 값, σi는 i번째 표식에 대한 분산
    에 따른 가우시안 돌연변이 방식에 의해 생성되는 것을 특징으로하는 로봇의 추적 및 지도 작성 방법.
  10. 제9항에 있어서, 상기 σi
    Figure 112004035131922-pat00023
    여기서, N()는 가우시안 분포를 따르며 모든 표식들에 대해 동일한 값을 나타내고, τ' 및 τ는 표식의 개수에 따라 정해지는 상수
    에 의해 결정되는 것을 특징으로하는 로봇의 위치 추적 및 지도 작성 방법.
  11. 제1항에 있어서, 상기 다음 세대의 염색체를 선택하는 단계는
    상기 후손과 상기 염색체들에 대한 적합도를 평가하는 단계; 및
    상기 적합도를 반영하여 소정 방식으로 다음 세대의 염색체를 선택하는 단계를 포함함을 특징으로하는 로봇의 위치 추적 및 지도 작성 방법.
  12. 제11항에 있어서, 상기 적합도는
    t시간의 nt의 표식에 대한 관측치가 z, 예측치가
    Figure 112004035131922-pat00024
    일 때, 상기 두 값의 차에 따른 목적함수 wt로 다음 식
    [수학식]
    Figure 112004035131922-pat00025
    여기서, T는 전치, R은 상수
    과 같이 구하는 것을 특징으로하는 로봇의 위치 추적 및 지도 작성 방법.
  13. 제12항에 있어서, 상기
    Figure 112004035131922-pat00026
    θnt가 염색체, st가 로봇의 자세 예측치일 때, 다음 식
    [수학식]
    Figure 112004035131922-pat00027
    에 의해 예측되는 것을 특징으로하는 로봇의 위치 추적 및 지도 작성 방법.
  14. 제1항에 있어서, 상기 관측하는 단계는
    새로운 표식이 생성되었는지를 판별하는 단계; 및
    새로운 표식이 생성되었다면, 생성된 표식의 위치를 초기화하는 단계를 더 포함함을 특징으로하는 로봇의 위치 추적 및 지도 작성 방법.
  15. 제14항에 있어서, 상기 새로운 표식의 판별은
    최대 유사 방법, 최인접 이웃 방법 및 카이 자승 테스트 방법중 어느 하나를 판별하는 것을 특징으로하는 로봇의 위치 추적 및 지도 작성 방법.
  16. 제14항에 있어서, 상기 다음 세대의 염색체를 선택하는 단계는
    상기 후손들, 상기 염색체들 및 상기 새로운 표식의 위치에 대한 적합도를 평가하는 단계; 및
    상기 적합도를 반영하여 소정 방식으로 다음 세대의 염색체를 선택하는 단계를 포함함을 특징으로하는 로봇의 위치 추적 및 지도 작성 방법.
  17. 로봇의 자세 및 표식들의 위치를 초기화하는 단계;
    로봇의 움직임에 따라 로봇의 새로운 자세를 샘플링하고, 상기 표식들의 위치를 이용하여 염색체를 구성하는 단계;
    상기 로봇의 현재 위치에서 표식들을 관측하는 단계;
    상기 염색체들로부터 후손들을 생성하는 단계; 및
    상기 표식들의 관측값을 이용하여 상기 염색체들과 후손들중 다음 세대의 염색체를 선택하는 단계를 포함함을 특징으로하는 로봇의 위치 추적 및 지도 작성 방법을 실행할 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020040061790A 2004-08-05 2004-08-05 로봇의 위치 추적 및 지도 작성 방법 KR100601960B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020040061790A KR100601960B1 (ko) 2004-08-05 2004-08-05 로봇의 위치 추적 및 지도 작성 방법
US11/175,396 US7957836B2 (en) 2004-08-05 2005-07-07 Method used by robot for simultaneous localization and map-building

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040061790A KR100601960B1 (ko) 2004-08-05 2004-08-05 로봇의 위치 추적 및 지도 작성 방법

Publications (2)

Publication Number Publication Date
KR20060013022A KR20060013022A (ko) 2006-02-09
KR100601960B1 true KR100601960B1 (ko) 2006-07-14

Family

ID=35910640

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040061790A KR100601960B1 (ko) 2004-08-05 2004-08-05 로봇의 위치 추적 및 지도 작성 방법

Country Status (2)

Country Link
US (1) US7957836B2 (ko)
KR (1) KR100601960B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100809352B1 (ko) 2006-11-16 2008-03-05 삼성전자주식회사 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치
CN107450561A (zh) * 2017-09-18 2017-12-08 河南科技学院 移动机器人的自主路径规划与避障***及其使用方法

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8412377B2 (en) 2000-01-24 2013-04-02 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US8788092B2 (en) 2000-01-24 2014-07-22 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US6956348B2 (en) 2004-01-28 2005-10-18 Irobot Corporation Debris sensor for cleaning apparatus
US6690134B1 (en) 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
US7571511B2 (en) 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
US8396592B2 (en) 2001-06-12 2013-03-12 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US7663333B2 (en) * 2001-06-12 2010-02-16 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US9128486B2 (en) 2002-01-24 2015-09-08 Irobot Corporation Navigational control system for a robotic device
US8386081B2 (en) * 2002-09-13 2013-02-26 Irobot Corporation Navigational control system for a robotic device
US8428778B2 (en) 2002-09-13 2013-04-23 Irobot Corporation Navigational control system for a robotic device
US7332890B2 (en) 2004-01-21 2008-02-19 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
DE112005000738T5 (de) 2004-03-29 2007-04-26 Evolution Robotics, Inc., Pasadena Verfahren und Vorrichtung zur Positionsbestimmung unter Verwendung von reflektierten Lichtquellen
ATE536577T1 (de) 2004-06-24 2011-12-15 Irobot Corp Fernbediente ablaufsteuerung und verfahren für eine autonome robotervorrichtung
US8972052B2 (en) 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
US7706917B1 (en) 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
KR100776215B1 (ko) 2005-01-25 2007-11-16 삼성전자주식회사 상향 영상을 이용한 이동체의 위치 추정 및 지도 생성장치 및 방법과 그 장치를 제어하는 컴퓨터 프로그램을저장하는 컴퓨터로 읽을 수 있는 기록 매체
US7620476B2 (en) 2005-02-18 2009-11-17 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
US8392021B2 (en) * 2005-02-18 2013-03-05 Irobot Corporation Autonomous surface cleaning robot for wet cleaning
DE602006014364D1 (de) 2005-02-18 2010-07-01 Irobot Corp Autonomer oberflächenreinigungsroboter für nass- und trockenreinigung
US8930023B2 (en) 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
JP5054010B2 (ja) * 2005-09-02 2012-10-24 ニート ロボティックス,インコーポレイティド ロボットのナビゲーション及びロボットの位置を決定するための方法と装置
EP2816434A3 (en) 2005-12-02 2015-01-28 iRobot Corporation Autonomous coverage robot
US7441298B2 (en) 2005-12-02 2008-10-28 Irobot Corporation Coverage robot mobility
ES2706729T3 (es) 2005-12-02 2019-04-01 Irobot Corp Sistema de robot
ATE442619T1 (de) 2005-12-02 2009-09-15 Irobot Corp Modularer roboter
EP2466411B1 (en) 2005-12-02 2018-10-17 iRobot Corporation Robot system
KR100748245B1 (ko) * 2005-12-09 2007-08-10 한국전자통신연구원 인공표식과 지역좌표계를 이용한 이동로봇의 환경지도 작성방법 및 이동 방법
US20090044370A1 (en) 2006-05-19 2009-02-19 Irobot Corporation Removing debris from cleaning robots
US8417383B2 (en) 2006-05-31 2013-04-09 Irobot Corporation Detecting robot stasis
US8996172B2 (en) * 2006-09-01 2015-03-31 Neato Robotics, Inc. Distance sensor system and method
KR101529848B1 (ko) 2007-05-09 2015-06-17 아이로보트 코퍼레이션 표면 처리 로봇
JP5073609B2 (ja) * 2008-08-11 2012-11-14 日東電工株式会社 光導波路の製造方法
DK2343615T3 (en) * 2008-10-01 2019-02-18 Murata Machinery Ltd Independent movement device
US8340852B2 (en) 2009-04-29 2012-12-25 Honeywell International Inc. System and method for simultaneous localization and map building
JP5647269B2 (ja) 2010-02-16 2014-12-24 アイロボット コーポレイション 掃除機ブラシ
KR101782057B1 (ko) * 2010-05-03 2017-09-26 삼성전자주식회사 지도 생성 장치 및 방법
KR101686171B1 (ko) * 2010-06-08 2016-12-13 삼성전자주식회사 영상 및 거리 데이터를 이용한 위치 인식 장치 및 방법
CN102402225B (zh) * 2011-11-23 2013-09-04 中国科学院自动化研究所 一种实现移动机器人同时定位与地图构建的方法
CN102778230B (zh) * 2012-06-14 2014-10-29 辽宁工程技术大学 一种人工物理优化粒子滤波的重力梯度辅助定位方法
US9927814B2 (en) * 2016-03-28 2018-03-27 Fetch Robotics, Inc. System and method for localization of robots
CN109542093B (zh) * 2017-09-22 2022-06-07 华为技术有限公司 一种处理数据的方法和装置
US11320828B1 (en) 2018-03-08 2022-05-03 AI Incorporated Robotic cleaner
US11254002B1 (en) 2018-03-19 2022-02-22 AI Incorporated Autonomous robotic device
CN108507579B (zh) * 2018-04-08 2020-04-21 浙江大承机器人科技有限公司 一种基于局部粒子滤波的重定位方法
US11454981B1 (en) 2018-04-20 2022-09-27 AI Incorporated Versatile mobile robotic device
US11340079B1 (en) 2018-05-21 2022-05-24 AI Incorporated Simultaneous collaboration, localization, and mapping
US11548159B1 (en) 2018-05-31 2023-01-10 AI Incorporated Modular robot
US11199853B1 (en) 2018-07-11 2021-12-14 AI Incorporated Versatile mobile platform
CN109643127B (zh) * 2018-11-19 2022-05-03 深圳阿科伯特机器人有限公司 构建地图、定位、导航、控制方法及***、移动机器人
KR102105105B1 (ko) 2018-12-31 2020-04-27 주식회사 트위니 실내 측위 방법 및 이를 수행하는 장치들
CN110007670B (zh) * 2019-02-14 2021-11-23 四川阿泰因机器人智能装备有限公司 移动机器人定位建图方法
CN110597070B (zh) * 2019-10-17 2022-06-17 上海电力大学 火电机组***模型参数的辨识方法
CN112336883A (zh) * 2020-10-28 2021-02-09 湖南安商医疗科技有限公司 一种自主移动的脉冲氙气灯和等离子杀菌机器人
CN113703443B (zh) * 2021-08-12 2023-10-13 北京科技大学 一种不依赖gnss的无人车自主定位与环境探索方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0527832A (ja) * 1991-07-19 1993-02-05 Sanyo Electric Co Ltd 移動ロボツトの現在位置認識方法
JPH064127A (ja) * 1992-06-16 1994-01-14 Ishikawajima Harima Heavy Ind Co Ltd 屋内移動体の自己位置測定装置
JPH07121235A (ja) * 1993-10-26 1995-05-12 Nippon Telegr & Teleph Corp <Ntt> 移動ロボットの自己位置認識方法
KR20020039806A (ko) * 2000-11-22 2002-05-30 이충전 모빌로봇의 경로보정방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7177737B2 (en) * 2002-12-17 2007-02-13 Evolution Robotics, Inc. Systems and methods for correction of drift via global localization with a visual landmark

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0527832A (ja) * 1991-07-19 1993-02-05 Sanyo Electric Co Ltd 移動ロボツトの現在位置認識方法
JPH064127A (ja) * 1992-06-16 1994-01-14 Ishikawajima Harima Heavy Ind Co Ltd 屋内移動体の自己位置測定装置
JPH07121235A (ja) * 1993-10-26 1995-05-12 Nippon Telegr & Teleph Corp <Ntt> 移動ロボットの自己位置認識方法
KR20020039806A (ko) * 2000-11-22 2002-05-30 이충전 모빌로봇의 경로보정방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100809352B1 (ko) 2006-11-16 2008-03-05 삼성전자주식회사 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치
CN107450561A (zh) * 2017-09-18 2017-12-08 河南科技学院 移动机器人的自主路径规划与避障***及其使用方法

Also Published As

Publication number Publication date
US7957836B2 (en) 2011-06-07
KR20060013022A (ko) 2006-02-09
US20060041331A1 (en) 2006-02-23

Similar Documents

Publication Publication Date Title
KR100601960B1 (ko) 로봇의 위치 추적 및 지도 작성 방법
Francis et al. Long-range indoor navigation with PRM-RL
Fox Markov localization-a probabilistic framework for mobile robot localization and navigation.
CN108871351B (zh) 一种auv海底地形匹配的动态路径规划方法
Thrun Probabilistic algorithms in robotics
Sadat et al. Feature-rich path planning for robust navigation of MAVs with mono-SLAM
WO2017028653A1 (zh) 一种移动机器人室内自建地图的方法和***
Blanco et al. Efficient probabilistic range-only SLAM
CN112639502A (zh) 机器人位姿估计
CN111487960A (zh) 一种基于定位能力估计的移动机器人路径规划方法
Kwok et al. Evolutionary computing based mobile robot localization
Vahdat et al. Mobile robot global localization using differential evolution and particle swarm optimization
CN114442621A (zh) 一种基于四足机器人的自主探索和建图***
CN114119920A (zh) 三维点云地图构建方法、***
CN114879660B (zh) 一种基于目标驱动的机器人环境感知方法
Duckett et al. Mobile robot self-localisation using occupancy histograms and a mixture of Gaussian location hypotheses
Miller et al. Rao-blackwellized particle filtering for mapping dynamic environments
US20240019250A1 (en) Motion estimation apparatus, motion estimation method, path generation apparatus, path generation method, and computer-readable recording medium
KR101022785B1 (ko) 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법
Duckett et al. Knowing your place in real world environments
Augenstein et al. Simultaneous Estimaton of Target Pose and 3-D Shape Using the FastSLAM Algorithm
US20240036581A1 (en) Motion learning apparatus, motion learning method, motion estimation apparatus, motion estimation method, and computer-readable recording medium
Agishev et al. Trajectory optimization using learned robot-terrain interaction model in exploration of large subterranean environments
Jiménez Serrata et al. An intelligible implementation of FastSLAM2. 0 on a low-power embedded architecture
Muravyev et al. Evaluation of topological mapping methods in indoor environments

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130624

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140619

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150624

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160620

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20170619

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20180620

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20190619

Year of fee payment: 14