KR20020010257A - 로봇 시스템에서의 자기위치 인식 장치 및 방법 - Google Patents

로봇 시스템에서의 자기위치 인식 장치 및 방법 Download PDF

Info

Publication number
KR20020010257A
KR20020010257A KR1020000043779A KR20000043779A KR20020010257A KR 20020010257 A KR20020010257 A KR 20020010257A KR 1020000043779 A KR1020000043779 A KR 1020000043779A KR 20000043779 A KR20000043779 A KR 20000043779A KR 20020010257 A KR20020010257 A KR 20020010257A
Authority
KR
South Korea
Prior art keywords
robot
distance information
cell
information
function
Prior art date
Application number
KR1020000043779A
Other languages
English (en)
Inventor
김인광
Original Assignee
김인광
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김인광 filed Critical 김인광
Priority to KR1020000043779A priority Critical patent/KR20020010257A/ko
Priority to US09/916,340 priority patent/US6834118B2/en
Publication of KR20020010257A publication Critical patent/KR20020010257A/ko

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 로봇 시스템에서의 방향별 반사거리정보와 셀 단위로 나뉘어지는 가상 지도를 이용한 자기위치 인식 장치 및 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것으로, 로봇 시스템에서의 자기위치 인식장치에 있어서, 360도를 소정 등분한 각 방향으로 소정 신호를 출력하며 상기 신호가 반사되어 입력되는 신호를 이용하여 상기 출력된 신호가 소정 물체에 닫는 지점을 검출하고 상기 검출 결과를 이용하여 상기 물체와의 거리를 상기 각 방향별로 검출하는 반사거리 검출수단; 절대적인 방향 정보를 제공하는 방향 검출수단; 및 상기 반사거리 검출수단과 상기 방향 검출수단의 전반적인 동작을 제어하여 가상 지도상의 영역을 셀 단위로 나누며 각 셀당 방향별 반사 거리정보를 생성하며, 상기 생성된 각 셀당 방향별 반사 거리정보들과 검출된 로봇의 현재 위치에서의 방향별 반사 거리정보를 비교하여 현재의 위치를 인식하는 제어수단을 포함한다.

Description

로봇 시스템에서의 자기위치 인식 장치 및 방법{APPARATUS AND METHOD FOR RECOGNIZING SELF-POSITION IN ROBORT SYSTEM}
본 발명은 로봇 시스템에서의 자기위치 인식 장치 및 방법에 관한 것으로, 특히 방향별 반사거리정보와 셀 단위로 나뉘어지는 가상 지도를 이용한 자기위치 인식 장치 및 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.
또한, 본 발명은 청소 로봇이나 인공지능로봇 등에 적용되는 자기위치 인식 기술에 관한 것으로, 건물이나 집안의 구조가 입력된 상태에서 360도 방향의 반사 거리를 검출하는 반사 거리 검출계와 전자 나침반을 이용하여 로봇이 자기위치를 확인할 수 있도록 하는 것이다.
로봇 시스템에서 종래의 자기위치 인식방식은 주로 카메라 등을 이용하여 특정 물체등을 인식하여 자기위치를 확인하거나 또는 위치 발신 마커등을 통하여 자기위치를 파악하는 것이어서, 고가의 장치가 필요하게 되거나 또는 자기위치 인식의 정확도가 떨어지는 것이었다. 특히, 종래의 방식은 위치 인식을 위해 많은 계산량이 요구되며 위치 인식에 많은 오류가 있는 단점이 있었다.
본 발명의 목적은 로봇 시스템에서 360도 방향으로 레이저 반사 거리를 검출할 수 있도록 레이저 거리 검출기를 회전하면서 전자 나침반에서 가르키는 각 방향에 대하여 구해진 방향별 반사 거리정보와 미리 구해진 건물구조에 대한 가상 지도상에서 예측되는 후보 셀들 위치에서의 방향별 반사 거리정보를 비교하여 로봇의 현재 위치를 정확하고 효율적으로 인식하는 장치 및 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공함에 있다.
도 1은 로봇 시스템에서의 본 발명의 실시예에 따른 자기 위치 인식 장치의 구성을 도시한 도면.
도 2는 레이저 반사 거리 검출의 원리를 설명하기 위한 그래프.
도 3은 로봇 시스템에서의 본 발명의 실시예에 따른 자기위치 인식 방법을 도시한 흐름도.
이러한 목적을 달성하기 위한 본 발명은 로봇 시스템에서의 자기위치 인식장치가, 360도를 소정 등분한 각 방향으로 소정 신호를 출력하며 상기 신호가 반사되어 입력되는 신호를 이용하여 상기 출력된 신호가 소정 물체에 닫는 지점을 검출하고 상기 검출 결과를 이용하여 상기 물체와의 거리를 상기 각 방향별로 검출하는 반사거리 검출수단; 절대적인 방향 정보를 제공하는 방향 검출수단; 및 상기 반사거리 검출수단과 상기 방향 검출수단의 전반적인 동작을 제어하여 가상 지도상의 영역을 셀 단위로 나누며 각 셀당 방향별 반사 거리정보를 생성하며, 상기 생성된 각 셀당 방향별 반사 거리정보들과 검출된 로봇의 현재 위치에서의 방향별 반사 거리정보를 비교하여 현재의 위치를 인식하는 제어수단을 포함하는 것을 특징으로 한다.
그리고, 본 발명은 로봇 시스템에서의 자기위치 인식방법이, 복수개의 셀들로 이루어지는 가상 지도를 형성하는 제1 단계; 상기 각 셀을 중심으로, 360도를 소정 등분한 각 방향으로 신호를 출력하며 상기 신호가 반사되어 입력되는 신호를 이용하여 상기 출력된 신호가 소정 물체에 닫는 지점을 검출하는 제2 단계; 상기 제2 단계에서 검출된 지점을 이용하여 상기 물체와의 거리를 상기 각 방향별로 검출하여 셀 별로 저장하는 제3 단계; 상기 로봇의 현재 위치에서의 방향별 반사 거리정보를 검출하는 제4 단계; 및 상기 제3 단계에서 저장된 각 셀 별의 방향별 반사 거리정보들과 상기 제4 단계에서 검출된 로봇의 현재 위치에서의 방향별 반사 거리정보를 비교하여 현재의 로봇의 위치를 인식하는 제5 단계를 포함하는 것을 특징으로 한다.
한편, 본 발명은, 프로세서를 구비한 로봇 시스템의 자기위치 인식장치에,복수개의 셀들로 이루어지는 가상 지도를 형성하는 제1 기능; 상기 각 셀을 중심으로, 360도를 소정 등분한 각 방향으로 신호를 출력하며 상기 신호가 반사되어 입력되는 신호를 이용하여 상기 출력된 신호가 소정 물체에 닫는 지점을 검출하는 제2 기능; 상기 제2 기능에서 검출된 지점을 이용하여 상기 물체와의 거리를 상기 각 방향별로 검출하여 셀 별로 저장하는 제3 기능; 상기 로봇의 현재 위치에서의 방향별 반사 거리정보를 검출하는 제4 기능; 및 상기 제3 기능에서 저장된 각 셀 별의 방향별 반사 거리정보들과 상기 제4 기능에서 검출된 로봇의 현재 위치에서의 방향별 반사 거리정보를 비교하여 현재의 로봇의 위치를 인식하는 제5 기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
한편, 로봇 시스템에서 자기의 위치를 인식하기 위하여 본 발명의 실시예는 먼저, 로봇 유닛이 초기에 집안이나 건물 등을 돌아다니며 구조분석을 하여 2차원 가상 지도를 형성한다. 로봇 유닛은 상기 형성된 가상 지도상의 영역을 최소의 셀 단위로 나누며 각 셀을 중심으로 하여 360도를 소정 등분한 각 방향들에 대한 (예:22.5도씩 등분한 경우 16방향, 11.25도씩 등분한 경우 32방향)의 방향별 레이저 반사 거리정보를 구한다. 이렇게 구하여진 가상 지도상의 각 셀당 위치 특성은 로봇의 주행하는 때에 자기 위치를 파악할 수 있는 위치정보 셀로서 이용된다.
로봇의 자기 위치 파악은 현재 자기가 있는 위치의 셀로부터 실제로 주행한 거리와 방향을 이용하여 예측되는 후보 셀들을 구하고, 현재 위치의 각 방향별 레이저 반사 거리 정보와 상기 예측된 후보 셀들의 방향별 레이저 반사 거리 정보를 비교하여 가장 근접한 셀을 추출하여 자신의 현재의 위치정보로 활용할 수가 있다.
이러한 자기 위치 정보 인식은 절대적인 방향별 반사정보를 이용하므로 정확하고 효율적이며, 셀 개념의 위치정보에 대한 영역 표시는 무인 청소 로봇의 경우 청소한 영역을 셀단위로 표시하면서 청소를 할 수가 있어 매우 편리하다.
이하 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 하기에서 본 발명을 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.
도 1은 로봇 시스템에서 본 발명의 실시예에 따른 자기 위치 인식 장치의 구성을 도시한다.
상기 도 1은 레이저 신호를 360도를 소정 등분한 각 방향으로 출력하며 상기 레이저 신호가 반사되어 입력되는 라인 이미지 데이터를 이용하여 레이저 신호가 물체에 닫는 지점인 레이저 포인트와 상기 물체와의 거리를 각 방향별로 검출하여 방향별 레이저 반사 거리 정보를 출력하는 360도 회전 레이저 반사거리 검출기(100)와, 자기 위치 인식 장치의 전반적인 동작을 제어하며 가상 지도상의 영역을 셀 단위로 나누며 각 셀을 중심으로 하여 상기 방향별 레이저 반사 거리정보를 저장하고 이전 위치의 셀로부터 실제로 로봇이 주행한 거리와 방향을 이용하여 예측되는 후보 셀들을 선택하며 현재 위치에서의 방향별 레이져 반사 거리 정보와 상기 예측된 후보 셀들의 방향별 레이져 반사 거리 정보를 비교하여 가장 근접한 셀을 추출하여 자신의 현재의 위치정보로 활용하는 제어기(101)와, 절대적인 방향 정보를 제공하는 하는 방향 검출부(102)로 이루어진다.
360도 회전 레이저 반사거리 검출기(100)에 구비되는 신호 패턴 파형 생성기(103)는 제어기(101)의 제어에 의해, 설정된 주기Tf의 구형파를 짧은 시간동안 레이저 신호로서 구동시키기 위한 해당 패턴의 신호 파형을 생성한다. 레이저 출력부(104)는 상기 신호 파형에 의해 레이저 신호 출력을 온-오프 한다. 상기 출력된 레이저 신호는 물체에 의해 반사되어 이미지로서 이미지 수신부(105)로 입력된다.
이미지 수신기(105)는 렌즈와 라인 고체좔상소자(CCD)와 A/D 변환기로 이루어져 있어 외부에서 들어온 빛의 세기가 CCD센서에 의해 전기신호로 바뀌며 이 신호는 A/D변환되여 패턴파형 검출기(106)로 전달된다. 이미지 수신기(105)는 일반적으로 사용되는 그레이 레벨의 이미지 스캔회로와 동일하다. 이미지 수신기(105)는 CCD소자의 픽셀 갯수 만큼의 데이터를 한번에 패턴파형 검출기(106)로 출력하는데 신호패턴 파형 생성부(103)에 의해 생성된 신호 파형의 주파수(1/Tf)보다 2배 이상의 샘플링(나이퀴스트 샘플링)속도로 데이터를 출력한다. 이것은 수신된 이미지의 각 픽셀 데이터 마다 샘플링된 값을 조사하여 수신파형의 주기를 계산하기 위함이다. 즉, 선택된 임의의 값을 기준으로 크면 1의 값을 작으면 0의 값을 취하여 그 변화율이 일정 구간동안 주기적으로 나타나면 주기성 파형으로 간주하며 그 주기가 Tf의 주기인지를 판단한다. 샘플링 속도가 빠를수록 더 정확한 주기를 얻을 수 있지만 Tf의 주기를 갖는 파형인지를 판단하기 위해서는 주파수(1/Tf)의 2~4배가 적당하다. 패턴 파형 검출기(106)는 상기의 샘플링 속도마다 입력되는 라인 이미지 데이터에서 각 픽셀 마다 변화되는 데이터값의 주기가 레이저 출력파형의 주기Tf를 갖는지를 검사하여 해당 픽셀을 레이저 포인트 위치로서 검출한다.
거리 검출기(107)는 라인 이미지상에서 레이저 포인트를 가리키는 픽셀 위치를 이용하여 물체와 로봇 간의 거리를 검출한다. 거리 검출부(107)의 검출 방식은 하기 도 2의 레이저 반사 거리 검출의 원리를 설명하기 위한 그래프를 참조하여 후술될 것이다.
방향 검출기(102)는 전자 나침반이 될 수가 있으며, 제어기(101)의 제어에 의해 360도를 소정 등분한 절대적인 방향 정보를 제공한다.
방향 회전 구동기(108)는 상기 절대적인 방향 정보에 따라, 레이저 출력기(104) 및 이미지 수신기(105)의 방향을 상기 360도를 소정 등분한 각 방향으로 회전시킨다.
도 2는 로버트 시스템에서 본 발명의 실시예에 따른 레이저 반사 거리 검출의 원리를 설명한 그래프이다. 이하 상기 도 1을 참조하여 설명한다.
도시된 바와 같이, 레이저 출력기(104)의 방향과 이미지 수신기(105)에 구비되는 라인 CCD의 수신방향 사이는 α의 각도를 이루며, 레이저 출력기(104)와 라인 CCD 사이의 거리는 d가 된다. 레이저 포인트 P는 레이저 출력기(104)로부터 출력되는 레이저 신호가 물체에 닫는 지점이 되는데, 상기 레이저 포인트 P는 상기 도 1에서 설명한 바와 같이, 패턴 파형 검출기(106)로부터 제공된다. 라인 CCD의 입력 가능한 라인 이미지의 범위는 2α의 각도를 이룬다. 이 범위내에서 수신 가능한 이미지 픽셀 수는 2배의 Pixel_L로 구성되는 경우에, 레이저 출력기(104)에서 레이저 포인트 P까지의 거리를 L이라고 하면, CCD의 중심라인에서부터 레이저 포인트 P까지 이루는 각도는 θ를 이루게 되는데, θ는 수신된 라인 이미지에서 레이저 포인트 P의 위치를 나타내는 픽셀 위치(Pixel_P)를 이용하여 구할 수가 있다.
하기 <수학식 1>은 CCD의 중심라인에서부터 레이저 포인트 P까지 이루는 각도는 θ를 구하는 식을 의미한다.
여기서, 상기 θ는 라인 CCD의 중심라인에서부터 레이저 포인트 P까지 이루는 각도를 의미하며, 상기는 라인 CCD의 입력 가능한 이미지 범위 2에 해당한다. 상기 Pixcel_L은 상기 라인 CCD의 입력 가능한 이미지 범위 내에서 수신 가능한 이미지 픽셀수 2*Pixel_L에 해당한다. 상기 Pixcel_P는 수신된 라인 이미지에서 레이저 포인트 P의 위치를 나타내는 픽셀위치를 의미한다.
그런데 상기 <수학식 1>에서이고이므로, 레이저 출력기(104)에서 레이저 포인트 P까지의 거리를 L은 하기 <수학식 2>로 구할 수가 있다.
여기서, 상기 L은 레이저 출력기(104)에서 레이저 포인트 P까지의 거리를 의미하며, 상기 d는 레이저 출력기(104)와 라인 CCD 사이의 거리를 의미하며, 상기 β는 레이저 출력기(104)의 방향과 라인 CCD에서부터 레이저 포인트 P로의 방향 사이의 각도를 의미한다.
한편, 본 발명의 실시예에서는 로봇의 이동한 실제 위치에 해당하는 후보 셀들을 신속하게 찾기 위해서 로봇의 이동의 방향과 거리를 계산하여 해당 범위 내에서 예를 들면 거리 성분 누적값()의 범위내에서 예측 가능한 현 위치에 해당하는 후보 셀들을 선택한다.
도 3은 로봇 시스템에서 본 발명의 실시예에 따른 자기위치 인식 방법을 도시한 흐름도이다. 이하 상기 도 1 내지 도 2를 참조하여 설명한다.
제어기(101)는 초기에 로봇이 집안이나 건물을 돌아다니며 수행한 구조분석을 이용하여 가상 지도를 형성하여 메모리(109)에 저장하고, 이때 형성된 가상 지도상의 영역을 최소의 셀단위로 나눈다. 그리고 제어기(101)는 방향 검출기(102) 및 회전 반사거리 검출기(100)등을 제어하여 각 셀을 중심으로 방향별 레이저 반사거리 정보를 메모리(109)에 저장한다.(310단계) 그리고 제어기(101)는 자기위치 인식을 위해 초기 로봇의 위치 셀 및 초기 X, Y 좌표를 설정한다. 그리고 제어기(101)는 로봇 이동 거리 및 방향에 따른 거리 성분 누적값을 초기화한다.((X 좌표 거리성분 누적값)=0,(Y 좌표 거리성분 누적값)=0)(320단계) 그리고 제어기(101)는 로봇이 일정 구간 이동하였을 때마다이동 거리 검출 엔코더(110)로부터의 이동거리정보 방향 검출기(102)로부터의 방향정보를 이용하여 로봇의 이동 거리 및 방향 성분을 계산한다.(계산)(330단계) 그리고 제어기(101)는 이전의 현 위치에서 새로운 이동 위치까지의 누적 거리 성분을 계산한다.()(340단계) 또한 제어기(101)는 누적된 이동 거리 성분이 셀의 길이폭 L을 넘는지를 검사한다.()(350단계) 이는 일정한 임계치를 두어 로봇의 이동이 이전의 셀 내를 벗어나는지의 여부를 검사하기 위한 것이다. 상기 누적된 이동 거리 성분이 셀의 길이폭 L을 넘지 않으면, 제어기(101)는 상기 330단계부터의 제어동작을 다시 수행한다. 그런데 상기 누적된 이동 거리 성분이 셀의 길이폭 L을 넘으면, 제어기(101)는 이전의 현 셀을 중심으로 하여, 로봇 이동 거리 및 방향에 따른 거리 성분 누적값()의 범위내에서 예측 가능한 현 위치에 해당하는 후보 셀들을 선택한다.(360단계)
본 발명의 실시예에 따른 후보 셀들을 선정하는 방식은 방향별 레이저 반사거리값이 제일 유사한 값을 갖는 상위순으로의 방향별 거리를 선택하며, 선택된 거리값에 한에서 거리차이를 구하여 제일 가까운 거리차이를 갖는 셀을 선정하는 방식이 될 수가 있다. 상기 상위순으로의 방향별 거리값의 선택개수는 예를 들면, 32방향에 대한 방향별 거리값을 갖고 있을 때 임의의 16방향에 대하여 제일 유사성을 갖는 방향별 거리값만을 택할 수가 있다. 이는 주변상황 등이 사람이나 주변 사물의 위치변화에 따른 변화에 적응하기 위한 것이다.
그리고 제어기(101)는 거리 검출기(107)로부터 물체와 로버트 간의 거리값을 입력하고 방향 검출기(102)로부터 절대적인 방향 정보를 입력하여, 현재 위치에서의 방향별 레이저 반사 거리값을 검출한다.(370단계) 그리고 제어기(101)는 상기 후보 셀들 중에서 현 위치의 방향별 레이저 반사거리 정보와 제일 유사한 거리정보를 가지는 셀을 새로운 현재 위치 셀로 선정한다.(380단계) 제어기(1010는 방향 검출기(102)로부터의 절대적인 방향정보를 이용하여 현재의 X, Y 좌표를 선정하고 로봇 이동 거리 및 방향에 따른 거리 성분 누적값()을 초기화 한 후, 상기 330단계부터의 제어동작을 다시 수행한다.(390단계)
도 4는 로봇 시스템에서 본 발명의 실시예에 따라 로봇이 돌아다니며 초기 건물등의 구조분석을 통해 생성한 가상 지도의 일예를 도시한다.
도시된 바와 같이, 상기 도 4는 소정의 셀 길이폭으로 나누어진 셀영역에서의 방향별 물체간의 거리를 보여주고 있으며, 여기서는 8방향에 대한 셀의 방향별 거리 정보를 나타낸다.
한편, 본 발명의 상세한 설명에서와 같이, 셀들의 방향별 반사 거리 정보를 획득하기 위하여 레이저를 사용하였으나 초음파 등과 같이 반사성질을 가지는 신호인 경우에는 상관이 없다. 레이저를 이용하는 경우는 초음파가 지향성이 있다고 하여도 음파의 특성상 퍼져나가는 성질 때문에 방향 각도에 따른 정확한 거리를 구할 수가 없는 문제점이 있다. 그리고 본 발명의 실시예에서 레이저 출력시에 일종의펄스 폭 변조된 구형파 신호를 짧은 시간동안 레이저 신호로서 구동시키기 때문에 빛의 전체적인 에너지를 감소하여 사람눈에 직접 들어와도 지장이 없다.
한편, 본 발명의 상세한 설명에서는 구체적으로 적용된 실시예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 않되며 후술하는 특허청구의 범위뿐 만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
상기한 바와 같이, 본 발명은 로봇 시스템에서 자기 위치 정보 인식은 절대적인 방향별 반사정보를 이용하여 자신의 위치를 정확하고 효율적으로 인식할 수가 있으며, 셀 개념의 위치정보에 대한 영역 표시를 이용해 무인 청소 로봇의 경우 청소한 영역을 셀단위로 표시하면서 청소를 할 수가 있어 매우 편리하다.

Claims (6)

  1. 로봇 시스템에서의 자기위치 인식장치에 있어서,
    360도를 소정 등분한 각 방향으로 소정 신호를 출력하며 상기 신호가 반사되어 입력되는 신호를 이용하여 상기 출력된 신호가 소정 물체에 닫는 지점을 검출하고 상기 검출 결과를 이용하여 상기 물체와의 거리를 상기 각 방향별로 검출하는 반사거리 검출수단;
    절대적인 방향 정보를 제공하는 방향 검출수단;
    셀 단위로 나뉘어진 가상 지도 정보와 생성되는 각 셀당 방향별 반사 거리정보를 저장하는 저장수단; 및
    상기 반사거리 검출수단과 상기 방향 검출수단의 전반적인 동작을 제어하여 상기 각 셀당 방향별 반사 거리정보를 생성하여 상기 저장수단에 저장하며, 상기 생성된 각 셀당 방향별 반사 거리정보들과 검출된 로봇의 현재 위치에서의 방향별 반사 거리정보를 비교하여 현재의 위치를 인식하는 제어수단을 포함하는 로봇 시스템에서의 자기위치 인식장치.
  2. 제 1 항에 있어서,
    상기 로봇이 움직인 거리 정보를 제공하는 이동거리 검출수단이 더 부가되어, 상기 제어수단이 상기 절대적인 방향정보와 상기 로봇이 움직인 거리 정보를이용하여 상기 로봇이 움직인 이동의 방향과 거리를 계산하고 그에 따른 범위내에서 예측 가능한 후보 셀들의 방향별 반사 거리정보와 상기 검출된 로봇의 현재 위치에서의 방향별 반사 거리정보를 비교하는 것을 특징으로 하는 로봇 시스템에서의 자기위치 인식장치.
  3. 로봇 시스템에서의 자기위치 인식장치에 적용되는 자기위치 인식방법에 있어서,
    복수개의 셀들로 이루어지는 가상 지도를 형성하는 제1 단계;
    상기 각 셀을 중심으로, 360도를 소정 등분한 각 방향으로 신호를 출력하며 상기 신호가 반사되어 입력되는 신호를 이용하여 상기 출력된 신호가 소정 물체에 닫는 지점을 검출하는 제2 단계;
    상기 제2 단계에서 검출된 지점을 이용하여 상기 물체와의 거리를 상기 각 방향별로 검출하여 셀 별로 저장하는 제3 단계;
    상기 로봇의 현재 위치에서의 방향별 반사 거리정보를 검출하는 제4 단계; 및
    상기 제3 단계에서 저장된 각 셀 별의 방향별 반사 거리정보들과 상기 제4 단계에서 검출된 로봇의 현재 위치에서의 방향별 반사 거리정보를 비교하여 현재의 로봇의 위치를 인식하는 제5 단계를 포함하는 로봇 시스템에서 자기위치 인식방법.
  4. 제 3 항에 있어서, 상기 제5 단계는,
    상기 로봇이 움직인 이동 거리와 절대적인 방향 정보를 이용하여 상기 로봇이 움직인 이동 방향과 거리를 계산하는 제6 단계;
    상기 제3 단계에서 셀 별로 저장된 각 방향별 반사거리 정보들 중에서 상기 제6 단계의 계산에 따른 범위내에서의 후보 셀들을 선택하는 제7 단계; 및
    상기 제7 단계에서 선택된 후보 셀들에 대응하는 방향별 반사거리 정보들과 상기 제4 단계에서 검출된 로봇의 현재 위치에서의 방향별 반사 거리정보를 비교하여 현재의 로봇의 위치를 인식하는 제8 단계를 포함하는 로봇 시스템에서의 자기위치 인식방법.
  5. 프로세서를 구비한 로봇 시스템의 자기위치 인식장치에,
    복수개의 셀들로 이루어지는 가상 지도를 형성하는 제1 기능;
    상기 각 셀을 중심으로, 360도를 소정 등분한 각 방향으로 신호를 출력하며 상기 신호가 반사되어 입력되는 신호를 이용하여 상기 출력된 신호가 소정 물체에 닫는 지점을 검출하는 제2 기능;
    상기 제2 기능에서 검출된 지점을 이용하여 상기 물체와의 거리를 상기 각 방향별로 검출하여 셀 별로 저장하는 제3 기능;
    상기 로봇의 현재 위치에서의 방향별 반사 거리정보를 검출하는 제4 기능;및
    상기 제3 기능에서 저장된 각 셀 별의 방향별 반사 거리정보들과 상기 제4 기능에서 검출된 로봇의 현재 위치에서의 방향별 반사 거리정보를 비교하여 현재의 로봇의 위치를 인식하는 제5 기능
    을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  6. 제 5 항에 있어서, 상기 제5 기능은,
    상기 로봇이 움직인 이동 거리와 절대적인 방향 정보를 이용하여 상기 로봇이 움직인 이동 방향과 거리를 계산하는 제6 기능;
    상기 제3 기능에서 셀 별로 저장된 각 방향별 반사거리 정보들 중에서 상기 제6 기능의 계산에 따른 범위내에서의 후보 셀들을 선택하는 제7 기능; 및
    상기 제7 기능에서 선택된 후보 셀들에 대응하는 방향별 반사거리 정보들과 상기 제4 기능에서 검출된 로봇의 현재 위치에서의 방향별 반사 거리정보를 비교하여 현재의 로봇의 위치를 인식하는 제8 기능
    을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020000043779A 2000-07-28 2000-07-28 로봇 시스템에서의 자기위치 인식 장치 및 방법 KR20020010257A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020000043779A KR20020010257A (ko) 2000-07-28 2000-07-28 로봇 시스템에서의 자기위치 인식 장치 및 방법
US09/916,340 US6834118B2 (en) 2000-07-28 2001-07-30 Apparatus and method for recognizing self-position in robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020000043779A KR20020010257A (ko) 2000-07-28 2000-07-28 로봇 시스템에서의 자기위치 인식 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20020010257A true KR20020010257A (ko) 2002-02-04

Family

ID=19680599

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020000043779A KR20020010257A (ko) 2000-07-28 2000-07-28 로봇 시스템에서의 자기위치 인식 장치 및 방법

Country Status (2)

Country Link
US (1) US6834118B2 (ko)
KR (1) KR20020010257A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170034069A (ko) * 2015-09-18 2017-03-28 삼성전자주식회사 이동 로봇의 위치 인식 장치 및 그 방법

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8092549B2 (en) 2004-09-24 2012-01-10 The Invention Science Fund I, Llc Ciliated stent-like-system
US8019413B2 (en) 2007-03-19 2011-09-13 The Invention Science Fund I, Llc Lumen-traveling biological interface device and method of use
US8353896B2 (en) 2004-04-19 2013-01-15 The Invention Science Fund I, Llc Controllable release nasal system
US9011329B2 (en) 2004-04-19 2015-04-21 Searete Llc Lumenally-active device
US8361013B2 (en) 2004-04-19 2013-01-29 The Invention Science Fund I, Llc Telescoping perfusion management system
US8512219B2 (en) 2004-04-19 2013-08-20 The Invention Science Fund I, Llc Bioelectromagnetic interface system
US8337482B2 (en) 2004-04-19 2012-12-25 The Invention Science Fund I, Llc System for perfusion management
US20120035437A1 (en) 2006-04-12 2012-02-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Navigation of a lumen traveling device toward a target
US8160680B2 (en) 2006-04-12 2012-04-17 The Invention Science Fund I, Llc Autofluorescent imaging and target ablation
US8163003B2 (en) 2006-06-16 2012-04-24 The Invention Science Fund I, Llc Active blood vessel sleeve methods and systems
KR100939869B1 (ko) * 2007-07-27 2010-01-29 박창현 실제로봇과 가상로봇이 연동하는 게임 시스템 및 방법
RU2010124265A (ru) * 2010-06-16 2011-12-27 Алексей Владиславович Жданов (RU) Способ и устройство определения направления начала движения
KR101750340B1 (ko) * 2010-11-03 2017-06-26 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
CN102393744B (zh) * 2011-11-22 2014-09-10 湖南大学 一种无人驾驶汽车的导航方法
CN102514572B (zh) * 2012-01-17 2014-05-28 湖南大学 一种道路偏离预警方法
US8679987B2 (en) 2012-05-10 2014-03-25 Applied Materials, Inc. Deposition of an amorphous carbon layer with high film density and high etch selectivity
US9510505B2 (en) * 2014-10-10 2016-12-06 Irobot Corporation Autonomous robot localization
CN106292662A (zh) * 2016-08-09 2017-01-04 衣佳鑫 机器人轨迹绘制方法及***
KR102275300B1 (ko) 2019-07-05 2021-07-08 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR102224637B1 (ko) 2019-07-05 2021-03-08 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR102297496B1 (ko) * 2019-07-11 2021-09-02 엘지전자 주식회사 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법
KR102361130B1 (ko) 2019-07-11 2022-02-09 엘지전자 주식회사 이동 로봇 및 그 제어방법
CN112556687B (zh) * 2020-12-08 2023-04-07 广州赛特智能科技有限公司 一种机器人启动定位方法、***、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0527832A (ja) * 1991-07-19 1993-02-05 Sanyo Electric Co Ltd 移動ロボツトの現在位置認識方法
US5378969A (en) * 1992-04-15 1995-01-03 Honda Giken Kogyo Kabushiki Kaisha Navigation control system for mobile robot
US5402051A (en) * 1992-03-24 1995-03-28 Sanyo Electric Co., Ltd. Floor cleaning robot and method of controlling same
JPH07121235A (ja) * 1993-10-26 1995-05-12 Nippon Telegr & Teleph Corp <Ntt> 移動ロボットの自己位置認識方法
KR970010033A (ko) * 1995-08-31 1997-03-27 김광호 로보트의 위치인식장치 및 그 제어방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01180010A (ja) * 1988-01-08 1989-07-18 Sanyo Electric Co Ltd 移動車
US5204814A (en) * 1990-11-13 1993-04-20 Mobot, Inc. Autonomous lawn mower
DE4408982C1 (de) * 1994-03-16 1995-05-18 Deutsche Forsch Luft Raumfahrt Autonomes Navigationssystem für einen mobilen Roboter oder Manipulator
EP0766846B1 (de) * 1994-06-22 1998-03-04 Siemens Aktiengesellschaft Verfahren zur orientierung, fahrwegplanung und steuerung einer autonomen mobilen einheit

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0527832A (ja) * 1991-07-19 1993-02-05 Sanyo Electric Co Ltd 移動ロボツトの現在位置認識方法
US5402051A (en) * 1992-03-24 1995-03-28 Sanyo Electric Co., Ltd. Floor cleaning robot and method of controlling same
US5378969A (en) * 1992-04-15 1995-01-03 Honda Giken Kogyo Kabushiki Kaisha Navigation control system for mobile robot
JPH07121235A (ja) * 1993-10-26 1995-05-12 Nippon Telegr & Teleph Corp <Ntt> 移動ロボットの自己位置認識方法
KR970010033A (ko) * 1995-08-31 1997-03-27 김광호 로보트의 위치인식장치 및 그 제어방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170034069A (ko) * 2015-09-18 2017-03-28 삼성전자주식회사 이동 로봇의 위치 인식 장치 및 그 방법

Also Published As

Publication number Publication date
US20020015521A1 (en) 2002-02-07
US6834118B2 (en) 2004-12-21

Similar Documents

Publication Publication Date Title
KR20020010257A (ko) 로봇 시스템에서의 자기위치 인식 장치 및 방법
US20060177101A1 (en) Self-locating device and program for executing self-locating method
JP4287647B2 (ja) 環境状況把握装置
Veeck et al. Learning polyline maps from range scan data acquired with mobile robots
Droeschel et al. Using time-of-flight cameras with active gaze control for 3D collision avoidance
Zhang et al. An indoor navigation aid for the visually impaired
KR102530847B1 (ko) 항만 및 선박 모니터링 방법 및 장치
Jensfelt et al. Laser based position acquisition and tracking in an indoor environment
KR100581086B1 (ko) RFID Tag LED를 이용한 로봇 위치 측정 방법 및장치
CN111780744B (zh) 移动机器人混合导航方法、设备及存储装置
JP2004230539A (ja) ロボットによる物体の位置と姿勢検出方法及び検出装置
Jenkin et al. Global navigation for ARK
CN113158779A (zh) 一种行走方法、装置和计算机存储介质
CN114026461A (zh) 构建点云帧的方法、目标检测方法、测距装置、可移动平台和存储介质
CN212044739U (zh) 一种基于惯性数据和视觉特征的定位装置及机器人
JP2000304508A (ja) 3次元入力装置
CN105929819B (zh) 一种控制电子设备的方法及电子设备
Ben-Ari et al. Sensors
KR20060033497A (ko) 카메라 픽셀 정보를 이용하여 공간상의 코너 포인트를추출하는 시스템 및 방법, 상기 시스템을 포함하는 이동로봇
Ohya et al. Intelligent escort robot moving together with human-methods for human position recognition
Holz et al. Chapter Fast 3D Perception for Collision Avoidance and SLAM in Domestic Environments
Edlinger et al. Terrain prediction with a low-cost LIDAR sensor for mobile robots
Achour et al. Building an environment map using a sweeping system based on a single ultrasonic sensor
WO2021241482A1 (ja) 経路検出装置
WO2023193681A1 (en) System and method for detecting dynamic events

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application