KR101239532B1 - 로봇의 위치 인식 장치 및 방법 - Google Patents

로봇의 위치 인식 장치 및 방법 Download PDF

Info

Publication number
KR101239532B1
KR101239532B1 KR1020110021933A KR20110021933A KR101239532B1 KR 101239532 B1 KR101239532 B1 KR 101239532B1 KR 1020110021933 A KR1020110021933 A KR 1020110021933A KR 20110021933 A KR20110021933 A KR 20110021933A KR 101239532 B1 KR101239532 B1 KR 101239532B1
Authority
KR
South Korea
Prior art keywords
robot
motion
information
space
movement
Prior art date
Application number
KR1020110021933A
Other languages
English (en)
Other versions
KR20120103943A (ko
Inventor
박귀태
김주형
이정엄
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020110021933A priority Critical patent/KR101239532B1/ko
Priority to PCT/KR2012/001717 priority patent/WO2012124933A2/ko
Publication of KR20120103943A publication Critical patent/KR20120103943A/ko
Application granted granted Critical
Publication of KR101239532B1 publication Critical patent/KR101239532B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0033Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by having the operator tracking the vehicle either by direct line of sight or via one or more cameras located remotely from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Mechanical Engineering (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Robotics (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

지능화 공간에 하나 이상의 로봇이 신규로 들어 오더라도 로봇별 위치 인식을 정확히 할 수 있도록 하는 장치 및 방법을 제시한다. 제시된 로봇의 위치 인식 장치는 공간을 촬영하는 촬영부, 촬영부의 영상 정보로부터 공간내에서 움직이는 로봇의 움직임 정보를 획득하는 움직임 추적부, 및 움직임 추적부로부터의 영상 좌표에서의 움직임 정보를 공간 좌표에서의 움직임 정보로 변환하여 로봇의 실제의 움직임 패턴을 구하고 로봇의 실제의 움직임 패턴과 로봇과 공간이 서로 공유한 움직임 패턴을 비교하여 특정 로봇의 움직임으로 파악하는 움직임 분석부를 포함한다. 카메라의 영상 정보를 통한 움직임 패턴과 로봇의 움직임을 분석하고 일치 여부를 판단한 후, 로봇의 위치를 측정하고 이를 로봇의 고유 이름과 대응시켜 개별적인 로봇의 위치 측정이 가능하다. 이를 이용한 응용 분야로 로봇이 공간을 이동하더라도 근거리 통신망을 이용하여 공간과 통신 연결을 할 수 있는 수단을 마련할 수 있다. 다수의 로봇이 새로운 공간으로 이동하더라도 다수의 로봇에 대한 개별적인 위치 측정을 단시간에 행할 수 있다.

Description

로봇의 위치 인식 장치 및 방법{Apparatus and method for recognizing position of robot}
본 발명은 로봇의 위치 인식 장치 및 방법에 관한 것으로, 보다 상세하게는 지능화 공간에서 움직이는 로봇의 위치를 인식할 수 있도록 한 장치 및 방법에 관한 것이다.
기존의 독립형 로봇(standard robot)은 새로운 환경에서 자신의 위치를 파악하기 위해 센서 정보를 이용하여 환경 지도를 작성하면서 지도상에서의 위치를 파악하는 SLAM(Simultaneous Localization And Mapping)기법을 이용한다.
그러나, SLAM은 자신의 위치 측정과 맵 작성을 동시에 달성해야 하는 문제가 있다. 또한, SLAM은 두 개의 목적을 달성하기 위해 공간을 계속 이동하면서 맵 작성과 위치 측정의 정확도를 높여야 하기 때문에 소요시간이 많이 걸리는 단점이 있다.
지능화 공간은 다수의 센서를 이용하여 공간에서 발생하는 상황을 알 수 있고, 네트워크를 통해 다양한 정보와 물리적 자원을 로봇에 제공할 수 있다. 기존에 지능화 공간에 의한 로봇의 위치 측정은 로봇 자체의 패턴이나 로봇에 부착된 패턴이 있는 마커를 공간에 설치된 카메라로 인식하여 위치를 측정하였다. 그 밖에 바닥에 일정한 간격으로 RFID 태그를 설치하여 로봇이 이 RFID 태그를 인식하여 위치를 측정하는 방법도 있다.
그러나, 새로운 로봇의 위치 측정을 위해 기존에 지능화 공간에서 로봇의 위치를 측정한 방법에는 한계가 있다. 첫째, 지능화 공간이 개체의 상황을 관찰하는 경우 개체에 대한 정보가 없다면 공간에 들어온 개체가 로봇인지 아닌지를 판단하기 불가능하다. 둘째, 기존의 방법에서는 공간과 로봇의 통신이 미리 연결되어 있지만 새로운 로봇이 공간에 들어온 경우 공간과 통신할 수 있는 연결 메커니즘이 필요하다. 셋째, 다수의 로봇이 동일한 외부 형태를 가지고 있다면 이들의 위치를 개별적으로 알 수 있는 방법이 필요하다.
본 발명은 상기한 종래의 문제점을 해결하기 위해 제안된 것으로, 지능화 공간에 하나 이상의 로봇이 신규로 들어 오더라도 로봇별 위치 인식을 정확히 할 수 있도록 하는 장치 및 방법을 제공함에 그 목적이 있다.
상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 로봇의 위치 인식 장치는, 공간을 촬영하는 촬영부; 촬영부의 영상 정보로부터 공간내에서 움직이는 로봇의 움직임 정보를 획득하는 움직임 추적부; 및 움직임 추적부로부터의 영상 좌표에서의 움직임 정보를 공간 좌표에서의 움직임 정보로 변환하여 로봇의 실제의 움직임 패턴을 구하고, 로봇의 실제의 움직임 패턴과 로봇과 공간이 서로 공유한 움직임 패턴을 비교하여 특정 로봇의 움직임으로 파악하는 움직임 분석부;를 포함한다.
움직임 추적부는 촬영부로부터의 영상 정보에 대해 모션 히스토리 이미지(Motion History Image) 처리를 하여 개체의 움직임이 발생한 영역을 추정하고, 개체의 움직임이 발생한 영역으로부터 로봇의 외부 형태 정보와 유사도를 파악하여 로봇에 대한 움직임 정보를 획득한다.
움직임 추적부는 모션 히스토리 이미지 처리에 의해 시간대별로 개체의 움직임이 발생한 위치와 움직임 정도의 크기 및 이동 방향을 얻어 로봇의 움직임이 발생한 영역을 추정한다.
로봇의 외부 형태 정보는 로봇의 외부 모양의 특징을 나타내는 정보이다.
움직임 분석부는 로봇의 실제의 움직임 패턴과 로봇과 공간이 서로 공유한 움직임 패턴을 비교하여 그에 상응하는 로봇의 고유 이름과 측정한 움직임 정보를 대응시킨다.
움직임 분석부로부터의 움직임 정보에 근거하여 해당하는 로봇의 위치와 방향을 계속 확인하는 위치 측정부를 추가로 포함하여도 된다.
로봇은 이웃하는 로봇과의 충돌을 방지하기 위해 센서가 장착된다.
본 발명의 바람직한 실시양태에 따른 로봇의 위치 인식 방법은, 촬영된 공간의 영상 정보로부터 공간내에서 움직이는 로봇의 움직임 정보를 획득하는 단계; 얻어진 영상 좌표에서의 움직임 정보를 공간 좌표에서의 움직임 정보로 변환하여 로봇의 실제의 움직임 패턴을 구하는 단계; 및 로봇의 실제의 움직임 패턴과 미리 설정되어 있는 움직임 패턴을 비교하여 특정 로봇의 움직임 정보를 파악해 내는 단계;를 포함한다.
공간은 지능화 공간이고, 공간과 로봇은 서로 정보를 공유하기 위한 통신 프로토콜이 설정된다.
로봇의 움직임 정보 획득 단계는, 영상 정보에 대해 모션 히스토리 이미지(Motion History Image) 처리를 하여 개체의 움직임이 발생한 영역을 추정하는 단계; 및 개체의 움직임이 발생한 영역으로부터 로봇의 외부 형태 정보와 유사도를 파악하여 로봇에 대한 움직임 정보를 획득하는 단계;를 포함한다.
추정 단계는 모션 히스토리 이미지 처리에 의해 시간대별로 개체의 움직임이 발생한 위치와 움직임 정도의 크기 및 이동 방향을 얻어 로봇의 움직임이 발생한 영역을 추정한다.
로봇의 외부 형태 정보는 로봇의 외부 모양의 특징을 나타내는 정보이다.
특정 로봇의 움직임 정보 파악 단계는 로봇의 실제의 움직임 패턴과 로봇과 공간이 서로 공유한 움직임 패턴을 비교하여 그에 상응하는 로봇의 고유 이름과 측정한 움직임 정보를 대응시킨다.
특정 로봇의 움직임 정보 파악 단계에 의해 얻은 움직임 정보에 근거하여 해당하는 로봇의 위치와 방향을 계속 확인하는 단계를 추가로 포함하여도 된다.
바람직하게, 이웃하는 로봇과의 충돌을 방지하기 위해 센서 정보에 의해 충돌이 발생할 여지가 있다고 판단되면 로봇의 움직임을 일시 정지시키는 단계를 추가로 포함한다.
본 발명의 바람직한 다른 실시양태에 따른 로봇의 위치 인식 방법은, 근거리 통신망을 이용하여 정의된 프로토콜을 통한 통신 절차에 의해 지능화 공간과 로봇이 서로 정보를 공유하도록 통신 프로토콜을 제공하는 단계; 로봇의 위치 측정을 위한 움직임 패턴 정보를 지능화 공간과 공유하고, 지능화 공간의 카메라를 이용하여 움직이는 로봇의 움직임 정보를 분석하는 단계; 및 분석된 로봇의 움직임 정보와 카메라의 영상에서의 움직임 정보와의 일치 여부를 판단하여 로봇의 고유 이름과 분석된 로봇의 움직임 정보를 대응시키는 단계;를 포함한다.
이러한 구성의 본 발명에 따르면, 지능화 공간에 새로운 로봇이 들어온 경우 지능화 공간과 로봇의 통신이 설정되어 있지 않은 상태에서 근거리 통신망을 이용하여 정의된 프로토콜에 의해 공간과 로봇의 통신을 설정하여 서로의 정보를 공유할 수 있다.
카메라의 영상 정보를 통한 움직임 패턴과 로봇의 움직임을 분석하고 일치 여부를 판단한 후, 로봇의 위치를 측정하고 이를 로봇의 고유 이름과 대응시켜 개별적인 로봇의 위치 측정이 가능하다.
이를 이용한 응용 분야로 로봇이 공간을 이동하더라도 근거리 통신망을 이용하여 공간과 통신 연결을 할 수 있는 수단을 마련할 수 있다.
다수의 로봇이 새로운 공간으로 이동하더라도 다수의 로봇에 대한 개별적인 위치 측정을 단시간에 행할 수 있다.
도 1은 본 발명의 실시예에 따른 로봇의 위치 인식 장치가 채용된 시스템을 도시한 도면이다.
도 2는 도 1에 도시된 근거리 무선 통신망을 이용하여 지능화 공간과 로봇이 통신 연결을 설정하는 과정을 설명하는 도면이다.
도 3은 본 발명의 실시예에 따른 로봇의 위치 인식 방법을 설명하는 도면이다.
본 발명의 명세서에 기재된 지능화 공간은 여러 가지의 센서를 이용하여 공간내의 개체와 현상을 파악하고, 네트워크화된 컴퓨터와 로봇이 이들 정보를 지적으로 이용함으로써 공간이 인간에게 적절한 서비스를 제공하도록 하는 기능을 갖는 것을 의미한다. 본 발명에서의 지능화 공간은 도 1에서 지시선으로 지시한 공간(30; 로봇이 이동하는 공간)을 의미하기도 하지만, 크게는 근거리 무선 통신망(12)과 카메라(14)와 움직임 추적부(16)와 움직임 분석부(18) 및 위치 측정부(20)가 설치된 영역을 통칭하는 것으로 이해하여도 된다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예에 따른 로봇의 위치 인식 장치 및 방법에 대하여 설명하면 다음과 같다. 본 발명의 상세한 설명에 앞서, 이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니된다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
본 발명의 설명에 앞서, 다음과 같은 조건을 고려할 필요가 있다.
첫째, 공간과 로봇이 통신하기 위한 통신 프로토콜은 공간과 로봇이 통신 가능한 상태로 설정하고, 로봇의 위치를 파악하기 위한 움직임 정보를 로봇이 공간에 전달해야 하므로 전송 메시지를 간결한 형태의 포맷으로 정의하고 공간과 로봇의 통신 절차를 최소화해야 한다.
둘째, 로봇의 외부 형태 정보는 외부의 특징을 나타낼 수 있는 기준 정보로써 미리 정의되어 있는 하나의 특징 정보를 사용하는 것으로 한다.
셋째, 로봇의 움직임 정보는 로봇이 일정 거리를 직선으로 이동하는 단순한 직선 움직임을 하나 이상 조합하여 만든 것으로 도형이나 특징이 있는 형태로 미리 정의를 할 필요가 있다.
넷째, 다수의 로봇이 움직임 정보에 의해 이동하는 와중에 충돌이 발생할 수 있으므로 움직임 정보를 이용한 로봇의 위치 측정은 한 대의 로봇만을 고려한다.
본 발명은 이러한 고려사항을 기반으로 제안되었다.
도 1은 본 발명의 실시예에 따른 로봇의 위치 인식 장치가 채용된 시스템을 도시한 도면이다.
로봇(10)은 주변의 장애물 여부를 감지할 수 있는 센서와 통신할 수 있는 네트워크 기능 및 간단한 프로세서 기능을 갖춘다. 낯선 환경으로 로봇(10)이 들어간 경우 로봇(10)은 자신의 로봇 위치 정보를 요청하는 정보를 지능화 공간(30)에게로 송신하고 지능화 공간(30)으로부터 응답 요청을 기다린다.
로봇(10)이 지능화 공간(30)에 들어온 경우, 지능화 공간(30)과 통신을 하기 위해 정의된 통신 프로토콜에 의해 근거리 무선 통신망(12)를 이용하여 지능화 공간(30)과 통신을 시작한다.
근거리 무선 통신망(12)은 블루투스(Bluetooth) 또는 지그비(Zigbee)와 같은 통신 모듈을 사용하고 통신 채널을 개방하여 지능화 공간(30)으로 들어오는 모든 로봇과 통신이 가능하도록 한다.
카메라(14)는 다수의 카메라로 구성되며 공간의 천장에 달려있고 공간 전체를 관찰할 수 있다. 또한, 카메라(14)는 네트워크(22)를 통해 카메라 영상 정보를 움직임 추적부(16)와 움직임 분석부(18) 및 위치 측정부(20)에게로 전달할 수 있다.
움직임 추적부(16)는 카메라(14)가 수집한 영상 정보를 네트워크(22)를 통해 전달받아 영상 정보로부터 움직이는 로봇(10)을 추정하여 해당 로봇(10)의 움직임 정보를 파악한다.
움직임 추적부(16)에 대해 보다 자세히 설명하면 다음과 같다. 움직임 추적부(16)는 카메라(14)로부터 영상 정보를 수신하여 로봇(10)의 움직임에 대한 정보를 파악한다. 움직임 추적부(16)는 카메라(14)의 영상 정보로부터 움직임이 발생하는 개체(예컨대, 로봇, 로봇 이외의 물체)의 위치를 추정하기 위해 이미지의 차이를 이용한 모션 히스토리 이미지(Motion History Image; 이하 MHI라고 함)를 이용한다. MHI는 일정한 시간 간격 사이에서 벌어진 개체의 움직임 정보를 누적하여 개체(예컨대, 로봇, 로봇 이외의 물체)의 움직임이 발생한 위치와 움직임 정도의 크기 및 개체의 이동 방향을 알 수 있다. 그러나, MHI를 통해 얻은 움직임이 발생한 영역은 하나 이상의 후보군을 가질 수 있다. 따라서, 개체의 움직임이 발생한 영역들로부터 로봇(10)의 외부 형태 정보와 유사도를 파악하여 유사도가 높은 후보군을 추정하는 것으로 로봇(10)의 위치를 파악할 수 있다. 일반적으로, 외부 형태 정보는 컬러 히스토그램(color histogram)이나 에지 및 코너 정보, HOG(histogram of oriented gradient)를 이용한다. 움직임 추적부(16)는 여러 후보군에 대한 위치로부터 하나의 신뢰성을 가지는 위치 정보를 얻기 위해 파티클 필터(particle filter)를 이용한다. 파티클 필터는 움직임이 발생한 후보영역들로부터 로봇(10)의 외부 형태 정보와 비교한 후, 유사도가 높은 후보군을 계속 추정하여 하나의 위치 정보를 얻을 수 있는 추정 알고리즘이다.
움직임 분석부(18)는 움직임 추적부(16)에 의해 파악된 로봇(10)의 움직임 정보를 네트워크(22)를 통해 수신한다. 움직임 분석부(16)는 수신된 영상 좌표에서의 움직임 정보를 공간 좌표에서의 움직임 정보로 변환한다. 움직임 분석부(16)는 로봇(10)과 통신을 통해 결정한 움직임 패턴과 실제 지능화 공간(30)에서 카메라(14)를 통해 관측한 움직임 정보가 일치하는지의 여부를 판단한다.
위치 측정부(20)는 움직임 분석부(18)에 의해 측정된 결과를 근거리 무선 통신망(12)을 통해 위치와 방향 정보를 로봇(10)에 전달하여 로봇(10)이 목적지까지 이동할 수 있도록 한다. 또한, 위치 측정부(20)는 움직임 추적부(16)를 이용하여 로봇(10)의 위치와 방향을 계속 확인하고 근거리 무선 통신망(12)을 통해 로봇(10)에게로 정보를 계속 전달한다.
도 2는 도 1에 도시된 근거리 무선 통신망을 이용하여 지능화 공간과 로봇이 통신 연결을 설정하는 과정을 설명하는 도면이다.
로봇(10)이 지능화 공간(30)에 들어오면 로봇(10)은 자신의 현재 위치 파악을 위해 지능화 공간(30)에 도움을 요청하고자 브로드캐스트(broadcast)를 시도한다(S1). 이때, 로봇(10)은 로봇 자신의 이름과 통신할 채널 번호를 전송한다.
그에 따라, 지능화 공간(30)은 로봇(10)이 브로드캐스트한 요청을 수신하면 수신 확인 응답(ACK)을 로봇(10)에게 전송한다(S2). 이때, 지능화 공간(30)은 지능화 공간의 이름과 응답 정보를 전송한다.
로봇(10)이 지능화 공간(30)으로부터 응답 확인에 대한 정보(S2)를 받으면 로봇(10)은 자신의 위치 측정에 대한 요청(Request Localization)을 지능화 공간(30)에게로 송신한다(S3). 이때, 로봇(10)은 통신할 채널 번호, 자신의 외부 형태 정보, 및 움직임 정보를 송신한다.
이에, 지능화 공간(30)은 응답 확인 정보(ACK)를 로봇(10)에게로 보내고 카메라(14)를 이용하여 공간에서 움직이는 개체를 추정하기 시작한다(S4).
응답 확인 정보(ACK)를 받은 로봇(10)은 위치 측정 요청 단계(S3)에서의 위치 측정 요청을 지능화 공간(30)에 전송할 때 보낸 움직임 정보를 바탕으로 이동을 하기 시작한다. 로봇(10)과 지능화 공간(30)은 근거리 무선 통신망(12)을 이용하므로 지능화 공간(30)은 수신한 정보에 대한 응답을 보내기 위해 통신 채널 번호와 송신한 정보의 고유 이름을 알 필요가 있다. 따라서, 로봇(10)이 지능화 공간(30)과 통신을 할 경우 로봇 자신의 이름과 통신할 채널 번호를 항상 전송해야 한다. 로봇(10)과 지능화 공간(30)간의 통신은 필요에 따라 발생할 수 있으며, 요청(Request)(S5)과 응답(Response)(S6)을 통해 요청 및 응답에 대한 종류와 그에 따르는 정보를 데이터로 이용한다. S5의 요청단계에서 로봇(10)은 로봇 자신의 이름과 통신할 채널 번호, 요청 종류, 및 요청 정보를 지능화 공간(30)에게로 송신한다. S6의 응답단계에서 지능화 공간(30)은 지능화 공간 이름, 응답 종류, 및 응답 정보를 로봇(10)에게로 송신한다.
도 3은 본 발명의 실시예에 따른 로봇의 위치 인식 방법을 설명하는 도면으로서, 움직임 추적부(16)에서 얻은 로봇(10)의 움직임의 위치를 이용하여 움직임 분석부(18)에서 공간 좌표에 대한 로봇(10)의 위치와 방향을 측정하는 과정을 도시화한 것이다.
S10 과정은 움직임 추적부(16)로부터 로봇(10)의 움직임에 따른 위치 정보를 획득한다.
S12 과정에서는 획득한 위치 정보로부터 로봇(10)이 방향을 전환한 위치를 기준으로 하나 이상의 위치 정보에 대한 집합으로 나눌 수 있다. 나누어진 움직임 정보는 직선으로 추정(estimation)할 수 있다. 움직임 패턴은 직선들의 조합으로 이루어져 있으므로, 로봇(10)의 움직임 패턴은 로봇이 방향을 바꾼 위치를 기준으로 하나 이상의 직선으로 분할할 수 있다. 움직임 정보는 직선으로 추정(estimation)하기 위해 "Least squares estimation" 또는 "Huff transform"을 사용하여 직선 움직임에 대한 패턴 "L1", "L2", "L3"을 벡터 형태로 추출한다.
S12 과정에서 로봇(10)이 방향을 전환한 위치를 알 수 있는 방법에 있어서, 로봇(10)이 방향을 전환한 사실을 지능화 공간(30)에 전달하면 움직임 추적부(16)가 획득하는 움직임 정보에 시간 정보를 포함하고 로봇(10)이 방향을 전환한 시간의 위치 정보에 기록을 한다. 따라서, 기록된 정보에 의해 움직임 정보를 하나 이상의 위치 정보에 대한 집합으로 분할하고, 직선으로 추정(estimation)할 수 있다.
S14 과정은 다수의 카메라(14)에서 얻은 2차원 영상 좌표를 이용하여 3차원 좌표로 변환한다. 즉, 영상 좌표계에서의 벡터 "L1", "L2", "L3"를 공간 좌표계의 벡터 "H1", "H2", "H3"로 각각 변환한다. 예를 들어, 영상 좌표계에서 공간 좌표계로의 변환은 변환 행렬인 "direct linear transformation"를 이용한다.
S16 과정은 공간 좌표계에서의 움직임 벡터 "H1", "H2", "H3"를 이용하여 로봇(10)의 위치와 방향을 구한다.
S18 과정에서는 S16 과정에서 구한 움직임을 나타내는 벡터 "H1", "H2", "H3"와 로봇(10)의 방향 φ를 이용하여 통신과정에서 지능화 공간(30)과 로봇(10)이 서로 공유한 움직임 정보의 벡터를 "inner product" 비교하여 유사한 정도를 정의한 기준 값으로 판단한다. 예를 들어, 유사도가 기준 값보다 큰 경우 로봇(10)의 고유 이름과 위치를 일치시키고 특정 로봇의 위치와 방향을 파악할 수 있다.
본 발명의 실시예에서는 다수의 로봇에 대한 위치와 방향 측정은 로봇을 한 대씩 순차적으로 진행하는 것을 규칙으로 한다. 그러나, 자신의 위치 파악이 끝난 후에 이동을 시작하는 로봇과 위치 및 방향 측정을 위해 이동하는 로봇과의 충돌이 발생할 수 있으므로 이들간의 충돌 방지를 고려해야 한다. 따라서, 로봇의 위치 및 방향 측정을 위해 움직임 정보를 이용하여 이동하는 로봇(10)은 센서 정보를 이용하여 충돌이 발생할 여부가 있다고 판단되면 이동을 잠시 멈추었다가 계속 진행하는 것으로 이동 규칙을 정한다. 이는 로봇의 위치 측정에서 어느 로봇이 어디에 있는지의 판단 기준은 로봇이 움직인 위치 정보이므로 정해진 움직임 정보대로 로봇이 이동하는 것이 가장 좋기 때문이다.
다수의 로봇의 실제 움직임 패턴이 지능화 공간(30)의 평면상에서 서로 겹쳐지는 경우에는 각각의 로봇에 대한 움직임 패턴을 분할하여도 된다.
한편, 본 발명은 상술한 실시예로만 한정되는 것이 아니라 본 발명의 요지를 벗어나지 않는 범위내에서 수정 및 변형하여 실시할 수 있고, 그러한 수정 및 변형이 가해진 기술사상 역시 이하의 특허청구범위에 속하는 것으로 보아야 한다.
10 : 로봇 12 : 근거리 무선 통신망
14 : 카메라 16 : 움직임 추적부
18 : 움직임 분석부 20 : 위치 측정부
30 : 지능화 공간

Claims (16)

  1. 공간을 촬영하는 촬영부;
    상기 촬영부의 영상 정보로부터 상기 공간내에서 움직이는 로봇의 움직임 정보를 획득하는 움직임 추적부; 및
    상기 움직임 추적부로부터의 영상 좌표에서의 움직임 정보를 공간 좌표에서의 움직임 정보로 변환하여 상기 로봇의 실제의 움직임 패턴을 구하고, 상기 로봇의 실제의 움직임 패턴과 상기 로봇과 상기 공간이 서로 공유한 움직임 패턴을 비교하여 특정 로봇의 움직임으로 파악하는 움직임 분석부;를 포함하며,
    상기 움직임 추적부는 상기 촬영부로부터의 영상 정보에 대해 모션 히스토리 이미지(Motion History Image) 처리를 하여 개체의 움직임이 발생한 영역을 추정하고, 상기 개체의 움직임이 발생한 영역으로부터 상기 로봇의 외부 형태 정보와 유사도를 파악하여 상기 로봇에 대한 움직임 정보를 획득하는 것을 특징으로 하는 로봇의 위치 인식 장치.
  2. 삭제
  3. 청구항 1에 있어서,
    상기 움직임 추적부는 상기 모션 히스토리 이미지 처리에 의해 시간대별로 상기 개체의 움직임이 발생한 위치와 움직임 정도의 크기 및 이동 방향을 얻어 상기 로봇의 움직임이 발생한 영역을 추정하는 것을 특징으로 하는 로봇의 위치 인식 장치.
  4. 청구항 1에 있어서,
    상기 로봇의 외부 형태 정보는 상기 로봇의 외부 모양의 특징을 나타내는 정보인 것을 특징으로 하는 로봇의 위치 인식 장치.
  5. 청구항 1에 있어서,
    상기 움직임 분석부는 상기 로봇의 실제의 움직임 패턴과 상기 로봇과 상기 공간이 서로 공유한 움직임 패턴을 비교하여 그에 상응하는 로봇의 고유 이름과 상기 측정한 움직임 정보를 대응시키는 것을 특징으로 하는 로봇의 위치 인식 장치.
  6. 청구항 1에 있어서,
    상기 움직임 분석부로부터의 움직임 정보에 근거하여 해당하는 로봇의 위치와 방향을 계속 확인하는 위치 측정부를 추가로 포함하는 것을 특징으로 하는 로봇의 위치 인식 장치.
  7. 청구항 1에 있어서,
    상기 로봇은 이웃하는 로봇과의 충돌을 방지하기 위해 센서가 장착된 것을 특징으로 하는 로봇의 위치 인식 장치.
  8. 촬영된 공간의 영상 정보로부터 상기 공간내에서 움직이는 로봇의 움직임 정보를 획득하는 단계;
    상기 얻어진 영상 좌표에서의 움직임 정보를 공간 좌표에서의 움직임 정보로 변환하여 상기 로봇의 실제의 움직임 패턴을 구하는 단계; 및
    상기 로봇의 실제의 움직임 패턴과 미리 설정되어 있는 움직임 패턴을 비교하여 특정 로봇의 움직임 정보를 파악해 내는 단계;를 포함하며,
    상기 로봇의 움직임 정보 획득 단계는,
    상기 영상 정보에 대해 모션 히스토리 이미지(Motion History Image) 처리를 하여 개체의 움직임이 발생한 영역을 추정하는 단계; 및
    상기 개체의 움직임이 발생한 영역으로부터 상기 로봇의 외부 형태 정보와 유사도를 파악하여 상기 로봇에 대한 움직임 정보를 획득하는 단계;를 포함하는 것을 특징으로 하는 로봇의 위치 인식 방법.
  9. 청구항 8에 있어서,
    상기 공간은 지능화 공간이고,
    상기 공간과 상기 로봇은 서로 정보를 공유하기 위한 통신 프로토콜이 설정되는 것을 특징으로 하는 로봇의 위치 인식 방법.
  10. 삭제
  11. 청구항 8에 있어서,
    상기 추정 단계는 상기 모션 히스토리 이미지 처리에 의해 시간대별로 상기 개체의 움직임이 발생한 위치와 움직임 정도의 크기 및 이동 방향을 얻어 상기 로봇의 움직임이 발생한 영역을 추정하는 것을 특징으로 하는 로봇의 위치 인식 방법.
  12. 청구항 8에 있어서,
    상기 로봇의 외부 형태 정보는 상기 로봇의 외부 모양의 특징을 나타내는 정보인 것을 특징으로 하는 로봇의 위치 인식 방법.
  13. 청구항 8에 있어서,
    상기 특정 로봇의 움직임 정보 파악 단계는 상기 로봇의 실제의 움직임 패턴과 상기 로봇과 상기 공간이 서로 공유한 움직임 패턴을 비교하여 그에 상응하는 로봇의 고유 이름과 상기 측정한 움직임 정보를 대응시키는 것을 특징으로 하는 로봇의 위치 인식 방법.
  14. 청구항 8에 있어서,
    상기 특정 로봇의 움직임 정보 파악 단계에 의해 얻은 움직임 정보에 근거하여 해당하는 로봇의 위치와 방향을 계속 확인하는 단계를 추가로 포함하는 것을 특징으로 하는 로봇의 위치 인식 방법.
  15. 청구항 8에 있어서,
    이웃하는 로봇과의 충돌을 방지하기 위해 센서 정보에 의해 충돌이 발생할 여지가 있다고 판단되면 상기 로봇의 움직임을 일시 정지시키는 단계를 추가로 포함하는 것을 특징으로 하는 로봇의 위치 인식 방법.
  16. 근거리 통신망을 이용하여 정의된 프로토콜을 통한 통신 절차에 의해 지능화 공간과 로봇이 서로 정보를 공유하도록 통신 프로토콜을 제공하는 단계;
    상기 로봇의 위치 측정을 위한 움직임 패턴 정보를 상기 지능화 공간과 공유하고, 상기 지능화 공간의 카메라를 이용하여 움직이는 로봇의 움직임 정보를 분석하는 단계; 및
    상기 분석된 로봇의 움직임 정보와 상기 카메라의 영상에서의 움직임 정보와의 일치 여부를 판단하여 로봇의 고유 이름과 상기 분석된 로봇의 움직임 정보를 대응시키는 단계;를 포함하며,
    상기 로봇의 움직임 정보를 분석하기 위한 로봇의 움직임 정보 획득 방법은, 상기 카메라가 촬영한 영상 정보에 대해 모션 히스토리 이미지(Motion History Image) 처리를 하여 개체의 움직임이 발생한 영역을 추정하고, 상기 개체의 움직임이 발생한 영역으로부터 상기 로봇의 외부 형태 정보와 유사도를 파악하여 상기 로봇에 대한 움직임 정보를 획득하는 것을 특징으로 하는 로봇의 위치 인식 방법.
KR1020110021933A 2011-03-11 2011-03-11 로봇의 위치 인식 장치 및 방법 KR101239532B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110021933A KR101239532B1 (ko) 2011-03-11 2011-03-11 로봇의 위치 인식 장치 및 방법
PCT/KR2012/001717 WO2012124933A2 (ko) 2011-03-11 2012-03-09 로봇의 위치 인식 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110021933A KR101239532B1 (ko) 2011-03-11 2011-03-11 로봇의 위치 인식 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20120103943A KR20120103943A (ko) 2012-09-20
KR101239532B1 true KR101239532B1 (ko) 2013-03-06

Family

ID=46831174

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110021933A KR101239532B1 (ko) 2011-03-11 2011-03-11 로봇의 위치 인식 장치 및 방법

Country Status (2)

Country Link
KR (1) KR101239532B1 (ko)
WO (1) WO2012124933A2 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104898575A (zh) * 2015-06-01 2015-09-09 中国人民解放军装甲兵工程学院 多机器人协同控制***
KR20200046161A (ko) 2018-10-16 2020-05-07 씨제이올리브네트웍스 주식회사 운송 로봇의 실내 위치 인식 시스템

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105759813A (zh) * 2014-12-18 2016-07-13 苏州宝时得电动工具有限公司 智能割草机自定位方法及***
CN109746909A (zh) * 2017-11-08 2019-05-14 深圳先进技术研究院 一种机器人运动控制方法及设备
CN111347417B (zh) * 2018-12-24 2022-05-10 深圳市优必选科技有限公司 一种uwb定位设备的位置标定方法、装置及机器人
CN109508707B (zh) * 2019-01-08 2021-02-12 中国科学院自动化研究所 基于单目视觉的机器人稳定抓取物体的抓取点获取方法
CN111185904A (zh) * 2020-01-09 2020-05-22 上海交通大学 一种协同机器人平台及其控制***
KR102315362B1 (ko) * 2020-08-21 2021-10-20 네이버랩스 주식회사 로봇 평가 방법 및 시스템
CN112256038A (zh) * 2020-11-03 2021-01-22 盈合(深圳)机器人与自动化科技有限公司 智能空间服务方法及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10161743A (ja) * 1996-11-28 1998-06-19 Matsushita Electric Ind Co Ltd 移動物体走行制御装置
JPH11248421A (ja) * 1998-03-04 1999-09-17 Nippon Telegr & Teleph Corp <Ntt> 移動物体追跡方法及び装置
KR100533954B1 (ko) * 2003-12-22 2005-12-07 충남대학교산학협력단 비전 기반 이동로봇의 위치 제어 시스템
JP2010049443A (ja) * 2008-08-21 2010-03-04 Acutelogic Corp 移動体遠隔制御システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10161743A (ja) * 1996-11-28 1998-06-19 Matsushita Electric Ind Co Ltd 移動物体走行制御装置
JPH11248421A (ja) * 1998-03-04 1999-09-17 Nippon Telegr & Teleph Corp <Ntt> 移動物体追跡方法及び装置
KR100533954B1 (ko) * 2003-12-22 2005-12-07 충남대학교산학협력단 비전 기반 이동로봇의 위치 제어 시스템
JP2010049443A (ja) * 2008-08-21 2010-03-04 Acutelogic Corp 移動体遠隔制御システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104898575A (zh) * 2015-06-01 2015-09-09 中国人民解放军装甲兵工程学院 多机器人协同控制***
KR20200046161A (ko) 2018-10-16 2020-05-07 씨제이올리브네트웍스 주식회사 운송 로봇의 실내 위치 인식 시스템

Also Published As

Publication number Publication date
KR20120103943A (ko) 2012-09-20
WO2012124933A2 (ko) 2012-09-20
WO2012124933A3 (ko) 2012-12-27

Similar Documents

Publication Publication Date Title
KR101239532B1 (ko) 로봇의 위치 인식 장치 및 방법
US8115814B2 (en) Mobile tracking system, camera and photographing method
KR101077967B1 (ko) 이동식 감시 및 추적 장치 및 방법
US20170337701A1 (en) Method and system for 3d capture based on structure from motion with simplified pose detection
US10212553B1 (en) Direction determination of a wireless tag
US20160117824A1 (en) Posture estimation method and robot
US20140327791A1 (en) Imaging systems, moving bodies, and imaging control methods for remote monitoring of a moving target
KR101553000B1 (ko) 비콘을 이용한 영상 보안 시스템 및 방법, 그리고 이를 위한 객체 관리 장치
CN106470478B (zh) 一种定位数据处理方法、装置和***
CN113226952A (zh) 物品位置管理装置、物品位置管理***、物品位置管理方法和程序
WO2023027421A1 (ko) 작업 공간에서의 관심 영역을 모니터링하는 방법 및 센싱 장치
CN111123340A (zh) 物流配送导航方法及***、近场定位导航装置、存储介质
GB2586099A (en) An apparatus and method for person detection, tracking and identification utilizing wireless signals and images
KR101518314B1 (ko) 무인 항공 감시 장치를 이용한 영상 감시 방법 및 장치
JPH11257931A (ja) 物体認識装置
JP2020087180A (ja) 移動体追跡方法及びこれに用いる画像処理装置
CN111340884B (zh) 一种双目异构相机与rfid的双重目标定位与身份辨识方法
KR20120091970A (ko) 객체 이미지 정합 시스템, 정합 장치 및 정합 방법과 상기 방법을 기록한 기록 매체
US11282230B2 (en) Information processing apparatus, information processing method, and program
Naggar et al. A low cost indoor positioning system using computer vision
JP5262148B2 (ja) ランドマーク検出装置および方法ならびにプログラム
WO2022114390A1 (ko) 로봇 및 그 제어 방법
JP7174389B1 (ja) 物***置推定表示装置、方法及びプログラム
KR20150050224A (ko) 비정상 배회 탐지 장치 및 방법
EP4397989A1 (en) Position estimation system and position estimation method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170109

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180108

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190211

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20200128

Year of fee payment: 8