KR20210000153A - 위치 인식을 위한 영상의 획득 방법 및 이를 구현하는 로봇 - Google Patents

위치 인식을 위한 영상의 획득 방법 및 이를 구현하는 로봇 Download PDF

Info

Publication number
KR20210000153A
KR20210000153A KR1020190075093A KR20190075093A KR20210000153A KR 20210000153 A KR20210000153 A KR 20210000153A KR 1020190075093 A KR1020190075093 A KR 1020190075093A KR 20190075093 A KR20190075093 A KR 20190075093A KR 20210000153 A KR20210000153 A KR 20210000153A
Authority
KR
South Korea
Prior art keywords
lens
robot
related information
main body
camera unit
Prior art date
Application number
KR1020190075093A
Other languages
English (en)
Inventor
남문식
김정식
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020190075093A priority Critical patent/KR20210000153A/ko
Priority to US16/521,051 priority patent/US11353885B2/en
Publication of KR20210000153A publication Critical patent/KR20210000153A/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • H04N5/23206
    • H04N5/23299
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Vascular Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Studio Devices (AREA)

Abstract

위치 인식을 위한 영상의 획득 방법 및 이를 구현하는 로봇이 개시된다. 본 발명의 방법 및 로봇은 중복 영역이 존재하는 영상들을 효율적으로 획득하기 위하여 로봇의 이동 관련 정보값을 측정하고, 측정된 이동 관련 정보값에 기초하여 로봇의 양 측면에 배치된 카메라의 렌즈를 로봇의 이동 방향과 반대 방향으로 슬라이딩 이동시킨다.

Description

위치 인식을 위한 영상의 획득 방법 및 이를 구현하는 로봇{METHOD OF ACQUIRING IMAGE FOR POSITION RECOGNITION AND ROBOT IMPLEMENTING THEREOF}
본 발명은 위치 인식을 위한 영상의 획득 방법 및 이를 구현하는 로봇에 관한 기술이다.
이동 로봇은 다양한 방식으로 주행을 할 수 있다. 전체 공간에 대해 맵을 저장할 수 있으며 맵 상에서 이동 경로를 생성할 수 있다. 또는 로봇이 별도의 맵 없이 주변의 장애물을 센싱하여 센싱된 장애물을 회피하도록 경로를 생성할 수 있다.
특히, 카메라를 구비한 이동 로봇은 카메라를 통해 획득한 영상을 이용하여 자신의 위치를 인식한다. 이 때, 정확한 위치 인식을 위해 이동 로봇은 중복 영역이 존재하는 영상들을 획득하여야 한다.
도 1 내지 도 3은 중복 영역이 존재하는 영상들을 이용하여 이동 로봇의 위치를 인식하는 개념을 설명하기 위한 도면이다.
여기서, 도 1에서는 특정 장면에 대한 하나의 영상을 도시하고 있고, 도 2에서는 상기 특정 장면에 대하여 중복 영역이 존재하지 않는 2개의 영상을 도시하고 있고, 도 3에서는 상기 특정 장면에 대하여 중복 영역이 존재하는 2개의 영상을 도시하고 있다.
도 2를 참조하면, 사람은 2개의 영상(210, 220)에 존재하는 울타리, 바위 등을 참조하여 2개의 영상(210, 220)이 같은 지점에서 획득된 영상인 것으로 유추할 수 있다.
그러나, 이동 로봇은 2개의 영상(210, 220) 간의 연관성을 유추할 수 없다. 즉, 이동 로봇은 사물 간의 상대적인 정보를 기반으로 자신의 위치 정보를 인식하는데, 2개의 영상(210, 220)에서는 사물 간의 상대적인 정보가 존재하지 않으며, 이동 로봇은 자신의 위치를 인식할 수 없다.
도 3을 참조하면, 2개의 영상(310, 320)에서는 사물 간의 상대적인 정보가 존재한다. 이동 로봇은 2개의 영상(310, 320) 각각에 대해 랜드마크를 설정하고, 설정된 랜드마크의 상관 관계를 파악하며, 2개의 영상(310, 320)이 같은 지점에서 획득된 영상인 것으로 판단한다. 이를 통해, 이동 로봇은 자신의 위치를 인식할 수 있다.
한편, 이동 로봇이 빠른 속도로 이동하는 경우, 도 2에 도시된 바와 같이 중복 영역이 존재하지 않는 영상만을 획득하는 상황이 존재할 수 있으며, 이 경우, 이동 로봇이 자신의 위치를 정확하게 측정하지 못하는 문제점이 있다. .
본 발명의 목적은 로봇의 위치 인식을 위해 중복 영역이 존재하는 영상들을 효율적으로 획득하는 방법 및 이를 구현하는 로봇을 제공하는 것이다.
또한, 본 발명의 다른 목적은 빠른 속도로 주행하고 있는 로봇에서도 정확한 위치 인식이 가능한 영상의 획득 방법과, 이를 구현하는 로봇을 제공하는 것이다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
상술한 바와 같은 과제를 해결하기 위해, 본 발명의 제1 실시예에 의한 로봇은 정면 방향 및 후면 방향 중 일 방향으로 이동하는 본체, 상기 본체의 양 측면 중 적어도 일부의 측면에 배치되며, 슬라이딩 이동이 가능한 렌즈를 포함하는 적어도 하나의 카메라부 및 이동하는 상기 본체의 이동 관련 정보값을 측정하는 IMU(Inertial Measurement Unit) 센서를 포함하되, 상기 측정된 본체의 이동 관련 정보값에 기초하여 상기 렌즈의 슬라이딩 이동이 제어된다.
본 발명의 제2 실시예에 의한 로봇은 정면 방향 및 후면 방향 중 일 방향으로 이동하는 본체, 상기 본체의 상면에서 적층되어 배치되며, 회전 가능한 렌즈를 포함하는 적어도 하나의 회전 카메라부 및 이동하는 상기 본체의 이동 관련 정보값을 측정하는 IMU 센서를 포함하되, 상기 측정된 본체의 이동 관련 정보값에 기초하여 상기 적어도 하나의 회전 카메라부 각각의 상기 렌즈의 회전 방향이 제어된다.
본 발명의 일 실시예에 의한 로봇의 위치 인식을 위한 영상 획득 방법은 IMU 센서가 정면 방향 및 후면 방향 중 일 방향으로 이동하는 로봇의 이동 관련 정보값을 측정하는 단계 및 프로세서부가 상기 측정된 이동 관련 정보값에 기초하여 상기 로봇의 양 측면 중 적어도 일부의 측면에 배치되는 적어도 하나의 카메라부 각각의 렌즈를 슬라이딩 이동시키는 단계를 포함한다.
본 발명에 따르면, 로봇의 위치 인식을 위해 중복 영역이 존재하는 영상들을 효율적으로 획득할 수 있다.
또한, 본 발명에 따르면, 빠른 속도로 주행하고 있는 로봇에서도 정확한 위치 인식이 가능한 장점이 있다.
본 발명의 효과는 전술한 효과에 한정되지 않으며, 본 발명의 당업자들은 본 발명의 구성에서 본 발명의 다양한 효과를 쉽게 도출할 수 있다.
도 1 내지 도 3은 중복 영역이 존재하는 영상들을 이용하여 이동 로봇의 위치를 인식하는 개념을 설명하기 위한 도면이다.
도 4는 본 발명의 제1 실시예에 따른 로봇의 형상을 도시한 도면이다.
도 5는 본 발명의 제1 실시예에 따른 로봇의 주요 구성들 간의 제어 관계를 도시한 도면이다.
도 6은 본 발명의 제1 실시예에 따른 제1 카메라부의 형상을 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 로봇의 위치 인식을 위한 영상 획득 방법의 흐름도를 도시한 도면이다.
도 8은 본 발명의 제1 실시예에 따른 제1 카메라부의 렌즈 이동을 설명하기 위한 도면이다.
도 9는 본 발명의 제2 실시예에 따른 로봇의 형상을 도시한 도면이다.
이하, 도면을 참조하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다. 또한, 본 발명의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다.
본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 다른 구성 요소가 "개재"되거나, 각 구성 요소가 다른 구성 요소를 통해 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.
또한, 본 발명을 구현함에 있어서 설명의 편의를 위하여 구성요소를 세분화하여 설명할 수 있으나, 이들 구성요소가 하나의 장치 또는 모듈 내에 구현될 수도 있고, 혹은 하나의 구성요소가 다수의 장치 또는 모듈들에 나뉘어져서 구현될 수도 있다.
이하, 본 명세서에서 로봇은 특정한 기능을 수행하며, 특정 지역을 주행하는 장치를 통칭한다. 로봇이 수행하는 기능이란 청소, 방법, 안내, 맵 작성, 배송 등의 기능 및 보안 기능 등과 같이 이동하는 장치가 제공할 수 있는 다양한 기능들을 포함한다.
도 4는 본 발명의 제1 실시예에 따른 로봇의 형상을 도시한 도면이다.
도 4를 참조하면, 본 발명의 제1 실시예에 따른 로봇(400)은 배송 로봇일 수 있으며, 도 4의 제1 형상(1)에서는 로봇(400)의 사시도를 도시하고 있고, 제2 형상(2)에서는 로봇(400)의 좌측면도를 도시하고 있고, 제3 형상(3)에서는 로봇(400)의 우측면도를 도시한 도면이다.
도 4를 참조하면, 로봇(400)는 본체(410), 주행부(420), 제1 카메라부(430), 제2 카메라부(440)를 포함한다.
본체(410)는 로봇(400)의 외관을 형성하며, 내측으로 로봇(400)의 다른 구성 요소들이 수납된다. 일반적으로, 본체(410)는 육면체 형상을 가지며, 육면체의 하부에 주행부(420)가 설치된다. 그러나, 본체(410)의 형상이 이에 한정되는 것은 아니다.
주행부(420)는 본체(410)를 이동시키며, 로봇(400)는 정면 방향 및 후면 방향 중 일 방향으로 이동 가능하다.
이 때, '정면 방향의 이동'이라 함은 정면 방향의 직진 이동뿐만 아니라 정면을 기준으로 한 좌측으로의 이동 및 우측으로의 이동을 모두 포함하는 개념이다.
마찬가지로, '후면 방향의 이동'이라 함은 후면 방향의 직진 이동뿐만 아니라 후면을 기준으로 한 좌측으로의 이동 및 우측으로의 이동을 모두 포함하는 개념이다.
로봇(400)은 특별한 경우를 제외하고는 정면 방향을 기준으로 이동하므로, 본 명세서에서는 정면 방향을 중심으로 실시예들을 설명하기로 한다. 그러나, 아래에서 설명하는 내용은 로봇(400)의 후면 방향의 이동에도 동일하게 적용될 수 있다.
제1 카메라부(430)는 로봇(400)의 본체(410)의 우측면 상에 배치되며, 정면 방향으로 이동하는 로봇(400)의 우측면 방향의 영상을 획득한다. 또한, 제2 카메라부(440)는 로봇(400)의 본체(410)의 좌측면 상에 배치되며, 정면 방향으로 이동하는 로봇(400)의 좌측면 방향의 영상을 획득한다. 로봇(400)는 제1 카메라부(430)를 통해 획득된 우측면 영상 및 제2 카메라부(440)를 통해 획득된 좌측면 영상에 기초하여 자신의 위치를 인식한다.
한편, 제1 카메라부(430) 및 제2 카메라부(440)는 동일한 형상 및 구조를 가질 수 있다. 이 때, 아래에서 설명하는 바와 같이, 제1 카메라부(430) 및 제2 카메라부(440) 각각에 포함된 렌즈(431, 441)는 슬라이딩 이동 가능하다. 제1 카메라부(430) 및 제2 카메라부(440)는 형상 및 구조는 아래에서 보다 상세하게 설명하기로 한다.
또한, 도 4에서는 본체(410)의 우측면 및 좌측면 모두에 카메라부들(430, 440)이 배치되어 있는 것으로 도시하였으나, 이는 본 발명의 일례에 불과한 것으로서, 본체(410)의 우측면에만 제1 카메라부(430)가 배치될 수도 있고, 본체(410)의 좌측면에만 제2 카메라부(440)가 배치될 수도 있다. 즉, 적어도 하나의 카메라부는 본체의 양 측면 중 적어도 일부의 측면에 배치될 수 있다.
한편, 도 4에 도시되지는 않았지만, 본체(410)의 정면에 로봇(400)의 주행을 위한 제3 카메라가 배치될 수 있다.
도 5는 본 발명의 제1 실시예에 따른 로봇(400)의 주요 구성들 간의 제어 관계를 도시한 도면이다.
도 5를 참조하면, 로봇(400)은 상기에서 설명한 주행부(420), 제1 카메라부(430), 제2 카메라부(440) 외에, 통신부(450) 센싱부(460), 메모리부(470), 프로세서부(480)를 포함한다.
통신부(450)는 외부의 관리 서버 등과 통신을 수행한다. 일례로, 통신부(450)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth??), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있다.
센싱부(460)는 다양한 센서들을 이용하여 로봇(400)의 내부 정보, 로봇(400)의 주변 환경 정보 등을 획득 한다. 일례로, 센싱부(460)에 포함되는 센서에는 IMU(Inertial Measurement Unit) 센서, 근접 센서, 조도 센서, RGB 센서, IR 센서, 초음파 센서, 광 센서, 라이다 센서, 레이더 등이 있다. 특히, IMU 센서는 이동하는 로봇(400)의 이동 관련 정보를 측정하며, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서 등이 포함된다.
메모리부(470)는 휘발성 및/또는 비휘발성 메모리일 수 있고, 로봇(400)의 적어도 하나의 다른 구성요소들의 제어와 관련된 명령어 또는 데이터를 저장하고, 로봇(400)에서 구동되는 다수의 응용 프로그램 또는 애플리케이션을 저장한다. 특히, 메모리부(470)는 제1 카메라부(430) 및 제2 카메라부(440)에서 획득된 영상이 저장될 수 있고, 기타 제1 카메라부(430) 및 제2 카메라부(440)와 관련된 데이터들이 저장된다.
프로세서부(480)는 중앙처리장치, 애플리케이션 프로세서, 또는 커뮤니케이션 프로세서 중 하나 또는 그 이상을 포함할 수 있다. 프로세서부(480)는 로봇(400)에 관한 전반적인 동작을 제어하고, 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리부(470)에 저장된 응용 프로그램을 구동한다. 일례로, 프로세서부(480)는 주행부(420)를 제어하며, 제1 카메라부(430) 및 제2 카메라부(440)의 영상 획득 동작 및 렌즈(431, 441)의 슬라이딩 이동 동작을 제어한다.
이하, 도 6을 참조하여 본 발명의 제1 실시예에 따른 제1 카메라부(430) 및 제2 카메라부(440)를 보다 상세하게 설명한다. 이 때, 제1 카메라부(430) 및 제2 카메라부(440)는 동일한 형상을 가지므로, 설명의 편의를 위해, 제1 카메라부(430)를 기준으로 하여 카메라부들(430, 440)를 설명한다.
도 6은 본 발명의 제1 실시예에 따른 제1 카메라부(430)의 형상을 도시한 도면이다.
도 6을 참조하면, 제1 카메라부(430)는 렌즈(431) 및 케이스(432)를 포함하며, 이외에도 도 6에는 도시하지 않았지만 모터, 연결부 및 트래킹부를 더 포함한다. 모터, 연결부 및 트래킹부는 케이스(432)와 인접하여 배치된다.
렌즈(431)는 영상을 획득하기 위한 제1 카메라부(430)의 핵심적 구성 요소로서, 슬라이딩 이동이 가능하다.
케이스(432)의 내부 즉, 케이스(432)의 중앙부에는 슬라이딩 안내부(432A)가 형성되어 있으며, 렌즈(431)는 슬라이딩 안내부(432A) 내에서 슬라이딩 이동한다. 이 때, 케이스(432)는 짐벌(gimbal)과 대응된다.
일례로서, 렌즈(431)는 슬라이딩 안내부(432A)에서 미리 설정된 초기 위치에 배치되며, 아래에서 설명하는 특정 상황이 발생한 경우, 렌즈(431)는 좌측 방향 및 우측 방향 중 어느 한 방향으로 이동한다.
이 때, 초기 위치는 슬라이딩 안내부(432A)의 정중앙일 수도 있고, 슬라이딩 안내부(432A)의 양쪽 끝단 중 일 끝단일 수 있다. 일례로, 로봇(400)이 정면 방향으로 이동하는 경우, 초기 위치는 슬라이딩 안내부(432A)의 양쪽 끝단 중 정면 방향에 존재하는 끝단일 수 있다.
모터는 렌즈(431)를 이동시키기 위한 동력을 제공한다. 그리고, 연결부는 모터에서 생성된 동력을 렌즈(431)로 전달한다.
즉, 렌즈(431)의 슬라이딩 이동은 모터를 이용하여 수행될 수 있다. 한편, 모터는 프로세서부(480)에서 생성된 모터 동작 명령을 통해 동작이 제어되며, 모터 동작 명령은 IMU 센서에서 측정된 로봇(400)의 이동 관련 정보값에 기초하여 생성될 수 있다.
본 발명에 따르면, 로봇(400)이 정면 방향으로 이동하는 경우, 센싱부(460) 내의 IMU 센서에서 측정된 이동하는 로봇(400)의 이동 관련 정보값에 기초하여 렌즈(431)의 슬라이딩 이동이 제어될 수 있다. 즉, 렌즈(431)의 슬라이딩 이동은 로봇(400)의 가속도, 각속도 등의 이동 관련 정보에 기초하여 제어될 수 있다.
본 발명의 일 실시예에 따르면, 로봇(400)이 일 방향으로 이동하는 경우에 있어서, 로봇(400)의 이동 관련 정보값이 미리 설정된 임계값을 초과하는 경우, 렌즈(431)는 일 방향의 반대 방향으로 슬라이딩 이동하도록 제어될 수 있다.
특히, 로봇(400)이 정면 방향으로 직선 이동을 수행하는 경우, 이동 관련 정보값은 가속도값을 포함할 수 있으며, 로봇(400)의 가속도값이 미리 설정된 임계값 이상인 경우, 렌즈(431)는 정면 방향의 반대 방향, 즉 후면 방향으로 슬라이딩 이동하도록 제어될 수 있다.
보다 상세하게, 슬라이딩 이동하지 않는 렌즈가 구비된 카메라부를 포함하는 종래의 로봇에 있어서, 저속으로 종래의 로봇이 이동하는 경우, 도 3에서 설명한 바와 유사하게 종래의 로봇의 카메라부는 중복 영역이 포함된 영상들을 획득할 수 있다.
그러나, 고속으로 종래의 로봇이 이동하는 경우 카메라부의 기구적 한계 등에 의해 도 2에서 설명한 바와 유사하게 중복 영역이 포함된 영상들을 획득할 수 없다. 중복 영역이 포함된 영상이 획득되지 않으므로, 종래의 로봇은 자신의 현재 위치를 정확하게 인식할 수 없다.
하지만, 본 발명의 로봇(400)의 경우, 정면 방향으로 이동하는 로봇(400)의 가속도가 미리 설정된 임계값 이상인 경우, 프로세서부(480)는 초기 위치에 배치된 렌즈(431)를 정면 방향과 반대 방향인 후면 방향으로 슬라이딩 이동시킬 수 있다.
이 때, 초기 위치에서 렌즈(431)에 의해 제1 영상이 획득되고, 슬라이딩 이동된 위치에서 렌즈(431)에 의해 제2 영상이 획득되며, 제1 영상은 도 3에 도시된 영상(310)과 대응되고, 제2 영상은 도 3에 도시된 영상(320)와 대응된다. 즉, 제1 영상과 제2 영상은 중복 영역이 존재하는 영상들이다. 그리고, 렌즈(431)에 의해 실시간으로 획득된 영상들은 메모리부(470)에 저장된다. 따라서, 로봇(400)의 프로세서부(480)는 메모리부(470)에 저장되는 제1 영상 및 제2 영상에 기초하여 로봇(400)의 위치를 인식할 수 있다.
한편, 트래킹부는 영상 획득 시의 렌즈(431)의 위치를 트래킹한다. 이 때, 프로세서부(480)는 트래킹된 렌즈(431)의 위치를 이용하여 영상 획득 시의 렌즈(431)의 외부 파라미터(extrinsic parameter)를 산출하고, 획득된 영상과 이에 대응하는 외부 파라미터는 매칭되어 메모리부(470)에 저장될 수 있다. 여기서, 외부 파라미터는 영상을 획득할 당시의 카메라 내지 렌즈(431)의 위치, 높이, 자세 등의 정보이다. 따라서, 프로세서부(480)는 상기한 매칭 관계에 기초하여 중복 영역이 존재하는 영상들을 효율적으로 검색할 수 있다.
또한, 정면 방향으로 이동하는 로봇(400)의 가속도값과 렌즈(431)의 슬라이딩 이동 거리는 비례할 수 있다. 즉, 로봇(400)의 가속도값이 클수록 렌즈(431)가 더 많이 슬라이딩 이동된다. 이는 앞서 설명한 바와 같이 중복 영역이 존재하는 영상들을 보다 효율적으로 획득하기 위함이다. 다시 말해, 로봇(400)의 가속도값이 클수록 로봇(400)은 단위 시간 동안 더 먼 거리를 이동하므로, 렌즈(431)도 역시 더 먼 거리를 슬라이딩 이동하여야 하며 중복 영역이 존재하는 영상들이 획득된다.
그리고, IMU 센서에서 측정된 가속도값이 미리 설정된 정상 상태 구간 내에 포함되는 경우, 렌즈(431)는 초기 위치로 복귀하도록 제어될 수 있다. 일례로, 정상 상태 구간이 가속도가 없는 등속 운동인 경우 렌즈(431)가 슬라이딩 이동하지 않아도 중복 영역이 포함된 영상들이 획득될 수 있으므로, 프로세서부(480)는 렌즈(431)를 초기 위치로 이동하도록 제어할 수 있다.
이하, 도 7을 참조하여 로봇(400)이 이동하는 경우의 제1 카메라부(430) 및 제2 카메라부(440)의 영상 획득 동작을 상세하게 설명하기로 한다.
도 7은 본 발명의 일 실시예에 따른 로봇의 위치 인식을 위한 영상 획득 방법의 흐름도를 도시한 도면이다. 이 때, 제1 카메라부(430) 및 제2 카메라부(440) 각각의 렌즈(431, 441)는 도 8의 상단에 도시된 바와 같이 슬라이딩 안내부 내의 초기 위치에 배치되는 것으로 가정한다. 이하, 각 단계 별로 수행되는 과정을 설명한다.
먼저, 로봇(400)이 정면 방향으로 이동을 시작하고(S702), IMU 센서는 로봇(400)의 이동 관련 정보값을 측정한다(S704). 측정된 이동 관련 정보값은 프로세서부(480)로 전달된다.
프로세서부(480)는 측정된 이동 관련 정보값이 미리 설정된 임계값 이상인지를 판단한다(S706).
만약, 이동 관련 정보값이 임계값보다 작은 경우 단계(S704)가 수행한다. 반대로, 이동 관련 정보값이 임계값 이상인 경우, 프로세서부(480)는 제1 카메라부(430) 및 제2 카메라부(440) 각각의 렌즈(431, 441)가 후면 방향으로 이동하도록 제어한다(S708). 이는 도 8의 중단에 도시된 도면과 같다.
본 발명의 일 실시예에 따르면, 프로세서부(480)는 정면 방향으로 이동하는 로봇(400)의 이동 관련 정보값과 렌즈(431, 441)의 슬라이딩 이동 거리가 비례하도록 렌즈(431, 441)의 슬라이딩 이동 거리를 제어할 수 있다.
그리고, 프로세서부(480)는 슬라이딩 이동된 렌즈(431, 441)의 외부 파라미터를 산출한다(S710). 산출된 외부 파라미터는 획득된 영상과 함께 매칭되어 메모리부(470)에 저장된다.
한편, 프로세서부(480)는 IMU 센서는 측정된 이동 관련 정보값이 정상 상태 구간 내에 존재하는지 판단한다(S712). 이 때, 정상 상태 구간은 로봇(400)의 가속도가 없는 등속 운동 구간을 포함할 수 있다.
만약, 이동 관련 정보값이 정상 상태 구간 내에 존재하지 않는 경우, 단계(S708) 및 단계(S710)가 수행된다. 반대로, 이동 관련 정보값이 정상 상태 구간 내에 존재하는 경우, 프로세서부(480)는 제1 카메라부(430) 및 제2 카메라부(440) 각각의 렌즈(431, 441)를 초기 위치로 이동시키도록 제어한다. 이는 도 8의 하단에 도시된 도면과 같다.
요컨대, 본 발명은 로봇(400)은 중복 영역이 존재하는 영상을 효과적으로 획득할 수 있으며, 이에 따라 자신의 위치를 정확하게 인식하는 장점이 있다.
도 9는 본 발명의 제2 실시예에 따른 로봇의 형상을 도시한 도면이다.
도 9를 참조하면, 본 발명의 제2 실시예에 따른 로봇(900)은 본 발명의 제1 실시예에 따른 로봇(400)과 비교하였을 때, 제1 카메라부(930)와 제2 카메라부(940)만이 상이하며, 나머지 구성은 동일하다. 이하, 설명의 편의를 위해 제1 카메라부(930)와 제2 카메라부(940)를 중심으로 로봇(900)을 설명하기로 한다.
제1 카메라부(930)와 제2 카메라부(940)는 회전형 카메라로서, 적층되어 배치된다. 즉, 제1 카메라부(930)는 본체(910)의 상면에 배치되며, 제2 카메라부(940)는 제1 카메라부(930)의 상면에 배치된다. 그리고, 제1 카메라부(930)와 제2 카메라부(940)는 형상 및 동작이 동일하다.
이 때, 제1 카메라부(930)는 로봇(900)의 우측면 방향의 영상을 획득하고, 제2 카메라부(940)는 로봇(900)의 좌측면 방향의 영상을 획득한다. 이하, 도 6을 참조하여 본 발명의 제1 실시예에 따른 제1 카메라부(430) 및 제2 카메라부(440)를 보다 상세하게 설명한다. 이 때, 제1 카메라부(430) 및 제2 카메라부(440)는 동일한 형상을 가지므로, 설명의 편의를 위해, 제1 카메라부(430)를 기준으로 하여 카메라부들(430, 440)를 설명한다.
도 10은 본 발명의 제2 실시예에 따른 제1 카메라부(930)의 형상을 도시한 도면이다. 한편, 제2 카메라부(940)에도 아래에서 설명하는 내용이 적용된다.
도 10을 참조하면, 제1 카메라부(930)는 렌즈(931) 및 케이스(932)를 포함하며, 이외에도 도 9에는 도시하지 않았지만 모터, 연결부 및 트래킹부를 더 포함한다. 모터, 연결부 및 트래킹부는 케이스(432)와 인접하여 배치된다.
렌즈(931)는 영상을 획득하며, 회전이 가능하다.
케이스(932)의 내부에는 회전 안내부(932A)가 형성되어 있으며, 렌즈(931)는 회전 안내부(932A) 내에서 회전한다.
일례로서, 렌즈(931)는 회전 안내부(932A)에서 미리 설정된 초기 위치에 배치되며, 특정 상황 시 시계 방향 및 반 시계 방향 중 어느 한 방향으로 이동한다.
이 때, 초기 위치는 로봇(900)의 우측면과 수직하는 회전 안내부(932A) 내의 위치일 수 있다.
모터는 렌즈(931)를 이동시키기 위한 동력을 제공하고, 연결부는 모터에서 생성된 동력을 렌즈(931)로 전달한다.
본 발명의 일 실시예에 따르면, 로봇(900)이 정면 방향으로 이동하는 경우, 로봇(900)의 이동 관련 정보값이 미리 설정된 임계값 이상인 경우, 제1 카메라부(930)의 렌즈(931)는 정면 방향의 반대 방향으로 회전하도록 제어될 수 있다. 이는 앞서 설명한 본 발명의 제1 실시예에 따른 제1 카메라부(430)와 유사하므로, 상세한 설명은 생략하기로 한다.
또한, 본 발명의 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 일 실시예들의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.
400, 900: 로봇 410, 910: 본체
420, 920: 주행부 430, 930: 제1 카메라부
440, 940: 제2 카메라부

Claims (13)

  1. 정면 방향 및 후면 방향 중 일 방향으로 이동하는 본체;
    상기 본체의 양 측면 중 적어도 일부의 측면에 배치되며, 슬라이딩 이동이 가능한 렌즈를 포함하는 적어도 하나의 카메라부; 및
    이동하는 상기 본체의 이동 관련 정보값을 측정하는 IMU(Inertial Measurement Unit) 센서;를 포함하되,
    상기 측정된 본체의 이동 관련 정보값에 기초하여 상기 렌즈의 슬라이딩 이동이 제어되는, 로봇.
  2. 제1항에 있어서,
    상기 이동 관련 정보값는 가속도값을 포함하고,
    상기 일 방향으로 이동하는 상기 본체의 가속도값이 미리 설정된 임계값 이상인 경우, 상기 렌즈는 상기 일 방향의 반대 방향으로 슬라이딩 이동하는, 로봇.
  3. 제2항에 있어서,
    상기 본체의 가속도값과 상기 렌즈의 슬라이딩 이동 거리값은 비례하는, 로봇.
  4. 제1항에 있어서,
    상기 적어도 하나의 카메라부 각각은, 슬라이딩 안내부가 형성된 케이스를 더 포함하되,
    상기 렌즈는 상기 슬라이딩 안내부 내에서 슬라이딩 이동하는, 로봇.
  5. 제4항에 있어서,
    상기 렌즈는 상기 슬라이딩 안내부 내의 미리 설정된 초기 위치에 위치하며,
    상기 본체의 이동 관련 정보값이 미리 설정된 임계값을 초과하는 경우, 상기 렌즈는 상기 초기 위치에서 상기 일 방향의 반대 방향으로 슬라이딩 이동하는, 로봇.
  6. 제5항에 있어서,
    상기 렌즈가 슬라이딩 이동한 후에 상기 본체의 이동 관련 정보값이 미리 설정된 정상 상태 구간 내에 포함되는 경우, 상기 렌즈는 초기 위치로 복귀하는, 로봇.
  7. 제4항에 있어서,
    상기 적어도 하나의 카메라부 각각은, 상기 렌즈를 이동시키기 위한 모터 및 상기 모터에서 생성된 동력을 상기 렌즈로 전달하는 연결부를 더 포함하되,
    상기 모터는 상기 측정된 본체의 이동 관련 정보값에 기초하여 동작이 제어되는, 로봇.
  8. 제4항에 있어서,
    상기 적어도 하나의 카메라부 각각은, 상기 슬라이딩 안내부 내의 상기 렌즈의 위치를 트래킹하는 트래킹 센서를 더 포함하되,
    상기 렌즈에서 획득된 영상 및 상기 렌즈의 위치에 기초하여 산출된 외부 파라미터는 매칭되어 저장되는, 로봇.
  9. 정면 방향 및 후면 방향 중 일 방향으로 이동하는 본체;
    상기 본체의 상면에서 적층되어 배치되며, 회전 가능한 렌즈를 포함하는 적어도 하나의 회전 카메라부; 및
    이동하는 상기 본체의 이동 관련 정보값을 측정하는 IMU(Inertial Measurement Unit) 센서;를 포함하되,
    상기 측정된 본체의 이동 관련 정보값에 기초하여 상기 적어도 하나의 회전 카메라부 각각의 상기 렌즈의 회전 방향이 제어되는, 로봇.
  10. 제9항에 있어서,
    상기 적어도 하나의 카메라부는 상기 본체의 우측면 영상을 획득하는 제1 회전 카메라부 및 상기 본체의 좌측면 영상을 획득하는 제2 회전 카메라부를 포함하고,
    상기 일 방향으로 이동하는 상기 본체의 이동 관련 정보값이 미리 설정된 임계값 이상인 경우, 상기 제1 회전 카메라부의 렌즈 및 상기 제2 회전 카메라부의 렌즈 각각은 상기 일 방향의 반대 방향으로 회전하도록 제어되는, 로봇.
  11. 제10항에 있어서,
    상기 본체의 가속도값과 상기 렌즈의 회전 각도값은 비례하는, 로봇.
  12. IMU 센서가 정면 방향 및 후면 방향 중 일 방향으로 이동하는 로봇의 이동 관련 정보값을 측정하는 단계; 및
    프로세서부가 상기 측정된 이동 관련 정보값에 기초하여 상기 로봇의 양 측면 중 적어도 일부의 측면에 배치되는 적어도 하나의 카메라부 각각의 렌즈를 슬라이딩 이동시키는 단계;를 포함하는, 로봇의 위치 인식을 위한 영상 획득 방법.
  13. 제12항에 있어서,
    상기 이동 관련 정보값는 가속도값을 포함하고,
    상기 이동시키는 단계는, 상기 일 방향으로 이동하는 상기 본체의 가속도값이 미리 설정된 임계값 이상인 경우, 상기 렌즈를 상기 일 방향의 반대 방향으로 슬라이딩 이동시키는, 로봇의 위치 인식을 위한 영상 획득 방법.
KR1020190075093A 2019-06-24 2019-06-24 위치 인식을 위한 영상의 획득 방법 및 이를 구현하는 로봇 KR20210000153A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190075093A KR20210000153A (ko) 2019-06-24 2019-06-24 위치 인식을 위한 영상의 획득 방법 및 이를 구현하는 로봇
US16/521,051 US11353885B2 (en) 2019-06-24 2019-07-24 Method of acquiring image for recognizing position and robot implementing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190075093A KR20210000153A (ko) 2019-06-24 2019-06-24 위치 인식을 위한 영상의 획득 방법 및 이를 구현하는 로봇

Publications (1)

Publication Number Publication Date
KR20210000153A true KR20210000153A (ko) 2021-01-04

Family

ID=68464707

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190075093A KR20210000153A (ko) 2019-06-24 2019-06-24 위치 인식을 위한 영상의 획득 방법 및 이를 구현하는 로봇

Country Status (2)

Country Link
US (1) US11353885B2 (ko)
KR (1) KR20210000153A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116852350A (zh) * 2023-06-09 2023-10-10 中煤陕西榆林能源化工有限公司 用于倒闸操作的控制方法、装置、存储介质及电子设备

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110461426B (zh) * 2016-11-15 2021-08-20 康考斯高尔夫私人有限公司 电驱动车轮、传动和控制模块、套件、车辆以及***
US20220335778A1 (en) * 2018-11-08 2022-10-20 Everi Payments Inc. Progressive jackpot monitoring systems and methods

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020113865A1 (en) * 1997-09-02 2002-08-22 Kotaro Yano Image processing method and apparatus
DE19942900B4 (de) * 1998-09-08 2004-01-22 Ricoh Company, Ltd. Vorrichtung zur Korrektur von Bildfehlern, die durch ein Kameraverwackeln hervorgerufen werden
US8035691B2 (en) * 2006-08-01 2011-10-11 Pelco, Inc. Method and apparatus for compensating for movement of a video surveillance camera
JP4709101B2 (ja) * 2006-09-01 2011-06-22 キヤノン株式会社 自動追尾カメラ装置
JP2008162308A (ja) 2006-12-27 2008-07-17 Toyota Motor Corp 車両用撮像装置及び車両用画像処理装置
KR101251184B1 (ko) 2010-08-05 2013-04-08 서울대학교산학협력단 구동 명령을 이용한 비젼 트래킹 시스템 및 방법
KR101706222B1 (ko) 2011-02-28 2017-02-14 한화테크윈 주식회사 이동 로봇
KR101400307B1 (ko) 2013-02-25 2014-05-27 (주)휴엔텍 로봇 위치 인식용 광학 렌즈 카메라 모듈
US9070289B2 (en) * 2013-05-10 2015-06-30 Palo Alto Research Incorporated System and method for detecting, tracking and estimating the speed of vehicles from a mobile platform
US10498964B2 (en) * 2017-12-28 2019-12-03 Gopro, Inc. Adaptive modes of operation based on user intention or activity
JP7141220B2 (ja) * 2018-01-22 2022-09-22 東芝ライフスタイル株式会社 自走式電気掃除機
JP7048398B2 (ja) * 2018-04-13 2022-04-05 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US11255975B2 (en) * 2018-06-05 2022-02-22 Pony Ai Inc. Systems and methods for implementing a tracking camera system onboard an autonomous vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116852350A (zh) * 2023-06-09 2023-10-10 中煤陕西榆林能源化工有限公司 用于倒闸操作的控制方法、装置、存储介质及电子设备
CN116852350B (zh) * 2023-06-09 2024-02-13 中煤陕西榆林能源化工有限公司 用于倒闸操作的控制方法以及控制装置

Also Published As

Publication number Publication date
US11353885B2 (en) 2022-06-07
US20190346850A1 (en) 2019-11-14

Similar Documents

Publication Publication Date Title
KR102242713B1 (ko) 이동 로봇 및 그 제어방법, 및 단말기
KR101948728B1 (ko) 데이터 수집 방법 및 시스템
KR102403504B1 (ko) 이동 로봇 및 그 제어 방법
CN109730590B (zh) 清洁机器人以及清洁机器人自动返回充电的方法
US10705528B2 (en) Autonomous visual navigation
KR102608046B1 (ko) 공항용 안내 로봇 및 그의 동작 방법
CN106338991A (zh) 一种基于惯性导航和二维码的机器人及定位导航方法
US10591915B2 (en) Motion controller for real-time continuous curvature path planning
KR20210000153A (ko) 위치 인식을 위한 영상의 획득 방법 및 이를 구현하는 로봇
WO2020051923A1 (en) Systems And Methods For VSLAM Scale Estimation Using Optical Flow Sensor On A Robotic Device
KR102500634B1 (ko) 안내 로봇 및 그의 동작 방법
KR20200018217A (ko) 이동 로봇, 이동 로봇 시스템 및 이동 로봇의 충전대 이동 방법
KR20210060402A (ko) 이동 로봇 및 그 제어방법
KR102238352B1 (ko) 스테이션 장치 및 이동 로봇 시스템
KR101771643B1 (ko) 자율주행로봇 및 이의 네비게이션 방법
KR20200015877A (ko) 이동 로봇 및 그 제어방법
KR20200037548A (ko) 차량 충전 로봇
US11513525B2 (en) Server and method for controlling laser irradiation of movement path of robot, and robot that moves based thereon
WO2018180454A1 (ja) 移動体
KR102481615B1 (ko) 데이터 수집 방법 및 시스템
JP7308591B2 (ja) 移動体
Wagner et al. Online aerial 2.5 d terrain mapping and active aerial vehicle exploration for ground robot navigation
JP2019067001A (ja) 移動体
KR20200043329A (ko) 데이터 수집 방법 및 시스템
CN109974700B (zh) 中央控制器、移动导航***及方法

Legal Events

Date Code Title Description
E601 Decision to refuse application