KR20190083727A - 안내 로봇 및 그의 동작 방법 - Google Patents

안내 로봇 및 그의 동작 방법 Download PDF

Info

Publication number
KR20190083727A
KR20190083727A KR1020180001516A KR20180001516A KR20190083727A KR 20190083727 A KR20190083727 A KR 20190083727A KR 1020180001516 A KR1020180001516 A KR 1020180001516A KR 20180001516 A KR20180001516 A KR 20180001516A KR 20190083727 A KR20190083727 A KR 20190083727A
Authority
KR
South Korea
Prior art keywords
control unit
robot
obstacle
image
destination
Prior art date
Application number
KR1020180001516A
Other languages
English (en)
Other versions
KR102500634B1 (ko
Inventor
김연수
김민정
김범성
백승민
안광호
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020180001516A priority Critical patent/KR102500634B1/ko
Priority to PCT/KR2018/000818 priority patent/WO2019135437A1/ko
Priority to US16/495,270 priority patent/US20200089252A1/en
Publication of KR20190083727A publication Critical patent/KR20190083727A/ko
Application granted granted Critical
Publication of KR102500634B1 publication Critical patent/KR102500634B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/12Target-seeking control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • G05D2201/0216

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 안내 요청한 사용자를 목적지까지 동행하여 이동 경로를 가이드하는 로봇에 관한 것으로, 목적지 입력명령을 수신하는 입력부, 맵(map) 정보를 저장하는 저장부, 수신된 목적지까지의 이동 경로를 맵 정보에 기초하여 설정하는 제어부, 설정된 이동 경로를 따라 이동하는 주행 구동부 및 목적지까지 이동하는 동안 안내 대상에 해당하는 오브젝트를 인식하는 영상 인식부를 포함하고, 제어부는 오브젝트가 시야 범위에 포함되지 않으면 오브젝트가 시야 범위에 포함되도록 이동 또는 회전하고, 오브젝트를 재인식할 수 있다.

Description

안내 로봇 및 그의 동작 방법{Guide robot and operating method thereof}
본 건은 안내 로봇 및 그의 동작 방법에 관한 것이다.
최근 딥러닝(Deep Learning) 기술, 자율 주행 기술, 자동 제어 기술, 사물인터넷 등의 발전으로 로봇의 기능이 확대되고 있다.
각각의 기술을 구체적으로 설명하면, 딥러닝은 기계학습의 한 분야에 해당한다. 딥러닝은 프로그램에 미리 조건을 확인하고 명령을 설정해두는 방식이 아니라, 다양한 상황에 대해 프로그램이 유사한 판단을 내리도록 하는 기술이다. 따라서, 딥러닝에 따르면 컴퓨터가 인간의 뇌와 유사하게 사고할 수 있고, 방대한 양의 데이터 분석을 가능하게 한다.
자율 주행은 기계가 스스로 판단하여 이동하고, 장애물을 피할 수 있는 기술이다. 자율 주행 기술에 따르면 로봇은 센서를 통해 자율적으로 위치를 인식하여 이동하고 장애물을 피할 수 있게 된다.
자동 제어 기술은 기계에서 기계 상태를 검사한 계측 값을 제어 장치에 피드백하여 기계의 동작을 자동으로 제어하는 기술을 말한다. 따라서 사람의 조작 없는 제어가 가능하고, 목적하는 제어 대상을 목적하는 범위 내 즉, 목표 값에 이르도록 자동적으로 조절할 수 있다.
사물인터넷(Internet of Things)은 인터넷을 기반으로 모든 사물을 연결하여 사람과 사물, 사물과 사물 간의 정보를 상호 소통하는 지능형 기술 및 서비스를 말한다. 사물인터넷에 의해 인터넷에 연결된 기기들은 사람의 도움 없이 알아서 정보를 주고 받으며 자율적인 소통을 하게 된다.
위에서 설명한 바와 같은 기술들의 발전 및 융합으로 지능형 로봇의 구현이 가능하고, 지능형 로봇을 통해 다양한 정보와 서비스의 제공이 가능해졌다.
일 예로, 로봇은 사용자에게 목적지까지 이동 경로를 안내하는 기능을 제공할 수 있다. 로봇은 사용자에게 목적지까지의 지도를 표시함으로써 이동 경로를 안내하거나, 로봇이 목적지까지 사용자와 동행하여 이동함으로써 이동 경로를 안내할 수 있다.
한편, 로봇이 목적지까지 사용자와 동행하여 이동 경로를 안내하는 경우 도중에 사용자를 놓치는 문제가 발생할 수 있다. 예를 들어, 로봇이 회전하면서 사용자 인식에 실패하거나, 사용자가 다른 사람에 의해 가려지거나, 또는 사용자의 돌발 행동 등으로 인해 사용자를 놓칠 수 있다. 이에 따라, 로봇이 사용자를 목적지까지 안내하지 못하거나, 또는 목적지까지 안내하는데 소요 시간이 길어질 수 있다.
본 발명은 안내 도중에 사용자를 놓치지 않고 목적지까지 동행하여 이동 경로를 안내하는 안내 로봇 및 그의 동작 방법을 제공하고자 한다.
본 발명의 일 실시 예에 따른 로봇은 목적지 입력명령을 수신하는 입력부, 맵(map) 정보를 저장하는 저장부, 수신된 목적지까지의 이동 경로를 맵 정보에 기초하여 설정하는 제어부, 설정된 이동 경로를 따라 이동하는 주행 구동부 및 목적지까지 이동하는 동안 안내 대상에 해당하는 오브젝트를 인식하는 영상 인식부를 포함하고, 제어부는 오브젝트가 시야 범위에 포함되지 않으면 오브젝트가 시야 범위에 포함되도록 이동 또는 회전하고, 오브젝트를 재인식할 수 있다.
영상 인식부는 로봇의 주변 영상을 촬영하는 카메라와, 촬영된 영상에서 사람을 검출하기 위한 색상 성분을 추출하는 RGB 센서를 포함할 수 있다.
제어부는 목적지 입력명령을 수신하면 카메라로 입력부의 전방 영상을 촬영하고, 촬영된 영상에서 목적지를 입력 중인 사람을 오브젝트로 설정할 수 있다.
영상 인식부는 주변에 위치한 사람 또는 사물과의 거리를 센싱하는 라이더를 더 포함하고, 제어부는 라이더를 통해 로봇에 인접하게 위치한 적어도 하나 이상의 사람과의 거리를 센싱하고, 로봇으로부터 가장 가까이 위치한 사람을 오브젝트로 설정할 수 있다.
제어부는 오브젝트를 설정하는 동안 오브젝트의 인식을 실패하면 다른 촬영된 영상에 포함된 다른 사람을 오브젝트로 변경 설정 또는 추가 설정할 수 있다.
영상 인식부는 목적지까지 이동하는 동안 장애물을 인식하고, 제어부는 장애물과 오브젝트의 충돌을 가능성을 산출하고, 장애물과 오브젝트의 충돌이 예상되면 이동 경로를 재설정할 수 있다.
장애물은 맵 정보에 포함된 정적 장애물과, 영상 인식부를 통해 인식되는 동적 장애물을 포함할 수 있다.
제어부는 장애물의 예상 경로와 오브젝트의 예상 경로를 산출하고, 장애물의 예상 경로와 오브젝트의 예상 경로에 교차점이 존재하는지 판단하여 장애물과 오브젝트의 충돌 여부를 판단할 수 있다.
제어부는 이동 경로 상에 포함된 회전 모션의 횟수 또는 회전 각도에 기초하여 영상의 블러(blur) 발생 여부를 판단할 수 있다.
제어부는 영상의 블러가 발생할 것으로 예상되면 회전 모션의 횟수를 최소화하는 안내 경로 또는 회전 각도가 작은 안내 경로로 이동 경로를 재설정할 수 있다.
본 발명의 일 실시 예에 따르면, 안내를 요청한 사용자를 목적지까지 가이드하는 경우 도중에 사용자를 놓치는 경우를 최소화할 수 있는 이점이 있다.
본 발명의 일 실시 예에 따르면, RGB 센서, 깊이 센서 및 라이더 중 적어도 하나 이상을 통해 안내를 요청한 사용자를 보다 정확하게 인식이 가능하여, 안내를 요청한 사용자가 아닌 다른 사용자를 목적지까지 안내하는 문제를 최소화할 수 있는 이점이 있다.
본 발명의 일 실시 예에 따르면, 목적지까지 안내하는 도중에 사용자 인식에 실패하더라도, 회전 또는 이동하는 복귀 모션과 딥러닝 기반의 알고리즘을 통해 다시 사용자를 인식하여 목적지까지 안내 가능한 이점이 있다.
또한, 본 발명의 일 실시 예에 따르면, 영상에서 블러의 발생을 예측하여 사전에 최소화함으로써 도중에 사용자 인식을 실패하는 문제를 최소화할 수 있는 이점이 있다.
본 발명의 일 실시 예에 따르면, 장애물과 안내 대상인 사용자의 이동을 예측 가능하여, 사용자가 장애물에 부딪히는 문제를 최소화함으로써 사용자를 안전하게 목적지까지 안내 가능한 이점이 있다.
도 1은 본 발명의 실시 예에 따른 로봇의 모습을 나타내는 예시 도면이다.
도 2는 본 발명의 제1 실시 예에 따른 로봇의 제어 블록도이다.
도 3은 본 발명의 제2 실시 예에 따른 로봇의 제어 블록도이다.
도 4는 본 발명의 실시 예에 따른 로봇이 동작하는 방법을 나타내는 순서도이다.
도 5는 본 발명의 제1 실시 예에 따른 안내 대상인 오브젝트를 설정하는 방법을 설명하기 위한 예시 도면이다.
도 6은 본 발명의 제2 실시 예에 따른 안내 대상인 오브젝트를 설정하는 방법을 설명하기 위한 예시 도면이다.
도 7은 본 발명의 일 실시 예에 따른 안내 대상인 오브젝트를 변경 또는 추가하는 방법을 설명하기 위한 예시 도면이다.
도 8 내지 도 9는 본 발명의 일 실시 예에 따른 장애물을 설명하기 위한 예시 도면이다.
도 10은 본 발명의 일 실시 예에 따른 오브젝트를 인식하는 방법을 설명하기 위한 예시 도면이다.
도 11은 본 발명의 제1 실시 예에 따른 카메라의 시야 범위에 오브젝트가 포함되는지 판단하는 방법을 나타내는 예시 도면이다.
도 12는 본 발명의 제2 실시 예에 따른 카메라의 시야 범위에 오브젝트가 포함되는지 판단하는 방법을 나타내는 예시 도면이다.
도 13은 본 발명에 따른 로봇이 오브젝트를 재인식하는 방법을 설명하기 위한 도면이다.
도 14 내지 도 15는 본 발명의 실시 예에 따른 오브젝트 및 동적 장애물의 이동 경로를 예측하는 방법을 설명하기 위한 도면이다.
도 16은 본 발명의 실시 예에 따른 로봇이 영상의 블러를 최소화하도록 이동 경로를 재설정하는 방법을 설명하기 위한 도면이다.
이하에서는 본 발명의 구체적인 실시 예를 도면과 함께 상세히 설명하도록 한다. 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
도 1은 본 발명의 실시 예에 따른 로봇의 모습을 나타내는 예시 도면이고, 도 2는 본 발명의 제1 실시 예에 따른 로봇의 제어 블록도이고, 도 3은 본 발명의 제2 실시 예에 따른 로봇의 제어 블록도이다.
본 발명의 실시 예에 따른 로봇(1)은 디스플레이부(11), 입력부(13), 저장부(15), 전원부(17), 주행 구동부(18), 통신부(19), 영상 인식부(20), 사람 인식 모듈(31) 및 제어부(33)의 전부 또는 일부를 포함할 수 있다. 또는, 로봇(1)은 앞에서 나열한 구성요소 외에 다른 구성요소를 더 포함할 수도 있다.
도 1을 참고하면, 로봇(1)은 입력부(13)가 구비된 상부 모듈과, 디스플레이부(11) 및 주행 구동부(18)가 구비된 하부 모듈을 포함할 수 있다.
입력부(13)는 사용자로부터 입력명령을 수신할 수 있다. 예를 들어, 입력부(13)는 길 안내를 요청하기 위한 입력 명령 또는 목적지를 설정하는 입력 명령 등을 수신할 수 있다.
디스플레이부(11)는 적어도 하나 이상의 정보를 표시할 수 있다. 예를 들어, 디스플레이부(11)는 목적지의 위치, 목적지까지의 이동 경로, 목적지까지 예상 소요 시간, 또는 전방에 위치한 장애물 정보 등을 표시할 수 있다.
주행 구동부(18)는 로봇(1)을 사방으로 이동시킬 수 있다. 주행 구동부(18)는 설정된 이동 경로를 따라 이동하거나, 또는 설정된 목적지까지 이동하도록 구동될 수 있다.
로봇(1)의 전방은 입력부(13)가 위치한 방향일 수 있고, 로봇(1)은 전방으로 이동할 수 있다.
한편, 입력부(13)가 구비된 상부 모듈은 수평 방향으로 회전이 가능할 수 있다. 로봇(1)은 입력부(13)를 통해 목적지 입력 명령을 수신하면, 도 1에 도시된 바와 같은 상태에서 상부 모듈이 180도 회전하여 전방으로 이동할 수 있고, 사용자는 로봇(1)의 후방에 위치하게 된 디스플레이부(11)를 보면서 목적지까지 안내 정보를 제공받을 수 있다. 이를 통해, 로봇(1)은 안내 대상인 사용자를 목적지까지 동행하여 이동 경로를 안내할 수 있다.
그러나, 도 1에 도시된 로봇의 형상은 예시적인 것으로, 이에 제한될 필요는 없다.
디스플레이부(11)는 다양한 정보를 표시할 수 있다. 디스플레이부(11)는 사용자에게 목적지까지 이동 경로를 안내하기 위해 필요한 적어도 하나 이상의 정보를 표시할 수 있다.
입력부(13)는 사용자로부터 적어도 하나 이상의 입력 명령을 수신할 수 있다. 입력부(13)는 입력 명령을 수신하기 위한 터치 패널을 포함할 수 있고, 동시에 출력 정보를 표시하기 위한 모니터를 더 포함할 수 있다.
저장부(15)는 로봇(1)의 운행에 필요한 데이터를 저장할 수 있다. 구체적인 예를 들면, 저장부(15)는 로봇(1)의 주행 경로를 산출하기 위한 데이터, 디스플레이부(11) 또는 입력부(13)에 정보를 출력하기 위한 데이터, 사람 또는 사물을 인식하기 위한 알고리즘 등의 데이터 등을 저장할 수 있다.
로봇(1)이 정해진 공간 내에 주행하도록 설정된 경우, 저장부(15)는 정해진 공간의 맵(map) 정보를 저장하고 있을 수 있다. 예를 들어, 로봇(1)이 공항(airport) 내에서 이동하도록 설정된 경우, 저장부(15)는 공항의 맵 정보를 저장하고 있을 수 있다.
전원부(17)는 로봇(1)의 구동을 위한 전원을 공급할 수 있다. 전원부(17)는 디스플레이부(11), 입력부(13) 및 제어부(33) 등에 전원을 공급할 수 있다.
전원부(17)는 배터리 드라이버(battery Driver) 및 리튬-이온 배터리(Li-Ion Battery)를 포함할 수 있다. 배터리 드라이버는 리튬-이온 배터리의 충전과 방전을 관리할 수 있고, 리튬-이온 배터리는 공항 로봇의 구동을 위한 전원을 공급할 수 있다. 리튬-이온 배터리는 24V/102A 리튬-이온 배터리 2개를 병렬로 연결하여 구성될 수 있다.
주행 구동부(18)는 모터 드라이버(Motor Drivers), 휠 모터 및 회전 모터를 포함할 수 있다. 모터 드라이버는 로봇의 구동을 위한 휠 모터 및 회전 모터를 구동하는 역할을 수행할 수 있고, 휠 모터는 로봇의 주행을 위한 복수 개의 바퀴를 구동시킬 수 있고, 회전 모터는 로봇의 메인 바디 또는 로봇의 헤드부의 좌우 회전, 상하 회전을 위해 구동되거나 로봇의 바퀴의 방향 전환 또는 회전을 위하여 구동될 수 있다.
통신부(19)는 외부와 데이터를 송수신할 수 있다. 예를 들어, 통신부(19)는 변경 사항을 업데이트하기 위해 주기적으로 맵 정보를 수신할 수 있다. 또한, 통신부(19)는 사용자의 이동 단말기와 통신할 수 있다.
영상 인식부(20)는 카메라(21)와, RGB 센서(22)와, 깊이 센서(Depth sensor, 23), 및 라이더(Lidar, 25) 중 적어도 하나 이상을 포함할 수 있다.
영상 인식부(20)는 사람 및 사물을 검출할 수 있고, 검출된 사람 및 사물의 이동 정보를 획득할 수 있다. 이동 정보는 이동 방향과 이동 속도 등을 포함할 수 있다.
특히, 본 발명의 제1 실시 예에 따르면, 영상 인식부(20)는 카메라(21), RGB 센서(22), 깊이 센서(23) 및 라이더(25)를 모두 포함할 수 있다. 반면에, 본 발명의 제2 실시 예에 따르면, 영상 인식부(20)는 카메라(21) 및 RGB 센서(22)만 포함할 수 있다. 이와 같이, 본 발명은 실시 예에 따라 영상 인식부(20)의 구성 요소가 상이할 수 있고, 영상 인식부(20)의 구성에 따라 오브젝트를 (재)인식하는 알고리즘이 상이하게 적용될 수 있으며, 이에 대한 설명은 후술하기로 한다.
카메라(21)는 주변 영상을 촬영할 수 있다. 영상 인식부(20)는 적어도 하나 이상의 카메라(21)를 포함할 수 있다. 예를 들어, 영상 인식부(20)는 제1 카메라와 제2 카메라를 포함할 수 있고, 제1 카메라는 입력부(13)에 구비되고, 제2 카메라는 디스플레이부(11)에 구비될 수 있다. 카메라(21)는 사람 또는 사물을 포함하는 2차원 영상을 촬영할 수 있다.
RGB 센서(22)는 영상에서 사람을 검출하기 위한 색상 성분을 추출할 수 있다. 구체적으로, RGB 센서(22)는 영상에 포함된 Red 성분, Green 성분, Blue 성분 각각을 추출할 수 있다. 로봇(1)은 RGB 센서(22)를 통해 사람 또는 사물을 인식하기 위한 색상 데이터를 획득할 수 있다.
깊이 센서(23)는 영상의 깊이 정보를 검출할 수 있다. 로봇(1)은 깊이 센서(23)를 통해 영상에 포함된 사람 또는 사물과의 거리를 산출하기 위한 데이터를 획득할 수 있다.
라이더(25)는 레이저를 송신한 후 사람 또는 사물에서 반사되어 도달하는 시간을 측정하여 거리를 측정할 수 있다. 라이더(25)는 로봇(1)이 주행하는 동안 장애물과 부딪히지 않도록 사람 또는 사물과의 거리를 센싱한 데이터를 획득할 수 있다. 또한, 라이더(25)는 안내 대상인 사용자를 인식하기 위하여 주변에 위치한 오브젝트들을 인식하고, 인식된 오브젝트들과의 거리를 측정할 수 있다.
사람 인식 모듈(31)은 영상 인식부(20)를 통해 획득된 데이터를 이용하여 사람을 인식할 수 있다. 구체적으로, 사람 인식 모듈(31)은 영상 인식부(20)를 통해 인식된 사람의 외모를 구별할 수 있다. 따라서, 로봇(1)은 사람 인식 모듈(31)을 통해 주변에 위치한 적어도 하나 이상의 사람 중 안내 대상인 사용자를 식별할 수 있고, 안내 대상인 사용자의 위치, 거리 등을 획득할 수 있다.
제어부(33)는 로봇(1)의 전반적인 동작을 제어할 수 있다. 제어부(33)는 로봇(1)을 구성하는 구성요소 각각을 제어할 수 있다. 구체적으로, 제어부(33)는 디스플레이부(11), 입력부(13), 저장부(15), 전원부(17), 주행 구동부(18), 통신부(19), 영상 인식부(20) 및 사람 인식 모듈(31) 중 적어도 하나 이상을 제어할 수 있다.
다음으로, 도 4를 참조하여 본 발명의 실시 예에 따른 로봇이 동작하는 방법을 설명한다. 도 4는 본 발명의 실시 예에 따른 로봇이 동작하는 방법을 나타내는 순서도이다.
로봇(1)의 입력부(13)는 목적지 입력명령을 수신할 수 있다(S101).
사용자는 입력부(13)를 통해 로봇(1)에 다양한 정보, 명령 등을 입력할 수 있고, 입력부(13)는 사용자로부터 정보, 명령 등을 수신할 수 있다.
구체적으로, 사용자는 입력부(13)를 통해 경로 안내를 요청 하는 명령을 입력할 수 있고, 사용자가 안내받고자 하는 목적지 정보를 입력할 수 있다. 입력부(13)는 경로 안내 요청 신호를 수신하고, 목적지 정보를 수신할 수 있다. 예를 들어, 입력부(13)는 터치스크린으로 형성되며, 터치스크린에 표시된 '경로 안내 요청'을 나타내는 버튼을 선택하는 입력 명령을 수신할 수 있다. 또한, 입력부(13)는 목적지를 나타내는 복수개의 항목 중 어느 하나를 선택하는 명령을 수신하거나, 알파벳 또는 한글 자모를 나타내는 키 버튼을 통해 목적지 정보의 입력 명령을 수신할 수 있다.
제어부(33)는 목적지 입력명령을 수신하면, 안내 대상에 해당하는 오브젝트를 설정할 수 있다(S103).
로봇(1)은 경로 안내를 요청하는 명령을 수신하면, 목적지까지의 경로를 지도로 표시하거나 목적지까지 동행하여 경로를 안내할 수 있다.
제어부(33)는 목적지까지 동행하여 경로를 안내하는 경우 경로 안내를 요청한 사용자를 목적지까지 놓치지 않고 추적하여 안내하기 위하여, 경로 안내를 요청한 사용자를 안내 대상에 해당하는 오브젝트로 설정할 수 있다.
다음으로, 도 5 내지 도 6을 참조하여, 본 발명의 실시 예에 따른 제어부(33)가 안내 대상에 해당하는 오브젝트를 설정하는 방법을 설명한다.
도 5는 본 발명의 제1 실시 예에 따른 안내 대상인 오브젝트를 설정하는 방법을 설명하기 위한 예시 도면이고, 도 6은 본 발명의 제2 실시 예에 따른 안내 대상인 오브젝트를 설정하는 방법을 설명하기 위한 예시 도면이다.
제1 실시 예에 따르면, 제어부(33)는 목적지 입력명령을 수신할 때 입력부(13)에 입력 중인 사용자를 안내 대상인 오브젝트로 설정할 수 있다. 구체적으로, 도 5를 참조하면, 제어부(33)는 입력부(13)를 통해 목적지의 입력 명령을 수신하면, 카메라(21)로 입력부(13)의 전방에 위치한 적어도 하나 이상의 사람을 포함하는 영상을 촬영할 수 있다. 제어부(33)는 촬영된 영상에 포함된 적어도 하나 이상의 사람을 안내 대상인 오브젝트로 설정할 수 있다.
제어부(33)는 목적지 입력명령을 수신할 때 촬영된 영상을 분석할 수 있다. 일 실시 예에 따르면, 제어부(33)는 RGB 센서(22) 및 깊이 센서(23) 중 적어도 하나 이상을 통해 촬영된 영상에서 적어도 하나 이상의 사람을 검출하고, 검출된 사람 중 적어도 하나를 안내 대상인 오브젝트로 설정할 수 있다.
다른 실시 예에 따르면, 제어부(33)는 RGB 센서(22) 및 깊이 센서(23)로 촬영된 영상을 분석하는 동시에 라이더(25)를 통해 인접한 위치에 있는 사람을 검출할 수 있고, 검출된 사람 중 적어도 하나를 안내 대상인 오브젝트로 설정할 수 있다.
제어부(33)는 촬영된 영상에서 검출된 사람 중 적어도 하나 이상을 안내 대상인 오브젝트로 설정할 수 있다.
제어부(33)는 촬영된 영상에서 검출된 사람이 한 명이면, 검출된 한 명을 안내 대상인 오브젝트로 설정할 수 있다. 제어부(33)는 촬영된 영상에서 검출된 사람이 적어도 두 명 이상이면, 검출된 두 명 이상의 사람 중 한 명만을 안내 대상인 오브젝트로 설정할 수 있다.
특히, 제어부(33)는 촬영된 영상에서 검출된 사람 중 입력부(13)에 입력 중인 사람을 결정할 수 있다. 도 5에 도시된 예시를 참조하면, 제어부(33)는 입력부(13)를 통해 목적지 입력명령을 수신하면 로봇(1)과 인접한 영역에 위치한 적어도 하나 이상의 사람을 검출할 수 있다. 구체적으로, 제어부(33)는 카메라(21)로 촬영된 영상을 분석하여 사람을 검출하거나 라이더(25)로 레이저를 송출하여 입력부(13)로부터 제일 가까이에 있는 사람을 검출하거나, 카메라(21) 및 라이더(25)를 모두 이용하여 사람을 검출할 수 있다. 예를 들어, 제어부(33)는 제1 사람(P1)과 제2 사람(P2)을 검출할 수 있고, 검출된 제1 및 제2 사람(P1, P2) 중 입력부(13)에 입력 중인 제1 사람(P1)을 안내 대상인 오브젝트로 설정할 수 있다. 도 5에서 로봇(1)과 제1 사람(P1) 사이의 거리는 로봇(1)과 제2 사람(P2) 사이의 거리 보다 길 수 있으나, 제어부(33)는 입력부(33)에 입력 중인 제1 사람(P1)을 안내 대상인 오브젝트로 설정할 수 있다.
제1 실시 예에 따르면, 로봇(1)은 안내 대상인 오브젝트 설정을 보다 정확하게 할 수 있는 이점이 있다.
제2 실시 예에 따르면, 제어부(33)는 목적지 입력명령을 수신할 때 로봇(1)과 가장 가까이에 위치한 사람을 안내 대상인 오브젝트로 설정할 수 있다.
일 실시 예에 따르면, 제어부(33)는 목적지 입력명령을 수신할 때 카메라(21)로 주변 영상을 촬영하여 RGB 센서(22)로 사람을 검출하고, 깊이 센서(23)로 검출된 사람과의 거리를 산출할 수 있다. 제어부(33)는 산출된 거리가 가장 짧은 사람을 안내 대상인 오브젝트로 설정할 수 있다.
다른 실시 예에 따르면, 제어부(33)는 목적지 입력명령을 수신할 때 라이더(25)를 통해 인접한 위치에 있는 사람들을 검출할 수 있다. 제어부(33)는 라이더(25)를 통해 로봇(1)에 인접한 적어도 한 명 이상의 사람과의 거리를 산출하고, 산출된 거리가 가장 짧은 사람을 안내 대상이 오브젝트로 설정할 수 있다.
또 다른 실시 예에 따르면, 제어부(33)는 목적지 입력명령을 수신할 때 카메라(21) 및 라이더(25)를 함께 이용하여 주변에 위치한 사람을 검출하고, 검출된 사람 중 로봇(1)과의 거리가 가장 가까운 사람을 안내 대상이 오브젝트로 설정할 수 있다.
도 6에 도시된 예시를 참조하면, 제어부(33)는 목적지 입력명령을 수신할 때 제1 내지 제3 사람(P1, P2, P3)을 검출하고, 검출된 사람 중 로봇(1)과의 거리가 가장 가까운 제1 사람(P1)을 안내 대상인 오브젝트로 설정할 수 있다.
제2 실시 예에 따르면, 로봇(1)은 보다 신속하게 안내 대상인 오브젝트의 설정이 가능하며, 오브젝트를 설정하는 알고리즘을 비교적 단순화시킬 수 있는 이점이 있다.
제3 실시 예에 따르면, 제어부(33)는 입력부(13)를 통해 오브젝트 선택 명령을 수신하여, 안내 대상인 오브젝트를 설정할 수 이다. 제어부(33)는 목적지 입력명령을 수신할 때 카메라(21)로 주변 영상을 촬영할 수 있다. 제어부(33)는 촬영된 주변 영상을 디스플레이부(11) 또는 터치스크린으로 형성된 입력부(13)에 출력할 수 있고, 출력된 영상에서 적어도 한 명 이상의 사람을 선택하는 오브젝트 선택 명령을 수신할 수 있다. 사용자는 디스플레이부(11) 또는 터치스크린으로 형성된 입력부(13)를 보고 본인 또는 본인을 포함한 적어도 한 명 이상의 일행을 입력부(13)로 선택할 수 있고, 선택된 본인 또는 본인을 포함한 일행을 안내 대상인 오브젝트로 설정할 수 있다.
제3 실시 예에 따르면, 로봇(1)은 사용자에 의해 선택된 사람을 오브젝트로 설정함으로써 오브젝트 설정의 정확도를 높이고, 사용자에게 안내 대상인 오브젝트를 자유롭게 선택하는 기능을 제공 가능한 이점이 있다.
제어부(33)는 제1 내지 제3 실시 예에서 복수의 사람을 안내 대상인 오브젝트로 설정할 수 있다. 예를 들어, 제1 실시 예에서, 제어부(33)는 카메라(21)로 촬영된 영상에서 입력부(13)를 쳐다보고 있는 사람을 검출하여, 검출된 적어도 하나 이상의 사람을 모두 안내 대상인 오브젝트로 설정할 수 있다. 제2 실시 예에서, 제어부(33)는 인접한 사람들과의 거리를 산출한 후 기준 거리 이내에 위치한 사람을 모두 안내 대상인 오브젝트로 설정할 수 있다. 제3 실시 예에서, 제어부(33)는 선택된 사람이 복수인 경우 선택된 복수의 사람을 모두 안내 대상인 오브젝트로 설정할 수 있다.
그러나 앞에서 설명한 방법들은 예시적인 것에 불과하므로 이에 제한될 필요 없으며, 각 실시 예는 조합되어 안내 대상인 오브젝트가 설정될 수도 있다.
한편, 제어부(33)는 안내 대상인 오브젝트를 설정하는 도중에 오브젝트의 인식이 어려운 상태를 감지할 수 있다. 제어부(33)는 오브젝트의 인식이 어려운 상태를 감지하면, 안내 대상인 오브젝트를 변경하거나 추가할 수 있다.
도 7은 본 발명의 일 실시 예에 따른 안내 대상인 오브젝트를 변경 또는 추가하는 방법을 설명하기 위한 예시 도면이다.
앞에서 설명한 바와 같은 방식으로, 제어부(33)는 안내 대상인 오브젝트를 설정할 수 있다. 예를 들어, 도 7의 (a)에 도시된 바와 같이, 제어부(33)는 카메라로 촬영된 영상에서 제1 타깃(T1)을 안내 대상인 오브젝트로 인식하고, 설정할 수 있다.
한편, 제어부(33)가 오브젝트를 인식 및 설정을 완료하기까지 소정 시간이 소요될 수 있고, 그 사이에 사람들은 이동할 수 있다. 예를 들어, 도 7의 (b)에 도시된 바와 같이, 로봇(1)과 제1 타깃(T1) 사이의 거리가 로봇(1)과 다른 사람 사이의 거리 보다 길어지거나 같아질 수 있고, 도 7의 (c)에 도시된 바와 같이 제1 타깃(T1)의 얼굴이 가려져 오브젝트의 인식이 불가할 수 있다. 그러나, 도 7에 도시된 상황은 예시적인 것에 불과하며, 제1 타깃(T1)이 빠르게 이동하거나, 다른 사람에 의해 가려지거나, 고개를 회전하는 등의 이유로 오브젝트 인식을 실패하는 경우를 모두 포함할 수 있다.
이 경우, 제어부(33)는 제1 타깃(T1)을 제외한 다른 사람 중 제2 타깃(T2)을 인식하여 안내 대상인 오브젝트를 제1 타깃(T1)에서 제2 타깃(T2)으로 변경 설정하거나, 제1 타깃(T1)과 함께 제2 타깃(T2)을 추가하여 오브젝트로 설정할 수 있다. 제어부(33)가 제2 타깃(T2)을 인식하는 방법은 제1 타깃(T1)을 인식하는 방법과 동일할 수 있고, 앞에서 설명한 바와 같으므로 자세한 설명은 생략하기로 한다.
이와 같이, 본 발명의 실시 예에 따르면, 제어부(33)는 오브젝트를 도중에 변경하거나, 추가할 수 있어 오브젝트의 인식 및 설정이 실패하는 경우를 방지할 수 있다.
제어부(33)는 안내 대상에 해당하는 오브젝트의 설정을 완료하면, 설정된 오브젝트를 나타내는 이미지를 디스플레이부(11)에 출력할 수 있다.
또한, 제어부(33)는 설정된 오브젝트를 나타내는 이미지와 함께 오브젝트가 제대로 설정되었는지 확인하는 메시지를 디스플레이부(11)에 출력할 수 있다. 사용자는 디스플레이부(11)에 출력된 오브젝트를 참고한 후 입력부(13)에 오브젝트를 재설정하기 위한 명령 또는 목적지 안내 시작 명령을 입력할 수 있다. 제어부(33)는 오브젝트를 재설정하기 위한 명령이 입력되면 앞에서 설명한 적어도 하나 이상의 실시 예를 통해 오브젝트를 재설정할 수 있고, 목적지 안내 시작 명령을 수신하면 설정된 오브젝트를 추적하며 경로 안내를 시작할 수 있다.
다시, 도 4를 설명한다.
제어부(33)는 오브젝트를 설정하고, 입력명령에 따른 목적지까지의 이동 경로를 설정할 수 있다(S105).
실시 예에 따라, 오브젝트를 설정하는 단계(S103)와, 이동 경로를 설정하는 단계(S105)의 순서는 변경될 수 있다.
저장부(15)는 로봇(1)이 위치한 장소의 맵(map) 정보를 저장하고 있을 수 있다. 또는, 저장부(15)는 로봇(1)이 이동 경로를 안내 가능한 영역의 맵 정보를 저장하고 있을 수 있다. 예를 들어, 로봇(1)은 공항 내에서 길을 안내하는 로봇일 수 있고, 이 경우 저장부(15)는 공항의 맵 정보를 저장하고 있을 수 있다. 그러나, 이는 예시적인 것에 불과하므로 이에 제한될 필요는 없다.
통신부(19)는 GPS(Global Positioning System)를 포함할 수 있고, GPS를 통해 현재 위치를 인식할 수 있다.
제어부(33)는 저장부(15)에 저장된 맵 정보, 통신부(19)를 통해 인식한 현재 위치 및 입력부(13)를 수신한 목적지를 이용하여 목적지까지의 안내 경로를 획득할 수 있다.
제어부(33)는 복수개의 안내 경로를 획득할 수 있다. 일 실시 예에 따르면, 제어부(33)는 복수 개의 안내 경로 중 최단 거리를 갖는 안내 경로를 목적지까지의 이동 경로로 설정할 수 있다. 다른 실시 예에 따르면, 제어부(33)는 통신부(19)를 통해 다른 구역의 혼잡도 정보를 수신할 수 있고, 복수 개의 안내 경로 중 혼잡도가 가장 낮은 안내 경로를 목적지까지의 이동 경로로 설정할 수 있다. 또 다른 실시 예에 따르면, 제어부(33)는 복수개의 안내 경로를 디스플레이부(11)에 출력한 후 입력부(13)를 통해 선택되는 안내 경로를 목적지까지의 이동 경로로 설정할 수 있다.
제어부(33)는 설정된 이동 경로를 따라 주행할 수 있다(S107).
제어부(33)는 설정된 이동 경로를 따라 주행하는 경우 이동 속도를 낮게 조절할 수 있다. 구체적으로, 제어부(33)는 목적지까지 이동 경로를 설정하여 안내 모드로 동작하는 경우 제1 이동 속도로 주행하고, 안내 모드가 종료한 후 자율 주행하는 경우 제2 이동 속도로 주행하도록 제어하고, 제1 이동 속도는 제2 이동 속도 보다 느릴 수 있다.
제어부(33)는 전방에 위치하는 장애물 및 설정된 오브젝트를 인식할 수 있다(S109).
제어부(33)는 주행하면서 로봇(1)의 전방에 위치하는 장애물을 인식할 수 있다. 한편, 제어부(33)는 로봇(1)의 전방뿐만 아니라 로봇(1)의 주변에 위치하는 장애물을 모두 인식할 수 있다.
여기서, 장애물은 로봇(1)의 주행에 방해가 되는 장애물과, 설정된 오브젝트의 이동에 방해가 되는 장애물을 모두 포함할 수 있고, 정적 장애물과 동적 장애물을 포함할 수 있다.
로봇(1)의 주행에 방해가 되는 장애물은 로봇(1)과 부딪힐 가능성이 기 설정된 기준 이상인 장애물로, 예를 들어, 로봇(1)의 전방에서 이동하는 사람 또는 로봇(1)의 이동 경로에 위치한 기둥 등의 사물을 포함할 수 있다.
마찬가지로, 설정된 오브젝트의 이동에 방해가 되는 장애물은 오브젝트와 부딪힐 가능성이 기 설정된 기준 이상인 장애물로, 예를 들어, 오브젝트의 이동 경로와 이동 속도를 고려할 때 부딪힐 가능성이 높은 사람 또는 사물을 포함할 수 있다.
정적 장애물은 고정된 위치에 존재하는 장애물로, 저장부(15)에 저장된 맵 정보에 포함된 장애물일 수 있다. 즉, 정적 장애물은 맵 정보로 저장되어 있는 장애물로 로봇(1) 또는 설정된 오브젝트의 이동이 어려운 사물을 의미할 수 있다.
동적 장애물은 로봇(1) 또는 설정된 오브젝트의 전방에서 이동 중이거나, 또는 이동 예정인 사람과 사물일 수 있다. 즉, 동적 장애물은 맵 정보 등으로 저장되어 있지 않으나, 카메라(21) 또는 라이더(25) 등으로 인식된 장애물을 의미할 수 있다.
다음으로, 도 8 내지 도 9는 본 발명의 일 실시 예에 따른 장애물을 설명하기 위한 예시 도면이다.
도 8을 참조하면, 제어부(33)는 맵 정보(M)를 이용하여 이동 경로(P1)를 설정할 수 있다. 저장부(15)는 맵 정보(M)를 저장하고 있을 수 있고, 맵 정보(M)는 정적 장애물(O1)에 대한 정보를 포함할 수 있다. 제어부(33)는 이동 경로(P1)를 따라 주행하면서 맵 정보(M)에 저장된 정적 장애물(O1)을 인식할 수 있다.
또한, 제어부(33)는 영상 인식부(20)를 통해 동적 장애물(O2)에 대한 정보를 획득할 수 있다. 동적 장애물(O2)에 대한 정보는 로봇(1)의 현재 위치를 기준으로 소정 거리 내에 위치한 장애물만 획득 가능할 수 있다. 동적 장애물을 인식할 수 있는 거리는 영상 인식부(20)를 구성하는 각 구성요소의 성능에 따라 달라질 수 있다.
도 9에 도시된 이미지는 카메라(21)로 촬영된 영상에 정적 장애물(O1)과 동적 장애물(O2)의 인식 결과를 나타내는 것으로, 인식에 실패한 사람 또는 사물(X2)이 있을 수도 있다. 로봇(1)은 주행하면서 도 9에 도시된 바와 같은 장애물 인식 동작을 계속해서 수행할 수 있다.
또한, 제어부(33)는 주행하면서 설정된 오브젝트를 인식할 수 있다.
일 실시 예에 따르면, 제어부(33)는 카메라(21)로 주변 영상을 촬영하여 주변에 위치한 사람을 검출하고, 검출된 사람 중 설정된 오브젝트와 일치하는 사람을 식별하여 오브젝트를 인식할 수 있다. 제어부(33)는 오브젝트를 인식하여 오브젝트의 이동을 추적할 수 있다.
다른 실시 예에 따르면, 제어부(33)는 카메라(21)로 오브젝트를 인식하는 동시에, 라이더(25)로 오브젝트와 떨어진 거리를 산출하면서 오브젝트를 인식 및 추적할 수 있다.
도 10은 본 발명의 일 실시 예에 따른 오브젝트를 인식하는 방법을 설명하기 위한 예시 도면이다.
도 10을 참조하면, 제어부(33)는 맵 정보(M)와 영상 인식부(20)에 기초하여, 정적 장애물(O1)과 동적 장애물(O2)을 인식할 수 있다. 도 10에 도시된 화살표는 로봇(1)의 이동 방향일 수 있다. 도 10에 도시된 시야 범위(V)는 카메라(21)의 시야(Field of View)를 나타낼 수 있다. 한편, 카메라(21)를 포함하는 영상 인식부(20)는 회전이 가능하여, 로봇(1)의 이동 방향뿐만 아니라 다른 방향에 대한 장애물 인식도 가능하다.
또한, 제어부(33)는 로봇(1)의 이동 방향과 반대 방향에 위치한 오브젝트(T)를 인식할 수 있다. 일 실시 예에 따르면, 제어부(33)는 회전하는 카메라(21)를 통해 장애물(O1, O2)과 함께 오브젝트(T)를 인식할 수 있다. 즉, 카메라(21)로 로봇(1)의 주변을 촬영하고, 촬영된 영상에서 검출된 사람 중 설정된 오브젝트를 식별하여 오브젝트(T)를 인식할 수 있다.
다른 실시 예에 따르면, 회전하는 라이더(25) 또는 디스플레이부(11) 방향에 구비된 라이더(25)를 통해 로봇(1)과 인접한 영역에서 감지되는 타깃들을 서칭(searching)하고, 서칭된 타깃 중 카메라(21)로 촬영된 영상 정보를 통해 오브젝트를 설정할 수 있다. 제어부(33)는 라이더(25)로 설정된 오브젝트와의 거리를 계속해서 인식함으로써, 인식되는 거리 정보를 통해 오브젝트(T)의 이동울 추적할 수 있다.
장애물(O1, O2) 및 오브젝트(T)를 인식하는 방법은 앞에서 설명한 방법 외에 다른 방법을 더 포함할 수 있고, 조합하여 실시되는 것도 가능하다.
다시, 도 4를 설명한다.
제어부(33)는 오브젝트가 시야 범위에 위치하는지 판단할 수 있다(S111).
제어부(33)는 오브젝트가 시야 범위에 위치하지 않는 것으로 판단되면, 오브젝트가 시야 범위에 포함되도록 복귀 모션을 수행할 수 있다(S112).
일 실시 예에 따르면, 제어부(33)는 회전하는 카메라(21)를 이동 방향과 반대 방향에 위치시킨 후 카메라의 시야 범위에 오브젝트가 포함되는지 판단할 수 있다. 다른 실시 예에 따르면, 제어부(33)는 디스플레이부(11)에 구비된 카메라(21)의 시야 범위에 오브젝트가 포함되는지 판단할 수 있다.
한편, 제어부(33)가 카메라(21)의 시야 범위에 오브젝트가 포함되는지 판단하는 방법은 영상 인식부(20)를 구성하는 구성 요소에 따라 달라질 수 있다.
도 11은 본 발명의 제1 실시 예에 따른 카메라의 시야 범위에 오브젝트가 포함되는지 판단하는 방법을 나타내는 예시 도면이고, 도 12는 본 발명의 제2 실시 예에 따른 카메라의 시야 범위에 오브젝트가 포함되는지 판단하는 방법을 나타내는 예시 도면이다.
먼저, 제1 실시 예에 따르면, 영상 인식부(20)는 카메라(21), RGB 센서(22), 깊이 센서(23) 및 라이더(25)를 포함할 수 있다. 제어부(33)는 카메라(21)로 로봇(1)의 이동 방향과 반대 방향의 영상을 촬영하고, RGB 센서(22)로 사람을 검출하고, 깊이 센서(23)로 검출된 사람이 로봇(1)과 떨어진 거리 정보를 획득하도록 제어할 수 있다. 또한, 제어부(33)는 라이더(25)로 오브젝트와의 거리를 추출하도록 제어할 수 있다.
따라서, 제어부(33)는 오브젝트를 설정할 때 거리 정보와 오브젝트 이미지를 통해 기준 크기 정보를 획득하고, 오브젝트를 추적할 때 라이더(25)로 획득한 거리 정보 및 현재 촬영된 오브젝트 이미지를 통해 현재 크기 정보를 획득할 수 있고, 기준 크기 정보와 현재 크기 정보를 비교하여 오브젝트가 카메라(21)의 시야 범위를 벗어나는지 판단할 수 있다. 즉, 제어부(33)는 기준 크기 정보와 현재 크기 정보의 차가 기 설정된 크기 이상이면 오브젝트가 카메라(21)의 시야 범위를 벗어난 것으로 판단하고, 기 설정된 크기 미만이면 오브젝트는 카메라(21)의 시야 범위에 포함된 것으로 판단할 수 있다. 또한, 제어부(33)는 촬영된 영상에서 오브젝트가 식별되지 않는 경우에도, 오브젝트는 카메라(21)의 시야 범위에 포함된 것으로 판단할 수 있다.
제1 실시 예에서, 제어부(33)는 오브젝트가 카메라(21)의 시야 범위에 위치하지 않는 것으로 판단되면, 라이더(25)를 통해 추적한 오브젝트가 카메라(21)의 시야 범위에 포함되도록 회전 및/또는 이동하는 복귀 모션을 수행할 수 있다.
그 결과, 도 11(a)에 도시된 바와 같이 설정된 오브젝트(T1)가 카메라의 시야 범위를 벗어나더라도, 복귀 모션에 의해 도 11(b)에 도시된 바와 같이 오브젝트(T1)가 카메라의 시야 범위에 포함되어 오브젝트를 놓치는 경우를 최소화할 수 있다.
제2 실시 예에 따르면, 영상 인식부(20)는 카메라(21) 및 RGB 센서(22)만 포함할 수 있고, 이 경우 제어부(33)는 촬영된 영상에서 오브젝트를 식별하여 오브젝트가 카메라(21)의 시야 범위에 포함되는지 판단할 수 있다. 예를 들어, 제어부(33)는 오브젝트의 팔, 허리, 다리 등을 인식하여 카메라(21)의 시야 범위에 포함되는지 판단하고, 팔, 허리 또는 다리 등 중 적어도 하나가 포함되지 않으면 오브젝트는 카메라(21)의 시야 범위에 포함된 것으로 판단할 수 있다.
오브젝트에서 인식하는 팔, 허리, 다리 등의 요소는 예시적인 것에 불과하며, 제어부(33)는 오브젝트를 인식하기 위한 요소를 디폴트로 설정하고 있거나, 입력부(13)를 통해 사용자로부터 입력명령을 수신하여 설정할 수 있다.
제2 실시 예에서, 제어부(33)는 오브젝트가 카메라(21)의 시야 범위에 위치하지 않는 것으로 판단되면, 현재까지 측정한 오브젝트의 이동 속도와 방향 및 장애물 정보를 활용하여 회전 및/또는 이동하는 복귀 모션을 수행할 수 있다.
예를 들어, 제어부(33)는 오브젝트의 설정 요소(예를 들어, 팔, 허리, 다리)가 모두 카메라(21)의 시야 범위에 포함되도록 복귀 모션을 수행할 수 있다.
그 결과, 도 12(a)에 도시된 바와 같이 설정된 오브젝트(T1)가 카메라의 시야 범위를 벗어나더라도, 도 12(b)에 도시된 바와 같이 복귀 모션에 의해 오브젝트의 설정 요소가 카메라(21)의 시야 범위에 모두 포함될 수 있다.
제어부(33)는 설정된 오브젝트가 시야 범위에 위치하지 않는 경우, 설정된 오브젝트를 재인식할 수 있다(S113).
제어부(33)는 카메라(21)를 회전시키거나, 주행 구동부(18)를 통해 로봇(1)을 회전시켜 로봇(1) 주위의 영상을 촬영할 수 있고, 촬영된 영상에서 오브젝트를 인식할 수 있다.
도 13은 본 발명에 따른 로봇이 오브젝트를 재인식하는 방법을 설명하기 위한 도면이다.
제어부(33)는 오브젝트를 인식하는 경우 딥러닝 기반의 Matching Network 알고리즘을 이용할 수 있다. Matching Network 알고리즘은 영상에서 검출된 사람의 색상(color), 외형(shape), 무늬(texture), 엣지(edge) 등의 다양한 데이터 성분을 추출하고, 추출된 데이터 성분을 Matching Network에 통과시켜 feature vector를 획득할 수 있다. 획득된 feature vector를 안내 대상인 오브젝트와 비교하여 유사도를 산출함으로써 오브젝트를 재인식할 수 있다. Matching Network는 공지의 기술인 바 이에 대한 자세한 설명은 생략하기로 한다.
제어부(33)는 도 13의 (a)에 도시된 바와 같이 검출된 사람에서 두 개의 데이터 성분을 추출하여 Matching Network 알고리즘을 적용하거나, 도 13의 (b)에 도시된 바와 같이 검출된 사람에서 세 개의 데이터 성분을 추출하여 Matching Network 알고리즘을 적용할 수 있다. 그러나, 이는 예시적인 것에 불과하며, 제어부(33)는 적어도 하나 이상의 데이터 성분을 추출하여 Matching Network 알고리즘을 적용할 수 있다.
다시, 도 4를 설명한다.
제어부(33)는 오브젝트의 예상 경로와 장애물의 예상 경로에 교차점이 존재하는지 판단할 수 있다(S115).
제어부(33)는 장애물과 오브젝트의 충돌 가능성을 산출하고, 장애물과 오브젝트의 충돌이 예상되면 이동 경로를 재설정하도록 제어할 수 있다.
구체적으로, 제어부(33)는 영상 인식부(20)를 통해 오브젝트의 이동 정보와, 주변에 위치한 동적 장애물의 이동 정보를 획득할 수 있고, 저장부(15)에 저장된 맵 정보를 통해 정적 장애물 정보를 획득할 수 있다.
제어부(33)는 오브젝트와 동적 장애물들은 정적 장애물을 마주하면, 정적 장애물을 피해 이동하는 것으로 예상할 수 있다. 따라서, 제어부(33)는 오브젝트의 이동 방향 및 이동 속도와, 동적 장애물의 이동 방향 및 이동 속도를 예측할 수 있다.
도 14 내지 도 15는 본 발명의 실시 예에 따른 오브젝트 및 동적 장애물의 이동 경로를 예측하는 방법을 설명하기 위한 도면이다.
제어부(33)는 로봇(1)의 주변에 위치한 오브젝트(T1)와, 제1 동적 장애물(P1) 및 제2 동적 장애물(P2)을 인식할 수 있다. 또한, 제어부(33)는 오브젝트(T1)의 이동 방향 및 이동 속도와, 제1 동적 장애물(P1)의 이동 방향 및 이동 속도와, 제2 동적 장애물(P2)의 이동 방향 및 이동 속도를 예측할 수 있다.
도 14에 도시된 예시를 참고하면, 오브젝트(T1)와 P1의 이동 방향이 일치함을 확인할 수 있다. 또한, 도 15에 도시된 예시를 참고하면, 화살표는 오브젝트 또는 동적 장애물의 예측되는 이동 방향 및 이동 속도를 나타내는 예측 경로로, 오브젝트(T1)의 예상 경로와 제1 동적 장애물(P1)의 예상 경로에 교차점이 존재하는 것으로 판단할 수 있다.
제어부(33)는 오브젝트와 예상 경로와 장애물의 예상 경로에 교차점이 존재하면 오브젝트와 장애물이 부딪힐 가능성이 높은 것으로 판단하고, 오브젝트와 예상 경로와 장애물의 예상 경로에 교차점이 존재하지 않으면 오브젝트와 장애물이 부딪힐 가능성이 낮은 것으로 판단할 수 있다.
제어부(33)는 오브젝트와 예상 경로와 장애물의 예상 경로에 교차점이 존재하면, 오브젝트의 예상 경로가 장애물의 예상 경로와 교차되지 않도록 이동 경로를 재설정할 수 있다(S117).
예를 들어, 제어부(33)는 장애물의 예상 경로와 소정 거리 이상 떨어진 영역으로 이동하도록 이동 경로를 재설정할 수 있다. 그러나, 이는 예시적인 것에 불과하며, 제어부(33)는 다양한 방법으로 는 오브젝트와 예상 경로와 장애물의 예상 경로에 교차점이 존재하지 않도록 이동 경로를 재설정할 수 있다.
또는, 제어부(33)는 오브젝트의 예상 경로와 장애물의 예상 경로와 교차되지 않도록 이동 속도를 빠르게 또는 느리게 조절할 수 있다.
또는, 제어부(33)는 '충돌 예상'을 나타내는 경고 메시지를 디스플레이부(11)에 출력함으로써, 오브젝트가 장애물과 부딪히는 경우를 최소화할 수 있다.
한편, 제어부(33)는 오브젝트와 예상 경로와 장애물의 예상 경로에 교차점이 존재하지 않는 경우, 영상의 블러(Blur)가 예상되는지 판단할 수 있다(S119).
단계 S115와 단계 S119의 순서는 변경될 수 있다.
영상의 블러(Blur)란 영상이 흐릿하여 오브젝트 또는 장애물의 인식이 어려운 상태를 의미할 수 있다. 영상의 블러는 로봇이 회전하거나, 또는 로봇, 오브젝트 또는 장애물이 빠르게 이동하는 등의 경우에 발생할 수 있다.
제어부(33)는 정적 장애물 또는 동적 장애물을 회피하기 위하여 회전 이동하는 경우 영상의 블러가 발생할 것으로 예상할 수 있다. 또한, 제어부(33)는 로봇, 오브젝트 또는 장애물의 이동 속도가 기 설정된 기준 속도 이상으로 감지되면 영상의 블러가 발생할 것으로 예상할 수 있다.
따라서, 제어부(33)는 이동 경로 상에서 존재하는 회전 모션의 횟수와, 회전 각도 및 예상 이동 속도 등을 산출하여 영상의 블러 발생 가능성을 산출할 수 있다.
제어부(33)는 영상의 블러가 예상되면, 영상의 블러가 최소화되도록 이동 경로를 재설정할 수 있다(S121).
제어부(33)는 영상의 블러 발생 가능성이 기 설정된 기준 이상이면 이동 경로를 재설정하도록 제어할 수 있다.
일 실시 예에 따르면, 제어부(33)는 이동 경로까지의 길이 대비 예상되는 영상의 블러 발생 횟수를 통해 영상의 블러 발생 가능성을 산출할 수 있다. 예를 들어, 제어부(33)는 이동 경로를 재설정하는 기준을 10%로 설정하고 있을 수 있다, 제어부(33)는 이동 경로의 길이가 500m이고, 예상되는 영상의 블러 발생 횟수가 5회이면, 영상의 블러 발생 가능성을 1%로 산출할 수 있고, 이 경우 이동 경로를 변경하지 않을 수 있다. 반면에, 제어부(33)는 이동 경로의 길이가 100m이고, 예상되는 영상의 블러 발생 횟수가 20회이면, 영상의 블러 발생 가능성을 20%로 산출할 수 있고, 이 경우 이동 경로를 재설정할 수 있다. 그러나, 앞에서 예시로 든 수치는 설명의 편의를 위해 예시로 든 것에 불과하므로 이에 제한될 필요는없다.
다른 실시 예에 따르면, 제어부(33)는 이동 경로까지의 길이와 관계 없이 예상되는 영상의 블러 발생 횟수가 기준 횟수 이상이면 영상의 블러가 발생할 것으로 예상할 수 있다. 예를 들어, 제어부(33)는 이동 경로를 재설정하는 기준을 5회로 설정하고 있을 수 있고, 예상되는 영상의 블러 발생 횟수가 3회이면 이동 경로를 변경하지 않고, 예상되는 영상의 블러 발생 횟수가 7회이면 이동 경로를 재설정할 수 있다. 그러나, 앞에서 예시로 든 수치는 설명의 편의를 위해 예시로 든 것에 불과하므로 이에 제한될 필요는 없다.
제어부(33)는 로봇(1)의 회전 횟수를 최소화하거나 회전 각도가 작은 이동 경로로 재설정하거나, 로봇 또는 오브젝트의 이동 속도를 줄이는 방향으로 이동 경로를 재설정할 수 있다.
도 16은 본 발명의 실시 예에 따른 로봇이 영상의 블러를 최소화하도록 이동 경로를 재설정하는 방법을 설명하기 위한 도면이다.
도 16을 참조하면, 로봇(1)은 주행하면서 장애물을 인식할 수 있고, 이동 경로(P1) 상에 적어도 하나 이상의 동적 장애물이(O2)이 위치함을 인식할 수 있다. 도 16을 참조하면, 제어부(33)는 이동 경로(P1) 상에 위치한 세 개의 동적 장애물(O2)을 회피하기 위하여 세 번의 회전 이동을 예상할 수 있고, 이에 따라 블러의 발생을 예측할 수 있다.
이 경우, 제어부(33)는 다른 안내 경로에 따른 장애물을 인식할 수 있고, 다른 안내 경로에 따를 경우 영상의 블러 발생 가능성이 더 낮은 것으로 판단되면 이동 경로를 다른 안내 경로(P2)로 재설정할 수 있다.
이와 같이, 제어부(33)가 영상의 블러 발생이 최소화되도록 이동 경로를 재설정하면 안내 대상인 오브젝트를 놓치는 경우를 최소화할 수 있는 이점이 있다.
한편, 도 4에서는 영상의 블러 발생을 예측하여 이를 최소화하는 방향으로 이동 경로를 재설정하는 방법만을 설명하였으나, 본 발명의 실시 예에 따른 제어부(33)는 오브젝트가 장애물에 의해 가려져 오브젝트의 인식을 실패하는 경우를 최소화하도록 이동 경로를 재설정할 수도 있다.
다시, 도 4를 설명한다.
S117 또는 S121에서 이동 경로를 재설정하면, 단계 S107로 돌아가 재설정된 이동 경로를 따라 로봇이 이동하도록 주행할 수 있다.
한편, S111에서 오브젝트가 시야 범위에 위치하는 경우 제어부(33)는 로봇(1)이 목적지에 도달하였는지 판단할 수 있다(S123).
로봇(1)이 목적지에 도달하지 않은 경우, 단계 S107로 돌아가 이동 경로를 따라 로봇이 이동하도록 주행할 수 있다.
한편, 제어부(33)는 로봇(1)이 목적지에 도달한 경우에는 목적지 안내 동작을 종료할 수 있다(S125).
즉, 제어부(33)는 안내 동작을 종료하고 목적지 없이 자율 주행을 하거나, 안내 동작을 시작했던 원래 위치로 돌아갈 수 있다. 그러나, 이는 예시적인 것에 불과하므로 이에 제한될 필요는 없다.
본 발명의 일 실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있다.
상기와 같이 설명된 로봇은 상기 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.

Claims (10)

  1. 목적지 입력명령을 수신하는 입력부;
    맵(map) 정보를 저장하는 저장부;
    상기 수신된 목적지까지의 이동 경로를 상기 맵 정보에 기초하여 설정하는 제어부;
    상기 설정된 이동 경로를 따라 이동하는 주행 구동부; 및
    상기 목적지까지 이동하는 동안 안내 대상에 해당하는 오브젝트를 인식하는 영상 인식부를 포함하고,
    상기 제어부는
    상기 오브젝트가 시야 범위에 포함되지 않으면 상기 오브젝트가 시야 범위에 포함되도록 이동 또는 회전하고, 상기 오브젝트를 재인식하는 로봇.
  2. 제1항에 있어서,
    상기 영상 인식부는
    상기 로봇의 주변 영상을 촬영하는 카메라와,
    상기 촬영된 영상에서 사람을 검출하기 위한 색상 성분을 추출하는 RGB 센서를 포함하는 로봇.
  3. 제2항에 있어서,
    상기 제어부는
    상기 목적지 입력명령을 수신하면 상기 카메라로 상기 입력부의 전방 영상을 촬영하고, 상기 촬영된 영상에서 목적지를 입력 중인 사람을 상기 오브젝트로 설정하는 로봇.
  4. 제2항에 있어서,
    상기 영상 인식부는
    주변에 위치한 사람 또는 사물과의 거리를 센싱하는 라이더를 더 포함하고,
    상기 제어부는
    상기 라이더를 통해 상기 로봇에 인접하게 위치한 적어도 하나 이상의 사람과의 거리를 센싱하고, 상기 로봇으로부터 가장 가까이 위치한 사람을 상기 오브젝트로 설정하는 로봇.
  5. 제3항 또는 제4항에 있어서,
    상기 제어부는
    상기 오브젝트를 설정하는 동안 오브젝트의 인식을 실패하면 다른 촬영된 영상에 포함된 다른 사람을 상기 오브젝트로 변경 설정 또는 추가 설정하는 로봇.
  6. 제1항에 있어서,
    상기 영상 인식부는
    상기 목적지까지 이동하는 동안 장애물을 인식하고,
    상기 제어부는
    상기 장애물과 상기 오브젝트의 충돌을 가능성을 산출하고, 상기 장애물과 상기 오브젝트의 충돌이 예상되면 상기 이동 경로를 재설정하는 로봇.
  7. 제6항에 있어서,
    상기 장애물은
    상기 맵 정보에 포함된 정적 장애물과, 상기 영상 인식부를 통해 인식되는 동적 장애물을 포함하는 로봇.
  8. 제6항에 있어서,
    상기 제어부는
    상기 장애물의 예상 경로와 상기 오브젝트의 예상 경로를 산출하고, 상기 장애물의 예상 경로와 상기 오브젝트의 예상 경로에 교차점이 존재하는지 판단하여 상기 장애물과 상기 오브젝트의 충돌 여부를 판단하는 로봇.
  9. 제1항에 있어서,
    상기 제어부는
    상기 이동 경로 상에 포함된 회전 모션의 횟수 또는 회전 각도에 기초하여 영상의 블러(blur) 발생 여부를 판단하는 로봇.
  10. 제9항에 있어서,
    상기 제어부는
    영상의 블러가 발생할 것으로 예상되면 회전 모션의 횟수를 최소화하는 안내 경로 또는 회전 각도가 작은 안내 경로로 이동 경로를 재설정하는 로봇.
KR1020180001516A 2018-01-05 2018-01-05 안내 로봇 및 그의 동작 방법 KR102500634B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020180001516A KR102500634B1 (ko) 2018-01-05 2018-01-05 안내 로봇 및 그의 동작 방법
PCT/KR2018/000818 WO2019135437A1 (ko) 2018-01-05 2018-01-17 안내 로봇 및 그의 동작 방법
US16/495,270 US20200089252A1 (en) 2018-01-05 2018-01-17 Guide robot and operating method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180001516A KR102500634B1 (ko) 2018-01-05 2018-01-05 안내 로봇 및 그의 동작 방법

Publications (2)

Publication Number Publication Date
KR20190083727A true KR20190083727A (ko) 2019-07-15
KR102500634B1 KR102500634B1 (ko) 2023-02-16

Family

ID=67144220

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180001516A KR102500634B1 (ko) 2018-01-05 2018-01-05 안내 로봇 및 그의 동작 방법

Country Status (3)

Country Link
US (1) US20200089252A1 (ko)
KR (1) KR102500634B1 (ko)
WO (1) WO2019135437A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114003027A (zh) * 2020-07-14 2022-02-01 本田技研工业株式会社 移动体控制装置、移动体、移动体控制方法及存储介质
WO2022124470A1 (ko) * 2020-12-11 2022-06-16 삼성전자주식회사 로봇 및 그 제어 방법
WO2023106612A1 (ko) * 2021-12-06 2023-06-15 네이버랩스 주식회사 로봇을 제어하는 방법 및 시스템

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI695180B (zh) * 2018-07-24 2020-06-01 國立交通大學 機器人導引方法
US10909225B2 (en) * 2018-09-17 2021-02-02 Motorola Mobility Llc Electronic devices and corresponding methods for precluding entry of authentication codes in multi-person environments
CN114450726A (zh) * 2019-10-03 2022-05-06 索尼集团公司 数据处理装置、数据处理方法和机器人
KR20210096886A (ko) * 2020-01-29 2021-08-06 한화디펜스 주식회사 이동 감시 장치 및 그 동작 방법
US20240142985A1 (en) * 2022-10-28 2024-05-02 Zebra Technologies Corporation De-centralized traffic-aware navigational planning for mobile robots

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080056669A (ko) * 2006-12-18 2008-06-23 가부시키가이샤 히타치세이사쿠쇼 안내 로봇장치 및 안내시스템
KR101140984B1 (ko) * 2010-12-29 2012-05-03 고려대학교 산학협력단 가시적으로 차단된 동적 장애물의 출현을 고려한 안전 경로 생성 방법 및 이를 이용한 이동 로봇
US20160188977A1 (en) * 2014-12-24 2016-06-30 Irobot Corporation Mobile Security Robot
KR20170028605A (ko) * 2015-09-04 2017-03-14 한국전자통신연구원 Rgb-d 영상 기반 사람 영역 추출 장치 및 그 방법

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4072033B2 (ja) * 2002-09-24 2008-04-02 本田技研工業株式会社 受付案内ロボット装置
WO2007041295A2 (en) * 2005-09-30 2007-04-12 Irobot Corporation Companion robot for personal interaction
KR20160000162A (ko) * 2014-06-24 2016-01-04 주식회사 네오텍 안내용 서비스 로봇의 자율주행 방법
EP3223034B1 (en) * 2016-03-16 2022-07-20 Ricoh Company, Ltd. Object detection apparatus and moveable apparatus
CN105796289B (zh) * 2016-06-03 2017-08-25 京东方科技集团股份有限公司 导盲机器人
US10001780B2 (en) * 2016-11-02 2018-06-19 Brain Corporation Systems and methods for dynamic route planning in autonomous navigation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080056669A (ko) * 2006-12-18 2008-06-23 가부시키가이샤 히타치세이사쿠쇼 안내 로봇장치 및 안내시스템
KR101140984B1 (ko) * 2010-12-29 2012-05-03 고려대학교 산학협력단 가시적으로 차단된 동적 장애물의 출현을 고려한 안전 경로 생성 방법 및 이를 이용한 이동 로봇
US20160188977A1 (en) * 2014-12-24 2016-06-30 Irobot Corporation Mobile Security Robot
KR20170028605A (ko) * 2015-09-04 2017-03-14 한국전자통신연구원 Rgb-d 영상 기반 사람 영역 추출 장치 및 그 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114003027A (zh) * 2020-07-14 2022-02-01 本田技研工业株式会社 移动体控制装置、移动体、移动体控制方法及存储介质
WO2022124470A1 (ko) * 2020-12-11 2022-06-16 삼성전자주식회사 로봇 및 그 제어 방법
WO2023106612A1 (ko) * 2021-12-06 2023-06-15 네이버랩스 주식회사 로봇을 제어하는 방법 및 시스템

Also Published As

Publication number Publication date
WO2019135437A1 (ko) 2019-07-11
US20200089252A1 (en) 2020-03-19
KR102500634B1 (ko) 2023-02-16

Similar Documents

Publication Publication Date Title
KR20190083727A (ko) 안내 로봇 및 그의 동작 방법
US7873448B2 (en) Robot navigation system avoiding obstacles and setting areas as movable according to circular distance from points on surface of obstacles
JP5782708B2 (ja) 走行支援装置
JP5112666B2 (ja) 移動装置
US9020682B2 (en) Autonomous mobile body
JP5187517B2 (ja) 情報提供装置、情報提供方法およびプログラム
KR20190134554A (ko) 동적 장애물을 식별하는 방법 및 이를 구현한 로봇
JP6771588B2 (ja) 移動体および移動体の制御方法
JP2018147337A (ja) 自律移動ロボット、自律移動ロボットの制御方法および制御プログラム
BR112020002536B1 (pt) Método de controle de estacionamento e aparelho de controle de estacionamento
JP2007199965A (ja) 自律移動装置
US20220315062A1 (en) Information processing apparatus, control apparatus for moving body, method of controlling information processing apparatus, and method of controlling moving body
US20220222870A1 (en) Map driven augmented reality
KR102163462B1 (ko) 경로 탐사 로봇 및 그를 이용한 매핑 방법
JP2010211380A (ja) 運転支援装置および運転支援方法
JP7061474B2 (ja) 走行装置
WO2021246170A1 (ja) 情報処理装置、情報処理システム、および方法、並びにプログラム
WO2022085368A1 (ja) 情報処理装置、情報処理システム、および方法、並びにプログラム
US11623654B2 (en) Systems and methods of assisting vehicle navigation
JP2014174880A (ja) 情報提供装置、及び情報提供プログラム
JP2014174091A (ja) 情報提供装置、及び情報提供プログラム
KR102431004B1 (ko) 고정경로 주행차량 정보를 이용한 경로안내 방법
JP5214539B2 (ja) 自律走行ロボット、自律走行ロボットを用いた追走システム、及び追走方法
JP2022132902A (ja) 移動体の制御システム、移動体、移動体の制御方法、およびプログラム
JP2014174879A (ja) 情報提供装置、及び情報提供プログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant