KR102412555B1 - 로봇과 사용자간의 인터랙션을 위한 방법 및 시스템 - Google Patents

로봇과 사용자간의 인터랙션을 위한 방법 및 시스템 Download PDF

Info

Publication number
KR102412555B1
KR102412555B1 KR1020190130161A KR20190130161A KR102412555B1 KR 102412555 B1 KR102412555 B1 KR 102412555B1 KR 1020190130161 A KR1020190130161 A KR 1020190130161A KR 20190130161 A KR20190130161 A KR 20190130161A KR 102412555 B1 KR102412555 B1 KR 102412555B1
Authority
KR
South Korea
Prior art keywords
robot
interaction
user
service
recognized
Prior art date
Application number
KR1020190130161A
Other languages
English (en)
Other versions
KR20210046451A (ko
Inventor
차세진
Original Assignee
네이버랩스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버랩스 주식회사 filed Critical 네이버랩스 주식회사
Priority to KR1020190130161A priority Critical patent/KR102412555B1/ko
Publication of KR20210046451A publication Critical patent/KR20210046451A/ko
Priority to KR1020220074910A priority patent/KR102662383B1/ko
Application granted granted Critical
Publication of KR102412555B1 publication Critical patent/KR102412555B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Automation & Control Theory (AREA)

Abstract

로봇과 사용자간의 인터랙션을 위한 방법 및 시스템을 개시한다. 일실시예에 있어서, 자율 주행에 기반하여 서비스를 제공하는 로봇에 의해 수행되는 인터랙션 방법은 제공하고자 하는 서비스 인스턴스의 처리를 위한 상기 로봇의 자율 주행을 처리하는 단계, 상기 자율 주행 중에 상기 로봇이 포함하는 센서에 기반하여 인터랙션 대상을 인지하는 단계, 상기 인지된 인터랙션 대상에 대한 개인화 정보를 획득하는 단계 및 상기 개인화 정보에 기초하여 상기 인지된 인터랙션 대상에게 인터랙션을 제공하는 단계를 포함할 수 있다.

Description

로봇과 사용자간의 인터랙션을 위한 방법 및 시스템{METHOD AND SYSTEM FOR INTERACTION BETWEEN ROBOT AND USER}
아래의 설명은 로봇과 사용자간의 인터랙션을 위한 방법 및 시스템에 관한 것이다.
자율 주행 로봇은 스스로 주변을 살피고 장애물을 감지하면서 바퀴나 다리를 이용하여 목적지까지 최적 경로를 찾아가는 로봇으로, 자율 주행 차량이나, 물류, 호텔 서비스, 로봇 청소기 등 다양한 분야를 위해 개발 및 활용되고 있다. 예를 들어, 한국공개특허 제10-2005-0024840호는 자율이동로봇을 위한 경로계획방법에 관한 기술로, 가정이나 사무실에서 자율적으로 이동하는 이동로봇이 장애물을 회피하면서 목표점까지 안전하고 빠르게 이동할 수 있는 최적경로를 계획하는 방법에 대해 개시하고 있다.
한편, 이러한 자율 주행 로봇은 공간이나 경로를 자율 주행하면서 식음료, 택배, 서류 등의 물품 배달이나 시설 안내 등과 같은 특정 서비스를 다수의 특정 사용자들 및/또는 불특정 사용자들에게 제공할 필요가 있다. 이러한 서비스의 제공을 위해 자율 주행 로봇에게는 사용자들과의 다양한 인터랙션이 요구된다. 특히, 사람마다 로봇을 이해하는 정도가 다르고, 로봇의 인터랙션에 대한 수용도가 다를 수 있기 때문에, 획일적인 인터랙션의 제공은 사용자들에게 해당 서비스에 대한 만족스러운 경험을 제공하기 어렵다는 문제점이 있다.
자율 주행에 기반하여 사용자들에게 서비스를 제공하는 로봇이 서비스를 제공받는 대상에 대한 정보에 기초하여 개인화된 인터랙션을 제공할 수 있는 인터랙션 방법 및 시스템을 제공한다.
자율 주행에 기반하여 서비스를 제공하는 로봇에 의해 수행되는 인터랙션 방법에 있어서, 제공하고자 하는 서비스 인스턴스의 처리를 위한 상기 로봇의 자율 주행을 처리하는 단계; 상기 자율 주행 중에 상기 로봇이 포함하는 센서에 기반하여 인터랙션 대상을 인지하는 단계; 상기 인지된 인터랙션 대상에 대한 개인화 정보를 획득하는 단계; 및 상기 개인화 정보에 기초하여 상기 인지된 인터랙션 대상에게 인터랙션을 제공하는 단계를 포함하는 인터랙션 방법을 제공한다.
일측에 따르면, 상기 인터랙션 대상은 상기 서비스 인스턴스의 서비스 대상이 되는 제1 사용자 및 상기 서비스 인스턴스와 무관하게 상기 자율 주행 중에 마주치는 제2 사용자를 포함하는 것을 특징으로 할 수 있다.
다른 측면에 따르면, 상기 인터랙션 대상을 인지하는 단계는, 상기 자율 주행 중에 상기 센서로부터 출력되는 값에 기반하여 사람의 얼굴을 인식하는 단계; 및 상기 인식된 사람의 얼굴에 기반하여 식별되는 사용자를 상기 인터랙션 대상으로서 인지하는 단계를 포함하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 로봇은 기설정된 시설물의 내부를 자율 주행하고, 상기 인식된 사람의 얼굴에 기반하여 식별되는 사용자를 상기 인터랙션 대상으로서 인지하는 단계는, 상기 기설정된 시설물의 근무자 및 방문자 중 적어도 하나에 대한 신원과 사진이 서로 대응하여 저장된 데이터베이스에 접속하여 상기 인식된 사람의 얼굴에 매칭하는 사진을 검색함으로써, 상기 인터랙션 대상의 신원을 확인하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 인터랙션 대상을 인지하는 단계는, 상기 자율 주행 중에 마주치는 사람이 소지하고 있는 기설정된 물품과의 근거리 무선 통신을 통해 상기 인터랙션 대상을 인지하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 기설정된 물품은 상기 로봇이 자율 주행하는 시설물과 연관된 기업의 사원증, 상기 시설물에 대한 방문증, 상기 사람이 소지한 모바일 단말 및 상기 시설물에 입점한 업체의 진동벨 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 개인화 정보를 획득하는 단계는, 상기 인지된 인터랙션 대상에 대해 이전에 수집되어 저장된 반응 데이터, 상기 센서를 통해 현재 수집되는 상기 인지된 인터랙션 대상에 대한 센싱 정보 및 상기 로봇의 위치에 대한 공간 정보 중 적어도 하나를 획득하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 반응 데이터는 상기 인지된 인터랙션 대상에게 이전에 제공된 인터랙션에 대응하여 상기 인지된 인터랙션 대상이 보였던 반응에 대한 센싱 정보로서 상기 로봇이 자율 주행하는 시설물 또는 상기 로봇이 제공하는 서비스와 연관하여 구성된 서버에 저장되는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 센싱 정보는 사용자가 로봇을 응시하고 있는지 여부 및 사용자의 감정 상태 중 적어도 하나를 결정하기 위한 정보를 포함하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 공간 정보는 상기 로봇이 자율 주행하는 시설물의 지도에서 상기 로봇의 현재 위치에 기반하여 추출되는 정보를 포함하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 인터랙션을 제공하는 단계는, 상기 개인화 정보에 기초하여 인터랙션의 종류, 인터랙션의 횟수, 인터랙션의 제공 시간 및 인터랙션의 내용 중 적어도 하나를 조절하여 결정된 인터랙션을 상기 인지된 인터랙션 대상에게 제공하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 인터랙션을 제공하는 단계는, 상기 서비스 인스턴스의 종류 및 상기 서비스 인스턴스를 제공하는데 걸리는 시간 중 적어도 하나에 더 기초하여 상기 인터랙션을 제공하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 처리하는 단계, 상기 인지하는 단계, 상기 수집하는 단계 및 상기 제공하는 단계 중 적어도 하나의 단계는, 상기 로봇이 자율 주행하는 시설물 또는 상기 로봇이 제공하는 서비스와 연관하여 구성된 서버와의 통신을 통해 처리되는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 인터랙션을 제공하는 단계는, 상기 개인화 정보에 기초하여 컨텐츠의 제공 여부 및 제공할 컨텐츠를 결정하는 단계; 및 상기 결정된 컨텐츠를 임의의 매체를 통해 상기 인지된 인터랙션 대상에게 제공하는 단계를 포함하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 임의의 매체는 상기 로봇이 포함하는 제1 디스플레이, 상기 로봇이 제공하는 서비스와의 연동을 위해 상기 인지된 인터랙션 대상이 소지하는 단말에 설치된 어플리케이션 및 상기 로봇의 현재 위치에 대응하는 공간에 설치되어 있는 제2 디스플레이 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 컨텐츠의 제공 여부 및 제공할 컨텐츠를 결정하는 단계는, 상기 개인화 정보에 기초하여 상기 인지된 인터랙션 대상의 감정 상태를 파악하는 단계; 및 상기 파악된 감정 상태에 기반하여 상기 컨텐츠의 제공 여부, 상기 컨텐츠의 종류, 상기 컨텐츠의 내용 및 상기 컨텐츠의 출력 방식 중 적어도 하나를 결정하는 단계를 포함하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 컨텐츠의 제공 여부 및 제공할 컨텐츠를 결정하는 단계는, 상기 서비스 인스턴스를 제공하는데 걸리는 시간 및 상기 서비스 인스턴스에 대해 기 측정된 상기 인지된 인터랙션 대상의 반응 시간 중 적어도 하나에 더 기초하여 상기 컨텐츠의 종류 및 상기 컨텐츠의 노출 시간 중 적어도 하나를 결정하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 컨텐츠의 제공 여부 및 제공할 컨텐츠를 결정하는 단계는, 상기 서비스 인스턴스의 종류 및 상기 서비스 인스턴스를 제공받는 사용자들의 반응 중 적어도 하나에 기초하여 상기 제공할 컨텐츠를 결정하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 컨텐츠의 제공 여부 및 제공할 컨텐츠를 결정하는 단계는, 상기 인지된 인터랙션 대상의 신원에 기반하여 상기 인지된 인터랙션 대상의 기존 서비스 사용 내역을 확인하는 단계; 및 상기 확인된 기존 서비스 사용 내역에 기초하여 상기 제공할 컨텐츠를 결정하는 단계를 포함하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 컨텐츠의 제공 여부 및 제공할 컨텐츠를 결정하는 단계는, 상기 로봇이 자율 주행하는 시설물의 지도에서 상기 로봇의 현재 위치에 대응하는 공간 정보를 추출하는 단계; 및 상기 추출된 공간 정보에 기초하여 상기 제공할 컨텐츠를 결정하는 단계를 포함하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 컨텐츠의 제공 여부 및 제공할 컨텐츠를 결정하는 단계는, 상기 로봇이 자율 주행하는 시설물의 지도에서 상기 로봇의 현재 위치에 대응하는 제1 공간 정보를 추출하는 단계; 상기 추출된 제1 공간 정보에 기초하여 상기 지도에서 상기 인지된 인터랙션 대상이 다음으로 방문할 공간을 예측하는 단계; 상기 예측된 공간에 대한 제2 공간 정보를 추출하는 단계; 및 상기 제2 공간 정보에 기초하여 상기 제공할 컨텐츠를 결정하는 단계를 포함하는 것을 특징으로 할 수 있다.
컴퓨터 장치와 결합되어 상기 방법을 컴퓨터 장치에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.
상기 방법을 컴퓨터 장치에 실행시키기 위한 프로그램이 기록되어 있는 컴퓨터 판독 가능한 기록매체를 제공한다.
자율 주행에 기반하여 서비스를 제공하는 로봇에 있어서, 상기 로봇을 이동시키는 구동부; 복수의 센서들을 포함하고, 상기 복수의 센서들의 출력값을 포함하는 센싱 데이터를 생성하는 센싱부; 및 상기 센싱 데이터를 이용하여 서비스의 제공을 위한 자율 주행을 처리하도록 상기 구동부를 제어하는 제어부를 포함하고, 상기 제어부는, 제공하고자 하는 서비스 인스턴스의 처리를 위한 상기 로봇의 자율 주행을 처리하고, 상기 자율 주행 중에 상기 센서부에 기반하여 인터랙션 대상을 인지하고, 상기 인지된 인터랙션 대상에 대한 개인화 정보를 획득하고, 상기 개인화 정보에 기초하여 상기 인지된 인터랙션 대상에게 인터랙션을 제공하는 것을 특징으로 하는 로봇을 제공한다.
자율 주행에 기반하여 사용자들에게 서비스를 제공하는 로봇이 서비스를 제공받는 대상에 대한 정보에 기초하여 개인화된 인터랙션을 제공할 수 있다.
도 1은 본 발명의 일실시예에 있어서, 로봇의 자율 주행을 통해 서비스를 제공하기 위한 인터랙션 시스템의 예를 도시한 도면이다.
도 2는 본 발명의 일실시예에 있어서, 자율 주행에 기반하여 서비스를 제공하는 서비스 로봇의 개략적인 구성의 예를 설명하기 위한 블록도이다.
도 3은 본 발명의 일실시예에 따른 인터랙션 방법의 예를 도시한 흐름도이다.
도 4는 본 발명의 일실시예에 있어서, 로봇의 동작 환경의 예를 도시한 도면이다.
이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.
도 1은 본 발명의 일실시예에 있어서, 로봇의 자율 주행을 통해 서비스를 제공하기 위한 인터랙션 시스템의 예를 도시한 도면이다. 도 1은 서비스 제공자 측의 서버(110)와 맵핑 로봇(120), 그리고 이용자들의 시설물들과 이용자 측을 위한 서비스 로봇(130)을 나타내고 있다. 우선, 서비스 제공자 측은 맵핑 로봇(120)을 시설물들에 투입하여 이용자들의 시설물들의 실내 지도를 생성할 수 있다. 이때, 놀이공원과 같은 야외 시설물의 지도 역시 실내 지도의 개념으로 포함될 수 있다. 예를 들어, 서비스 제공자 측은 대형 마트나 병원, 공항, 호텔 등과 같이 다양한 시설물들의 실내 지도를 미리 생성해놓을 수도 있고, 별도의 계약을 통해 서비스를 요청하는 이용자들의 시설물들의 실내 지도를 요청에 따라 생성할 수도 있다. 보다 구체적인 예로, 서비스 제공자 측은 시설물 A의 이용자로부터의 요청에 따라 맵핑 로봇(120)을 시설물 A에 투입하여 시설물 A의 실내 지도를 생성할 수 있다. 맵핑 로봇(120)은 실내 자율 주행 로봇으로서 자율 주행과 지도 생성을 위해 3D 라이더(lidar), 360도 카메라, IMU(Inertial Measurement Unit)와 같은 다양한 센서들을 포함할 수 있고, 시설물 A를 자율 주행하면서 생성된 센싱 데이터를 서버(110)로 전송할 수 있다. 이때 실시예에 따라 센싱 데이터는 실내 지도의 생성을 위한 맵핑 로봇(120)의 자율 주행이 완료된 후에 센싱 데이터가 저장된 컴퓨터 판독 가능 기록매체를 통해 서버(110)에 입력될 수도 있으나, 맵핑 로봇(120)이 통신 모듈을 포함하여 네트워크를 통해 서버(110)로 전송할 수 있다. 또한, 맵핑 로봇(120)에서 생성되는 센싱 데이터는 맵핑 로봇(120)에서 서버(110)로 실시간으로 전송될 수도 있고, 맵핑 로봇(120)이 시설물의 센싱을 완료한 후에 일괄적으로 서버(110)로 전송될 수도 있다.
서버(110)는 맵핑 로봇(120)이 제공하는 센싱 데이터에 기반하여 시설물 A에 대한 실내 지도를 제작할 수 있으며, 제작된 실내 지도에 기반하여 시설물 A에 배치된 서비스 로봇(130)과 통신하면서 서비스 로봇(130)을 제어할 수 있다. 예를 들어, 서버(110)는 서비스 로봇(130)이 포함하는 센서들을 통해 생성된 센싱 데이터(일례로, 서비스 로봇(130)의 현재 위치를 파악하기 위한 데이터)를 수신하고, 수신된 센싱 데이터와 시설물 A의 실내 지도를 이용하여 서비스 로봇(130)을 위한 로컬리제이션과 경로 계획을 처리하여 그 결과 데이터(일례로, 서비스 로봇(130)이 자율 주행 시 이동해야 할 경로 데이터)를 서비스 로봇(130)으로 제공할 수 있다. 이때, 서비스 로봇(130)은 서버(110)가 제공하는 결과 데이터에 기반하여 자율 주행을 처리하면서 목적된 서비스를 시설물 A 내에서 제공할 수 있게 된다.
맵핑 로봇(120)은 시설물 A에 대해 최초 1회만 또는 실내 지도에 대해 변경이 발생되는 경우에만, 또는 실내 지도에 대해 변경이 발생될 정도로 상당히 긴 시간 주기(일례로, 1년)로 해당 시설물에서 동작하면 된다. 따라서, 실내 지도의 제작이 요구되는 시설물들의 수와 시간 스케줄링에 따라 하나의 맵핑 로봇(120)이 다수의 시설물들의 실내 지도를 제작하는데 활용될 수 있기 때문에 다수의 맵핑 로봇들이 요구되지 않고 따라서 고가의 장비를 활용하여 제작되더라도 서비스 사용자 측에 큰 부담을 주지 않는다. 반면 이용자들 각각에서 개별 목적을 위해 동작하는 서비스 로봇들을 개별적으로 제작하여 이용할 때, 서비스 로봇들 각각은 해당하는 하나의 시설물에서 지속적으로 동작되어야 하며, 하나의 시설물 내에서 동시에 여러 대가 동작되어야 하는 경우가 다수 존재한다. 따라서 이용자의 측면에서는 고가의 장비를 활용하기 어려운 문제점이 있다. 이에, 본 발명의 실시예들에서는 서비스 제공자 측에서 맵핑 로봇(120)을 투입하여 시설물 A의 실내 지도를 제작하고, 서버(110)를 통해 서비스 로봇(130)을 제어함으로써, 서비스 로봇(130)이 고가의 장비를 사용하지 않고도 목적된 서비스를 해당 시설물 내에서 처리하도록 할 수 있다.
예를 들어, 라이더(lidar)는 전파에 가까운 성질을 가진 레이저 광선을 이용하여 개발한 레이더로서, 자율 주행을 위해 탑재되는 고가의 센서 장비이며 이러한 라이더를 활용하는 경우, 기본적으로 둘 이상의 라이더들이 하나의 자율 주행 유닛에 포함된다. 일례로, 물류 관리를 위해 이용자가 60 대의 서비스 로봇들을 사용한다 가정할 때, 종래기술에서는 고가의 라이더가 120 개 이상이 요구된다. 반면, 본 발명의 실시예들에서는 자율 주행을 위해 요구되는 로컬리제이션과 경로 계획을 서비스 제공자 측의 서버(110)가 처리하고 그 결과 데이터를 제공하면, 서비스 로봇들이 서버(110)로부터 제공되는 결과 데이터에 따라 주행하기 때문에 고가의 센서 장비 없이 저가형 초음파 센서 및/또는 저가형 카메라만으로도 실내 주행이 가능해진다. 실질적으로 본 발명의 실시예들에 따른 서비스 로봇들은 서버(110)로부터 제공되는 결과 데이터에 따라 동작하기 때문에 실내 자율 주행을 위한 별도의 센서 없이 실내 주행이 가능하다. 다만, 저가형 초음파 센서 및/또는 저가형 카메라와 같은 저가의 센서들이 서비스 로봇(130)의 현재 위치 파악과 서비스 로봇(130)의 장애물 회피 등을 위해 사용될 수 있다. 따라서, 이용자들은 저렴한 비용으로 제작되는 서비스 로봇들을 활용할 수 있으며, 서비스 로봇을 이용하고자 하는 다수의 이용자들이 존재하고, 이러한 다수의 이용자들 각각이 다수의 서비스 로봇들을 활용할 수 있음을 고려할 때, 서비스 로봇들의 제작 비용을 획기적으로 줄일 수 있게 된다. 예를 들어, 스마트폰 수준의 센싱 능력만으로도 서비스 로봇의 자율 주행을 처리할 수 있다.
또한, 서비스 로봇(130)이 서버(110)로 전송하는 센싱 데이터는 시설물의 내부에서 서비스 로봇(130)의 현재 위치를 한정하기 위한 정보를 포함할 수 있다. 이러한 위치를 한정하기 위한 정보는 저가형 카메라를 통해 인식된 이미지 정보를 포함할 수 있다. 예를 들어, 서버(110)는 수신된 이미지 정보와 실내 지도의 이미지를 비교하여 서비스 로봇(130)의 위치를 파악할 수 있다. 다른 예로, 기존의 실내 위치를 파악하기 위해 잘 알려진 기술들이 활용될 수도 있다. 예를 들어, 시설물 내에서 인식되는 와이파이 신호나 비컨(beacon), 사람이 인식하지 못하는 사운드나 블루투스 핑커프린트 등을 활용하여 실내 위치를 파악하는 기존의 잘 알려진 기술들이 서비스 로봇(130)의 현재 위치를 파악하기 위해 활용될 수 있음을 당업자가 용이하게 이해할 수 있을 것이다. 또한, 이러한 기존의 기술들을 통해 서비스 로봇(130)의 대략적인 위치를 파악한 후, 이미지 매칭을 통해 서비스 로봇(130)의 정확한 위치를 파악할 수도 있다. 이 경우, 전체 실내 지도에 대응하는 이미지들과의 매칭을 처리할 필요 없이 대략적으로 파악된 위치를 통해 이미지 매칭의 범위를 줄일 수도 있다.
앞서 도 1의 실시예에서는 매핑 로봇(120)을 활용하여 시설물의 실내 지도를 작성하고, 작성된 실내 지도를 활용하여 서비스 로봇(130)이 해당 시설물 내에서 서비스를 제공하는 예를 설명하였다. 실시예에 따라 서비스 로봇(130)이 매핑 로봇(120)을 포함하는 형태로 직접 실내 지도를 작성할 수도 있고, 별도로 매핑 로봇(120)을 활용하지 않고, 다른 방식(일례로, 사용자가 측정 장비를 이용하여 실내 지도를 작성하는 방식)으로 작성된 실내 지도를 활용하여 서비스 로봇(130)이 서버(110)와 통신하면서 시설물 내에서 자율 주행을 처리하면서 서비스를 제공할 수도 있다. 또 다른 실시예에서는 별도의 서버(110)의 활용 없이 서비스 로봇(130) 자체가 실내 지도와 센싱 정보를 활용하여 자율 주행을 직접 처리하면서 서비스를 제공할 수도 있다.
도 2는 본 발명의 일실시예에 있어서, 자율 주행에 기반하여 서비스를 제공하는 서비스 로봇의 개략적인 구성의 예를 설명하기 위한 블록도이다.
전술한 것처럼, 서비스 로봇(130)은 시설물 내에서 자율 주행을 하면서 서비스를 제공하기 위해 사용되는 로봇일 수 있다. 이러한 서비스 로봇(130)은 물리적인 장치일 수 있으며, 도시된 바와 같이, 제어부(210), 구동부(220), 센서부(230) 및 통신부(240)를 포함할 수 있다.
제어부(210)는 서비스 로봇(130)에 내장된 물리적인 프로세서일 수 있으며, 경로 계획 처리 모듈(211), 맵핑 처리 모듈(212), 구동 제어 모듈(213), 로컬리제이션 처리 모듈(214), 데이터 처리 모듈(215) 및 서비스 처리 모듈(216)을 포함할 수 있다. 여기서, 모듈들(211 내지 216)은 물리적인 프로세서인 제어부(210)에 의해 처리되는 동작의 기능적 표현일 수 있다. 이때, 경로 계획 처리 모듈(211), 맵핑 처리 모듈(212) 및 로컬리제이션 처리 모듈(214)은 서버(110)와 통신이 이루어지지 않는 경우에도 또는 별도로 서버(110)를 활용하지 않는 경우에도 서비스 로봇(130)의 자율 주행이 이루어질 수 있도록 하기 위해 실시예에 따라 선택적으로 제어부(210)에 포함되는 것일 수 있다.
구동부(220)는 서비스 로봇(130)의 이동을 제어하며 이동을 가능하게 하는 구성으로서 이를 수행하기 위한 장비를 포함할 수 있다. 예를 들어, 서비스 로봇(130)은 바퀴나 다리 등을 이용하여 이동하는 지상 로봇뿐만 아니라, 드론과 같은 비행 로봇 등을 포함할 수도 있다.
센서부(230)는 서비스 로봇(130)의 자율 주행 및 서비스 제공에 있어서 요구되는 데이터를 수집하기 위한 구성일 수 있다. 센서부(230)는 고가의 센싱 장비를 포함하지 않을 수 있고, 단지 저가형 초음파 센서 및/또는 저가형 카메라 등과 같은 센서를 포함할 수도 있다. 또한, 센서부(230)는 사용자와의 인터랙션을 위한 정보를 얻기 위한 센서를 포함할 수 있다. 일례로, 카메라는 사용자의 얼굴을 통해 사용자의 신원을 식별하거나 사용자의 얼굴 표정 등을 통해 사용자의 감정 상태 등을 추론하기 위해 활용될 수 있다. 이 외에도 사용자의 반응에 대한 정보를 획득하기 위한 모션 센서나 스피커 등이 센서부(230)에 더 포함되어 활용될 수도 있다.
통신부(240)는 서비스 로봇(130)이 다른 장치(다른 로봇 또는 서버(110) 등)와 통신하기 위한 구성일 수 있다. 말하자면, 통신부(240)는 다른 장치에 대해 데이터 및/또는 정보를 전송/수신하는, 서비스 로봇(130) 의 안테나, 데이터 버스, 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.
일례로, 제어부(210)의 데이터 처리 모듈(215)은 센서부(230)의 센서들의 출력값을 포함하는 센싱 데이터를 통신부(240)를 통해 서버(110)로 전송할 수 있다. 서버(110)는 시설물 내의 실내 지도를 사용하여 생성된 경로 데이터를 서비스 로봇(130)으로 전송할 수 있다. 경로 데이터는 통신부(240)를 통해 데이터 처리 모듈(215)로 전달될 수 있다. 데이터 처리 모듈(215)은 경로 데이터를 바로 구동 제어 모듈(213)로 전달할 수 있고, 구동 제어 모듈(213)은 경로 데이터에 따라 구동부(220)를 제어하여 서비스 로봇(130)의 실내 자율 주행을 제어할 수 있다.
서비스 로봇(130)과 서버(110)가 통신할 수 없는 경우 또는 서버(110)를 활용하지 않는 경우, 데이터 처리 모듈(215)은 센싱 데이터를 로컬리제이션 처리 모듈(214)로 전송하고, 경로 계획 처리 모듈(211)와 맵핑 처리 모듈(212)을 통해 경로 데이터를 생성하여 서비스 로봇(130)의 자율 주행을 직접 처리할 수도 있다.
서비스 처리 모듈(216)은 서비스 로봇(130)이 서비스를 제공하도록 제어하기 위한 모듈일 수 있으며, 일례로 서버(110)를 통해 수신되는 명령을 통신부(240)를 통해 또는 통신부(240)와 데이터 처리 모듈(215)을 통해 전달받아 서비스를 제공하도록 서비스 로봇(130)을 제어할 수 있다. 구동부(220)는 서비스 로봇(130)의 이동을 위한 장비뿐만 아니라, 서비스 로봇(130)이 제공하는 서비스와 관련된 장비를 더 포함할 수 있다. 예컨대, 음식물/택배물 전달 서비스를 수행하기 위해 서비스 로봇(130)의 구동부(220)는 음식물/택배물을 적재하기 위한 구성이나 음식물/택배물을 사용자에게 전달하기 위한 구성(일례로, 로봇 암(arm))을 포함할 수 있다. 또한, 서비스 로봇(130)은 정보/콘텐츠의 제공을 위한 스피커 및/또는 디스플레이 등을 더 포함할 수도 있다. 서비스 처리 모듈(216)은 제공해야 할 서비스를 위한 구동 명령을 구동 제어 모듈(213)로 전달할 수 있고, 구동 제어 모듈(213)은 구동 명령에 따라 서비스 로봇(130)이나 구동부(220)가 포함하는 구성을 제어하여 서비스가 제공되도록 할 수 있다.
본 발명의 실시예들에 따른 인터랙션 방법은 상술한 서비스 로봇(130)과 같은 로봇이 서비스의 제공을 위해 자율 주행을 처리하면서 대면하게 되는 사용자들과의 인터랙션을 위한 방법으로, 로봇이 포함하는 컴퓨터 장치에는 본 발명의 일실시예에 따른 컴퓨터 프로그램이 설치 및 구동될 수 있고, 로봇이 포함하는 컴퓨터 장치의 적어도 하나의 프로세서(일례로, 도 2의 제어부(210))는 구동된 컴퓨터 프로그램의 제어에 따라 본 발명의 실시예들에 따른 인터랙션 방법을 수행할 수 있다. 상술한 컴퓨터 프로그램은 컴퓨터 장치와 결합되어 상기 인터랙션 방법을 로봇의 컴퓨터 장치에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장될 수 있다.
도 3은 본 발명의 일실시예에 따른 인터랙션 방법의 예를 도시한 흐름도이다. 본 실시예에 따른 인터랙션 방법은 앞서 설명한 서비스 로봇(130)과 같은 로봇에 의해 수행될 수 있다.
단계(310)에서 로봇은 제공하고자 하는 서비스 인스턴스의 처리를 위한 로봇의 자율 주행을 처리할 수 있다. 로봇의 자율 주행의 처리에 대해서는 앞서 자세히 설명한 바 있다.
단계(320)에서 로봇은 자율 주행 중에 로봇이 포함하는 센서에 기반하여 인터랙션 대상을 인지할 수 있다. 인터랙션 대상은 서비스 인스턴스의 서비스 대상이 되는 제1 사용자 및/또는 서비스 인스턴스와 무관하게 자율 주행 중에 마주치는 제2 사용자를 포함할 수 있다. 예를 들어, 로봇은 서비스의 제공을 목적으로 제1 사용자에게 접근하여 인터랙션을 제공할 수도 있으나, 서비스의 제공을 위해 이동하는 도중에 마주치게 되는 제2 사용자에게 인터랙션을 제공할 수도 있다.
인터랙션 대상의 인지를 위해 실시예에 따라 단계(320)는 단계(321) 및 단계(322)를 포함할 수도 있다.
단계(321)에서 로봇은 자율 주행 중에 센서로부터 출력되는 값에 기반하여 사람의 얼굴을 인식할 수 있다. 예를 들어, 로봇은 센서로서 포함하는 카메라를 통해 입력되는 이미지들을 분석하여 사람의 얼굴 인식을 시도할 수 있다. 만약, 사람의 얼굴이 인식되면, 로봇은 단계(322)를 수행할 수 있다.
단계(322)에서 로봇은 인식된 사람의 얼굴에 기반하여 식별되는 사용자를 인터랙션 대상으로서 인지할 수 있다. 예를 들어, 로봇은 기설정된 시설물의 내부를 자율 주행할 수 있으며, 단계(322)에서 기설정된 시설물의 근무자 및 방문자 중 적어도 하나에 대한 신원과 사진이 서로 대응하여 저장된 데이터베이스에 접속하여 인식된 사람의 얼굴에 매칭하는 사진을 검색함으로써, 인터랙션 대상의 신원을 확인할 수 있다.
이 경우, 로봇은 단순히 인터랙션을 위한 대상의 존재 여부뿐만 아니라, 인터랙션을 위한 대상의 신원까지 파악할 수 있게 되며, 해당 인터랙션 대상에 대해 기 저장된 정보를 활용할 수 있게 된다. 기 저장된 정보는 해당 인터랙션 대상에 대한 프로필 정보 및/또는 해당 인터랙션 대상과의 이전 인터랙션을 통해 얻어진 정보 등을 포함할 수 있다.
실시예에 따라 로봇은 자율 주행 중에 마주치는 사람이 소지하고 있는 기설정된 물품과의 근거리 무선 통신을 통해 인터랙션 대상을 인지할 수도 있다. 이때, 기설정된 물품은 상기 로봇이 자율 주행하는 시설물과 연관된 기업의 사원증, 시설물에 대한 방문증, 상기 사람이 소지한 모바일 단말 및 시설물에 입점한 업체의 진동벨 중 적어도 하나를 포함할 수 있다. 예를 들어, 로봇은 사원증이나 방문증에 구현된 근거리 무선 통신 모듈과의 근거리 무선 통신을 통해 사람의 존재 여부를 인식할 수 있을 뿐만 아니라, 근거리 무선 통신을 통해 얻어지는 신분 정보를 통해 인터랙션을 위한 대상의 신원까지 파악할 수 있게 된다. 또한, 로봇은 시설물에 입점한 업체의 진동벨과의 근거리 무선 통신을 통해 인터랙션을 위한 대상의 존재 여부를 인식할 수도 있다. 이 경우, 로봇은 앞서 설명한 단계(321 및 322)를 통해 인터랙션을 위한 대상의 신원을 파악할 수 있다.
단계(330)에서 로봇은 인지된 인터랙션 대상에 대한 개인화 정보를 획득할 수 있다. 일례로, 로봇은 인지된 인터랙션 대상에 대해 이전에 수집되어 저장된 반응 데이터, 센서를 통해 현재 수집되는 인지된 인터랙션 대상에 대한 센싱 정보 및 로봇의 위치에 대한 공간 정보 중 적어도 하나를 수집할 수 있다.
이때, 반응 데이터는 인지된 인터랙션 대상에게 이전에 제공된 인터랙션에 대응하여 인지된 인터랙션 대상이 보였던 반응에 대한 센싱 정보로서 로봇이 자율 주행하는 시설물 또는 로봇이 제공하는 서비스와 연관하여 구성된 서버에 저장될 수 있다. 예를 들어, 로봇이 인지된 인터랙션 대상으로서의 제1 사용자에게 제1 인터랙션을 제공한 후, 제1 인터랙션에 대한 제1 사용자의 반응에 대한 센싱 정보를 수집하여 반응 데이터로서 서버에 저장할 수 있다. 이후, 로봇은 제1 사용자에게 제2 인터랙션을 제공하고자 함에 있어서, 서버에 기 저장된 반응 데이터를 수신하여 활용할 수 있다. 만약, 제1 인터랙션에 대한 제1 사용자의 반응이 긍정적인 경우, 로봇은 적극적인 인터랙션을 제2 인터랙션으로 제공할 수 있다. 반면, 제1 인터랙션에 대한 제1 사용자의 반응이 부정적인 경우, 로봇은 추가적인 인터랙션의 제공을 중단하거나 또는 소극적인 인터랙션을 제2 인터랙션으로 제공할 수 있다. 여기서 적극적인 인터랙션과 소극적인 인터랙션은 인터랙션의 횟수, 종류, 출력되는 데이터량, 출력되는 데이터의 크기 등 다양한 조건에 따라 나뉠 수 있다.
센싱 정보는 사용자가 로봇을 응시하고 있는지 여부 및 사용자의 감정 상태 중 적어도 하나를 결정하기 위한 정보를 포함할 수 있다. 이러한 센싱 정보 역시 적극적인 인터랙션의 제공이나 소극적인 인터랙션의 제공 및/또는 추가적인 인터랙션 제공의 중단 등과 같이 인터랙션을 어떻게 제공할 것인가를 결정하는데 활용될 수 있다.
공간 정보는 로봇이 자율 주행하는 시설물의 지도에서 로봇의 현재 위치에 기반하여 추출되는 정보를 포함할 수 있다. 예를 들어, 로봇은 사용자와의 인터랙션으로서 로봇의 현재 위치를 통해 파악되는 공간과 관련된 컨텐츠를 사용자에게 제공할 수 있다.
단계(340)에서 로봇은 개인화 정보에 기초하여 인지된 인터랙션 대상에게 인터랙션을 제공할 수 있다. 예를 들어, 로봇은 단계(340)에서 개인화 정보에 기초하여 인터랙션의 종류, 인터랙션의 횟수, 인터랙션의 제공 시간 및 인터랙션의 내용 중 적어도 하나를 조절하여 결정된 인터랙션을 인지된 인터랙션 대상에게 제공할 수 있다. 또한, 로봇은 인터랙션이 제공된 후, 인터랙션 대상의 반응을 센서를 통해 센싱할 수 있으며, 센싱된 데이터를 이용하여 앞서 설명한 인터랙션 대상의 반응 데이터를 업데이트할 수 있다. 반응 데이터는 로봇에 저장될 수도 있으나, 실시예에 따라 서버(110)에 저장될 수도 있다. 이 경우, 단계(330)에서 반응 데이터를 수집하는 것은 서버(110)로부터 서버(110)에 기 저장된 인터랙션 대상의 반응 데이터를 수신하는 것을 포함할 수 있다.
실시예에 따라 로봇은, 서비스 인스턴스의 종류 및 서비스 인스턴스를 제공하는데 걸리는 시간 중 적어도 하나에 더 기초하여 인터랙션을 제공할 수도 있다. 예를 들어, 인지된 인터랙션 대상이 로봇이 제공하고자 하는 서비스의 대상인 경우, 로봇은 제공할 서비스 인스턴스의 종류나 서비스 인스턴스를 제공하는데 걸리는 시간 등을 더 고려하여 인터랙션 대상에게 인터랙션을 제공할 수 있다.
앞서 설명한 바와 같이, 로봇은 개인화 정보를 이용하여 인터랙션 대상에게 인터랙션을 제공함에 따라 획일적인 인터랙션의 제공이 아닌, 사용자의 로봇에 대한 반응이나 수용도에 따라 다양한 인터랙션을 제공함으로써 사용자들의 서비스에 대한 만족도를 높일 수 있게 된다.
한편, 앞서 설명한 단계들(310 내지 340) 중 적어도 하나의 단계는 로봇이 자율 주행하는 시설물 또는 로봇이 제공하는 서비스와 연관하여 구성된 서버와의 통신을 통해 처리될 수 있다. 일례로, 서버는 앞서 설명한 서버(110)에 대응할 수 있다.
한편, 실시예에 따라 인터랙션으로서 컨텐츠를 제공하기 위해, 단계(340)는 단계(341) 및 단계(342)를 포함할 수 있다.
단계(341)에서 로봇은 개인화 정보에 기초하여 컨텐츠의 제공 여부 및 제공할 컨텐츠를 결정할 수 있다. 예를 들어, 서비스 인스턴스를 제공하는데 걸리는 시간이 상대적으로 매우 짧은 경우, 로봇은 서비스 인스턴스를 제공하는 동안 짧은 길이의 컨텐츠를 선택하거나 또는 컨텐츠를 제공하지 않는 것으로 결정할 수 있다. 다른 예로, 서비스 인스턴스를 제공하는데 걸리는 시간이 상대적으로 긴 경우, 로봇은 서비스 인스턴스를 제공하는 동안 서비스 인스턴스를 제공하는데 걸리는 시간에 알맞은 길이의 컨텐츠를 선택할 수 있다.
컨텐츠의 제공 여부 및 제공할 컨텐츠를 결정하는 일실시예에 있어서, 로봇은 개인화 정보에 기초하여 인지된 인터랙션 대상의 감정 상태를 파악하고, 파악된 감정 상태에 기반하여 컨텐츠의 제공 여부, 컨텐츠의 종류, 컨텐츠의 내용 및 컨텐츠의 출력 방식 중 적어도 하나를 결정할 수 있다.
다른 실시예에서 로봇은 서비스 인스턴스를 제공하는데 걸리는 시간 및 서비스 인스턴스에 대해 기 측정된 상기 인지된 인터랙션 대상의 반응 시간 중 적어도 하나에 더 기초하여 컨텐츠의 종류 및 컨텐츠의 노출 시간 중 적어도 하나를 결정할 수 있다.
또 다른 실시예에서 로봇은 서비스 인스턴스의 종류 및 서비스 인스턴스를 제공받는 사용자들의 반응 중 적어도 하나에 기초하여 제공할 컨텐츠를 결정할 수 있다.
또 다른 실시예에 있어서 로봇은 인지된 인터랙션 대상의 신원에 기반하여 인지된 인터랙션 대상의 기존 서비스 사용 내역을 확인하고, 확인된 기존 서비스 사용 내역에 기초하여 제공할 컨텐츠를 결정할 수 있다.
또 다른 실시예에 있어서 로봇은 로봇이 자율 주행하는 시설물의 지도에서 로봇의 현재 위치에 대응하는 공간 정보를 추출하고, 추출된 공간 정보에 기초하여 제공할 컨텐츠를 결정할 수 있다.
또 다른 실시예에 있어서 로봇은 로봇이 자율 주행하는 시설물의 지도에서 로봇의 현재 위치에 대응하는 제1 공간 정보를 추출하고, 추출된 제1 공간 정보에 기초하여 지도에서 인지된 인터랙션 대상이 다음으로 방문할 공간을 예측하고, 예측된 공간에 대한 제2 공간 정보를 추출하고, 제2 공간 정보에 기초하여 제공할 컨텐츠를 결정할 수 있다.
단계(342)에서 로봇은 결정된 컨텐츠를 임의의 매체를 통해 인지된 인터랙션 대상에게 제공할 수 있다. 일례로, 임의의 매체는 로봇이 포함하는 제1 디스플레이, 로봇이 포함하는 제1 스피커, 로봇이 제공하는 서비스와의 연동을 위해 인지된 인터랙션 대상이 소지하는 단말에 설치된 어플리케이션, 로봇의 현재 위치에 대응하는 공간에 설치되어 있는 제2 디스플레이 및 로봇의 현재 위치에 대응하는 공간에 설치되어 있는 제2 스피커 중 적어도 하나를 포함할 수 있다. 다수의 매체를 활용 가능한 경우, 로봇은 결정된 컨텐츠의 속성에 따라 해당 컨텐츠를 제공하기 위한 매체를 선택할 수 있다. 예를 들어, 로봇이 제1 스피커를 포함하며 결정된 컨텐츠가 오디오 컨텐츠인 경우, 로봇은 오디오 컨텐츠를 로봇이 포함하는 제1 스피커를 통해 출력할 수 있다. 다른 예로, 로봇이 제1 디스플레이를 포함하고 현재 위치에 대응하는 공간에 설치되어 있는 제2 디스플레이가 존재하며 결정된 컨텐츠가 동영상 컨텐츠인 경우, 로봇은 제1 디스플레이 또는 제2 디스플레이를 선택하여 동영상 컨텐츠를 출력할 수 있다. 예를 들어, 인터랙션 대상과 로봇이 같은 방향으로 이동하고 있는 경우에는 제1 디스플레이를 통해, 인터랙션 대상은 정지해 있으나, 로봇은 이동하고 있는 경우에는 제2 디스플레이를 통해 동영상 컨텐츠를 출력할 수 있다. 이때, 로봇은 서버(110)를 통해 제2 디스플레이와 통신하여 제2 디스플레이가 동영상 컨텐츠를 출력하도록 제어할 수 있다. 이러한 로봇 외부의 전자 기기를 통한 컨텐츠의 제공은 서버(110)나 로봇이 시설물 내부의 해당 전자 장치를 제어할 수 있는 경우에 활용될 수 있다.
도 4는 본 발명의 일실시예에 있어서, 로봇의 동작 환경의 예를 도시한 도면이다. 본 실시예에서 로봇(410)은 시설물의 내부를 자율 주행하면서 식음료, 택배, 서류 등의 물품 배달이나 시설 안내 등과 같은 특정 서비스를 다수의 특정 사용자들 및/또는 불특정 사용자들에게 제공할 수 있다.
이때, 사용자(420)가 서비스의 대상인 경우, 로봇(410)은 사용자(420)의 얼굴을 인식하여 서비스를 받는 사용자의 신원을 식별할 수 있으며, 식별된 사용자의 정보를 확인하고 그에 맞는 인터랙션을 제공할 수 있다. 이때, 로봇(410)의 인터랙션에 대한 사용자(420)의 반응이 카메라나 모션 센서 등과 같은 다양한 센서를 통해 수집될 수 있으며, 사용자(420)에 대한 반응 데이터가 업데이트될 수 있다. 따라서, 로봇(410)은 사용자(420)에 대한 다음 인터랙션(이전 인터랙션에 이어지는 인터랙션 또는 로봇(410)이 사용자(420)를 다음 번에 만난 경우의 인터랙션)을 제공 시 보다 개인화된 인터랙션의 제공이 가능해진다.
사용자(420)의 인식을 위해, 로봇(410) 또는 로봇(410)이 통신하는 서버(110)는 근무자나 방문자의 신원에 대한 정보와 사진을 서로 연관하여 저장할 수 있다. 이 경우, 로봇(410)은 사용자(420)를 촬영한 이미지와 기 저장된 사진에서 얼굴 등을 비교하여 사용자(420)의 신원을 식별할 수 있다. 방문자의 신원과 사진은 방문자가 시설물에 방문을 신청할 때, 방문자가 사전에 신원 및 사진을 제출하도록 하거나 또는 방문자가 시설물에 입장할 때, 신원과 사진을 획득할 수도 있다. 이 경우, 로봇(410)은 사용자(420)의 표정을 인식하여 로봇의 인터랙션에 대한 반응을 파악 및 저장할 수 있다. 사용자(420)에 대한 정보가 저장되는 데이터베이스에는 로봇 서비스의 사용 횟수, 사용 서비스의 종류, 반응 데이터 등이 저장될 수 있다. 사용자(420)에 대한 반응 데이터가 저장된 경우, 로봇(410)은 기 저장된 반응 데이터를 사용자(420)에게 제공할 인터랙션의 결정을 위해 활용할 수 있다.
예를 들어, 로봇(410)이 자율 주행 중 사용자(420)를 마주친 경우, 사용자(420)가 선호하는 방식의 인사를 제공할 수 있다. 이 경우, 로봇(410)은 사용자(420)의 신원을 식별할 후, 식별된 신원에 대응하는 정보를 데이터베이스에서 추출할 수 있다. 이미 설명한 바와 같이, 데이터베이스는 로봇(410)이나 서버(110)에 구축될 수 있다. 만약, 사용자(420)가 처음 만나는 사람(데이터베이스에서 관련 정보를 추출할 수 없는 사람 또는 외부인(최초 방문자 등))인 경우, 로봇(410)은 기본적으로 제공되는 디폴트 인터랙션을 제공할 수 있다. 일례로, 사교성 있는 만남 인사로서 웃는 표정이 로봇(410)의 디스플레이를 통해 표시될 수 있으며, 인사말을 포함하는 오디오 데이터가 로봇(410)의 스피커를 통해 출력될 수 있다. 이 경우, 제공된 인터랙션에 대한 반응이 로봇(410)의 센서를 통해 센싱되어 반응 데이터로서 데이터베이스에 저장될 수 있다. 만약, 사용자(420)가 긍정적인 반응을 보인 경우, 로봇(410)은 추가적인 인터랙션을 더 제공할 수 있다. 사용자(420)가 부정적인 반응을 보이는 경우에는 추가적인 인터랙션 없이 서비스를 위한 자율 주행을 지속할 수 있다. 만약, 사용자(420)에 대한 정보가 데이터베이스에 저장되어 있는 경우, 로봇(410)은 데이터베이스에 저장된 정보를 기반으로 사용자(420)에게 개인화된 인터랙션을 제공할 수 있다. 일례로, 인터랙션의 개인화 가능한 영역은 인터랙션의 종류, 인터랙션의 횟수, 인터랙션의 제공 시간 및 인터랙션의 내용 중 적어도 하나를 포함할 수 있다. 사용자(420)가 지난 인터랙션에 대해 긍정적인 반응을 보였던 경우, 로봇(410)은 지난번과 같은 적극적인 인터랙션(웃는 표정의 표시 및 인사말이 포함된 오디오 데이터의 출력)을 제공할 수 있다. 만약, 사용자(420)가 지난 인터랙션에 대해 부정적인 반응을 보였던 경우, 로봇(410)은 별다른 인터랙션을 제공하지 않은 상태로 사용자(420)를 지나칠 수 있다.
다른 예로, 로봇(410)이 사용자(420)의 서비스 요청에 따라 사용자(420)에게 물품을 배달하러 접근하는 경우를 고려할 수 있다. 이 경우, 로봇(410)은 사용자(420)의 신원을 식별하여 사용자(420)가 서비스의 대상임을 파악할 수 있다. 이때, 사용자(420)가 처음 만나는 사람인 경우, 로봇(410)은 물품 전달 시 먼저 인사를 하고, 웃는 표정을 디스플레이를 통해 표시하고, 사용자(420)가 물품을 수령했을 때도 적극적으로 감사 인사를 전달할 수 있다. 한편, 사용자(420)에 대한 정보가 데이터베이스에 저장되어 있는 경우에는 기 저장된 정보를 활용하여 개인화된 인터랙션을 제공할 수 있다. 이때, 사용자(420)가 이전 인터랙션에 대해 긍정적인 반응을 보인 경우, 로봇(410)은 물품의 전달 시 웃는 표정을 표시하는 횟수를 증가시키거나 사용자(420)에게 서비스와 관련된 컨텐츠를 제공하는 등 적극적인 인터랙션을 제공할 수 있다. 반면, 사용자(420)가 이전 인터랙션에 대해 부정적인 반응을 보인 경우, 로봇(410)은 물품을 전달 시 사용자(420)를 조심스럽게 부르고, 인사의 횟수를 줄이고, 물품의 전달을 마친 후에도 조용히 사용자(420)의 곁을 떠날 수 있다.
또 다른 예로, 로봇(410)이 사용자(420)에게 서비스를 제공할 때, 서비스에 대한 안내의 상세함 정도를 조정할 수도 있다. 이 경우, 로봇(410)은 사용자(420)가 서비스를 이용한 횟수에 따라 서비스에 대한 안내 내용을 보다 상세한 내용으로 출력하거나 또는 보다 간단한 내용으로 출력할 수 있다. 서비스 이용 횟수가 일정 이상인 사람이라면 서비스에 대한 안내를 생략할 수도 있다. 이때, 안내 컨텐츠를 제공하기 위한 매체 역시 내용의 상세함 정도에 따라 달라질 수 있다. 예를 들어 상세한 내용의 안내 컨텐츠는 서비스와 연동된 사용자(420)의 단말에 설치 및 구동된 어플리케이션을 통해 제공할 수 있다. 반면, 간단한 내용의 안내 컨텐츠는 로봇(410)의 디스플레이나 스피커를 통해 출력할 수 있다. 또한, 서비스를 다 제공한 후에는 사용자(420)가 선호할 수 있는 다른 서비스나 다른 컨텐츠의 이용을 사용자(420)에게 추천할 수도 있다. 사용자(420)가 선호할 것으로 예측되는 서비스나 컨텐츠는 사용자(420)가 사용한 서비스의 내용들에 기반하여 결정될 수 있다.
한편, 로봇(410)은 사용자(420)에게 컨텐츠를 인터랙션으로서 효과적으로 제공하여 컨텐츠에 대한 수용도를 높일 수 있다. 예를 들어, 로봇(410)은 아래 (A), (B), (C), (D) 및 (E) 중 적어도 하나를 통해 컨텐츠에 대한 사용자(420)의 수용도를 높일 수 있다. 일례로, 컨텐츠로서 광고가 제공될 수 있다.
(A) 사용자(420)의 현재 감정 상태를 파악하여 컨텐츠 제공의 적극성 조정
서비스 제공 시 로봇(410)은 사용자(420)가 로봇(410)을 응시하고 있는지 여부 및 사용자(420)의 얼굴 표정을 인식하여 파악한 사용자(420)의 감정 상태(일례로, 웃는 얼굴, 화난 얼굴 등에 따라 긍정적 감정과 부정적 감정을 판단함)를 센서(일례로, 카메라)를 통해 인식할 수 있다. 만약, 사용자가 로봇에 관심이 있고 긍정적인 감정을 드러내면 적극적으로 컨텐츠를 제공하고, 사용자가 로봇에 관심이 없거나 부정적인 감정을 드러내고 있으면 컨텐츠를 제공하지 않거나 소극적으로 제공할 수 있다. 예를 들어, 로봇(410)이 사용자(420)에게 식음료, 택배 등 물품을 배달하는 서비스를 제공할 때, 사용자(420)가 로봇(410)가 로봇(410)에서 물품을 꺼내거나 로봇(410)이 사용자(420)에게 물품을 전달하는 상황을 고려할 수 있다. 만약, 사용자(420)가 로봇(410)을 쳐다보며 긍정적인 표정을 짓고 있는 경우(일례로, 환하게 웃고 있는 경우), 적극적이고 주목도가 높은 컨텐츠(일례로, 동영상 및 오디오를 포함하는 컨텐츠)를 제공할 수 있다. 반면, 사용자(420)가 로봇(410)을 쳐다보고 있지만, 부정적인 표정을 짓고 있는 경우에는 소극적인 컨텐츠(일례로, 정지 이미지 또는 오디오 없이 동영상만을 포함하는 컨텐츠)를 제공할 수 있다. 또한, 사용자(420)가 로봇(410)을 쳐다보고 있지도 않고, 부정적인 표정을 짓고 있는 경우에는 컨텐츠를 제공하지 않은 상태로 물품만을 전달하고 사용자(420)의 곁을 떠날 수 있다.
(B) 사용자(420)의 반응 시간 및 서비스 제공 시간에 맞는 길이로 컨텐츠 제공
로봇(410)은 사용자(420)와 대면하는 시간을 실시간으로 계산할 수 있다. 예를 들어, 로봇(410)은 사용자(420)가 서비스를 제공받을 때 얼마나 빠르게 혹은 느리게 반응하느냐를 실시간으로 파악하여 서비스의 제공을 위해 기본적으로 소요되는 시간을 증가시키거나 감소시킴에 따라 실시간으로 사용자(420)와 대면하는 시간을 계산할 수 있다. 이 경우, 로봇(410)은 계산된 시간에 따라 컨텐츠를 결정할 수 있다. 예를 들어, 로봇(410)은 재생 시간이 계산된 시간 이하인 컨텐츠를 결정하여 사용자(420)에게 제공할 수 있다. 보다 구체적인 예로, 로봇(410)이 사용자(420)에게 식음료, 택배 등 물품을 배달하는 경우를 고려할 수 있다. 로봇(410)이 사용자(420)를 만나서 물품을 전달하기 까지 소요되는 기본 시간을 로봇(410)이 알고 있다고 가정한다. 이때, 로봇(410)은 사용자(420)가 물건을 꺼내는 속도에 따라 사용자(420)와 대면하는 시간을 실시간으로 계산한 후, 계산된 시간에 따라 컨텐츠의 재생 시간을 결정할 수 있다. 만약, 사용자(420)가 빠르게 물건을 꺼내는 경우에는 재생 시간이 계산된 시간보다 긴 컨텐츠에서 사전에 태깅된 주요 장면만을 빠르게 재생하거나, 재생 시간이 계산된 시간보다 짧은 컨텐츠를 제공하거나, 정지 이미지 형태의 컨텐츠를 제공할 수 있다. 반면, 사용자(420)가 물건을 천천히 꺼내는 경우에는 계산된 상대적으로 긴 시간 동안 재생되는 컨텐츠의 전체 내용을 제공할 수 있다.
(C) 사용자(420)의 현재 주문 기반으로 취향을 파악하여 수용할 가능성이 높은 컨텐츠를 제공
로봇(410)은 사용자(420)가 현재 받고 있는 서비스의 내용을 기반으로 연관성이 높은 컨텐츠를 제공할 수 있다. 예를 들어, 로봇이 자율 주행하면서 서비스를 제공하고 있는 시설물 내에서 판매되는 제품이나 서비스에 대한 컨텐츠를 제공할 수 있다. 로봇(410)이 사용자(420)에게 음료를 배달하고 있다고 가정하면, 로봇(410)이 사용자(420)에게 음료를 전달하는 상황에서, 로봇(410)은 해당 음료의 특성을 기반으로 연관된 컨텐츠를 사용자(420)에게 제공할 수 있다. 예를 들어, 동일한 음료를 주문한 사용자들이 일정 비율 이상 시간 다른 음료나 디저트에 대한 컨텐츠가 사용자(420)에게 제공될 수 있다. 다른 예로, 해당 음료와 어울리는 다른 음식에 대한 컨텐츠가 사용자(420)에게 제공될 수 있다.
또한, 로봇(410)이 사용자(420)에게 택배를 배달하는 상황을 고려할 수 있다. 이 경우, 로봇(410)은 로봇(410)이 전달하는 물품의 특성을 기반으로 연관된 컨텐츠를 제공할 수 있다. 예를 들어, 로봇(410)은 동일한 물품을 주문한 사람들이 많이 구매하는 다른 제품에 대한 컨텐츠나 해당 물품과 어울리는 다른 제품에 대한 컨텐츠를 사용자(420)에게 제공할 수 있다.
(D) 사용자(420)의 신원이나 과거 취향 데이터를 파악하여 수용할 가능성이 높은 컨텐츠를 제공
로봇(410)은 앞서 설명한 바와 같이, 로봇(410)이 포함하는 카메라를 통한 얼굴 인식에 기반하여 사용자(420)의 신원을 식별할 수 있다. 또는 물품 구매와 같은 서비스를 받았던 사람의 구매자 정보 등을 활용하여 사용자(420)의 신원을 식별할 수도 있다. 이 경우, 로봇(410)은 사용자(410)의 기존 서비스 사용 내역을 확인하고, 그와 연관된 컨텐츠를 제공할 수 있다.
로봇(410)이 사용자(420)에게 식음료나 택배 등의 물품을 배달하는 상황을 고려할 수 있다. 이때, 로봇(410)은 디저트를 많이 주문한 사용자(420)에게는 신규로 출시된 디저트에 대한 컨텐츠를 제공하거나, 또는 사용자(420)와 유사한 취향을 가진 다른 사용자들이 많이 구매한 제품에 대한 광고를 제공할 수 있다.
다른 예로, 로봇(410)은 사용자(420)의 주문 히스토리에 기반하여, 다음에 주문할 것으로 예측되는 제품에 대한 컨텐츠를 제공할 수도 있다. 예를 들어, 로봇(410)이 사용자(420)를 지나가는 상황에서 로봇(410)은 사용자(420)의 얼굴을 인식하여 사용자(420)의 신원을 식별하고, 해당 신원의 주문 히스토리에 따라 취향에 알맞은 제품이나 서비스에 대한 컨텐츠를 사용자(420)에게 제공할 수 있다.
(E) 로봇(410)이 위치한 공간 파악하여, 해당 공간에 밀접한 컨텐츠나 또는 해당 공간 다음에 방문할 만한 공간에 대한 컨텐츠를 제공
로봇(410)은 시설물 내에서 자신의 위치를 인식할 수 있다. 로봇(410)의 로컬리제이션에 대해서는 앞서 자세히 설명한 바 있다. 이때, 로봇(410)은 로봇(410)이 위치한 장소에 연관된 컨텐츠를 사용자(420)에게 제공하거나, 해당 장소 다음으로 방문할 확률이 높은 장소에 대한 컨텐츠를 사용자(420)에게 제공할 수 있다. 예를 들어, 로봇(410)이 식당에서 사용자(420)를 만난 경우, 로봇(410)은 해당 식당에서 먹을 만한 음식에 대한 컨텐츠를 제공하거나 또는 해당 식당 다음에 갈만한 카페에 대한 컨텐츠를 제공할 수 있다. 다른 예로, 로봇(410)이 카페에서 사용자(420)를 만난 경우, 해당 카페에서 먹을 만한 음료에 대한 컨텐츠를 제공하거나 또는 해당 카페에서 음료를 먹고 난 다음에 쇼핑을 즐기기 한 매장에 대한 컨텐츠를 제공할 수 있다.
이와 같이, 로봇(410)은 사용자(420)의 감정, 상태, 주변 환경 등 다양한 요소들에 따라 인터랙션으로서 컨텐츠를 제공함으로써, 사용자(420)의 컨텐츠에 대한 수용도를 향상시킬 수 있다.
이상에서 설명한 바와 같이, 본 발명의 실시예들에 따르면, 자율 주행에 기반하여 사용자들에게 서비스를 제공하는 로봇이 서비스를 제공받는 대상에 대한 정보에 기초하여 개인화된 인터랙션을 제공할 수 있다.
이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (24)

  1. 자율 주행에 기반하여 서비스를 제공하는 로봇에 의해 수행되는 인터랙션 방법에 있어서,
    제공하고자 하는 서비스 인스턴스의 처리를 위한 상기 로봇의 자율 주행을 처리하는 단계;
    상기 자율 주행 중에 상기 로봇이 포함하는 센서에 기반하여 인터랙션 대상을 인지하는 단계;
    상기 인지된 인터랙션 대상에 대한 개인화 정보를 획득하는 단계; 및
    상기 개인화 정보에 기초하여 상기 인지된 인터랙션 대상에게 인터랙션을 제공하는 단계
    를 포함하고,
    상기 개인화 정보를 획득하는 단계는,
    상기 센서를 통해 현재 수집되는 상기 인지된 인터랙션 대상에 대한 센싱 정보를 획득하고,
    상기 센싱 정보는 상기 인지된 인터랙션 대상으로서의 사용자가 로봇을 응시하고 있는지 여부를 결정하기 위한 정보 및 사용자의 감정 상태를 결정하기 위한 정보를 포함하고,
    상기 인터랙션을 제공하는 단계는,
    (1) 상기 사용자가 로봇을 응시하고 있는지 여부와 (2) 상기 사용자의 감정 상태의 조합에 따라 상기 사용자에게 서로 다른 인터랙션을 제공하는 것을 특징으로 하는 인터랙션 방법.
  2. 제1항에 있어서,
    상기 인터랙션 대상은 상기 서비스 인스턴스의 서비스 대상이 되는 제1 사용자 및 상기 서비스 인스턴스와 무관하게 상기 자율 주행 중에 마주치는 제2 사용자를 포함하는 것을 특징으로 하는 인터랙션 방법.
  3. 제1항에 있어서,
    상기 인터랙션 대상을 인지하는 단계는,
    상기 자율 주행 중에 상기 센서로부터 출력되는 값에 기반하여 사람의 얼굴을 인식하는 단계; 및
    상기 인식된 사람의 얼굴에 기반하여 식별되는 사용자를 상기 인터랙션 대상으로서 인지하는 단계
    를 포함하는 것을 특징으로 하는 인터랙션 방법.
  4. 제3항에 있어서,
    상기 로봇은 기설정된 시설물의 내부를 자율 주행하고,
    상기 인식된 사람의 얼굴에 기반하여 식별되는 사용자를 상기 인터랙션 대상으로서 인지하는 단계는,
    상기 기설정된 시설물의 근무자 및 방문자 중 적어도 하나에 대한 신원과 사진이 서로 대응하여 저장된 데이터베이스에 접속하여 상기 인식된 사람의 얼굴에 매칭하는 사진을 검색함으로써, 상기 인터랙션 대상의 신원을 확인하는 것을 특징으로 하는 인터랙션 방법.
  5. 제1항에 있어서,
    상기 인터랙션 대상을 인지하는 단계는,
    상기 자율 주행 중에 마주치는 사람이 소지하고 있는 기설정된 물품과의 근거리 무선 통신을 통해 상기 인터랙션 대상을 인지하는 것을 특징으로 하는 인터랙션 방법.
  6. 제5항에 있어서,
    상기 기설정된 물품은 상기 로봇이 자율 주행하는 시설물과 연관된 기업의 사원증, 상기 시설물에 대한 방문증, 상기 사람이 소지한 모바일 단말 및 상기 시설물에 입점한 업체의 진동벨 중 적어도 하나를 포함하는 것을 특징으로 하는 인터랙션 방법.
  7. 제1항에 있어서,
    상기 개인화 정보를 획득하는 단계는,
    상기 인지된 인터랙션 대상에 대해 이전에 수집되어 저장된 반응 데이터 및 상기 로봇의 위치에 대한 공간 정보 중 적어도 하나를 더 획득하는 것을 특징으로 하는 인터랙션 방법.
  8. 제7항에 있어서,
    상기 반응 데이터는 상기 인지된 인터랙션 대상에게 이전에 제공된 인터랙션에 대응하여 상기 인지된 인터랙션 대상이 보였던 반응에 대한 센싱 정보로서 상기 로봇이 자율 주행하는 시설물 또는 상기 로봇이 제공하는 서비스와 연관하여 구성된 서버에 저장되는 것을 특징으로 하는 인터랙션 방법.
  9. 삭제
  10. 제7항에 있어서,
    상기 공간 정보는 상기 로봇이 자율 주행하는 시설물의 지도에서 상기 로봇의 현재 위치에 기반하여 추출되는 정보를 포함하는 것을 특징으로 하는 인터랙션 방법.
  11. 제1항에 있어서,
    상기 인터랙션을 제공하는 단계는,
    상기 개인화 정보에 기초하여 인터랙션의 종류, 인터랙션의 횟수, 인터랙션의 제공 시간 및 인터랙션의 내용 중 적어도 하나를 조절하여 결정된 인터랙션을 상기 인지된 인터랙션 대상에게 제공하는 것을 특징으로 하는 인터랙션 방법.
  12. 제1항에 있어서,
    상기 인터랙션을 제공하는 단계는,
    상기 서비스 인스턴스의 종류 및 상기 서비스 인스턴스를 제공하는데 걸리는 시간 중 적어도 하나에 더 기초하여 상기 인터랙션을 제공하는 것을 특징으로 하는 인터랙션 방법.
  13. 제1항에 있어서,
    상기 처리하는 단계, 상기 인지하는 단계, 상기 획득하는 단계 및 상기 제공하는 단계 중 적어도 하나의 단계는,
    상기 로봇이 자율 주행하는 시설물 또는 상기 로봇이 제공하는 서비스와 연관하여 구성된 서버와의 통신을 통해 처리되는 것을 특징으로 하는 인터랙션 방법.
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 제1항에 있어서,
    상기 인터랙션을 제공하는 단계는,
    상기 개인화 정보에 기초하여 컨텐츠의 제공 여부 및 제공할 컨텐츠를 결정하는 단계; 및
    상기 결정된 컨텐츠를 임의의 매체를 통해 상기 인지된 인터랙션 대상에게 제공하는 단계
    를 포함하고,
    상기 컨텐츠의 제공 여부 및 제공할 컨텐츠를 결정하는 단계는,
    상기 로봇이 자율 주행하는 시설물의 지도에서 상기 로봇의 현재 위치에 대응하는 공간 정보를 추출하는 단계; 및
    상기 추출된 공간 정보에 기초하여 상기 제공할 컨텐츠를 결정하는 단계
    를 포함하는 것을 특징으로 하는 인터랙션 방법.
  21. 삭제
  22. 컴퓨터 장치와 결합되어 제1항 내지 제8항, 제10항 내지 제13항 또는 제20항 중 어느 한 항의 방법을 컴퓨터 장치에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.
  23. 제1항 내지 제8항, 제10항 내지 제13항 또는 제20항 중 어느 한 항의 방법을 컴퓨터 장치에 실행시키기 위한 컴퓨터 프로그램이 기록되어 있는 컴퓨터 판독 가능한 기록매체.
  24. 자율 주행에 기반하여 서비스를 제공하는 로봇에 있어서,
    상기 로봇을 이동시키는 구동부;
    복수의 센서들을 포함하고, 상기 복수의 센서들의 출력값을 포함하는 센싱 데이터를 생성하는 센서부; 및
    상기 센싱 데이터를 이용하여 서비스의 제공을 위한 자율 주행을 처리하도록 상기 구동부를 제어하는 제어부
    를 포함하고,
    상기 제어부는,
    제공하고자 하는 서비스 인스턴스의 처리를 위한 상기 로봇의 자율 주행을 처리하고,
    상기 자율 주행 중에 상기 센서부에 기반하여 인터랙션 대상을 인지하고,
    상기 인지된 인터랙션 대상에 대한 개인화 정보를 획득하고,
    상기 개인화 정보에 기초하여 상기 인지된 인터랙션 대상에게 인터랙션을 제공하고,
    상기 제어부는 상기 개인화 정보를 획득하기 위해,
    상기 센서를 통해 현재 수집되는 상기 인지된 인터랙션 대상에 대한 센싱 정보를 획득하고,
    상기 센싱 정보는 상기 인지된 인터랙션 대상으로서의 사용자가 로봇을 응시하고 있는지 여부를 결정하기 위한 정보 및 사용자의 감정 상태를 결정하기 위한 정보를 포함하고,
    상기 제어부는,
    (1) 상기 사용자가 로봇을 응시하고 있는지 여부와 (2) 상기 사용자의 감정 상태의 조합에 따라 상기 사용자에게 서로 다른 인터랙션을 제공하는 것
    을 특징으로 하는 로봇.
KR1020190130161A 2019-10-18 2019-10-18 로봇과 사용자간의 인터랙션을 위한 방법 및 시스템 KR102412555B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190130161A KR102412555B1 (ko) 2019-10-18 2019-10-18 로봇과 사용자간의 인터랙션을 위한 방법 및 시스템
KR1020220074910A KR102662383B1 (ko) 2019-10-18 2022-06-20 로봇과 사용자간의 인터랙션을 위한 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190130161A KR102412555B1 (ko) 2019-10-18 2019-10-18 로봇과 사용자간의 인터랙션을 위한 방법 및 시스템

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220074910A Division KR102662383B1 (ko) 2019-10-18 2022-06-20 로봇과 사용자간의 인터랙션을 위한 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20210046451A KR20210046451A (ko) 2021-04-28
KR102412555B1 true KR102412555B1 (ko) 2022-06-23

Family

ID=75721292

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020190130161A KR102412555B1 (ko) 2019-10-18 2019-10-18 로봇과 사용자간의 인터랙션을 위한 방법 및 시스템
KR1020220074910A KR102662383B1 (ko) 2019-10-18 2022-06-20 로봇과 사용자간의 인터랙션을 위한 방법 및 시스템

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220074910A KR102662383B1 (ko) 2019-10-18 2022-06-20 로봇과 사용자간의 인터랙션을 위한 방법 및 시스템

Country Status (1)

Country Link
KR (2) KR102412555B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023075385A1 (ko) * 2021-11-01 2023-05-04 (주)뉴빌리티 이동형 로봇 장치의 광고 관리 방법 및 시스템
KR102683736B1 (ko) * 2021-11-01 2024-07-10 (주)뉴빌리티 무인 이동체에서의 광고 제공 방법 및 시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003517642A (ja) 1999-12-17 2003-05-27 プロモ・ヴィユー 対話型販売促進情報通信システム
JP2004299026A (ja) 2003-04-01 2004-10-28 Honda Motor Co Ltd 受付案内システム
JP5157595B2 (ja) * 2008-04-01 2013-03-06 トヨタ自動車株式会社 接客システム及び接客方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101772583B1 (ko) * 2012-12-13 2017-08-30 한국전자통신연구원 사용자 상호작용 서비스를 위한 로봇의 동작 방법
KR102573021B1 (ko) * 2016-08-30 2023-08-31 엘지전자 주식회사 공항용 로봇, 그의 서비스 제공 방법을 수행하는 프로그램이 기록된 기록 매체, 및 그와 연결되는 이동 단말기
KR102549978B1 (ko) * 2016-09-13 2023-07-03 엘지전자 주식회사 공항 로봇 및 그를 포함하는 공항 로봇 시스템
JP2018067100A (ja) * 2016-10-18 2018-04-26 株式会社日立製作所 ロボット対話システム
KR20190003122A (ko) * 2017-06-30 2019-01-09 엘지전자 주식회사 이동 로봇의 동작 방법
WO2020246643A1 (ko) * 2019-06-07 2020-12-10 엘지전자 주식회사 서빙 로봇 및 그를 이용한 고객 접대 방법
WO2020256195A1 (ko) * 2019-06-21 2020-12-24 엘지전자 주식회사 빌딩 관리 로봇 및 그를 이용한 서비스 제공 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003517642A (ja) 1999-12-17 2003-05-27 プロモ・ヴィユー 対話型販売促進情報通信システム
JP2004299026A (ja) 2003-04-01 2004-10-28 Honda Motor Co Ltd 受付案内システム
JP5157595B2 (ja) * 2008-04-01 2013-03-06 トヨタ自動車株式会社 接客システム及び接客方法

Also Published As

Publication number Publication date
KR20210046451A (ko) 2021-04-28
KR102662383B1 (ko) 2024-04-30
KR20220091453A (ko) 2022-06-30

Similar Documents

Publication Publication Date Title
US11413764B2 (en) Serving robot and method for receiving customer using the same
US11354728B2 (en) System, device, and method of augmented reality based mapping of a venue and navigation within a venue
KR102662383B1 (ko) 로봇과 사용자간의 인터랙션을 위한 방법 및 시스템
US9796093B2 (en) Customer service robot and related systems and methods
US9895802B1 (en) Projection of interactive map data
US9824384B2 (en) Techniques for locating an item to purchase in a retail environment
US9933265B2 (en) Way finder using proximity events
US20140172640A1 (en) Augmented reality shopping game
US10540705B2 (en) System and medium for checking-in a customer
JP2019121109A (ja) 車両運行管理システム
US11429113B2 (en) Serving system using robot and operation method thereof
JP7439844B2 (ja) 端末装置、情報処理装置、情報出力方法、情報処理方法、接客支援方法及びプログラム
WO2016040089A1 (en) System and method to provide interactive, user-customized content to touch-free terminals
US10653359B2 (en) System and method for providing walking path guidance service based on measurement of motion of user
CA3047316A1 (en) Systems and methods for delivering products via unmanned aerial vehicles to delivery locations designated by customers
KR102288870B1 (ko) Ai 로봇을 이용하는 광고 시스템 및 ai 로봇을 제어하는 서버
KR102234691B1 (ko) 인공 지능을 이용하여, 물품을 관리하는 냉장고 및 그의 동작 방법
US20180068357A1 (en) In-store audio systems, devices, and methods
US20220007136A1 (en) Enhanced algorithms for improved user experience using internet of things sensor integration
WO2018071476A1 (en) Systems and methods for controlling a display of content in a retail store
KR20170088686A (ko) 실내 네비게이션 시스템 및 방법
KR102439875B1 (ko) 무인 상점 운영 방법 및 이를 이용한 무인 상점 시스템
US20230056742A1 (en) In-store computerized product promotion system with product prediction model that outputs a target product message based on products selected in a current shopping session
KR20220148060A (ko) 로봇을 이용하여 광고 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
KR20210005420A (ko) 자율주행기반의 이동식 스토어 제공 시스템, 그리고 이를 위한 이동식 스토어 제공 서버

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant