KR102189591B1 - 인터렉션 로봇 및 이를 이용한 콘텐츠 인터렉션 방법 - Google Patents

인터렉션 로봇 및 이를 이용한 콘텐츠 인터렉션 방법 Download PDF

Info

Publication number
KR102189591B1
KR102189591B1 KR1020200053936A KR20200053936A KR102189591B1 KR 102189591 B1 KR102189591 B1 KR 102189591B1 KR 1020200053936 A KR1020200053936 A KR 1020200053936A KR 20200053936 A KR20200053936 A KR 20200053936A KR 102189591 B1 KR102189591 B1 KR 102189591B1
Authority
KR
South Korea
Prior art keywords
interaction
content
identification mark
user
robot
Prior art date
Application number
KR1020200053936A
Other languages
English (en)
Inventor
박종건
Original Assignee
주식회사 서큘러스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 서큘러스 filed Critical 주식회사 서큘러스
Priority to KR1020200053936A priority Critical patent/KR102189591B1/ko
Application granted granted Critical
Publication of KR102189591B1 publication Critical patent/KR102189591B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Toys (AREA)

Abstract

본 발명의 일 실시 예에 따른 콘텐츠 인터렉션 방법은 (a) 인터렉션 로봇이 제1 식별 표지를 인식하는 단계, (b) 상기 인터렉션 로봇이 상기 인식한 제1 식별 표지와 연동되는 제1 인터렉션을 수행하는 단계 및 (c) 상기 인터렉션 로봇이 사용자로부터 상기 수행한 제1 인터렉션에 대한 피드백을 수신하여 이와 연동되는 제2 인터렉션을 수행하는 단계를 포함한다.

Description

인터렉션 로봇 및 이를 이용한 콘텐츠 인터렉션 방법{INTERACTION ROBOT AND METHOD FOR CONTENTS INTERACTION USING THE SAME}
본 발명은 인터렉션 로봇 및 이를 이용한 콘텐츠 인터렉션 방법에 관한 것이다. 보다 자세하게는, 사용자에게 새로운 콘텐츠를 제공하고 이와 연동되는 인터렉션을 추가적으로 수행함으로써 전혀 새로운 경험을 제공할 수 있는 인터렉션 로봇 및 이를 이용한 콘텐츠 인터렉션 방법에 관한 것이다.
최근의 로봇 개발은 이전과 같이 단순히 기계적인 컴퓨팅 장치가 아니라, 인간의 생활에 밀접하게 연관되고 깊숙이 침투할 수 있는 반려 로봇으로서의 개발로 그 방향이 재설정되고 있으며, 이러한 반려 로봇은 인간과 상호 작용(Interaction)한다 하여 인터렉션 로봇으로 불리고 있다.
그러나 현재 출시되어 있는 인터렉션 로봇이 수행하는 상호 작용은 사용자로부터 입력을 수신하고 그에 따른 응답을 출력하는 단순하고 수동적인 동작이 대부분인바, 감정적인 교감이 이루어지는 진정한 의미의 상호 작용으로 보기에는 무리가 있으며, 단순한 컴퓨팅 장치로 보는 것이 적절하다.
이에, 최근의 인터렉션 로봇 개발은 인간과 감정적인 교감을 통해 최적화된 서비스를 제공할 수 있는 진정한 의미의 상호 작용을 구현하는 것을 일차적인 목표로 설정하고 있으며, 여기서 감정적인 교감은 마치 실제 친구와 같은, 보다 구체적으로 인터렉션 로봇을 사용하는 사용자 입장에서 로봇이 나의 감정 상태를 정확하게 파악하고, 공감해줄 수 있음과 동시에 로봇이 나를 전적으로 이해해주고 있다는 심리적인 만족감을 충족시켜줄 수 있는 측면에서 접근해야 한다.
한편, 최적화된 서비스와 관련하여 콘텐츠 제공을 대표적으로 들 수 있는바, 인터렉션 로봇이 사용자의 요청에 따른 콘텐츠를 제공하거나, 사용자의 성향에 따른 콘텐츠를 먼저 제공하고, 그에 따른 후속적인 인터렉션까지 수행한다면 최적화된 서비스와 더불어 그 자체로서 신선한 재미를 안겨줄 수 있으며, 1인 가구가 증가하고 있는 현 시대 속에서 하나의 놀이 문화로 정착할 수도 있다.
이와 관련하여 최근 출시된 스마트 스피커나 토이 로봇 등이 콘텐츠를 제공한다는 일부 공통점이 있으나, 기기의 한계성으로 인해 수동적이고 1차원적인 콘텐츠의 1회성 제공만 가능하다는 문제점이 있으며, 인터렉션 로봇의 사용자는 이러한 한계성을 넘어 진정한 의미의 상호 작용을 구현하는 것을 요구하고 있기에 이들과의 차별성이 보다 중요해지고 있다.
따라서 지속적인 사용을 통해 사용자와 감정적인 교감을 통해 진정한 의미의 상호 작용을 이룰 수 있는, 더 나아가 최적화된 서비스로 콘텐츠를 제공하여 후속적인 인터렉션까지 수행할 수 있는 새로운 개념의 인터렉션 로봇이 요구된다. 본 발명은 이를 해결하기 위해 제안된 것이다.
대한민국 공개특허공보 제10-2018-0079825호(2018.07.11)
본 발명이 해결하고자 하는 기술적 과제는 지속적인 사용을 통해 사용자와 감정적인 교감을 통해 진정한 의미의 상호 작용을 이룰 수 있는 인터렉션 로봇 및 이를 이용한 콘텐츠 인터렉션 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 또 다른 기술적 과제는 인터렉션 로봇의 사용자인 인간을 전적으로 이해해주고 있다는 실제 친구와 같은 심리적인 만족감을 제공할 수 있는 인터렉션 로봇 및 이를 이용한 콘텐츠 인터렉션 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 또 다른 기술적 과제는 수동적인 동작에 그치지 않고, 인터렉션 로봇이 사용자인 인간에게 친근하게 먼저 다가가 감정적인 교감을 이룰 수 있는 인터렉션 로봇 및 이를 이용한 콘텐츠 인터렉션 방법을 제공하는 것이다.
본 발명의 해결하고자 하는 또 다른 기술적 과제는 사용자에게 최적화된 서비스로서 콘텐츠를 제공하고, 그에 따른 후속적인 인터렉션까지 수행하여 신선한 재미를 안겨줌과 동시에 하나의 놀이 문화로 정착할 수 있는 인터렉션 로봇 및 이를 이용한 콘텐츠 인터렉션 방법을 제공하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상기 기술적 과제를 달성하기 위한 본 발명의 일 실시 예에 따른 콘텐츠 인터렉션 방법은 (a) 인터렉션 로봇이 제1 식별 표지를 인식하는 단계, (b) 상기 인터렉션 로봇이 상기 인식한 제1 식별 표지와 연동되는 제1 인터렉션을 수행하는 단계 및 (c) 상기 인터렉션 로봇이 사용자로부터 상기 수행한 제1 인터렉션에 대한 피드백을 수신하여 이와 연동되는 제2 인터렉션을 수행하는 단계를 포함한다.
일 실시 예에 따르면, 상기 제1 식별 표지는, 사람, 사물, 이미지, 동영상, 텍스트, 소리, 바코드, QR 코드, RFID 태그 및 네트워크 연결 요청 신호 중 어느 하나 이상일 수 있다.
일 실시 예에 따르면, 상기 제1 식별 표지가 바코드, QR 코드 및 RFID 태그 중 어느 하나 이상인 경우, 상기 (b) 단계는, (b-1) 상기 제1 식별 표지를 복호화하는 단계, (b-2) 상기 복호화한 제1 식별 표지가 포함하는 주소에 접속하는 단계 및 (b-3) 상기 접속한 주소에서 제공하는 콘텐츠를 출력하는 단계를 포함할 수 있다.
일 실시 예에 따르면, 상기 제1 식별 표지가 네트워크 연결 요청 신호인 경우, 상기 (b) 단계는, (b-1´) 상기 네트워크 연결 요청 신호의 출력 또는 상기 사용자의 단말로 전송하는 단계, (b-1´) 상기 사용자 또는 사용자의 단말로부터 네트워크 연결 승인 신호를 수신하는 단계 및 (b-3´) 상기 네트워크 연결 요청 신호를 전송한 디바이스와 네트워크 연결을 수행하는 단계를 포함할 수 있다.
일 실시 예에 따르면, 상기 제1 인터렉션은, 상기 제1 식별 표지와 연동되는 콘텐츠의 출력, 상기 제1 식별 표지와 연동되는 콘텐츠의 상기 사용자의 단말로의 전송, 상기 콘텐츠에 대한 정보의 출력, 상기 콘텐츠에 대한 정보의 상기 사용자의 단말로의 전송, 상기 콘텐츠에 대한 정보에 따라 부여되는 감정에 매칭된 음성, 제스처 및 색상 중 어느 하나 이상의 출력 및 상기 제1 식별 표지와 연동되는 승인 요청의 음성 출력 또는 상기 사용자의 단말로의 전송 중 어느 하나 이상일 수 있다.
상기 기술적 과제를 달성하기 위한 본 발명의 일 실시 예에 따른 콘텐츠 인터렉션 방법은 (A) 인터렉션 로봇이 제2 식별 표지를 출력하는 단계, (B) 상기 인터렉션 로봇이 상기 출력한 제2 식별 표지를 인식한 사용자의 단말로부터 상기 인식한 제2 식별 표지와 연동되는 콘텐츠 출력 알림을 수신하고, 제3 인터렉션을 수행하는 단계 및 (C) 상기 인터렉션 로봇이 상기 사용자의 단말로부터 상기 출력한 콘텐츠에 대한 피드백을 수신하여 이와 연동되는 제4 인터렉션을 수행하는 단계를 포함한다.
일 실시 예에 따르면, 상기 제2 식별 표지는, 제1 서버가 포함하는 상기 콘텐츠에 접속하는 주소를 상기 제1 서버가 암호화하여 상기 인터렉션 로봇에 전송한 바코드 및 QR 코드 중 어느 하나, 상기 제1 서버가 포함하는 상기 콘텐츠에 접속하는 주소를 상기 인터렉션 로봇이 저장하여 암호화한 바코드 및 QR 코드 중 어느 하나 및 상기 인터렉션 로봇이 포함하는 상기 콘텐츠에 접속하는 주소를 상기 인터렉션 로봇이 암호화한 바코드 및 QR 코드 중 어느 하나 중, 어느 하나 이상일 수 있다.
일 실시 예에 따르면, 상기 제3 인터렉션은, 상기 콘텐츠에 대한 정보의 출력, 상기 콘텐츠에 대한 정보의 상기 사용자의 단말로의 전송 및 상기 콘텐츠에 대한 정보에 따라 부여되는 감정에 매칭된 음성, 제스처 및 색상 중 어느 하나 이상의 출력 중 어느 하나 이상일 수 있다.
일 실시 예에 따르면, 상기 제2 식별 표지가 네트워크 연결 요청 신호인 경우, 상기 제3 인터렉션은, 네트워크 연결 승인 여부의 출력 및 상기 사용자의 단말에 네트워크 연결 승인 여부의 전송 중 어느 하나 이상이며, 상기 제4 인터렉션은, 상기 네트워크 연결 요청 신호를 전송한 디바이스와 네트워크 연결의 수행 및 차단 중 어느 하나일 수 있다.
일 실시 예에 따르면, 상기 콘텐츠 인터렉션 방법을 수행하는 인터렉션 로봇을 제공할 수 있다.
상기와 같은 본 발명에 따르면, 인터렉션 로봇이 제1 식별 표지를 인식하여 콘텐츠를 출력하는 제1 인터렉션을 수행하고, 이에 대한 사용자의 피드백을 수신하여 제2 인터렉션까지 수행하거나, 인터렉션 로봇이 제2 식별 표지를 능동적으로 먼저 출력하여 사용자의 단말에 콘텐츠를 제공하고, 이와 연동되는 제3 인터렉션을 수행하며, 이에 대한 사용자의 피드백을 수신하여 제4 인터렉션까지 수행하는바, 사용자와 감정적인 교감을 통해 진정한 의미의 능동적인 상호 작용을 이룰 수 있으며, 실제 사람과 대화하는 듯한 현실감을 제공할 수 있다는 효과가 있다.
또한, 콘텐츠에 매칭된 감정에 대하여 발광부에 색상을 출력하거나 별도의 멘트를 출력할 수 있으므로 사용자인 인간을 전적으로 이해해주고 있다는 실제 친구와 같은 심리적인 만족감을 제공할 수 있다는 효과가 있다.
또한, 사용자와의 마지막 인터렉션을 탐색하여 이와 연동되는 콘텐츠를 제공할 수 있는 주소를 암호화하여 제2 식별 표지로 사용자에게 먼저 제공하므로 친근하게 먼저 다가가 감정적인 교감을 이룰 수 있는 능동적인 인터렉션을 수행할 수 있다는 효과가 있다.
또한, 사용자에게 최적화된 서비스로서 콘텐츠를 제공하고, 그에 따른 후속적인 제3 인터렉션 및 제4 인터렉션까지 수행하여 신선한 재미를 안겨주기에 하나의 놀이 문화로 정착할 수 있다는 효과가 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.
도 1은 본 발명의 제1 실시 예에 따른 인터렉션 로봇을 예시적으로 도시한 도면이다.
도 2는 본 발명의 제2 실시 예에 따른 콘텐츠 인터렉션 방법의 순서도를 도시한 도면이다.
도 3은 본 발명의 제1 실시 예에 따른 인터렉션 로봇의 한쪽 눈에 카메라 센서가 설치된 경우, 제1 식별 표지로서 사용자의 단말에 출력된 QR 코드를 인식하는 모습이 예시적으로 도시한 도면이다.
도 4는 본 발명의 제2 실시 예에 따른 콘텐츠 인터렉션 방법에 있어서, 제1 식별 표지가 바코드, QR 코드 및 RFID 태그 중 어느 하나 이상인 경우에 S220 단계가 포함하는 구체적인 단계의 순서도를 도시한 도면이다.
도 5는 감정 분류기의 전체적인 구조가 예시적으로 도시한 도면이다.
도 6은 본 발명의 제1 실시 예에 따른 인터렉션 로봇과 사용자의 단말 그리고 인터렉션 로봇에 네트워크 연결 요청 신호를 전송한 디바이스의 신호 전송 관계를 도시한 도면이다.
도 7은 본 발명의 제2 실시 예에 따른 콘텐츠 인터렉션 방법에 있어서, 제1 식별 표지가 네트워크 연결 요청 신호인 경우에 S220 단계가 포함하는 구체적인 단계의 순서도를 도시한 도면이다.
도 8은 본 발명의 제3 실시 예에 따른 콘텐츠 인터렉션 방법의 순서도를 도시한 도면이다.
도 9는 인터렉션 로봇의 제어 서버의 구성을 도시한 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다.
또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.
그에 따라, 이하의 명세서에서 사용하는 "업체"는 영리 또는 비영리 사업을 운영하는 사익 또는 공익 업체를 불문하며, "시설"은 이들 업체가 운영하는 모든 시설로 규정하여 설명하도록 한다.
한편, 명세서에서 사용되는 "포함한다 (comprises)" 및/또는 "포함하는 (comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
이하, 본 발명에 대하여 첨부된 도면에 따라 보다 상세히 설명한다.
도 1은 본 발명의 제1 실시 예에 따른 콘텐츠 인터렉션 방법의 대상이 되는 인터렉션 로봇(100)을 예시적으로 도시한 도면이다.
그러나 이는 본 발명의 목적을 달성하기 위한 바람직한 실시 예일 뿐이며, 필요에 따라 일부 구성이 추가되거나 삭제될 수 있고, 어느 한 구성이 수행하는 역할을 다른 구성이 함께 수행할 수도 있음은 물론이다.
본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)은 바디부(110), 헤드부(120), 제1 구동부(130) 및 제2 구동부(140)를 포함할 수 있으며, 기타 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)의 구동을 위해 필요한 부가적인 구성들 역시 더 포함할 수 있다.
바디부(110)는 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)의 주요 부품들, 예를 들어 CPU(미도시), 배터리(미도시), 네트워크 모듈(미도시) 등과 같은 부품들이 내부에 실장 또는 기타 다른 부품들이 외부에 연결되는 중심 구성으로서, 소정 정보의 텍스트를 출력하는 디스플레이부(115), 음성을 출력하는 스피커부(117) 및 사용자의 음성이나 주변 소리를 수신하는 마이크부(미도시)를 더 포함할 수 있다.
디스플레이부(115)는 일종의 액정 표시 장치로 볼 수 있으며, 소정 정보의 텍스트, 이미지 및 동영상 중 어느 하나 이상이 출력될 수 있다. 여기서 소정 정보는 통신 상태 강도 정보, 배터리 잔량 정보, 무선 인터넷 ON/OFF 정보 등과 같은 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)의 상태 정보뿐만 아니라, 인터렉션 로봇(100)의 감정 상태 정보 및 후술할 스피커부(117)를 통해 인터렉션 로봇(100)이 출력하는 음성을 텍스트로 변환한 정보까지 해당될 수 있다. 예를 들어, 인터렉션 로봇(100)이 인터렉션을 통해 사용자와 감정적인 교감을 이룬 후의 감정이 "행복"이라면, 이에 대한 텍스트가 "현재 감정 상태: 행복"으로, 사용자가 인터렉션 로봇(100)을 통해 기상 알람(Alarm)을 설정하였다면, 이에 대한 텍스트가 "오전 7:00 기상"으로 디스플레이부(115)에 출력될 수 있다.
이러한 디스플레이부(115)에 출력되는 텍스트는 앞서 설명한 정보 중 어느 하나가 반복하여 출력될 수도 있으나, 복수 개의 정보가 번갈아가며 출력되거나, 특정 정보가 디폴트 설정되어 출력될 수도 있다. 예를 들어, 통신 상태 강도 정보, 배터리 잔량 정보, 무선 인터넷 ON/OFF 정보 등과 같은 인터렉션 로봇(100)의 상태 정보는 디스플레이부(115) 상단 또는 하단에 작은 텍스트로 디폴트 설정되어 지속적으로 출력되고, 기타 다른 정보들이 번갈아가며 출력될 수 있다.
한편, 디스플레이부(115)는 이미지 및 동영상 중 어느 하나 이상을 출력할 수 있다고 한바, 이 경우 디스플레이부(115)는 시안성 향상을 위해 텍스트만 출력하는 경우보다 고해상도임과 동시에 큰 사이즈의 액정 표시 장치로 구현하는 것이 바람직하다고 할 것이며, 도 1의 디스플레이부(115)는 예시적인 것으로 보아야 할 것이다.
스피커부(117)는 음성을 출력한다. 여기서 음성은 사용자와 인터렉션을 통해 응답하고자 하는 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)의 출력 중 청각적인 정보에 해당하는 것으로써, 사용자의 단말(200)에 설치된 인터렉션 로봇(100) 전용 어플리케이션(미도시)를 통해 음성의 종류를 다양하게 설정할 수 있다.
예를 들어, 스피커부(117)를 통해 출력하는 음성의 종류를 남성 목소리, 여성 목소리, 성인 목소리 및 아동 목소리 등과 같이 다양한 목소리 중 어느 하나로 선택할 수 있으며, 한국어, 영어, 일본어 및 불어 등과 같이 언어의 종류까지 선택할 수 있다.
한편, 스피커부(117)가 음성을 출력하기는 하나, 통상적인 스피커가 수행하는 역할, 예를 들어 보편적인 소리 출력을 수행하지 않는 것이 아니며, 이 역시 동일하게 수행할 수 있다. 예를 들어, 사용자가 인터렉션 로봇(100)을 통해 음악을 감상하고 싶은 경우, 스피커부(117)를 통해 음악을 출력할 수 있음은 물론이며, 디스플레이부(115)를 통해 동영상을 출력하는 경우, 해당 동영상과 동기화되는 소리는 스피커부(117)를 통해 출력될 수 있다.
마이크부(미도시)는 사용자의 음성이나 주변 소리, 더 나아가 후술할 피드백 중 음성을 수신한다. 여기서 사용자의 음성이나 주변 소리는 사용자와의 인터렉션에 있어서 사용자 입력으로 취급되는 중요한 정보이기에, 마이크부(미도시)가 배치되는 위치는 사용자의 음성이나 주변 소리를 수신하는데 방해되는 요소가 없는 위치에 배치하는 것이 바람직하다. 예를 들어, 도 1에 도시된 바디부(110) 전면에 형성된 스피커부(117)의 홀(Hole) 바로 후면에 배치한다면, 사용자의 음성이나 주변 소리를 직접적으로 수신할 수 있을 것이다.
한편, 마이크부(미도시)는 스피커부(117)와 별도로 배치된 독립된 구성이 아니라, 스피커부(117)와 일체로 형성할 수도 있다. 이 경우, 앞서 설명한 마이크부(미도시)가 배치되는 위치에 대한 사항은 고려할 필요가 없을 것이며, 바디부(110) 내부의 공간 활용성 역시 양호해질 수 있을 것이다.
더 나아가 바디부(110)는 후술할 제1 식별 표지의 인식, 제1 인터렉션 내지 제4 인터렉션을 수행하기 위한 카메라 센서(미도시), 적외선 센서(미도시), 압력 센서(미도시), 터치 센서(미도시) 등과 같은 공지된 센서들을 더 포함할 수 있다.
한편, 바디부(110)는 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)이 배치된 공간 내에서 인터넷 AP(Access Point)로 동작할 수 있도록 인터넷 AP 모듈(미도시)를 더 포함할 수 있는바, 인터렉션 로봇(100)이 AP 모드로 동작하는 경우, 스피커부(117)를 통해 현재 상태에 대한 알림, 예를 들어, "현재 인터넷 AP 모드로 동작 중입니다"등과 같은 음성을 출력함으로써 사용자에게 스스로 알릴 수도 있다.
헤드부(120)는 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)의 머리가 되는 구성으로서, 다양한 형상으로 구현할 수 있다.
예를 들어, 도 1에는 사각형 형상의 헤드부(120)가 2개의 원 형상의 눈과 1개의 반달 형상의 입을 포함하는 것으로 도시되어 있으나, 이는 예시적인 것에 불과하며, 헤드부(120) 자체의 형상, 눈 및 입의 형상을 상이하게 하여 구현할 수도 있으며, 눈 및 입 이외에 부가적인 구성, 예를 들어, 코 및 귀 등과 같은 구성까지 함께 구현할 수 있음은 물론이다.
한편, 헤드부(120)는 사용자와 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100) 사이에서 이루어지는 감정적인 교감의 측면에서 매우 중요한바, 이는 인간 사이의 대화에서 그 중요성을 유추해볼 수 있다. 가족 사이에서, 친구 사이에서, 업무 적인 관계가 있는 사이 모두를 포함하는 인간과 인간 사이에서 대화를 진행할 때, 감정적인 교감을 이룰 수 있는 가장 좋은 방법은 서로의 눈을 보며 대화를 하는 것이다. 이는 인터렉션 로봇(100)에도 동일하게 적용할 수 있는바, 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)의 헤드부(120)가 포함하는 2개의 눈을 몰입도 있게 구현하고, 특이성 있는 제어 방법을 적용함으로써 실제 인간과 대화하는 느낌을 제공할 수 있고, 결과적으로 사용자와 감정적인 교감이 용이하게 이루어질 수 있을 것이다. 이는 발광부(125)에 대한 것인바, 이이 대한 자세한 설명은 후술하도록 한다.
헤드부(120)가 포함하는 2개의 눈 각각에는 카메라 센서(미도시), 적외선 센서(미도시) 및 비전 센서(미도시) 중 어느 하나 이상을 형성할 수 있는바, 시각적인 기능을 수행하는 이들 센서와 눈을 매칭함으로써 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)과 인터렉션하는 사용자의 몰입도를 향상시킬 수 있을 것이며, 눈은 인터렉션 로봇(100)의 신장을 기준으로 가장 높은 위치에 배치된 구성이기에 센서들의 시각적인 범위의 측면에서도 장점이 있다 할 것이다.
한편, 도 1에 도시된 사각형 형상의 헤드부(120)는 1개의 반달 형상의 입을 포함하고 있는바, 입은 의사소통을 위한 소리를 내는 기관이기 때문에 앞서 바디부(110)에 대한 설명에서 언급한 스피커부(117)를 바디부(110)가 아니라 헤드부(120)의 입에 형성할 수도 있다. 이 경우, 스피커부(117)가 출력하는 음성에 대응되도록 입을 움직이게 구현하여 실제 인간과 대화하는 느낌을 제공할 수 있고, 결과적으로 사용자와 감정적인 교감이 용이하게 이루어질 수 있을 것이다.
스피커부(117)뿐만 아니라 헤드부(120)의 입에 카메라 센서(미도시), 적외선 센서(미도시), 비전 센서(미도시) 등을 형성할 수도 있으며, 이 역시 앞서 눈에 형성한 경우와 유사한 효과를 얻을 수 있을 것이므로 중복 서술을 방지하기 위해 자세한 설명은 생략하도록 한다.
제1 구동부(130) 및 제2 구동부(140)는 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)의 동적인 구동을 담당한다.
보다 구체적으로, 제1 구동부(130)는 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)의 팔 역할을, 제2 구동부(140)는 다리 역할을 담당하며, 제1 구동부(130) 및 제2 구동부(140) 모두 사용자와 감정적인 교감이 용이하게 이루어질 수 있도록 이바지하는바, 이이 대한 자세한 설명은 후술하도록 한다.
한편, 도 1에는 제1 구동부(130) 및 제2 구동부(140)가 모두 2단으로 구현된 모습이 도시되어 있으나, 이는 예시적인 것에 불과하며, 3단 이상으로 구현함으로써 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)의 동작에 현실감을 부여할 수 있을 것이나, 이는 어디까지나 선택 사항이라 할 것이다.
지금까지 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)이 포함하는 구성을 도 1을 참조하며 설명하였다. 그러나 이는 모두 예시적인 것이며, 사용자와 감정적인 교감이 용이하게 이루어짐과 동시에 콘텐츠 제공이 효과적으로 이루어질 수 있도록 인터렉션 로봇(100)의 구성을 변경 또는 개량할 수 있음은 물론이다.
이하, 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)을 기초로, 본 발명의 제2 실시 예에 따른 콘텐츠 인터렉션 방법에 대하여 도 2 내지 도 6을 참조하여 설명하도록 한다.
도 2는 본 발명의 제2 실시 예에 따른 콘텐츠 인터렉션 방법의 순서도를 도시한 도면이다.
이는 본 발명의 목적을 달성함에 있어서 바람직한 실시 예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있고, 더 나아가 어느 한 단계가 다른 단계에 포함될 수도 있음은 물론이다.
한편, 각 단계는 앞서 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)이 포함하는 구성인 바디부(110), 디스플레이부(115), 스피커부(117), 마이크부(미도시), 헤드부(120), 제1 구동부(130) 및 제2 구동부(140) 중 어느 하나 이상에 의해 수행되나, 설명의 편의를 위해 이하 인터렉션 로봇(100)에 의해 수행되는 것으로 설명을 이어가도록 한다.
우선, 인터렉션 로봇(100)이 제1 식별 표지를 인식한다(S210).
여기서 제1 식별 표지는 인식 가능한 모든 대상을 포함하는 최광의의 개념으로서 시각적으로 확인 가능한 대상과 확인 불가능한 대상 모두를 포함할 수 있다. 보다 구체적으로 시각적으로 확인 가능한 대상으로서 사람, 사물, 이미지, 동영상, 텍스트, 바코드, QR 코드, RFID 태그 등일 수 있으며, 시각적으로 확인 불가능한 대상으로서 소리, 냄새, 제스처, 네트워크 연결 요청 신호 등일 수 있으며, 이와 더불어 다양한 대상들을 더 포함할 수 있음은 물론이다.
이러한 제1 식별 표지는 인식되는 대상이기에, 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)이 이들 대상을 인식할 수 있는 센서(미도시) 등을 포함하고 있다면 그 종류에는 제한이 없다. 예를 들어, 사람, 사물, 이미지, 동영상, 텍스트, 바코드, QR 코드 등은 카메라 센서(미도시)가, RFID 태그는 RFID 칩(미도시)이, 소리는 마이크(미도시)가, 향기는 냄새 감지 센서(미도시)가, 네트워크 연결 요청 신호는 네트워크 모듈(미도시)가 인식할 수 있으므로 이들이 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)에 포함되어 있다면 인식은 유효하게 수행될 수 있는 것이며, 이하의 설명에선 이를 전제로 설명을 이어가도록 한다.
한편, 제1 식별 표지가 바코드, QR 코드 및 RFID 태그 등과 같이 간단한 연산을 요구하는 표지인 경우 제1 식별 표지의 인식은 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)이 자체적으로 수행할 수 있으며, 비교적 복잡한 연산을 요구하는 사람, 사물, 이미지, 동영상, 텍스트, 소리, 냄새, 제스처, 네트워크 연결 요청 신호 등인 경우 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)과 연결된 제어 서버(1000)에 의해 인식이 가능하도록 분산 처리할 수도 있다.
또한, 제어 서버(1000)를 앞서 설명한 분산 처리뿐만 아니라 바코드, QR 코드 및 RFID 태그 등을 포함하는 모든 제1 식별 표지에 대하여 인식 가능하도록 구현할 수도 있는바, 이 경우 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)이 포함하는 CPU(미도시)를 최소한의 사양으로 맞출 수 있어 제조 비용 절감을 이룰 수 있다는 장점이 있다.
도 3에는 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)의 한쪽 눈에 카메라 센서(미도시)가 설치된 경우, 제1 식별 표지로서 사용자의 단말(200)에 출력된 QR 코드를 인식하는 모습이 예시적으로 도시되어 있는바, 제1 식별 표지는 인터렉션 로봇(100)이 인식 가능한 범위 이내에 배치되어야 할 것인바, 제1 식별 표지를 인식시키고자 하는 사용자의 의사가 반영된 것으로 볼 수 있다.
여기서 사용자의 단말(200)은 네트워크 기능을 구비한 전자 기기라면 어떠한 것이라도 무방한바, 예를 들어 스마트폰, 스마트 워치, 스마트 글래스, PDP, PMP, 태블릿 PC, 데스크톱 PC, 노트북 PC 등 어떠한 것이라도 무방하다 할 것이다.
한편, 이와 별론으로, 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)이 카메라 센서(미도시) 또는 적외선 센서(미도시) 등을 통해 특정 공간 내에서 충돌 없이 자율 주행을 수행하는 경우, 인터렉션 로봇(100) 스스로 제1 식별 표지를 탐색하여 인식할 수도 있는바, 예를 들어, 인터렉션 로봇(100)이 가정 내에서 자율 주행을 수행하다가 인식 가능한 범위 내에서 A라는 노래를 인식한 경우, 이를 제1 식별 표지로 간주하여 후술할 S220 단계를 수행할 수도 있으며, 이는 사용자의 의사보다는 사용자의 실생활에 최적화된 인터렉션으로 볼 수 있을 것이다.
제1 식별 표지를 인식했다면, 인터렉션 로봇(100)이 인식한 제1 식별 표지와 연동되는 제1 인터렉션을 수행한다(S220).
여기서 제1 인터렉션은 제1 식별 표지와 연동되는 인터렉션으로서 제1 식별 표지와 연동되는 콘텐츠의 출력, 제1 식별 표지와 연동되는 콘텐츠의 사용자의 단말(200)로의 전송, 콘텐츠에 대한 정보의 출력, 콘텐츠에 대한 정보의 사용자의 단말(200)로의 전송, 콘텐츠에 대한 정보에 따라 부여되는 감정에 매칭된 음성, 제스처 및 색상 중 어느 하나 이상의 출력 및 제1 식별 표지와 연동되는 승인 요청의 음성 출력 또는 사용자의 단말(200)로의 전송 중 어느 하나 이상일 수 있으며, 이와 더불어 제1 식별 표지와 연동되기만 한다면 그 종류에 제한은 없다 할 것이다. 이하, 제1 인터렉션을 세부적으로 설명하도록 한다.
제1 식별 표지와 연동되는 콘텐츠의 출력은 말 그대로 제1 식별 표지와 연관성이 있는 콘텐츠를 출력하는 것인바, 제1 식별 표지가 사람이라면 해당 사람에 대한 인물 정보 등이, 제1 식별 표지가 사물이라면 해당 사물에 대한 명칭, 사용법, 용도, 제조사, 가격, 판매처, 최저가 판매처 리스트 등이, 제1 식별 표지가 이미지라면 해당 이미지가 포함하는 대상(사람 및 사물 포함)에 대한 정보 등이, 제1 식별 표지가 동영상이라면 해당 동영상 자체에 대한 명칭, 제작자, 재생 시간, 업로드 날짜, 업로드되어 있는 주소나 해당 동영상이 포함하는 대상(사람 및 사물 포함)에 대한 정보 등이, 제1 식별 표지가 텍스트라면 해당 텍스트를 읽어내는 음성, 출처, 작성자 등이, 제1 식별 표지가 소리라면 해당 소리의 내용, 종류, 출처 등이 출력될 수 있으며, 이와 더불어 제1 식별 표지인 사람, 사물, 이미지, 동영상, 텍스트 및 소리와 연관성이 있는 정보라면 어떠한 것이라도 출력할 수 있다.
한편, 제1 식별 표지가 바코드, QR 코드 및 RFID 태그 중 어느 하나 이상인 경우에는 S220 단계가 S220-1 단계 내지 S220-3 단계를 포함할 수 있다.
도 4는 본 발명의 제2 실시 예에 따른 콘텐츠 인터렉션 방법에 있어서, 제1 식별 표지가 바코드, QR 코드 및 RFID 태그 중 어느 하나 이상인 경우에 S220 단계가 포함하는 구체적인 단계의 순서도를 도시한 도면이다.
우선, 인터렉션 로봇(100)이 제1 식별 표지를 복호화한다(S220-1).
제1 식별 표지가 바코드, QR 코드 및 RFID 태그 중 어느 하나 이상인 경우, 이들은 암호화된 상태이기에 암호화를 해지하는 복호화가 필수적이다.
이러한 제1 식별 표지의 복호화는 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)이 포함하는 CPU(미도시)에 의해 수행되거나, 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)과 연결된 제어 서버(1000)에 의해 수행될 수도 있을 것이며, 각각 바코드, QR 코드 및 RFID 태그를 복호화하는 알고리즘을 탑재하고 있어야 할 것이다.
제1 식별 표지를 복호화했다면 복호화한 제1 식별 표지가 포함하는 주소에 접속한다(S220-2).
제1 식별 표지를 복호화했다면 암호화가 해지되어 최초 제1 식별 표지인 바코드, QR 코드 및 RFID 태그를 생성하는 과정에 포함시킨 실제 콘텐츠를 확인할 수 있으며, 이는 네트워크를 통해 연결 가능한 주소일 수 있고, 주소로의 접속은 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)이 포함하는 네트워크 모듈(미도시)에 의해 수행될 수 있다.
주소에 접속했다면 접속한 주소에서 제공하는 콘텐츠를 출력한다(S220-3).
여기서 출력하는 콘텐츠는 종류의 제한이 없으나, 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)이 콘텐츠를 출력하는 것이기에, 디스플레이부(115), 스피커부(117), 제1 구동부(130) 및 제2 구동부(140) 중 어느 하나 이상을 이용하여 출력 가능한 이미지, 동영상, 텍스트, 소리, 제스처 등일 수 있으며, 해당 콘텐츠를 출력하면서 발광부(125)에 특정 색상의 빛이 함께 출력될 수 있다.
여기서 발광부(125)에 출력되는 특정 색상의 빛은 출력하는 콘텐츠에 부여된 감정에 따라 상이해질 수 있는바, 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)이 포함하는 CPU(미도시) 또는 제어 서버(1000)가 포함하는 감정 분류기를 이용하여 결정할 수 있다.
감정 분류기는 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)이 포함하는 CPU(미도시) 또는 제어 서버(1000)의 인공지능 처리부(미도시)가 포함하는 소형 데이터베이스(DB, DataBase)의 일종이며, 보다 구체적으로, 단어에 매칭되는 감정 및 해당 감정에 매칭되는 색이 기 정렬되어 있는 감성 데이터 사전으로 볼 수 있다.
도 5에는 감정 분류기의 전체적인 구조가 예시적으로 도시되어 있는바, 감정 분류기는 인간의 5가지 기본 감정인 기쁨, 슬픔, 화남, 역겨움, 두려움을 기초로, 감정의 강도를 약함, 중간, 강함 3단계로 표시하여 전체 15개의 감정 상태를 나타낼 수 있다. 그러나, 이러한 감정의 종류 및 감정의 강도는 예시적인 것이며, 경우에 따라 다양하게 설계 변경할 수 있음은 물론이다.
한편, 5가지 기본 감정 중 기쁨은 노란색, 슬픔은 파란색, 화남은 붉은색, 역겨움은 녹색, 두려움은 보라색이 매칭이 매칭되어 있으며, 감정의 강도 중간을 기준으로 RGB 색상표의 표준 노란색, 파란색, 붉은색, 녹색, 보라색이 기본 매칭되어 있다. 이를 기준으로 감정의 강도가 약함인 경우 RGB 색상표의 표준 노란색, 파란색, 붉은색, 녹색, 보라색보다 흐린 색으로, 감정의 강도가 강함인 경우 RGB 색상표의 표준 노란색, 파란색, 붉은색, 녹색, 보라색보다 진한 색으로 매칭되어 있다. 예를 들어, 붉은색이라면, 감정의 강도 중간은 (255, 0, 0)으로, 감정의 강도 약함은 (255, 198, 198)로, 감정의 강도 강함은 (75, 0, 0)으로 매칭될 수 있다.
앞서 설명한 바와 같이, 감정 분류기에 감정의 종류 및 감정의 강도가 기 정렬되어 있다 하더라도, 어떠한 단어에 어떠한 감정이 매칭되는지가 함께 정렬되어 있지 않다면, 단어에 매칭되는 색을 추출할 수가 없다. 이는 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)이 포함하는 CPU(미도시) 또는 제어 서버(1000)와 연관되며, 인공지능 기술 구현에 관한 것이기에 이하 CPU(미도시)를 기준으로 설명하도록 한다.
감정 분류기에는 각종 단어와 해당 단어에 매칭되는 감정이 최초 기 정렬되어 있으며, 이는 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)의 제작자가 사전에 설정해 놓은 것이다. 그러나 설정해 놓은 단어 및 이에 매칭되는 감정이 후발적으로 변경되는 경우나, 새로운 단어 및 이에 매칭되는 감정을 추가해야 하는 경우, 이들 작업을 어떻게 수행하는지 문제된다.
CPU(미도시)는 이를 해결하기 위해, 주기적으로 인터넷을 서핑하여 데이터를 크롤링(Crawling)한다. 여기서 크롤링의 대상은 단순히 독립된 단어뿐만이 아니라, 해당 단어가 포함되어 있는 문장, 해당 문장을 포함하는 문단까지 모두 해당되며, 크롤링의 장소 역시 아무런 제한이 없다. 예를 들어, CPU(미도시)는 인터넷 포털 페이지, 영화 평점 페이지, 도서 평점 페이지, 온라인 쇼핑몰 상품 평점 페이지, 뉴스 기사 페이지, 각종 동호회 게시판 페이지, 학술 게시판 페이지 등 어디라도 무방하다.
크롤링을 통해 획득한 데이터는 문장 단위의 분석을 통해 매칭되는 감정을 결정할 수 있다. 예를 들어, "영화 xxx(영화 제목)가 매우 재미있었습니다"라는 문장을 획득한 경우, xxx(영화 제목)에 매칭되는 감정은 해당 문장에 포함된 다른 단어인 "재미" 등에 기 매칭되어 있는 감정을 기초로 xxx(영화 제목)에 동일한 감정을 매칭할 수 있다. 이 경우 "재미"에 매칭되어 있는 감정은 기쁨이기 때문에, xxx(영화 제목)에도 "기쁨"이라는 감정을 매칭할 수 있으며, 해당 문장에 포함된 다른 단어인 "매우"를 통해 감정의 강도를 "강함"으로 설정할 수도 있을 것이다.
한편, 앞서 xxx(영화 제목)에 대해 설명한 감정 매칭 사례는 예시에 해당하며, 하나의 문장을 기초로 해당 단어에 매칭되는 감정을 확정적으로 정하는 것은 정확도의 측면에서 부족할 수 있다. 이에 CPU(미도시)는 감정 분류기 내에 별도의 감정 보정부(미도시)를 포함하는바, 감정 보정부(미도시)는 동일한 단어가 포함되어 있는 문장을 소정 횟수 이상, 예를 들어 최소 5회 이상 검색하고, 이들 모두에서 감정 매칭 작업을 동일하게 수행하여, 그 결과 가장 많이 매칭된 감정을 검증하여 해당 단어에 매칭되는 최종적인 감정으로 확정한다. 더 나아가, 감정 보정부(미도시)는 단어에 매칭된 감정의 강도까지 검증할 수 있다. 중복 서술을 방지하기 위해 자세히 설명하지는 않았으나, 감정의 강도 역시 감정 매칭과 동일한 과정을 통해 확정할 수 있을 것이다.
한편, 콘텐츠를 출력한 이후, 발광부(125)에 출력한 색상과 매칭되는 감정에 대한 멘트를 추가적으로 출력할 수도 있는바, 콘텐츠가 아름다운 풍경에 대한 동영상이며, 이에 대한 감정인"평화롭다"에 매칭된 색상인 녹색이 발광부(125)에 출력되었다면, "평화로운 동영상이네요", "평화롭고 아름다운 풍경이네요" 등과 같은 멘트를 추가적으로 출력하여 보다 현실감있는 인터렉션을 수행할 수도 있다.
이번에는 제1 식별 표지가 네트워크 연결 요청 신호인 경우에 대하여 설명하도록 한다. 제1 식별 표지가 네트워크 연결 요청 신호인 경우에는 S220 단계가 S220-1´ 단계 내지 S220-3´ 단계를 포함할 수 있다.
도 6은 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)과 사용자의 단말(200) 그리고 인터렉션 로봇(100)에 네트워크 연결 요청 신호를 전송한 디바이스(300)의 신호 전송 관계를 도시한 도면이며, 도 7은 본 발명의 제2 실시 예에 따른 콘텐츠 인터렉션 방법에 있어서, 제1 식별 표지가 네트워크 연결 요청 신호인 경우에 S220 단계가 포함하는 구체적인 단계의 순서도를 도시한 도면이다.
우선, 인터렉션 로봇(100)이 네트워크 연결 요청 신호의 출력 또는 사용자의 단말(200)로 전송한다(S220-1´).
여기서 네트워크 연결 요청 신호의 출력은 디스플레이부(115)를 통해 시각적으로 출력하거나 스피커부(117)를 통해 청각적으로 출력할 수 있으며, 사용자의 단말(200)로의 전송은 네트워크 연결 요청 신호가 수신되었다는 전용 어플리케이션 상의 문자 메시지 또는 모바일 메신저 등의 형태로 전송될 수 있다.
또한, 출력의 세부적인 내용은 어떠한 디바이스로부터 네트워크 연결 요청 신호가 전송되었는지, 네트워크 연결 요청 신호가 전송된 날짜 및 시간에 대한 정보 등과 같이 의도되지 않은 디바이스와의 네트워크 연결을 방지하기 위한 세부 정보가 함께 출력되거나 전송될 수 있음은 물론이다.
이후, 사용자 또는 사용자의 단말(200)로부터 네트워크 연결 승인 신호를 수신한다(S220-2´).
네트워크 연결 승인 신호는 네트워크 연결 요청 신호를 전송한 디바이스(300)와 네트워크 연결을 승인한다는 사용자의 의사인바, 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)이 포함하는 디스플레이부(미도시)가 터치 형식인 경우 터치를 통해서, 별도의 버튼(미도시)을 포함하는 경우 해당 버튼을 누르는 동작을 통해서 수신 가능하며, 사용자의 단말(200)로부터의 수신은 전용 어플리케이션 상의 문자 메시지 또는 모바일 메신저 등의 형태로 제어 서버(1000)를 통해 수신할 수 있다.
네트워크 연결 승인 신호를 수신했다면, 네트워크 연결 요청 신호를 전송한 디바이스(300)와 네트워크 연결을 수행한다(S220-3´).
본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)이 네트워크 연결 요청 신호를 전송한 디바이스(300)와 네트워크 연결이 완료된 경우, 일종의 사물 인터넷(IoT, Inter Of Things) 기술이 적용된 것으로 볼 수 있으며, 해당 디바이스(300)를 통해 인터렉션 로봇(100)을 제어하거나 콘텐츠를 전송할 수도 있다.
더 나아가, 네트워크 연결 요청 신호를 전송한 디바이스(300)가 네트워크 장비인 경우 이와 네트워크 연결이 완료된 인터렉션 로봇(100)은 배치된 공간 내에서 인터넷 AP(Access Point)로 동작이 가능하다 할 것이다.
다시 도 2에 대한 설명으로 돌아가도록 한다.
제1 인터렉션을 수행했다면, 인터렉션 로봇(100)이 사용자로부터 제1 인터렉션에 대한 피드백을 수신하여 이와 연동되는 제2 인터렉션을 수행한다(S230).
앞서 제1 인터렉션이 제1 식별 표지와 연동되는 콘텐츠의 출력, 제1 식별 표지와 연동되는 콘텐츠의 사용자의 단말(200)로의 전송, 콘텐츠에 대한 정보의 출력, 콘텐츠에 대한 정보의 사용자의 단말(200)로의 전송, 콘텐츠에 대한 정보에 따라 부여되는 감정에 매칭된 음성, 제스처 및 색상 중 어느 하나 이상의 출력 및 제1 식별 표지와 연동되는 승인 요청의 음성 출력 또는 사용자의 단말(200)로의 전송 중 어느 하나 이상일 수 있으며, 이와 더불어 제1 식별 표지와 연동되기만 한다면 그 종류에 제한은 없다고 한바, 이에 대한 사용자의 피드백 역시 그 종류에 제한은 없으며, 제2 인터렉션 역시 피드백의 종류에 따라 제1 인터렉션과 동일한 인터렉션 또는 이와 상이한 어떠한 인터렉션이라도 수행될 수 있다.
한편, 사용자의 피드백은 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)이 포함하는 디스플레이부(115), 스피커부(117), 카메라 센서(미도시), 적외선 센서(미도시), 압력 센서(미도시), 터치 센서(미도시) 등을 통해 수신할 수 있으며, 사용자의 단말(200)을 통해 전용 어플리케이션을 경유하여 수신할 수 있음은 물론이다.
또한, 제2 인터렉션 이후에 이에 대한 피드백을 수신하여 제N 인터렉션(N은 3 이상의 양의 정수)을 연속하여 수행할 수도 있는바, 실제 사람과 대화하는 듯한 현실감을 제공할 수 있을 것이다.
지금까지 본 발명의 제2 실시 예에 따른 콘텐츠 인터렉션 방법에 대하여 설명하였다. 본 발명에 따르면, 인터렉션 로봇(100)이 제1 식별 표지를 인식하여 콘텐츠를 출력하는 제1 인터렉션을 수행하고, 이에 대한 사용자의 피드백을 수신하여 제2 인터렉션까지 수행하는바, 사용자와 감정적인 교감을 통해 진정한 의미의 상호 작용을 이룰 수 있으며, 실제 사람과 대화하는 듯한 현실감을 제공할 수 있다. 또한, 콘텐츠에 매칭된 감정에 대하여 발광부(125)에 색상을 출력하거나 별도의 멘트를 출력할 수 있으므로 사용자인 인간을 전적으로 이해해주고 있다는 실제 친구와 같은 심리적인 만족감을 제공할 수 있다.
이상 설명한 본 발명의 제2 실시 예에 따른 콘텐츠 인터렉션 방법은 그 시작이 인터렉션 로봇(100)이 제1 식별 표지를 인식하는 것인바, 자율 주행을 수행하는 경우를 제외한다면 제1 식별 표지를 인식시키고자 하는 사용자의 의사가 반영된 실시 예에 해당한다. 이하 인터렉션 로봇(100)이 사용자에게 친근하게 먼저 다가가 감정적인 교감을 이룰 수 있는 능동적인 또 다른 실시 예를 설명하도록 한다.
도 8은 본 발명의 제3 실시 예에 따른 콘텐츠 인터렉션 방법의 순서도를 도시한 도면이다.
이는 본 발명의 목적을 달성함에 있어서 바람직한 실시 예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있고, 더 나아가 어느 한 단계가 다른 단계에 포함될 수도 있음은 물론이다.
한편, 각 단계는 앞서 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)이 포함하는 구성인 바디부(110), 디스플레이부(115), 스피커부(117), 마이크부(미도시), 헤드부(120), 제1 구동부(130) 및 제2 구동부(140) 중 어느 하나 이상에 의해 수행되나, 설명의 편의를 위해 이하 인터렉션 로봇(100)에 의해 수행되는 것으로 설명을 이어가도록 한다.
우선, 인터렉션 로봇(100)이 제2 식별 표지를 출력한다(S810).
여기서 제2 식별 표지는 앞서 본 발명의 제2 실시 예에 따른 콘텐츠 인터렉션 방법에 대한 설명에서 언급한 제1 식별 표지와 구별하기 위해 부여한 명칭이며, 실제 종류는 제1 식별 표지와 동일 또는 유사할 수 있으므로 중복 서술을 방지하기 위해 자세한 설명은 생략하도록 한다.
제2 식별 표지가 제1 식별 표지와 유사한 경우 제2 식별 표지는 제1 서버(400)가 포함하는 콘텐츠에 접속하는 주소를 제1 서버(400)가 암호화하여 인터렉션 로봇(100)에 전송한 바코드 및 QR 코드 중 어느 하나, 제1 서버(400)가 포함하는 콘텐츠에 접속하는 주소를 인터렉션 로봇(100)이 저장하여 암호화한 바코드 및 QR 코드 중 어느 하나 및 인터렉션 로봇(100)이 포함하는 콘텐츠에 접속하는 주소를 인터렉션 로봇(100)이 암호화한 바코드 및 QR 코드 중 어느 하나 중, 어느 하나 이상일 수 있다.
여기서 제1 서버(400)는 다양한 콘텐츠를 저장하고 있는 서버로서, 앞서 설명한 제어 서버(1000)와 동일한 또는 상이한 별도의 서버일 수 있으며, 인터렉션 로봇(100)이 콘텐츠를 저장하고 있는 경우, 인터렉션 로봇(100) 자체가 제1 서버(400)의 기능을 겸용할 수 있으나, 다양한 콘텐츠가 넘쳐나는 현 시대 속에서 인터렉션 로봇(100)의 저장 공간으로 인해 많은 양의 콘텐츠를 저장하는 것은 무리가 있으므로, 제1 서버(400)를 콘텐츠를 저장하고 있는 서버로 별도 구비함이 바람직하다 할 것이다.
한편, 인터렉션 로봇(100) 자체가 제1 서버(400)의 기능을 겸용하는 경우, 인터렉션 로봇(100)은 주기적으로 인터넷을 서핑하여 콘텐츠를 크롤링(Crawling)할 수 있는바, 어떠한 콘텐츠를 크롤링하는지에 따라 사용자에게 최적화된 콘텐츠를 제공할 수 있다. 이하 설명하도록 한다.
본 발명의 제3 실시 예에 따른 콘텐츠 인터렉션 방법은 인터렉션 로봇(100)이 제2 식별 표지를 출력하는 단계(S710)으로 시작되지만, 그 이전에 사용자와의 마지막 인터렉션을 탐색하는 단계(S805), 탐색한 마지막 인터렉션과 연동되는 콘텐츠를 제1 서버(400)에서 검색하여 그 주소를 저장하거나 또는 인터넷에서 크롤링하여 인터렉션 로봇(100)에 저장한 내부 주소를 저장하는 단계(S807)를 더 포함할 수 있다.
보다 구체적으로 S705 단계에서 사용자와의 마지막 인터렉션은 현재 시점을 기준으로 가장 마지막에 수행한 인터렉션이며, 해당 인터렉션이 특정 주제에 대한 것이 아닌 일상적인 멘트일 경우, 조금 더 거슬러 올라가 특정 주제에 대한 인터렉션을 마지막 인터렉션으로 탐색할 수 있다.
S807 단계에서는 탐색한 마지막 인터렉션과 연동되는 콘텐츠를 제1 서버(400)에서 검색하여 그 주소를 저장하거나 인터넷에서 크롤링하여 그 주소를 내부에 저장하는바, 연동되는 콘텐츠는 그 종류에 제한이 없으며, 예를 들어 S805 단계에서 탐색한 사용자와의 마지막 인터렉션이 A라는 노래의 작곡가에 대한 것이라면, 이와 연동되는 콘텐츠는 해당 노래 A를 재생할 수 있는 주소 또는 해당 작곡가가 작곡한 다른 노래 B를 재생할 수 있는 주소 등일 수 있다.
이상 설명한 S805 단계 및 S807 단계를 제2 식별 표지와 연계하여 설명하도록 한다.
제2 식별 표지가 제1 서버(400)가 포함하는 콘텐츠에 접속하는 주소를 제1 서버(400)가 암호화하여 인터렉션 로봇(100)에 전송한 바코드 및 QR 코드인 경우, S807 단계에서 인터렉션 로봇(100)이 저장한 주소를 제1 서버(400) 역시 인지하고, 제1 서버(400)가 해당 주소를 암호화하여 바코드 및 QR 코드 중 어느 하나를 생성해 인터렉션 로봇(100)에 제2 식별 표지로 전송한다.
제2 식별 표지가 제1 서버(400)가 포함하는 콘텐츠에 접속하는 주소를 인터렉션 로봇(100)이 저장하여 암호화한 바코드 및 QR 코드 중 어느 하나인 경우, S807 단계에서 인터렉션 로봇(100)이 저장한 주소를 인터렉션 로봇(100)이 암호화하여 바코드 및 QR 코드 중 어느 하나를 생성해 제2 식별 표지로 출력한다.
제2 식별 표지가 인터렉션 로봇(100)이 포함하는 콘텐츠에 접속하는 주소를 인터렉션 로봇(100)이 암호화한 바코드 및 QR 코드 중 어느 하나인 경우, S807 단계에서 인터렉션 로봇(100)이 내부에 저장한 주소를 인터렉션 로봇(100)이 암호화하여 바코드 및 QR 코드 중 어느 하나를 생성해 제2 식별 표지로 출력한다.
이렇듯 본 발명의 제3 실시 예에 따른 콘텐츠 인터렉션 방법에 따르면 사용자와의 마지막 인터렉션을 탐색하고 이와 연동되는 콘텐츠를 제공할 수 있는 주소를 암호화하여 제2 식별 표지로 사용자에게 먼저 제공하므로 친근하게 먼저 다가가 감정적인 교감을 이룰 수 있는 능동적인 인터렉션을 수행할 수 있으며, 바코드 및 QR 코드는 하나의 예시일 뿐이며, 암호화가 필요하지 않은 식별 표지, 예를 들어 앞서 제1 식별 표지에 대한 설명에서 언급한 이미지, 동영상, 텍스트, 소리, 네트워크 연결 요청 신호 등도 제2 식별 표지로 출력될 수 있음은 물론이라 할 것이다.
한편, 제2 식별 표지의 출력은 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)이 포함하는 디스플레이부(115), 스피커부(117), 제1 구동부(130) 및 제2 구동부(140) 등과 같은 출력 수단을 통해 출력하거나, 사용자의 단말(200)에 설치된 전용 어플리케이션 또는 모바일 메신저를 통해 출력할 수도 있다.
다시 도 8에 대한 설명으로 돌아가도록 한다.
제2 식별 표지를 출력했다면 인터렉션 로봇(100)이 출력한 제2 식별 표지를 인식한 사용자의 단말(200)로부터 인식한 제2 식별 표지와 연동되는 콘텐츠 출력 알림을 수신하고, 제3 인터렉션을 수행한다(S820).
여기서 콘텐츠 출력 알림은 말 그대로 사용자의 단말(200)이 제2 식별 표지를 인식했다는 알림에 해당하는바, 알림 후에 디스플레이부(115), 스피커부(117), 제1 구동부(130) 및 제2 구동부(140) 등과 같은 출력 수단을 통해 이를 출력할 수 있다. 예를 들어, 디스플레이부(115)에 "XXX가 유효하게 출력되었습니다"라는 텍스트를 출력하거나 스피커부(117)에서 이러한 소리가 출력될 수 있으며, 제1 구동부(130) 및 제2 구동부(40)가 유효하게 출력되었음을 나타내는 특정 제스처로 동작할 수도 있다.
제3 인터렉션은 앞서 본 발명의 제2 실시 예에 따른 콘텐츠 인터렉션 방법에 대한 설명에서 언급한 제1 인터렉션과 구별하기 위해 부여한 명칭이며, 실제 종류와 감정 분류기에 대한 설명은 제1 인터렉션과 동일 또는 유사하므로 중복 서술을 방지하기 위해 자세한 설명은 생략하도록 한다.
제3 인터렉션을 수행했다면, 인터렉션 로봇(100)이 사용자의 단말(200)로부터 출력한 콘텐츠에 대한 피드백을 수신하여 이와 연동되는 제4 인터렉션을 수행한다(S830).
여기서 제4 인터렉션은 앞서 본 발명의 제2 실시 예에 따른 콘텐츠 인터렉션 방법에 대한 설명에서 언급한 제2 인터렉션과 구별하기 위해 부여한 명칭이며, 실제 종류는 제2 인터렉션과 동일 또는 유사할 수 있으므로 중복 서술을 방지하기 위해 자세한 설명은 생략하도록 한다.
한편, 제2 식별 표지가 네트워크 연결 요청 신호인 경우, S820 단계에서의 제3 인터렉션은 네트워크 연결 승인 여부의 출력 또는 사용자의 단말(200)에 네트워크 연결 승인 여부의 전송 중 어느 하나일 수 있으며, 제4 인터렉션은 네트워크 연결 요청 신호를 전송한 디바이스(300)와 네트워크 연결의 수행 및 차단 중 어느 하나일 수 있고, 이 경우 역시 본 발명의 제1 실시 예에 따른 인터렉션 로봇(100)이 배치된 공간 내에서 인터넷 AP(Access Point)로 동작이 가능하다 할 것이다.
지금까지 본 발명의 제3 실시 예에 따른 콘텐츠 인터렉션 방법에 대하여 설명하였다. 본 발명에 따르면, 인터렉션 로봇(100)이 제2 식별 표지를 능동적으로 먼저 출력하여 사용자의 단말(200)에 콘텐츠를 제공하고, 이와 연동되는 제3 인터렉션을 수행하며, 이에 대한 사용자의 피드백을 수신하여 제4 인터렉션까지 수행하는바, 사용자와 감정적인 교감을 통해 진정한 의미의 상호 작용을 이룰 수 있으며, 실제 사람과 대화하는 듯한 현실감을 제공할 수 있다. 또한, 사용자와의 마지막 인터렉션을 탐색하여 이와 연동되는 콘텐츠를 제공할 수 있는 주소를 암호화하여 제2 식별 표지로 사용자에게 먼저 제공하므로 친근하게 먼저 다가가 감정적인 교감을 이룰 수 있는 능동적인 인터렉션을 수행할 수 있음과 동시에 사용자에게 최적화된 서비스로서 콘텐츠를 제공하고, 그에 따른 후속적인 제3 인터렉션 및 제4 인터렉션까지 수행하여 신선한 재미를 안겨주기에 하나의 놀이 문화로 정착할 수 있다.
지금까지 설명한 본 발명의 제2 및 제3 실시 예에 따른 콘텐츠 인터렉션 방법은 동일한 기술적 특징을 모두 포함하는 인터렉션 로봇의 제어 서버(1000)로 구현할 수 있다. 이 경우 인터렉션 로봇의 제어 서버(1000)는 도 9에 도시된 바와 같이, 프로세서(10), 네트워크 인터페이스(20), 메모리(30), 스토리지(40) 및 이들을 연결하는 데이터 버스(50)를 포함할 수 있다.
프로세서(10)는 각 구성의 전반적인 동작을 제어한다. 프로세서(10)는 CPU(Central Processing Unit), MPU(Micro Processer Unit), MCU(Micro Controller Unit) 또는 본 발명이 속하는 기술 분야에서 널리 알려져 있는 형태의 프로세서 중 어느 하나일 수 있다. 아울러, 프로세서(10)는 본 발명의 제2 및 제3 실시 예에 따른 콘텐츠 인터렉션 방법을 수행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다.
네트워크 인터페이스(20)는 인터렉션 로봇(100)의 유무선 인터넷 통신을 지원하며, 그 밖의 공지의 통신 방식을 지원할 수도 있다. 따라서 네트워크 인터페이스(20)는 그에 따른 통신 모듈을 포함하여 구성될 수 있다.
메모리(30)는 각종 데이터, 명령 및/또는 정보를 저장하며, 본 발명의 제2 및 제3 실시 예에 따른 콘텐츠 인터렉션 방법을 수행하기 위해 스토리지(40)로부터 하나 이상의 컴퓨터 프로그램(41)을 로드할 수 있다. 도 1에서는 메모리(30)의 하나로 RAM을 도시하였으나 이와 더불어 다양한 저장 매체를 메모리(30)로 이용할 수 있음은 물론이다.
스토리지(40)는 하나 이상의 컴퓨터 프로그램(41) 및 대용량 네트워크 데이터(42)를 비임시적으로 저장할 수 있다. 이러한 스토리지(40)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 널리 알려져 있는 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체 중 어느 하나일 수 있다.
컴퓨터 프로그램(41)은 메모리(30)에 로드되어, 하나 이상의 프로세서(10)에 의해 (a) 인터렉션 로봇이 제1 식별 표지를 인식하는 오퍼레이션, (b) 상기 인터렉션 로봇이 상기 인식한 제1 식별 표지와 연동되는 제1 인터렉션을 수행하는 오퍼레이션 및 (c) 상기 인터렉션 로봇이 사용자로부터 상기 수행한 제1 인터렉션에 대한 피드백을 수신하여 이와 연동되는 제2 인터렉션을 수행하는 오퍼레이션 또는 (A) 인터렉션 로봇이 제2 식별 표지를 출력하는 오퍼레이션, (B) 상기 인터렉션 로봇이 상기 출력한 제2 식별 표지를 인식한 사용자의 단말로부터 상기 인식한 제2 식별 표지와 연동되는 콘텐츠 출력 알림을 수신하고, 제3 인터렉션을 수행하는 오퍼레이션 및 (C) 상기 인터렉션 로봇이 상기 사용자의 단말로부터 상기 출력한 콘텐츠에 대한 피드백을 수신하여 이와 연동되는 제4 인터렉션을 수행하는 오퍼레이션을 수행할 수 있다.
한편, 본 발명의 제2 및 제3 실시 예에 따른 콘텐츠 인터렉션 방법은 동일한 기술적 특징을 모두 포함하는 매체에 저장된 컴퓨터 프로그램으로 구현할 수도 있다. 중복 서술을 방지하기 위해 자세히 기재하지는 않았지만, 앞서 설명한 본 발명의 제2 및 제3 실시 예에 따른 콘텐츠 인터렉션 방법의 모든 기술적 특징은 매체에 저장된 컴퓨터 프로그램에 모두 동일하게 적용될 수 있으며, 그에 따라 동일한 효과를 도출할 수 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시 예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
10: 프로세서
20: 네트워크 인터페이스
30: 메모리
40: 스토리지
41: 컴퓨터 프로그램
50: 데이터 버스
100: 인터렉션 로봇
110: 바디부
115: 디스플레이부
117: 스페커부
120: 헤드부
125: 발광부
130: 제1 구동부
140: 제2 구동부
200: 사용자의 단말
300: 네트워크 연결 요청 신호를 전송한 디바이스
400: 제1 서버
1000: 제어 서버

Claims (10)

  1. (a) 인터렉션 로봇이 제1 식별 표지를 인식하는 단계;
    (b) 상기 인터렉션 로봇이 상기 인식한 제1 식별 표지와 연동되는 제1 인터렉션을 수행하는 단계; 및
    (c) 상기 인터렉션 로봇이 사용자로부터 상기 수행한 제1 인터렉션에 대한 피드백을 수신하여 이와 연동되는 제2 인터렉션을 수행하는 단계;
    를 포함하는 콘텐츠 인터렉션 방법에 있어서,
    상기 (c) 단계 이후에,
    (A) 상기 인터렉션 로봇이 제2 식별 표지를 출력하는 단계;
    (B) 상기 인터렉션 로봇이 상기 출력한 제2 식별 표지를 인식한 상기 사용자의 단말로부터 상기 인식한 제2 식별 표지와 연동되는 콘텐츠 출력 알림을 수신하고, 제3 인터렉션을 수행하는 단계; 및
    (C) 상기 인터렉션 로봇이 상기 사용자의 단말로부터 상기 출력한 콘텐츠에 대한 피드백을 수신하여 이와 연동되는 제4 인터렉션을 수행하는 단계;
    를 포함하되,
    상기 (c) 단계와 (A) 단계 사이에,
    (d) 상기 인터렉션 로봇이 상기 사용자와의 마지막 인터렉션을 탐색하는 단계; 및
    (e) 상기 인터렉션 로봇이 상기 탐색한 마지막 인터렉션과 연동되는 콘텐츠를 제1 서버에서 검색하여 그 주소를 저장하는 단계;
    를 더 포함하며,
    상기 제2 식별 표지는,
    상기 (e) 단계에서 저장한 주소를 상기 제1 서버가 암호화하여 상기 인터렉션 로봇에 전송한 바코드 및 QR 코드 중 어느 하나 이상인,
    콘텐츠 인터렉션 방법.
  2. 제1항에 있어서,
    상기 제1 식별 표지는,
    사람, 사물, 이미지, 동영상, 텍스트, 소리, 바코드, QR 코드, RFID 태그 및 네트워크 연결 요청 신호 중 어느 하나 이상인,
    콘텐츠 인터렉션 방법.
  3. 제2항에 있어서,
    상기 제1 식별 표지가 바코드, QR 코드 및 RFID 태그 중 어느 하나 이상인 경우,
    상기 (b) 단계는,
    (b-1) 상기 제1 식별 표지를 복호화하는 단계;
    (b-2) 상기 복호화한 제1 식별 표지가 포함하는 주소에 접속하는 단계; 및
    (b-3) 상기 접속한 주소에서 제공하는 콘텐츠를 출력하는 단계;
    를 포함하는 콘텐츠 인터렉션 방법.
  4. 제2항에 있어서,
    상기 제1 식별 표지가 네트워크 연결 요청 신호인 경우,
    상기 (b) 단계는,
    (b-1´) 상기 네트워크 연결 요청 신호의 출력 또는 상기 사용자의 단말로 전송하는 단계;
    (b-1´) 상기 사용자 또는 사용자의 단말로부터 네트워크 연결 승인 신호를 수신하는 단계; 및
    (b-3´) 상기 네트워크 연결 요청 신호를 전송한 디바이스와 네트워크 연결을 수행하는 단계;
    를 포함하는 콘텐츠 인터렉션 방법.
  5. 제1항에 있어서,
    상기 제1 인터렉션은,
    상기 제1 식별 표지와 연동되는 콘텐츠의 출력, 상기 제1 식별 표지와 연동되는 콘텐츠의 상기 사용자의 단말로의 전송, 상기 콘텐츠에 대한 정보의 출력, 상기 콘텐츠에 대한 정보의 상기 사용자의 단말로의 전송, 상기 콘텐츠에 대한 정보에 따라 부여되는 감정에 매칭된 음성, 제스처 및 색상 중 어느 하나 이상의 출력 및 상기 제1 식별 표지와 연동되는 승인 요청의 음성 출력 또는 상기 사용자의 단말로의 전송 중 어느 하나 이상인,
    콘텐츠 인터렉션 방법.
  6. 삭제
  7. 제1항에 있어서,
    상기 제2 식별 표지는,
    상기 (e) 단계에서 저장한 주소를 상기 인터렉션 로봇이 저장하여 암호화한 바코드 및 QR 코드 중 어느 하나 이상을 더 포함하는,
    콘텐츠 인터렉션 방법.
  8. 제1항에 있어서,
    상기 제3 인터렉션은,
    상기 콘텐츠에 대한 정보의 출력, 상기 콘텐츠에 대한 정보의 상기 사용자의 단말로의 전송 및 상기 콘텐츠에 대한 정보에 따라 부여되는 감정에 매칭된 음성, 제스처 및 색상 중 어느 하나 이상의 출력 중 어느 하나 이상인,
    콘텐츠 인터렉션 방법.
  9. 삭제
  10. 제1항 내지 제5항, 제7항 및 제8항 중 어느 한 항의 콘텐츠 인터렉션 방법을 수행하는 인터렉션 로봇.
KR1020200053936A 2020-05-06 2020-05-06 인터렉션 로봇 및 이를 이용한 콘텐츠 인터렉션 방법 KR102189591B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200053936A KR102189591B1 (ko) 2020-05-06 2020-05-06 인터렉션 로봇 및 이를 이용한 콘텐츠 인터렉션 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200053936A KR102189591B1 (ko) 2020-05-06 2020-05-06 인터렉션 로봇 및 이를 이용한 콘텐츠 인터렉션 방법

Publications (1)

Publication Number Publication Date
KR102189591B1 true KR102189591B1 (ko) 2020-12-14

Family

ID=73780053

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200053936A KR102189591B1 (ko) 2020-05-06 2020-05-06 인터렉션 로봇 및 이를 이용한 콘텐츠 인터렉션 방법

Country Status (1)

Country Link
KR (1) KR102189591B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11763115B1 (en) 2022-07-28 2023-09-19 International Business Machines Corporation System communication in areas of limited network connectivity

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030007865A (ko) * 2001-04-04 2003-01-23 코닌클리케 필립스 일렉트로닉스 엔.브이. 바 코드 또는 rfid 태그를 처리하기 위한 인터넷가능한 가정용 어플리컨스
KR20060027728A (ko) * 2004-09-23 2006-03-28 엘지전자 주식회사 로봇 청소기를 이용한 원격 가전 제어시스템 및 방법
KR20070092839A (ko) * 2006-03-09 2007-09-14 주식회사 유진로봇 그림카드를 이용한 영상처리기반의 로봇 인터페이스시스템
KR101239274B1 (ko) * 2009-07-06 2013-03-06 한국전자통신연구원 상호작용성 로봇
KR101310881B1 (ko) * 2010-12-17 2013-09-25 주식회사 케이티 스마트 로봇 장치 및 스마트 로봇 장치를 이용한 동적 서비스 제공 방법
KR20180079825A (ko) 2017-01-02 2018-07-11 엘지전자 주식회사 커뮤니케이션 로봇

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030007865A (ko) * 2001-04-04 2003-01-23 코닌클리케 필립스 일렉트로닉스 엔.브이. 바 코드 또는 rfid 태그를 처리하기 위한 인터넷가능한 가정용 어플리컨스
KR20060027728A (ko) * 2004-09-23 2006-03-28 엘지전자 주식회사 로봇 청소기를 이용한 원격 가전 제어시스템 및 방법
KR20070092839A (ko) * 2006-03-09 2007-09-14 주식회사 유진로봇 그림카드를 이용한 영상처리기반의 로봇 인터페이스시스템
KR101239274B1 (ko) * 2009-07-06 2013-03-06 한국전자통신연구원 상호작용성 로봇
KR101310881B1 (ko) * 2010-12-17 2013-09-25 주식회사 케이티 스마트 로봇 장치 및 스마트 로봇 장치를 이용한 동적 서비스 제공 방법
KR20180079825A (ko) 2017-01-02 2018-07-11 엘지전자 주식회사 커뮤니케이션 로봇

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11763115B1 (en) 2022-07-28 2023-09-19 International Business Machines Corporation System communication in areas of limited network connectivity

Similar Documents

Publication Publication Date Title
US11148296B2 (en) Engaging in human-based social interaction for performing tasks using a persistent companion device
US20200395008A1 (en) Personality-Based Conversational Agents and Pragmatic Model, and Related Interfaces and Commercial Models
KR102012968B1 (ko) 인터렉션 로봇의 제어 방법 및 제어 서버
Humphry et al. Preparing for smart voice assistants: Cultural histories and media innovations
EP3766066B1 (en) Generating response in conversation
CN109716334A (zh) 选择下一用户提示类型
CA3019535A1 (en) Persistent companion device configuration and deployment platform
WO2016011159A1 (en) Apparatus and methods for providing a persistent companion device
Thorne Hey Siri, tell me a story: Digital storytelling and AI authorship
CN105409197A (zh) 用于提供持久伙伴装置的设备和方法
Fabris Ethics of information and communication technologies
CN104994921A (zh) 用于分布式故事阅读的视觉内容修改
CN104956317A (zh) 用于分布式故事阅读的语音修改
US20180272240A1 (en) Modular interaction device for toys and other devices
CN104918670A (zh) 用于故事阅读的基于位置的增强
KR102189591B1 (ko) 인터렉션 로봇 및 이를 이용한 콘텐츠 인터렉션 방법
CN114969282A (zh) 基于富媒体知识图谱多模态情感分析模型的智能交互方法
KR20200117712A (ko) 사용자와 교감이 가능한 인공지능 스마트 스피커
Iannizzotto et al. More intelligence and less clouds in our smart homes: a few notes on new trends in AI for smart home applications
KR20230117767A (ko) 사용자 행동 데이터 및 멀티 모달 단말기를 기반으로 데이터를 수집, 저장, 제어, 학습 및 활용 방법 및 시스템
Glasser Empirical Investigations and Dataset Collection for American Sign Language-Aware Personal Assistants
Alonso-Martín et al. Multimodal fusion as communicative acts during human–robot interaction
KR20190119725A (ko) 가상아이템을 이용한 사용자 제작형 전자책콘텐츠 관리서버
CN116308682B (zh) 提供商品信息的方法及电子设备
Firth et al. New Technologies

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant