KR20190066632A - 로봇 시스템 및 로봇 대화방법 - Google Patents

로봇 시스템 및 로봇 대화방법 Download PDF

Info

Publication number
KR20190066632A
KR20190066632A KR1020197014835A KR20197014835A KR20190066632A KR 20190066632 A KR20190066632 A KR 20190066632A KR 1020197014835 A KR1020197014835 A KR 1020197014835A KR 20197014835 A KR20197014835 A KR 20197014835A KR 20190066632 A KR20190066632 A KR 20190066632A
Authority
KR
South Korea
Prior art keywords
robot
work
conversation
progress
data
Prior art date
Application number
KR1020197014835A
Other languages
English (en)
Inventor
야스히코 하시모토
쇼고 하세가와
마사유키 와나타베
유이치 오기타
Original Assignee
카와사키 주코교 카부시키 카이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from PCT/JP2018/003484 external-priority patent/WO2018168244A1/ja
Application filed by 카와사키 주코교 카부시키 카이샤 filed Critical 카와사키 주코교 카부시키 카이샤
Publication of KR20190066632A publication Critical patent/KR20190066632A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/005Manipulators for mechanical processing tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • Z03R10/30
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • Automation & Control Theory (AREA)

Abstract

로봇 시스템은, 작업로봇(4)과, 대화로봇(2)과, 대화로봇(2)과 작업로봇(4)과의 사이에서 정보의 송수신을 행하는 통신수단을 구비한다.
작업로봇(4)은, 작업 중에, 현재 진행중인 작업공정을 식별하는 작업공정식별정보와, 작업공정의 진척상황을 포함하는 진척상황정보를 대화로봇(2)으로 송신하는 진척상황 보고부를 가지고, 대화로봇(2)은, 작업공정 식별정보와 그 작업공정과 대응하는 발화재료 데이터를 관련지어서 기억한 발화재료 데이터 베이스와, 수취한 진척상황정보와 대응하는 발화재료 데이터를 발화재료 데이터 베이스로부터 읽어내고, 읽어낸 발화재료 데이터와 진척상황에 근거하여 로봇 발화 데이터를 생성하고, 생성한 로봇 발화 데이터를 언어동작부로 출력하는 언어동작 제어부를 가진다.

Description

로봇 시스템 및 로봇 대화방법
본 발명은, 로봇끼리의 커뮤니케이션 기능을 구비한 로봇 시스템 및 로봇 대화방법에 관한 것이다.
종래부터, 인간과 대화를 하는 대화로봇이 알려져 있다. 특허문헌 1, 2에서는 이러한 종류의 대화로봇이 개시되어 있다.
특허문헌 1에서는, 복수의 대화로봇을 구비한 대화 시스템이 개시되어 있다. 각 대화로봇의 발화(發話) 동작(언어동작) 및 행동(비언어동작)은, 미리 결정된 스크립트(script)에 따라서 제어된다. 그리고 복수의 로봇이 스크립트를 따라 대화하면서, 가끔 참가자인 인간에게 대화하여 질문을 함(질문이나 동의를 요구를 함)으로써, 복수의 로봇과의 대화에 참가하고 있는 인간에게, 인간과 대화하고 있을 때에 마음에 품게 되는 것과 동등한 대화감각을 주도록 하고 있다.
또, 특허문헌 2에서는, 대화로봇과 생활지원 로봇 시스템을 구비한 대화 시스템이 개시되어 있다. 생활지원 로봇 시스템은, 인간의 생활을 지원하기 위한 서비스를 실행하는 어플라이언스(통신기능을 구비한 가전기기)를 자율적으로 제어한다. 대화로봇은, 유저의 생활환경이나 행동 정보를 취득하여 유저의 상황을 해석하고, 상황에 근거하여 유저에게 제공하는 서비스를 결정하고, 서비스를 인지시켜 제공하기 위한 음성에 의한 질문을 행하고, 유저의 회답에 근거하여 유저의 로봇과의 대화로의 인입(引入)이 성공하였다고 판단한 경우에, 서비스의 실효 요구를 생활로봇 지원시스템 또는 어플라이언스로 송신한다.
특허문헌 1: 일본국 특개2016-133557호 공보 특허문헌 2: 국제공개 PCT/JP2005/086051호 공보
본원의 발명자들은, 상기와 같은 대화로봇을, 작업로봇과 고객을 잇는 인터페이스로서 기능하게 하는 로봇 시스템을 검토하고 있다. 이 로봇 시스템에서는, 대화로봇이 고객에게서 작업의 의뢰를 접수하고, 접수한 의뢰를 작업로봇이 실행한다.
그러나 상기 로봇 시스템에서는, 의뢰의 접수시에 대화로봇이 고객과의 사이에서 구축한 대화감(즉, 고객이 대화로봇과의 대화에 참가하고 있는 감각)이, 작업로봇이 작업을 하고 있는 동안에 손상되어 고객이 지루해하는 경우도 예상된다.
본 발명은 이상의 사정을 감안해서 이루어진 것이며, 작업로봇이 인간에게서 의뢰 받은 작업을 한창 행하고 있는 중에도, 인간에게 대화로봇 및 작업로봇과의 대화에 참가하고 있는 감각을 일으키게 하고, 그것을 유지시킬 수 있는 로봇 시스템 및 로봇 대화방법을 제안한다.
본 발명의 일 태양(一態樣)에 관계되는 로봇 시스템은,
로봇 암(robot arm)과 그 로봇 암의 손끝부에 장착된 엔드 이펙터(end effector)를 가지고, 상기 엔드 이펙터를 사용하여 인간의 의뢰에 따른 작업을 행하는 작업로봇과,
언어동작부와 비언어동작부를 가지고, 상기 작업로봇 및 상기 인간을 향하여 언어동작 및 비언어동작을 행하는 대화로봇과,
상기 대화로봇과 상기 작업로봇과의 사이에서 정보의 송수신을 행하는 통신수단을 구비하고,
상기 작업로봇은, 상기 작업 중에, 현재 진행중인 작업공정을 식별하는 작업공정식별정보와, 상기 작업공정의 진척상황을 포함하는 진척상황정보를 상기 대화로봇으로 송신하는 진척상황보고부를 가지고,
상기 대화로봇은, 상기 작업공정 식별정보와 그 작업공정과 대응하는 발화재료(發話材料) 데이터를 관련지어서 기억한 발화재료 데이터 베이스와, 수취한 상기 진척상황정보와 대응하는 상기 발화재료 데이터를 상기 발화재료 데이터 베이스로부터 판독하고, 판독한 상기 발화재료 데이터와 상기 진척상황에 따라서 로봇 발화 데이터를 생성하고, 생성한 상기 로봇 발화 데이터를 상기 언어동작부로 출력하는 언어동작 제어부를 가지는 것을 특징으로 한다.
또한, 본 발명의 일 태양에 관계되는 로봇 대화방법은,
로봇 암과 해당 로봇 암의 손끝부에 장착된 엔드 이펙터를 가지고, 상기 엔드 이펙터를 이용하여 인간의 의뢰에 따른 작업을 행하는 작업로봇과, 언어동작부와 비언어동작부를 가지고, 상기 작업로봇 및 상기 인간을 향하여 언어동작 및 비언어동작을 행하는 대화로봇에서 행해지는 로봇 대화방법에 있어서,
상기 작업로봇이, 상기 작업중에, 현재 진행중인 작업공정을 식별하는 작업공정식별정보와, 상기 작업공정의 진척상황을 포함하는 진척상황정보를 상기 대화로봇으로 송신하고,
상기 작업로봇이, 수취한 상기 진척상황정보와 대응하는 발화(發話)재료 데이터를 상기 작업공정 식별정보와 그 작업공정과 대응하는 상기 발화재료 데이터를 관련지어서 기억한 발화재료 데이터 베이스로부터 판독하고, 판독한 상기 발화재료 데이터와 상기 진척상황에 따라 로봇 발화 데이터를 생성하고, 생성한 상기 로봇 발화 데이터를 상기 언어동작부에서 출력하는 것을 특징으로 하고 있다.
상기 구성의 로봇 시스템에서는, 작업로봇이 인간에게서 의뢰 받은 작업을 한창 행하고 있는 중에, 대화로봇이 현재 진행중인 작업공정과 대응하는 발화 내용으로 인간이나 작업로봇을 향하여 언어동작을 행한다. 즉, 작업로봇이 작업을 하고 있는 동안에도, 대화로봇의 발화(언어동작)가 중단되지 않으며, 또한 그 발화가 작업로봇의 작업의 내용이나 상황과 대응하고 있다. 이에 따라, 작업로봇의 작업중에, 인간은 대화로봇 및 작업로봇과의 대화에 참가하고 있는 감각이 생기고, 그 감각을 유지할 수 있다.
본 발명에 의하면, 작업로봇이 인간에게서 의뢰 받은 작업을 한창 행하고 있는 동안에도, 인간에게 대화로봇 및 작업로봇과의 대화에 참가하고 있는 감각을 일으켜서, 그것을 유지시킬 수 있는 로봇 시스템을 실현할 수 있다.
도 1은, 본 발명의 일 실시형태에 관계되는 로봇 시스템의 개략도이다.
도 2는, 대화로봇의 제어계통의 구성을 보여주는 블록도이다.
도 3은, 작업로봇의 제어계통의 구성을 보여주는 블록도이다.
도 4는, 로봇 시스템이 구축된 부스(booth)의 평면도이다.
도 5는, 로봇 시스템의 동작의 흐름을 보여주는 타이밍 챠트이다.
도 6은, 필름부착처리의 흐름을 보여주는 도면이다.
다음으로, 도면을 참조하여 본 발명의 실시의 형태를 설명한다. 도 1은, 본 발명의 일 실시형태에 관계되는 로봇 시스템(1)의 개략도이다. 도 1에 나타내는 로봇 시스템(1)은, 인간(10)과 대화하는 대화로봇(2)과, 소정의 작업을 행하는 작업로봇(4)을 구비하고 있다. 대화로봇(2)과 작업로봇(4)은, 서로 정보의 송수신을 행할 수 있도록, 유선 또는 무선의 통신수단(5)에 의해 접속되어 있다.
[대화로봇(2)]
본 실시형태에 관계되는 대화로봇(2)은, 인간(10)과 대화하기 위한 인간형 로봇이다. 단, 대화로봇(2)은 인간형 로봇에 한정되지 않고, 의인화된 동물형 로봇 등이라도 좋으며, 그 외관은 상관없다.
대화로봇(2)은, 몸체부(胴部, 21)와, 몸체부(21)의 상부에 마련된 머리부(頭部, 22)와, 몸체부(21)의 측부에 마련된 좌우의 완부(腕部)(23L, 23R)와, 몸체부(21)의 하부에 마련된 주행장치(24)를 구비하고 있다. 대화로봇(2)의 머리부(22), 몸체부(23L, 23R) 및 주행장치(24)는, 대화로봇(2)의 "비언어동작부"로서 기능한다. 또한, 대화로봇(2)의 비언어동작부는 상기에 한정되지 않고, 예를 들면, 눈, 코, 눈꺼풀 등에 의해 표정을 형성할 수 있는 대화로봇에서는, 그들의 표정형성요소도 비언어동작부에 해당한다.
머리부(22)는, 몸체부(21)에 대하여 목 관절을 통해 회전 및 구부림이 가능하게 접속되어 있다. 완부(23L, 24R)는, 몸체부(21)에 대하여 어깨관절을 통해 회전 가능하게 접속되어 있다. 각 팔부(23L, 23R)는 상완(上腕), 하완(下腕) 및 손을 가지고, 상완과 하완은 팔꿈치 관절을 통해 접속되고, 하완과 손은 손목관절을 통해 접속되어 있다. 대화로봇(2)은, 머리부(22)를 동작하게 하기 위한 머리 구동부(32), 완부(23L, 23R)를 동작하게 하기 위한 완(팔) 구동부(33), 주행장치(24)를 동작하게 하기 위한 주행 구동부(34)를 구비하고 있다(도 2 참조). 각 구동부(32, 33, 34)는, 예를 들면 전동모터 등의 적어도 1 개의 액추에이터를 구비하고 있다. 각 구동부(32, 33, 34)는, 컨트롤러(25)의 제어를 받아 동작한다.
대화로봇(2)은, 머리부(22)에 내장된 카메라(68), 마이크(67), 및 스피커(66)와, 몸체부(21)에 부착된 디스플레이(69)를 구비하고 있다. 스피커(66) 및 디스플레이(69)는, 대화로봇(2)의 "언어동작부"로서 기능한다.
대화로봇(2)의 몸체부(21)에는, 대화로봇(2)의 언어동작 및 비언어동작을 관장하는 컨트롤러(25)가 수용되어 있다. 또한, 대화로봇(2)의 "언어동작"이란, 대화로봇(2)의 언어동작부의 동작(즉, 스피커(66)로부터 나오게 되는 소리나 디스플레이(69)에 표시되는 문자)에 의한, 커뮤니케이션 발신동작을 의미한다. 또, 대화로봇(2)의 "비언어동작"이란, 대화로봇(2)의 비언어동작부의 동작(즉, 머리부(22), 완부(23L, 23R), 및 주행장치(24)의 동작에 의한 대화로봇(2)의 외관의 변화)에 의한, 커뮤니케이션의 발신 동작을 의미한다.
도 2는, 대화로봇(2)의 제어계통의 구성을 보여주는 도면이다. 도 2에 나타내는 바와 같이, 대화로봇(2)의 컨트롤러(25)는, 이른바 컴퓨터로서, CPU 등이 연산처리장치(프로세서)(61), ROM, RAM 등의 기억장치(62), 통신장치(63), 입출력장치(64), 외부기억장치(65), 구동제어장치(70) 등을 가지고 있다. 기억장치(62)에는, 연산처리장치(61)가 실행하는 프로그램, 각종 고정 데이터 등이 기억되어 있다. 연산처리장치(61)는, 통신장치(63)를 통해 무선 또는 유선으로 작업로봇(4)의 컨트롤러(45)와 데이터 송수신을 행한다. 또, 연산처리장치(61)는, 입출력장치(64)를 통해 각종 센서로부터의 검출신호의 입력이나 각종 제어신호의 출력을 행한다. 입출력장치(64)는, 스피커(66), 마이크(67), 카메라(68), 디스플레이(69) 등과 접속되어 있다. 구동제어장치(70)는, 구동부(32, 33, 34)를 동작하게 한다. 연산처리장치(61)는, 외부기억장치(65)에 대하여 데이터의 저장이나 판독을 행한다. 외부기억장치(65)에는, 후술하는 각종 데이터 베이스가 구축되어 있을 수 있다.
컨트롤러(25)는, 화상인식부(250), 음성인식부(251), 언어동작 제어부(252), 비언어동작 제어부(253), 작업로봇 관리부(254)로서 기능한다. 이들의 기능은, 연산처리장치(61)가, 기억장치(62)에 기억된 프로그램 등의 소프트웨어를 읽어내어 실행함으로써 실현된다. 또한, 컨트롤러(25)는 단일의 컴퓨터에 의한 집중제어에 의해 각 처리를 실행하여도 좋으며, 복수의 컴퓨터의 협동에 의한 분산제어에 의해 각 처리를 실행하여도 좋다. 또, 컨트롤러(25)는, 마이크로 컨트롤러(micro controller), 프로그래머블(programmable) 로직 컨트롤러(PLC) 등으로 구성되어 있어도 좋다.
화상 인식부(250)는, 카메라(68)로 촬상한 화상(또는, 영상)을 취득하고, 그것을 화상처리함으로써, 인간(10)의 유무를 검출한다. 또, 화상 인식부(250)는, 카메라(68)로 촬상한 화상(영상)을 취득하고, 인간(10)의 이동, 인간(10)의 몸짓·표정 등을 분석하여, 인간의 동작 데이터를 생성한다.
음성 인식부(251)는, 인간(10)이 발화(發話)한 음성을 마이크(67)로 담아 넣고, 그 음성 데이터의 내용을 인식하여 인간 발화 데이터를 생성한다.
언어동작 제어부(252)는, 미리 기억된 스크립트 데이터(script data) (대본 데이터)나, 인간 동작 데이터, 인간 발화 데이터 등에 근거하여 인간(10)의 상황을 해석하고, 해석한 상황에 따라 로봇 발화 데이터를 생성한다. 언어동작 제어부(252)는, 생성한 로봇 발화 데이터를 대화로봇(2)의 언어동작부(스피커(66), 또는, 스피커(66) 및 디스플레이(69))로 출력한다. 이에 따라, 대화로봇(2)이 언어동작을 행한다.
상기에서 언어동작 제어부(252)가 인간(10)의 상황을 해석할 때에, 인간 동작 데이터나 인간 발화 데이터와 인간의 상황을 관련지어서 미리 인간의 상황 데이터 베이스(651)에 기억해 두고, 인간의 상황 데이터 베이스(651)에 축적된 정보를 사용하여 인간(10)의 상황을 해석해도 좋다. 또, 상기에서 언어동작 제어부(252)가 로봇 발화 데이터를 생성할 때에, 스크립트 데이터와 인간의 상황과 로봇 발화 데이터를 관련 지어서 미리 로봇 발화 데이터 베이스(652)에 기억해 두고, 로봇 발화 데이터 베이스(652)에 축적된 정보를 사용해서 로봇 발화 데이터를 생성하여도 좋다.
또, 언어동작 제어부(252)는, 후술하는 진척상황정보를 작업로봇(4)으로부터 수취하여, 로봇 발화 데이터를 생성하고, 그 로봇 발화 데이터를 대화로봇(2)의 언어동작부(스피커(66), 또는, 스피커(66) 및 디스플레이(69))로 출력한다. 이에 따라, 대화로봇(2)이 언어동작을 행한다.
상기에서, 진척상황정보에는, 작업로봇(4)이 현재 진행중인 작업공정을 식별하는 작업공정 식별정보와, 그 작업공정의 진척상황이 포함되어 있다. 언어동작 제어부(252)는, 로봇 발화(發話) 데이터를 생성할 때에, 작업공정 식별정보와 그 작업공정과 대응하는 발화재료 데이터를 관련지어서 미리 발화재료 데이터 베이스(653)에 기억해 두고, 발화재료 데이터 베이스(653)로부터 수취한 진척상황정보와 대응하는 발화재료 데이터를 읽어낸다. 그리고 언어동작 제어부(252)는, 판독한 발화재료 데이터와 수취한 진척상황에 근거하여, 로봇 발화 데이터를 생성한다.
비언어동작 제어부(253)는, 대화로봇(2)이 언어동작을 행할 때에, 그 언어동작과 대응한 비언어동작을 행하도록 로봇 동작 데이터를 생성한다. 비언어동작 제어부(253)는, 생성한 로봇 동작 데이터를 구동제어장치(70)로 출력하고, 이에 따라 대화로봇(2)은 로봇 동작 데이터에 기초하여 비언어동작을 행한다.
언어동작에 대응한 비언어동작이란, 대화로봇(2)의 언어동작의 내용과 대응한 대화로봇(2)의 행동인 것이다. 예를 들면, 대화로봇(2)이 목표물의 명칭을 발음할 때에, 완(팔)부(23L, 24R)로 그 목표물을 가리킨다거나, 머리부(22)를 목표물로 향하게 한다거나 하는 것이 비언어동작에 해당한다. 또, 예를 들면 대화로봇(2)이 사례(謝禮)를 발음할 때에, 양 손을 합친다거나, 머리부(22)를 숙인다거나 하는 것이 비언어동작에 해당한다.
상기에 있어서 비언어동작 제어부(253)가 로봇 동작 데이터를 생성할 때에, 로봇 발화(發話) 데이터와, 해당 로봇 발화 데이터가 가져오는 언어동작에 대응하는 비언어동작을 대화로봇(2)에게 실행하게 하는 로봇 동작 데이터를 관련 지어서 로봇 동작 데이터 베이스(654)에 미리 기억해 두고, 로봇 동작 데이터 베이스(654)에 축적된 정보로부터 로봇 발화 데이터에 대응하는 로봇 동작 데이터를 읽어내고, 로봇 발화 데이터를 생성해도 좋다.
작업로봇 관리부(254)는, 미리 기억된 스크립트 데이터에 따라, 작업로봇(4)에 대하여 처리개시신호를 송신한다. 또, 작업로봇 관리부(254)는, 작업로봇(4)에 대하여 처리개시신호를 송신하고 나서, 작업로봇(4)으로부터 처리종료신호를 수취할 때까지의 동안, 임의의 타이밍에서 후술하는 진척확인신호를 작업로봇(4)으로 송신한다.
[작업로봇(4)]
작업로봇(4)은, 적어도 1 개의 다관절형 로봇 암(41)과, 로봇 암(41)의 손끝부에 장착되어 작업을 행하는 엔드 이펙터(42)와, 로봇 암(41) 및 엔드 이펙터(42)의 동작을 관장하는 컨트롤러(45)를 구비하고 있다. 본 실시형태에 관계되는 작업로봇(4)은, 협동해서 작업을 행하는 2 개의 로봇 암(41)을 구비한 쌍완(雙腕) 로봇이다. 단, 작업로봇(4)은 본 실시형태에 한정되지 않고, 1 개의 로봇 암(41)을 구비한 단완(單腕) 로봇이라도 좋으며, 3 이상의 복수의 로봇 암(41)을 구비한 다완(多腕) 로봇이어도 좋다.
로봇 암(41)은, 수평 다관절형 로봇 암으로서, 관절을 통해 직렬적으로 연결된 복수의 링크를 가진다. 단, 로봇 암(41)은 본 실시형태에 한정되지 않고, 수직 다관절형이라도 좋다.
로봇 암(41)은, 로봇 암(41)을 동작하게 하기 위한 암 구동부(44)를 가진다(도 3 참조). 암 구동부(44)는, 예를 들면, 각 관절에 대하여 마련된, 구동원으로서의 전동모터와, 전동모터의 회전출력을 링크로 전달하는 기어기구를 포함하고 있다. 암 구동부는, 컨트롤러(45)의 제어를 받아 동작한다.
로봇 암(41)의 손끝부에 장착되는 엔드 이펙터(42)는, 작업로봇(4)이 행하는 작업의 내용에 따른 것이 선택되어도 좋다. 또, 작업로봇(4)은, 작업의 공정마다 엔드 이펙터(42)를 갈아 붙여도 좋다.
도 3은, 작업로봇(4)의 제어계통의 구성을 보여주는 블록도이다. 도 3에 나타내는 바와 같이, 작업로봇(4)의 컨트롤러(45)는, 이른바 컴퓨터로서, CPU 등의 연산처리장치(프로세서)(81), ROM, RAM 등의 기억장치(82), 통신장치(83), 입출력장치(84) 등을 가지고 있다. 기억장치(82)에는, 연산처리장치(81)가 실행하는 프로그램, 각종 고정 데이터 등이 기억되어 있다. 연산처리장치(81)는, 통신장치(83)를 통해 무선 또는 유선으로 대화로봇(2)의 컨트롤러(25)와 데이터 송수신을 행한다. 또, 연산처리장치(81)는, 입출력장치(84)를 통해 카메라(88)나 암 구동부(44)에 마련된 각종 센서로부터의 검출신호의 입력이나 각종 제어신호의 출력을 행한다. 또, 연산처리장치(81)는, 암 구동부(44)에 포함되는 액추에이터를 동작하게 하는 드라이버(90)와 접속되어 있다.
컨트롤러(45)는, 암 제어부(451), 엔드 이펙터 제어부(452), 및 진척상황 보고부(453) 등으로서 기능한다. 이들의 기능은, 연산처리장치(81)가, 미리 기억된 스크립트 데이터에 따라서, 기억장치(82)에 기억된 프로그램 등의 소프트웨어를 읽어내어 실행함으로써 실현된다. 또한, 컨트롤러(45)는 단일의 컴퓨터에 의한 집중제어에 의해 각 처리를 실행하여도 좋으며, 복수의 컴퓨터의 협동에 의한 분산 제어에 의해 각 처리를 실행하여도 좋다. 또, 컨트롤러(45)는, 마이크로 컨트롤러, 프로그래머블 로직 컨트롤러(PLC) 등으로 구성되어도 좋다.
암 제어부(451)는, 미리 기억된 敎示(교시) 데이터에 근거하여, 로봇 암(41)을 동작하게 한다. 구체적으로는, 암 제어부(451)는, 교시 데이터 및 암 구동부(44)에 마련된 각종 센서로부터의 검출정보에 따라 위치지령을 생성하고, 드라이버(90)로 출력한다. 드라이버(90)는 위치지령에 따라 암 구동부(44)에 포함되는 액추에이터를 동작하게 한다.
엔드 이펙터 제어부(452)는, 미리 기억된 동작 데이터에 근거하여, 엔드 이펙터(42)를 동작하게 한다. 엔드 이펙터(42)는, 예를 들면, 전동모터, 에어 실린더, 전자(電磁)밸브 등 중 적어도 1 개의 액추에이터를 포함하여 구성되어 있고, 엔드 이펙터 제어부(452)는 이들의 액추에이터를 로봇 암(41)의 동작에 맞춰서 동작하게 한다.
진척상황 보고부(453)는, 작업로봇(4)의 작업 중에, 진척상황정보를 생성하여 대화로봇(2)으로 송신한다. 진척상황정보에는, 현재 진행중인 작업공정을 식별하는 작업공정 식별정보와, 처리의 정상·이상(異常)이나 진행 등의 그 작업공정의 진척상황이 적어도 포함되어 있다. 또한, 진척상황정보의 생성 및 송신은, 대화로봇(2)으로부터 후술하는 진척확인신호를 취득한 타이밍, 처리에 포함되는 각 작업공정의 개시 및/또는 종료의 타이밍 등, 소정의 타이밍에서 행해져도 좋다.
[로봇 시스템(1)의 동작의 흐름]
여기서, 상기 구성의 로봇 시스템(1)의 동작의 일례를 설명한다. 이 예에서는, 작업로봇(4)이, 스마트폰(태블릿형 통신단말기)의 액정 디스플레이에 보호필름을 붙이는 작업을 행한다. 단, 작업로봇(4)이 행하는 작업의 내용 및 대화로봇(2)의 언어동작·비언어동작의 내용은, 이 예에 한정되지 않는다.
도 4는, 로봇 시스템(1)이 구축된 부스(92)의 평면도이다. 도 4에 나타내는 바와 같이, 대화로봇(2) 및 작업로봇(4)은, 하나의 부스(92) 내에 배치되어 있다. 입구(9)에서부터 부스(92)로 들어간 인간(10)에서부터 바라보면, 대화로봇(2)은 12시의 위치에 배치되고, 작업로봇(4)은 3시의 위치에 배치되어 있다. 작업로봇(4)의 앞에는 작업대(94)가 마련되고, 인간(10)과 작업로봇(4)과의 사이가 작업대(94)로 칸막이되어 있다. 작업대(94)를 사이에 두고 작업로봇(4)의 정면에는 의자(95)가 놓여져 있다.
도 5는, 로봇 시스템(1)의 동작의 흐름을 보여주는 타이밍 챠트이다. 도 5에 나타내는 바와 같이, 대기상태의 작업로봇(4)은, 대화로봇(2)으로부터의 처리개시신호를 기다리고 있다. 한편, 대기상태의 대화로봇(2)은, 부스(92)로 내방하는 인간(10)을 기다리고 있다. 대화로봇(2)은, 카메라(68)의 촬상화상을 감시하고, 촬상 화상으로부터 부스(92)로 내방한 인간(10)을 검출한다(단계 S11).
대화로봇(2)은, 인간(10)이 부스(92)에 내방하면, "어서오십시오, 의자에 앉아 주십시오"라고 인간(10)을 향하여 언어동작(발화)과 비언어동작(몸짓)을 행하고, 인간(10)에게 착석을 재촉한다(단계 S12).
대화로봇(2)은, 촬상 화상으로부터 인간(10)이 착석한 것을 검출하면(단계 13), "당 부스에서는 당신의 스마트폰에 보호실(seal)을 붙이는 서비스를 제공하고 있습니다"라고 인간(10)을 향한 언어동작 및 비언어동작을 행하고, 인간(10)에게 작업로봇(4)이 행하는 작업의 내용을 설명한다(단계 S14).
대화로봇(2)은, 인간(10)의 음성이나 촬상 화상을 해석하고, 인간(10)의 작업 의뢰의 의지를 검출하면(단계 S15), "그럼, 당신의 스마트폰을 작업대 위에 두십시오"라고 인간(10)을 향한 언어동작 및 비언어동작을 행하고, 인간(10)에게 작업대(94)에 스마트폰을 놓도록 재촉한다(단계 S16).
더욱이, 대화로봇(2)은, 작업로봇(4)을 향하여, 처리개시신호를 송신한다(단계 S17). 대화로봇(2)은 처리개시신호를 송신함에 있어, "로봇군, 준비를 시작해 주세요"라고 작업로봇(4)을 향하여 언어동작을 행하는 동시에 작업로봇(4)에게 얼굴을 향하거나 처리의 개시를 재촉하도록 손을 흔들거나 하는 등의 비언어동작을 행한다(단계 S18).
처리개시신호를 취득한 작업로봇(4)은(단계 S41), 필름부착처리를 개시한다(단계 S42). 도 6은, 필름부착처리의 흐름을 보여주는 도면이다. 도 6에 나타내는 바와 같이, 필름부착처리에서는, 작업로봇(4)은, 작업대(94)의 소정 위치에 스마트폰이 놓여진 것을 검출하고(단계 S21), 스마트폰의 종류를 인식하고(단계 S22), 필름 홀더에 있는 필름 중에서 스마트폰의 종류에 적절한 보호필름을 선택한다(단계 S23).
작업로봇(4)은, 작업대(94) 상의 스마트폰을 위치결정하고(단계 S24), 스마트폰의 디스플레이를 닦고(단계 S25), 필름 홀더로부터 보호 필름을 꺼내고(단계 S26), 보호필름에서 대지(台紙)를 박리(剝離)하고(단계 S27), 보호필름을 스마트폰의 디스플레이에 위치결정하고(단계 S28), 보호필름을 스마트폰의 디스플레이에 놓고(단계 S29), 보호필름을 닦는다(단계 S30).
작업로봇(4)은, 필름부착처리에서, 상기 단계 S21~S30의 일련의 공정을 행한다. 작업로봇(4)은, 필름부착처리가 종료되면, 처리종료신호를 대화로봇(2)으로 송신한다(단계 S43).
대화로봇(2)은, 작업로봇(4)이 필름부착처리를 행하고 있는 동안, 임의의 타이밍에서 진척확인신호를 작업로봇(4)으로 송신한다. 예를 들어, 대화로봇(2)은, 30초마다 등의 소정 시간간격으로, 진척확인신호를 작업로봇(4)으로 송신하여도 좋다. 작업로봇(4)은, 진척확인신호를 취득한 것을 트리거(trigger)로서, 진척상황정보를 대화로봇(2)으로 송신한다. 또한, 작업로봇(4)은, 대화로봇(2)으로부터의 진척확인신호의 유무에 관계없이, 작업공정의 개시 및/또는 종료의 타이밍에서 진척상황정보를 대화로봇(2)으로 보내도록 하여도 좋다.
대화로봇(2)은, 작업로봇(4)에게서 진척상황정보를 수취하면, 작업로봇(4)이 현재 진행중인 작업공정과 대응한 언어동작 및 비언어동작을 행한다. 단, 대화로봇(2)은, 진척상황정보의 내용이나, 전회의 언어동작 및 비언어동작의 타이밍과 간격, 인간(10)의 상황 등에 근거하여, 언어동작 및 비언어동작을 행하지 않는다고 판단하여도 좋다.
예를 들면, 작업로봇(4)이 보호 필름의 선택공정(단계 S23)을 마친 타이밍에서, 대화로봇(2)이 "그럼 로봇군, 잘 부탁 드립니다"라고 작업로봇(4)을 향한 언어동작 및 비언어동작을 행한다.
또, 예를 들면, 작업로봇(4)이 스마트폰의 위치결정공정(단계 S24)에서 대지를 박리하는 공정(단계 S27)을 행하고 있는 임의의 타이밍에서, 대화로봇(2)이 "잘 붙일 수 있는지 기대됩니다"라고, 인간(10)을 향한 언어동작 및 비언어동작을 행한다. 더욱이, 이 대화로봇(2)에게서 인간(10)으로의 질문에 대하여 인간(10)이 발화(發話)한 경우에는, 대화로봇(2)이 인간(10)의 발화에 대하여 회답하여도 좋다.
또, 예를 들면, 작업로봇(4)이 보호 필름의 닦기 공정(단계 S30)을 행하고 들어갈 타이밍에서, 대화로봇(2)이 "이제 곧 끝납니다"라고 작업로봇(4) 및/또는 인간(10)을 향한 언어동작 및 비언어동작을 행한다.
상기와 같이, 작업로봇(4)이 묵묵히 작업을 하고 있는 동안에, 대화로봇(2)은 작업로봇(4)을 향하여 발화(發話)하거나, 인간(10)과 대화하거나 한다. 이로써, 작업로봇(4)의 작업중에도, 인간(10)을 질리게 하지 않는다. 또, 대화로봇(2)이 작업중인 작업로봇(4)을 향하여 발화 및 몸짓을 행함으로써, 인간(10)의 내방시에는 대화로봇(2)과 인간(10)뿐이었던 대화멤버에 작업로봇(4)이 추가되게 된다.
이상 설명한 바와 같이, 본 실시형태의 로봇 시스템(1)은, 로봇 암(41)과 그 로봇 암(41)의 손끝부에 장착된 엔드 이펙터(42)를 가지고, 엔드 이펙터(42)를 이용하여 인간(10)의 의뢰에 기초하는 작업을 행하는 작업로봇(4)과, 언어동작부와 비언어동작부를 가지고, 작업로봇(4) 및 인간(10)을 향하여 언어동작 및 비언어동작을 행하는 대화로봇(2)과, 대화로봇(2)과 작업로봇(4)과의 사이에서 정보의 송수신을 행하는 통신수단(5)을 구비하고 있다. 그리고 작업로봇(4)은, 작업중에, 현재 진행중인 작업공정을 식별하는 작업공정 식별정보와, 작업공정의 진척상황을 포함하는 진척상황정보를 대화로봇(2)으로 송신하는 진척상황 보고부(453)를 갖고 있다. 또, 대화로봇(2)은, 작업공정 식별정보와 그 작업공정과 대응하는 발화(發話)재료 데이터를 관련지어서 기억한 발화재료 데이터 베이스(653)와, 수취한 진척상황정보와 대응하는 발화재료 데이터를 발화재료 데이터 베이스(653)로부터 읽어내고, 읽어낸 발화재료 데이터와 진척상황에 근거하여 로봇 발화 데이터를 생성하고, 생성한 로봇 발화 데이터를 언어동작부로 출력하는 언어동작 제어부(252)를 갖고 있다.
또, 본 실시형태의 로봇 대화방법은, 로봇 암(41)과 해당 로봇 암(41)의 손끝부에 장착된 엔드 이펙터(42)를 가지고, 엔드 이펙터(42)를 이용하여 인간(10)의 의뢰에 기초하는 작업을 행하는 작업로봇(4)과, 언어동작부와 비언어동작부를 가지고, 작업로봇(4) 및 인간(10)을 향하여 언어동작 및 비언어동작을 행하는 대화로봇(2)에서 행해지는 로봇 대화방법이다. 그리고 이 로봇 대화방법은, 작업로봇(4)이 작업중에 현재 진행중인 작업공정을 식별하는 작업공정 식별정보와, 작업공정의 진척상황을 포함하는 진척상황정보를 대화로봇(2)으로 송신하고, 대화로봇(2)이, 수취한 진척상황정보와 대응하는 발화재료 데이터를 작업공정 식별정보와 그 작업공정과 대응하는 발화재료 데이터를 관련지어서 기억한 발화재료 데이터 베이스(653)로부터 읽어내고, 읽어낸 발화재료 데이터와 진척상황에 근거하여 로봇 발화 데이터를 생성하고, 생성한 로봇 발화 데이터를 언어동작부에서 출력한다.
상기에서, 대화로봇(2)은, 작업로봇(4)의 작업중에 작업로봇(4)에 대하여 진척확인정보를 송신하는 작업로봇 관리부(254)를 구비하고, 작업로봇(4)은, 진척확인신호를 수취한 것을 트리거로서, 진척상황정보를 대화로봇(2)으로 송신하여도 좋다.
혹은, 상기에서, 작업로봇(4)은, 작업 공정의 개시 및/또는 종료의 타이밍에서, 진척상황정보를 대화로봇(2)으로 송신하여도 좋다.
상기의 로봇 시스템(1) 및 로봇 대화방법에 의하면, 작업로봇(4)이 인간(10)에게서 의뢰 받은 작업을 행하고 있는 동안에, 대화로봇(2)이 현재 진행중인 작업공정과 대응하는 발화(發話)내용으로 인간이나 작업로봇을 향하여 언어동작을 행한다. 즉, 작업로봇(4)이 작업을 하고 있는 동안에도, 대화로봇(2)의 발화(언어동작)이 끊어지지 않으며, 또, 그 발화가 작업로봇(4)의 작업의 내용이나 상황과 대응하고 있다. 이에 따라, 작업로봇(4)의 작업중에, 인간(10)은 대화로봇(2) 및 작업로봇(4)과의 대화에 참가하고 있는 감각(대화감)이 생기고, 그 감각을 유지할 수 있다.
또, 본 실시형태에 관계되는 로봇 시스템(1)에서는, 상기의 대화로봇(2)이, 로봇 발화(發話) 데이터와, 해당 로봇 발화 데이터가 가져오는 언어동작에 대응하는 비언어동작을 대화로봇에게 실행하게 하는 로봇 동작 데이터를 관련지어서 기억한 로봇 동작 데이터 베이스(654)와, 생성한 로봇 발화 데이터에 대응하는 로봇 동작 데이터를 로봇 동작 데이터 베이스(654)로부터 읽어내고, 읽어낸 로봇 동작 데이터를 비언어동작부로 출력하는 비언어동작 제어부(253)를 더 갖고 있다.
마찬가지로, 본 실시형태에 관계되는 로봇 대화 방법에서는, 대화로봇(2)이, 생성한 로봇 발화(發話) 데이터가 가져오는 언어동작에 대응하는 비언어동작을 대화로봇(2)에게 실행하게 하는 로봇 동작 데이터를, 비언어동작부에서 출력한다.
이로써, 대화로봇(2)은, 언어동작에 수반하여 언어동작과 대응하는 비언어동작(즉, 행동)을 행한다. 이 대화로봇(2)의 비언어동작을 본 인간(10)은, 대화로봇(2)이 언어동작만을 행하는 경우와 비교하여, 보다 깊게 로봇(2, 4)과의 대화감을 느낄 수 있다.
또, 본 실시형태에 관계되는 로봇 시스템(1) 및 로봇 대화방법에서는, 대화로봇(2)이, 소정의 스크립트 데이터에 따라, 인간(10)을 향하여 언어동작 및 비언어동작을 행함으로써 인간(10)과 대화하고, 대화의 내용을 해석하여 인간(10)으로부터 의뢰를 취득하고, 의뢰에 기초하여 작업로봇(4)에 대하여 작업의 처리개시신호를 송신함 동시에 작업로봇(4)을 향하여 언어동작 및 비언어동작을 행한다.
이로써, 작업로봇(4)이 행하는 작업의 접수를 대화로봇(2)이 행함으로써, 작업로봇(4)이 행하기 전의 단계로부터, 인간(10)에게 대화로봇(2)과의 대화에 참가하고 있는 감각을 생기게 할 수 있다. 그리고 대화로봇(2)이 작업로봇(4)에게 처리개시신호를 송신할 때에, 대화로봇(2)이 작업로봇(4)에 대하여 언어동작 및 비언어동작을 행함으로써, 이것을 보고 있는 인간(10)에게, 그때까지의 대화로봇(2)과의 대화에 작업로봇(4)이 추가된 것을 느끼게 할 수 있다.
이상에 본 발명의 호적(매우 적당함)한 실시형태를 설명하였는데, 본 발명의 정신을 일탈하지 않는 범위에서 상기의 실시형태의 구체적인 구조 및/또는 기능의 상세를 변경한 것도 본 발명에 포함될 수 있다.
1: 로봇 시스템
2: 대화로봇
4: 작업로봇
5: 통신수단
10: 인간
21: 몸체부
22: 머리부
23L, 23R: 완(팔)부
24: 주행장치
25: 컨트롤러
250: 화상인식부
251: 음성인식부
252: 언어동작 제어부
253: 비언어동작 제어부
254: 작업로봇 관리부
32: 머리 구동부
33: 완(팔) 구동부
34: 주행 구동부
41: 로봇 암
42: 엔드 이펙터
44: 암 구동부
45: 컨트롤러
451: 암 제어부
452: 엔드 이펙터 제어부
453: 진척상황 보고부
61: 연산처리장치
62: 기억장치
63: 통신장치
64: 입출력장치
65: 외부기억장치
651: 인간상황 데이터 베이스
652: 로봇발화(發話) 데이터 베이스
653: 발화재료 데이터 베이스
654: 로봇동작 데이터 베이스
66: 스피커
67: 마이크
68: 카메라
69: 디스플레이
70: 구동제어장치
81: 연산처리장치
82: 기억장치
84: 입출력장치
88: 카메라
90: 드라이버
92: 부스
93: 입구
94: 작업대
95: 의자

Claims (10)

  1. 로봇 암(Robot arm)과 그 로봇 암의 손끝부에 장착된 엔드 이펙터(end effector)를 가지고, 상기 엔드 이펙터를 이용하여 인간의 의뢰에 기초하는 작업을 행하는 작업로봇;
    언어동작부와 비언어동작부를 가지고, 상기 작업로봇 및 상기 인간을 향하여 언어동작 및 비언어동작을 행하는 대화로봇;
    상기 대화로봇과 상기 작업로봇과의 사이에서 정보의 송수신을 행하는 통신수단; 을 구비하고,
    상기 작업로봇은, 상기 작업 중에, 현재 진행중인 작업공정을 식별하는 작업공정 식별정보와, 상기 작업공정의 진척상황을 포함하는 진척상황정보를 상기 대화로봇으로 송신하는 진척상황 보고부를 가지고,
    상기 대화로봇은, 상기 작업공정 식별정보와 그 작업공정과 대응하는 발화재료 데이터를 관련지어서 기억한 발화재료 데이터 베이스와, 수취한 상기 진척상황정보와 대응하는 상기 발화재료 데이터를 상기 발화재료 데이터 베이스로부터 판독하고, 판독한 상기 발화재료 데이터와 상기 진척상황에 근거하여 로봇 발화 데이터를 생성하고, 생성한 상기 로봇 발화 데이터를 상기 언어동작부로 출력하는 언어동작 제어부를 가지는 것을 특징으로 하는 로봇 시스템.
  2. 제1항에 있어서,
    상기 대화로봇은:
    상기 로봇 발화 데이터와, 해당 로봇 발화 데이터가 가져오는 언어동작에 대응하는 비언어동작을 상기 대화로봇에게 실행하게 하는 로봇 동작 데이터를 관련지어서 기억한 로봇 동작 데이터 베이스;
    생성한 상기 로봇 발화 데이터에 대응하는 상기 로봇 동작 데이터를 상기 로봇 동작 데이터 베이스로부터 읽어내고, 읽어낸 상기 로봇 동작 데이터를 상기 비언어동작부로 출력하는 비언어동작 제어부; 를 더 가지는, 로봇 시스템.
  3. 제1항 또는 제2항에 있어서,
    상기 대화로봇은, 상기 작업로봇의 상기 작업중에, 상기 작업로봇에 대하여 진척확인신호를 송신하는 작업로봇 관리부를 구비하고,
    상기 작업로봇은, 상기 진척확인신호를 수취한 것을 트리거로 하여, 상기 진척상황정보를 상기 대화로봇으로 송신하는, 로봇 시스템.
  4. 제1항 또는 제2항에 있어서,
    상기 작업로봇은, 상기 작업공정의 개시 및/또는 종료의 타이밍에서, 상기 진척상황정보를 상기 대화로봇으로 송신하는, 로봇 시스템.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 대화로봇은, 소정의 스크립트 데이터에 따라서, 상기 인간을 향하여 언어동작 및 비언어동작을 행함으로써 상기 인간과 대화하고, 상기 대화의 내용을 해석하여 상기 인간에게서 상기 의뢰를 취득하고, 상기 의뢰에 근거하여 상기 작업로봇에 대하여 상기 작업의 처리개시신호를 송신함과 동시에 상기 작업로봇을 향하여 언어동작 및 비언어동작을 행하는, 로봇 시스템.
  6. 로봇 암과 해당 로봇 암의 손끝부에 장착된 엔드 이펙터를 가지고, 상기 엔드 이펙터를 사용하여 인간의 의뢰에 근거하는 작업을 행하는 작업로봇;
    언어 동작부와 비언어 동작부를 가지고, 상기 작업로봇 및 상기 인간을 향하여 언어동작 및 비언어동작을 행하는 대화로봇; 에서 행해지는 로봇 대화방법에 있어서,
    상기 작업로봇이 상기 작업 중에, 현재 진행중인 작업공정을 식별하는 작업공정 식별정보와 상기 작업공정의 진척상황을 포함하는 진척상황정보를 상기 대화로봇으로 송신하고,
    상기 대화로봇이, 수취한 상기 진척상황정보와 대응하는 발화재료 데이터를 상기 작업공정 식별정보와 그 작업공정과 대응하는 상기 발화재료 데이터를 관련지어서 기억한 발화재료 데이터 베이스로부터 읽어내고, 읽어낸 상기 발화재료 데이터와 상기 진척상황에 근거하여 로봇 발화 데이터를 생성하고, 생성한 상기 로봇 발화 데이터를 상기 언어 동작부에서 출력하는 것을 특징으로 하는, 로봇 대화 방법.
  7. 제6항에 있어서,
    상기 대화로봇이, 생성한 상기 로봇 발화 데이터가 가져오는 언어동작에 대응하는 비언어동작을 상기 대화로봇에게 실행하게 하는 로봇 동작 데이터를 상기 비언어동작부에서 출력하는, 로봇 대화 방법.
  8. 제6항 또는 제7항에 있어서,
    상기 대화로봇은, 상기 작업로봇의 상기 작업중에, 상기 작업로봇에 대하여 진척확인신호를 송신하고,
    상기 작업로봇은, 상기 진척확인신호를 수취한 것을 트리거(trigger)로 하여, 상기 진척상황정보를 상기 대화로봇으로 송신하는, 로봇 대화 방법.
  9. 제6항 또는 제7항에 있어서,
    상기 작업로봇은, 상기 작업공정의 개시 및/또는 종료의 타이밍에서, 상기 진척상황정보를 상기 대화로봇으로 송신하는, 로봇 대화 방법.
  10. 제6항 내지 제9항 중 어느 한 항에 있어서,
    상기 대화로봇은, 소정의 스크립트 데이터(script data)에 따라서, 상기 인간을 향하여 언어동작 및 비언어동작을 행함으로써 상기 인간과 대화하고, 상기 대화의 내용을 해석하여 상기 인간에게서 상기 의뢰를 취득하고, 상기 의뢰에 근거하여 상기 작업로봇에 대하여 상기 작업의 처리개시신호를 송신함과 동시에 상기 작업로봇을 향하여 언어동작 및 비언어동작을 행하는, 로봇 대화 방법.
KR1020197014835A 2017-02-06 2018-02-05 로봇 시스템 및 로봇 대화방법 KR20190066632A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2017-019832 2017-02-06
JP2017019832A JP2018126810A (ja) 2017-02-06 2017-02-06 ロボットシステム及びロボット対話方法
PCT/JP2018/003484 WO2018168244A1 (ja) 2017-03-17 2018-02-01 透明光学膜の製造方法および透明多層膜の製造方法

Publications (1)

Publication Number Publication Date
KR20190066632A true KR20190066632A (ko) 2019-06-13

Family

ID=63041219

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197014835A KR20190066632A (ko) 2017-02-06 2018-02-05 로봇 시스템 및 로봇 대화방법

Country Status (7)

Country Link
US (1) US20190389075A1 (ko)
JP (1) JP2018126810A (ko)
KR (1) KR20190066632A (ko)
CN (1) CN110267774A (ko)
DE (1) DE112018000702B4 (ko)
TW (1) TWI673706B (ko)
WO (1) WO2018143460A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210041199A (ko) 2019-10-07 2021-04-15 주식회사 엘지화학 조립이 용이한 전지 팩 및 그에 따른 전지 팩 제조방법
WO2023101228A1 (ko) * 2021-11-30 2023-06-08 네이버랩스 주식회사 로봇 친화형 건물, 복수의 로봇들을 이용한 협업 방법 및 시스템

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020018536A1 (en) * 2018-07-17 2020-01-23 iT SpeeX LLC Method, system, and computer program product for communication with an intelligent industrial assistant and industrial machine
JP7320240B2 (ja) * 2019-04-01 2023-08-03 国立大学法人豊橋技術科学大学 ロボット
KR20210095446A (ko) * 2020-01-23 2021-08-02 라인 가부시키가이샤 인간의 포즈에 따른 컨텐츠 기반 대화 방법 및 시스템
US20210341968A1 (en) * 2020-04-30 2021-11-04 Newpower, Inc. Mount for a computing device
CN111429888A (zh) * 2020-05-12 2020-07-17 珠海格力智能装备有限公司 机器人的控制方法及装置、存储介质和处理器
WO2022237976A1 (en) 2021-05-12 2022-11-17 Cariad Se Method for operating a telephone communication robot, telephone communication robot and vehicle
DE102023200247A1 (de) 2023-01-13 2024-07-18 BSH Hausgeräte GmbH System mit einem Haushaltsgerät, Verfahren und Computerprogrammprodukt zum Betreiben eines Haushalts-Roboters

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236137A (ja) * 2000-02-22 2001-08-31 Totoku Electric Co Ltd ガイドロボット、情報処理装置およびガイドロボット付き情報処理装置
JP2002361585A (ja) * 2001-06-07 2002-12-18 Atr Media Integration & Communications Res Lab コミュニケーションロボット
JP2005103722A (ja) * 2003-09-30 2005-04-21 Toshiba Corp 協調ロボット装置、システム、およびナビゲーションロボット装置
JP4370410B2 (ja) * 2004-03-08 2009-11-25 独立行政法人情報通信研究機構 対話システム、対話ロボット、プログラム及び記録媒体
JP2007011873A (ja) * 2005-07-01 2007-01-18 Toshiba Corp インタフェース装置およびインタフェース方法
JP4185926B2 (ja) * 2005-08-26 2008-11-26 ファナック株式会社 ロボット協調制御方法及びシステム
WO2007041295A2 (en) * 2005-09-30 2007-04-12 Irobot Corporation Companion robot for personal interaction
US8265793B2 (en) * 2007-03-20 2012-09-11 Irobot Corporation Mobile robot for telecommunication
CN101687321B (zh) * 2007-07-05 2012-08-08 松下电器产业株式会社 机器人手臂的控制装置及控制方法、机器人及控制程序
JP4976224B2 (ja) * 2007-07-26 2012-07-18 パナソニック株式会社 作業ロボットシステム
JP2009061547A (ja) * 2007-09-06 2009-03-26 Olympus Corp ロボット制御システム、ロボット、プログラム及び情報記憶媒体
JP5045519B2 (ja) * 2008-03-26 2012-10-10 トヨタ自動車株式会社 動作生成装置、ロボット及び動作生成方法
TW201227190A (en) * 2010-12-28 2012-07-01 Hon Hai Prec Ind Co Ltd System and method for controlling robots via cloud computing
US8406926B1 (en) * 2011-05-06 2013-03-26 Google Inc. Methods and systems for robotic analysis of environmental conditions and response thereto
JP2013184257A (ja) * 2012-03-08 2013-09-19 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
US9444795B1 (en) * 2013-09-27 2016-09-13 Amazon Technologies, Inc. Robot mitigation
EP2933070A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Methods and systems of handling a dialog with a robot
EP2933067B1 (en) * 2014-04-17 2019-09-18 Softbank Robotics Europe Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
KR101573819B1 (ko) * 2014-07-24 2015-12-02 국민대학교 산학협력단 로봇 및 로봇 간 정보 교환 방법
CN105573683A (zh) * 2014-10-08 2016-05-11 段兴 3d打印远程定制***
JP6583765B2 (ja) * 2015-01-16 2019-10-02 国立大学法人大阪大学 エージェント対話システムおよびプログラム
JP6215242B2 (ja) * 2015-01-20 2017-10-18 シャープ株式会社 情報送信装置、情報送信装置の制御方法、制御プログラム、および記録媒体
KR101627519B1 (ko) * 2015-05-04 2016-06-08 재단법인대구경북과학기술원 로봇 원격 제어 장치 및 그 방법
CN104951077A (zh) * 2015-06-24 2015-09-30 百度在线网络技术(北京)有限公司 基于人工智能的人机交互方法、装置和终端设备
US10166680B2 (en) * 2015-07-31 2019-01-01 Heinz Hemken Autonomous robot using data captured from a living subject
CN205380682U (zh) * 2016-03-11 2016-07-13 武汉科技大学 一种新型餐厅用机器人
CN205394568U (zh) * 2016-03-11 2016-07-27 武汉科技大学 一种餐厅用机器人
CN106074073B (zh) * 2016-05-31 2018-09-11 北京航空航天大学 一种下肢康复机器人的控制***及康复训练策略
CN106003088A (zh) * 2016-06-30 2016-10-12 江苏捷帝机器人股份有限公司 一种基于关节机器人的可移式装配机构
CN106363642A (zh) * 2016-11-18 2017-02-01 中国科学院合肥物质科学研究院 一种仿人机器人躯干结构

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210041199A (ko) 2019-10-07 2021-04-15 주식회사 엘지화학 조립이 용이한 전지 팩 및 그에 따른 전지 팩 제조방법
WO2023101228A1 (ko) * 2021-11-30 2023-06-08 네이버랩스 주식회사 로봇 친화형 건물, 복수의 로봇들을 이용한 협업 방법 및 시스템

Also Published As

Publication number Publication date
JP2018126810A (ja) 2018-08-16
DE112018000702T5 (de) 2019-11-14
TWI673706B (zh) 2019-10-01
TW201842493A (zh) 2018-12-01
US20190389075A1 (en) 2019-12-26
DE112018000702B4 (de) 2021-01-14
CN110267774A (zh) 2019-09-20
WO2018143460A1 (ja) 2018-08-09

Similar Documents

Publication Publication Date Title
KR20190066632A (ko) 로봇 시스템 및 로봇 대화방법
JP7119896B2 (ja) コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム
WO2017033367A1 (ja) 遠隔操作ロボットシステム
JP5033994B2 (ja) コミュニケーションロボット
JP4822319B2 (ja) コミュニケーションロボットおよびそれを用いた注意制御システム
JP5429462B2 (ja) コミュニケーションロボット
Van der Loos VA/Stanford rehabilitation robotics research and development program: lessons learned in the application of robotics technology to the field of rehabilitation
US9873200B2 (en) Personal robot
JP5070441B2 (ja) ロボット遠隔操作システム
CN106737760B (zh) 一种人型智能机器人及人机交流***
US20130144440A1 (en) Robot apparatus, control method thereof, and computer program
JP2007190659A (ja) ロボット遠隔操作システム
JP2009241166A (ja) ロボット遠隔操作システム
AU2012368731A1 (en) Communication draw-in system, communication draw-in method, and communication draw-in program
JPWO2019087495A1 (ja) 情報処理装置、情報処理方法、およびプログラム
De Franco et al. An Intuitive augmented reality interface for task scheduling, monitoring, and work performance improvement in human-robot collaboration
US20220288791A1 (en) Information processing device, information processing method, and program
JP2007160427A (ja) ロボット制御システム
JP2004034274A (ja) 会話ロボット及びその動作方法
Igorevich et al. Behavioral synchronization of human and humanoid robot
Chivarov et al. Exploring human-robot interfaces for service mobile robots
JP6142306B2 (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
JP2005202075A (ja) 対話制御システム及びその方法並びにロボット装置
Barkana et al. Incorporating verbal feedback into a robot-assisted rehabilitation system
Van der Loos Lessons learned in the application of robotics technology to the field of rehabilitation

Legal Events

Date Code Title Description
A201 Request for examination
G170 Publication of correction
E902 Notification of reason for refusal
E601 Decision to refuse application