JP2019010710A - Robot exhibition device, robot exhibition system, robot exhibition method and program - Google Patents

Robot exhibition device, robot exhibition system, robot exhibition method and program Download PDF

Info

Publication number
JP2019010710A
JP2019010710A JP2017129029A JP2017129029A JP2019010710A JP 2019010710 A JP2019010710 A JP 2019010710A JP 2017129029 A JP2017129029 A JP 2017129029A JP 2017129029 A JP2017129029 A JP 2017129029A JP 2019010710 A JP2019010710 A JP 2019010710A
Authority
JP
Japan
Prior art keywords
robot
user
exhibition
reference value
communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017129029A
Other languages
Japanese (ja)
Inventor
香莉 門澤
Kaori Kadosawa
香莉 門澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017129029A priority Critical patent/JP2019010710A/en
Publication of JP2019010710A publication Critical patent/JP2019010710A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Abstract

To provide a technique for exhibiting robots for selling, rental and appreciability.SOLUTION: A robot exhibition device 100 comprises communication means 2 for physically separating a robot and a user, and supporting communication between the robot and the user. The communication means 2 comprises: partition means; a detection part 120; and a communication part 130. The partition means physically partitions the robot and the user. The detection part 120 detects the user. The communication part 130 transmits information of the user detected by the detection part 120 to the robot.SELECTED DRAWING: Figure 2

Description

本発明は、ロボットを販売やレンタル、鑑賞等のために展示する技術に関する。   The present invention relates to a technique for displaying a robot for sale, rental, viewing, or the like.

人とコミュニケーションを取ることができるロボットが知られている。特許文献1は、人が近づくと、人をセンサで検知し自動的に起動して動作を開始し、コミュニケーションを取ることができる電子玩具(ロボット)を開示している。ここで、コミュニケーションを取るとは、人を見つめるように頭部を動かしたり、尻尾を振ったり、人に寄って来るように移動したり、喜んでいる表情をしたり、挨拶をしたりといった、人の興味を引く動作を実行することを指す。   Robots that can communicate with people are known. Patent Document 1 discloses an electronic toy (robot) that can detect a person with a sensor, automatically start up and start operation when a person approaches, and can communicate. Here, communication means moving the head to stare at a person, shaking the tail, moving to approach a person, making a happy expression, greeting, etc. It refers to performing actions that attract people's interests.

特開2002−307354号公報JP 2002-307354 A

この種のロボットの展示販売事例はあまりなく、ネット販売が主流であった。そのため、現場でロボットを展示する技術やノウハウが不足していた。   There were not many examples of this type of robot on display and sales, and online sales were the mainstream. For this reason, there was a lack of technology and know-how for exhibiting robots on site.

本発明は、ロボットを販売やレンタル、鑑賞等のために展示する技術を提供することを目的とする。   An object of the present invention is to provide a technique for displaying a robot for sale, rental, viewing, or the like.

本発明の目的を達成するため、本発明に係るロボット展示装置は、
ロボットとユーザを物理的に隔てるとともに、前記ロボットと前記ユーザとのコミュニケーションを支援するためのコミュニケート手段を有する、
ことを特徴とする。
In order to achieve the object of the present invention, a robot display device according to the present invention includes:
Having a communication means for physically separating the robot and the user and supporting communication between the robot and the user;
It is characterized by that.

本発明によれば、ロボットを販売やレンタル、鑑賞等のために展示する技術を提供することができる。   According to the present invention, it is possible to provide a technique for displaying a robot for sale, rental, appreciation, or the like.

本発明の第1の実施の形態に係るロボット展示装置を示す図である。It is a figure which shows the robot display apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るロボット展示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the robot display apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るロボットを示す図である。It is a figure which shows the robot which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るロボットの構成を示すブロック図である。It is a block diagram which shows the structure of the robot which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るロボット展示装置が実行するコミュニケート処理を示すフローチャートである。It is a flowchart which shows the communication process which the robot display apparatus which concerns on the 1st Embodiment of this invention performs. 本発明の第1の実施の形態に係るロボットが実行する感情動作処理を示すフローチャートである。It is a flowchart which shows the emotion operation | movement process which the robot which concerns on the 1st Embodiment of this invention performs. 本発明の第1の実施の形態に係るロボット展示装置およびロボットの動作を説明する図である。It is a figure explaining the operation | movement of the robot display apparatus which concerns on the 1st Embodiment of this invention, and a robot. 本発明の第1の実施の形態に係るロボット展示装置およびロボットの動作を説明する図である。It is a figure explaining the operation | movement of the robot display apparatus which concerns on the 1st Embodiment of this invention, and a robot. 本発明の第1の実施の形態に係るロボット展示装置およびロボットの動作を説明する図である。It is a figure explaining the operation | movement of the robot display apparatus which concerns on the 1st Embodiment of this invention, and a robot. 本発明の第2の実施の形態に係るロボット展示装置を示す図である。It is a figure which shows the robot display apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係るロボット展示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the robot display apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係るロボット展示装置が実行するコミュニケート処理を示すフローチャートである。It is a flowchart which shows the communication process which the robot display apparatus based on the 2nd Embodiment of this invention performs. 本発明の第2の実施の形態に係るロボットが実行する感情動作処理を示すフローチャートである。It is a flowchart which shows the emotion operation | movement process which the robot which concerns on the 2nd Embodiment of this invention performs. 本発明の第2の実施の形態に係るロボット展示装置およびロボットの動作を説明する図である。It is a figure explaining the operation | movement of the robot display apparatus and robot which concern on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係るロボット展示装置およびロボットの動作を説明する図である。It is a figure explaining the operation | movement of the robot display apparatus and robot which concern on the 2nd Embodiment of this invention. 変形例に係るロボット展示装置を示す図である。It is a figure which shows the robot display apparatus which concerns on a modification.

以下、本発明を実施するための形態に係るロボット展示装置を図面を参照しながら説明する。   Hereinafter, a robot exhibition apparatus according to an embodiment for carrying out the present invention will be described with reference to the drawings.

(第1の実施の形態)
本発明の実施形態に係るロボット展示装置100は、複数のユーザU(来場者)が集まる展示会場やショッピングセンターなどで、ユーザUの動きなどに応じて自律的に動作するロボット200を展示するために用いるものである。ロボット展示装置100は、図1に示すように、ロボット200を展示する展示スペース101と、展示スペース101の正面と左右の側面に配置された柵102と、を備える。柵102は、ロボット200とユーザUとを物理的に隔てる仕切手段として機能する。展示スペース101には、ロボット200が自装置の位置を取得するための基準マーカ103が配置されている。展示スペース101の背面には、壁104が配置されている。ロボット展示装置100は、ペットショップなどで、柵の中にペットを展示するのに似せて、柵102の中にペットを擬人化した形状を有しているロボット200を販売やレンタルのために展示することができる。なお、ロボット展示装置100とロボット200とは、ロボット展示システム1を構成する。
(First embodiment)
The robot display apparatus 100 according to the embodiment of the present invention is for displaying a robot 200 that operates autonomously according to the movement of the user U in an exhibition hall or a shopping center where a plurality of users U (visitors) gather. It is used for. As shown in FIG. 1, the robot exhibition apparatus 100 includes an exhibition space 101 for exhibiting the robot 200, and a fence 102 disposed on the front and left and right side surfaces of the exhibition space 101. The fence 102 functions as a partition unit that physically separates the robot 200 from the user U. In the exhibition space 101, a reference marker 103 for the robot 200 to acquire the position of its own device is arranged. A wall 104 is disposed on the back of the exhibition space 101. The robot display device 100 is similar to displaying pets in a fence at a pet shop or the like, and displays a robot 200 having an anthropomorphic shape in the fence 102 for sale or rental. can do. The robot exhibition device 100 and the robot 200 constitute the robot exhibition system 1.

ロボット展示装置100は、電気的構成として、図2に示すように、制御部110と、検知部120と、通信部130と、を備える。   As shown in FIG. 2, the robot exhibition device 100 includes a control unit 110, a detection unit 120, and a communication unit 130 as an electrical configuration.

制御部110は、CPU(Central Processing Unit)と、ROM(Read Only Memory)と、RAM(Random Access Memory)と、を備え、ロボット展示装置100の全体の動作を制御する。制御部110は、CPUがROMに記憶されたプログラムを実行することにより、人検出部111と、判定部112と、音声検出部113と、指示送信部114として機能する。   The control unit 110 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and controls the overall operation of the robot display device 100. The control unit 110 functions as the human detection unit 111, the determination unit 112, the voice detection unit 113, and the instruction transmission unit 114 by the CPU executing a program stored in the ROM.

検知部120は、人感センサ121と、振動センサ122と、マイク123と、を備え、ロボット展示装置100の周囲の情報を検出する。   The detection unit 120 includes a human sensor 121, a vibration sensor 122, and a microphone 123, and detects information around the robot exhibition device 100.

人感センサ121は、赤外線センサから構成され、周囲にユーザUがいることを検出するものである。人感センサ121は、赤外線センサが受信した赤外線の強度を示すデータを制御部110に出力する。   The human sensor 121 is composed of an infrared sensor, and detects that the user U is around. The human sensor 121 outputs data indicating the intensity of infrared rays received by the infrared sensor to the control unit 110.

振動センサ122は、柵102の振動を検知するセンサから構成される。振動センサ122は、図1に示す柵102の正面左102A、正面右102B、左側面102C、右側面102Dにそれぞれ配置される。振動センサ122は、接触により振動したそれぞれの場所(正面左102A、正面右102B、左側面102C、右側面102D)の振動の強さを示すデータを制御部110に出力する。   The vibration sensor 122 includes a sensor that detects the vibration of the fence 102. The vibration sensors 122 are arranged on the front left 102A, the front right 102B, the left side 102C, and the right side 102D of the fence 102 shown in FIG. The vibration sensor 122 outputs data indicating the strength of vibration at each location (front left 102 </ b> A, front right 102 </ b> B, left side 102 </ b> C, right side 102 </ b> D) that vibrates due to contact to the control unit 110.

マイク123は、周囲で発生している音を検出し、検出した音のデータを制御部110に出力する。   The microphone 123 detects sounds generated in the surroundings and outputs detected sound data to the control unit 110.

通信部130は、RF(Radio Frequency)回路、BB(BaseBand)回路、アンテナ等を備え、ロボット200と離無線通信を行う。この無線通信に用いる通信規格としては、例えば、Bluetooth(登録商標)を用いることができる。   The communication unit 130 includes an RF (Radio Frequency) circuit, a BB (BaseBand) circuit, an antenna, and the like, and performs remote radio communication with the robot 200. As a communication standard used for this wireless communication, for example, Bluetooth (registered trademark) can be used.

操作部140は、ユーザUから操作を受け付けるものである。操作部140は、コミュニケート処理を実行する操作を受け付ける。   The operation unit 140 receives an operation from the user U. The operation unit 140 accepts an operation for executing a communication process.

人検出部111は、人感センサ121から出力された赤外線の強度を示すデータが基準値以上であるか否かを判定し、基準値以上であると判定すると、周囲にユーザUがいると判定する。   The human detection unit 111 determines whether or not the data indicating the intensity of infrared rays output from the human sensor 121 is greater than or equal to a reference value. If the human detection unit 111 determines that the data is greater than or equal to the reference value, it is determined that there is a user U around. To do.

判定部112は、ユーザUがロボット200に興味を示しているか否かを、ユーザUの接触により柵102が振動させられたか否かにより判定する。具体的には、判定部112は、振動センサ122から出力されたそれぞれの場所の振動の強さを示すデータに基づいて、正面左102A、正面右102B、左側面102C、右側面102D毎に、それぞれの振動の強さが第1の基準値以上であるか否かを判定する。第1の基準値以上の場所があれば、その場所で第1の基準値以上で振動したと判定する。第1の基準値以上である場所が2箇所以上ある場合、最も大きい振動の強さを示した場所を振動した場所として選択する。
柵102のそれぞれの場所の振動の強さが第1の基準値未満である場合、判定部112は、それぞれの場所の振動の強さが第1の基準値より小さい第2の基準値以上であるか否かを判定する。第2の基準値以上の場所があれば、その場所で第2の基準値以上で振動したと判定する。第2の基準値以上である場所が2箇所以上ある場合、最も大きい振動の強さを示した場所を振動した場所として選択する。
なお、第1の基準値は、柵102を揺らしたと判断できる振動の強さの値であり、第2の基準値は、柵102に触れたと判断できる振動の強さの値である。
The determination unit 112 determines whether or not the user U is interested in the robot 200 based on whether or not the fence 102 is vibrated by the contact of the user U. Specifically, the determination unit 112 determines, for each of the front left 102A, the front right 102B, the left side 102C, and the right side 102D, based on data indicating the strength of vibration at each location output from the vibration sensor 122. It is determined whether the intensity of each vibration is greater than or equal to the first reference value. If there is a place that is equal to or greater than the first reference value, it is determined that the place vibrates at or above the first reference value. If there are two or more locations that are equal to or greater than the first reference value, the location that exhibits the greatest vibration strength is selected as the location where the vibration has occurred.
When the vibration intensity at each location of the fence 102 is less than the first reference value, the determination unit 112 determines that the vibration intensity at each location is greater than or equal to the second reference value that is less than the first reference value. It is determined whether or not there is. If there is a place that is equal to or greater than the second reference value, it is determined that the place vibrates at or above the second reference value. If there are two or more locations that are equal to or greater than the second reference value, the location that exhibits the greatest vibration intensity is selected as the location where the vibration has occurred.
The first reference value is a vibration intensity value that can be determined to have shaken the fence 102, and the second reference value is a vibration intensity value that can be determined to have touched the fence 102.

音声検出部113は、マイク123が取得した音を音声認識して、人の音声であると認識した場合には、音声をテキストデータに変換し、所定のワードが含まれているか否かを判定する。所定のワードは、例えば「おはよう」、「こんにちは」等である。   When the sound detection unit 113 recognizes the sound acquired by the microphone 123 and recognizes it as a human voice, the voice detection unit 113 converts the voice into text data and determines whether or not a predetermined word is included. To do. A given word, for example, "Good morning" and "Hello", and the like.

指示送信部114は、通信部130を介してロボット200に所定のデータを送信する。指示送信部114は、人検出部111が周囲に人を検知すると、周囲に人を検知した旨のデータをロボット200に送信する。また、柵102が第1の基準値以上で振動したと判定部112が判定した場合、指示送信部114は、第1の基準値以上で振動した旨と、振動した柵102の位置を示すデータをロボット200に送信する。第1の基準値以上で振動した場所が2箇所以上ある場合、最も強く振動した場所を示すデータを送信する。それぞれの場所の振動の強さが第1の基準値未満であり、何れかの場所で第2の基準値以上であると判定部112が判定した場合、指示送信部114は、第2の基準値以上で振動した旨と、振動した柵102の位置を示すデータをロボット200に送信する。第2の基準値以上で振動した場所が2箇所以上ある場合、最も強く振動した場所を示すデータを送信する。また、指示送信部114は、音声検出部113によりマイク123が取得した音声に所定のワードを含むと判定されると、その旨をロボット200に送信する。なお、柵102と、制御部110と、検知部120と、通信部130とは、コミュニケート手段2として機能する。   The instruction transmission unit 114 transmits predetermined data to the robot 200 via the communication unit 130. When the person detection unit 111 detects a person around, the instruction transmission unit 114 transmits data indicating that a person has been detected to the surroundings to the robot 200. In addition, when the determination unit 112 determines that the fence 102 vibrates at the first reference value or more, the instruction transmission unit 114 indicates that the fence 102 has vibrated at the first reference value or more and the position of the vibrated fence 102. Is transmitted to the robot 200. When there are two or more places that vibrate at or above the first reference value, data indicating the place that vibrates most strongly is transmitted. When the determination unit 112 determines that the vibration intensity at each location is less than the first reference value and is greater than or equal to the second reference value at any location, the instruction transmission unit 114 receives the second reference value. The robot 200 is transmitted to the robot 200 the fact that it has vibrated above the value and the position of the fence 102 that has vibrated. When there are two or more places that vibrate at or above the second reference value, data indicating the place that vibrates most strongly is transmitted. In addition, when the voice detection unit 113 determines that the voice acquired by the microphone 123 includes a predetermined word, the instruction transmission unit 114 transmits a message to that effect to the robot 200. Note that the fence 102, the control unit 110, the detection unit 120, and the communication unit 130 function as the communication unit 2.

ロボット200は、画像を撮像する撮像部203を頭部に有して、ユーザUの動き、表情などを撮像し、ユーザUの動き、表情などに応じて自律的にコミニュケーションするものである。ロボット200は、図3に示すように、ペットを擬人化した形状を有し、目と耳を模した部材が配置された頭部201と、手と足を模した部材が配置された胴体部202と、頭部201に配置された撮像部203と、胴体部202に頭部201を連結する首関節204と、口の位置に配置されたスピーカ205と、底面に設けられた移動手段206と、胴体部202の内部に配置された制御部210、通信部230を備える。   The robot 200 has an image pickup unit 203 for picking up an image on the head, picks up an image of the user U's movement, facial expression, etc., and communicates autonomously according to the movement, facial expression, etc. of the user U. As shown in FIG. 3, the robot 200 has a shape impersonating a pet, a head portion 201 in which members simulating eyes and ears are arranged, and a body portion in which members simulating hands and feet are arranged. 202, an imaging unit 203 disposed on the head 201, a neck joint 204 connecting the head 201 to the body unit 202, a speaker 205 disposed at the position of the mouth, and a moving means 206 provided on the bottom surface The control unit 210 and the communication unit 230 are disposed inside the body unit 202.

撮像部203は、頭部201の前面の下部、人の顔でいうところの鼻の位置に設けられている。撮像部203は、撮像した画像を後述する制御部210に出力する。   The imaging unit 203 is provided in the lower part of the front surface of the head 201, at the position of the nose in terms of a human face. The imaging unit 203 outputs the captured image to the control unit 210 described later.

首関節204は、頭部201と胴体部202とを連結する部材であり、頭部201を回転する複数のモータを有する。複数のモータは、後述する制御部210により駆動される。頭部201は、首関節204により、胴体部202に対して、ピッチ軸Xmの軸回り、ロール軸Zmの軸回り、ヨー軸Ymの軸回りに回転可能である。   The neck joint 204 is a member that connects the head 201 and the body 202 and includes a plurality of motors that rotate the head 201. The plurality of motors are driven by a control unit 210 described later. The head 201 can rotate about the pitch axis Xm, the roll axis Zm, and the yaw axis Ym with respect to the body 202 by the neck joint 204.

スピーカ205は、制御部210の制御に基づいて音声を出力する。   The speaker 205 outputs sound based on the control of the control unit 210.

移動手段206は、制御部210に制御されるモータと、モータに駆動される車輪と、を有する。ロボット200は、移動手段206により展示スペース101内を移動する。   The moving unit 206 includes a motor controlled by the control unit 210 and wheels driven by the motor. The robot 200 moves in the exhibition space 101 by the moving means 206.

制御部210は、CPU、ROM、RAMから構成される。制御部210は、CPUがROMに記憶されたプログラムを読み出してRAM上で実行することにより、図4に示すように、指示取得部211と、位置取得部212と、移動制御部213と、画像解析部214と、動作制御部215と、音声制御部216として機能する。   The control unit 210 includes a CPU, a ROM, and a RAM. As shown in FIG. 4, the control unit 210 reads out a program stored in the ROM and executes it on the RAM, so that an instruction acquisition unit 211, a position acquisition unit 212, a movement control unit 213, an image, It functions as an analysis unit 214, an operation control unit 215, and a voice control unit 216.

通信部230は、RF回路、BB回路、アンテナ等を備え、ロボット展示装置100と離無線通信を行う。この無線通信に用いる通信規格としては、例えば、Bluetooth(登録商標)を用いることができる。   The communication unit 230 includes an RF circuit, a BB circuit, an antenna, and the like, and performs remote wireless communication with the robot exhibition apparatus 100. As a communication standard used for this wireless communication, for example, Bluetooth (registered trademark) can be used.

操作部240は、ユーザUからの操作を受け付けるものである。操作部240は、後述する感情動作処理を開始する操作を受け付ける。   The operation unit 240 receives an operation from the user U. The operation unit 240 receives an operation for starting an emotion action process described later.

指示取得部211は、ロボット展示装置100の通信部130から送信されたデータをロボット200の通信部230を介して受信する。具体的には、指示取得部211は、ロボット展示装置100から、ユーザUが周囲にいる旨のデータを受信したか否かを判定し、受信したと判定すると、自装置を省電力モード(スリープモード)から通常の動作可能な通常モードに切り替える。また、指示取得部211は、ロボット展示装置100から送信された、第1または第2の基準値以上で振動した旨と、振動した位置を示すデータを受信する。また、指示取得部211は、ロボット展示装置100から送信された、マイク123が取得した音声に所定のワードを含む旨のデータを受信する。   The instruction acquisition unit 211 receives data transmitted from the communication unit 130 of the robot exhibition apparatus 100 via the communication unit 230 of the robot 200. Specifically, the instruction acquisition unit 211 determines whether or not the data indicating that the user U is in the vicinity is received from the robot display device 100. If the instruction acquisition unit 211 determines that the data is received, Mode) to normal mode where normal operation is possible. In addition, the instruction acquisition unit 211 receives the data transmitted from the robot display device 100 indicating that the vibration has occurred at the first or second reference value or more and the position where the vibration has occurred. In addition, the instruction acquisition unit 211 receives data indicating that the voice acquired by the microphone 123 includes a predetermined word transmitted from the robot display device 100.

位置取得部212は、撮像部203が撮像した画像に写る展示スペース101に配置された基準マーカ103を解析し、予めROMに記憶した展示スペース101内のマップに基づいて、展示スペース101内での自装置の位置を取得する。   The position acquisition unit 212 analyzes the reference marker 103 arranged in the exhibition space 101 that appears in the image captured by the imaging unit 203, and based on the map in the exhibition space 101 stored in advance in the ROM, Get the location of your device.

移動制御部213は、指示取得部211により柵102が第1の基準値以上で振動した旨と、振動した位置を示すデータを受信すると、展示スペース101内で、振動した場所の柵102の前の位置にロボット200が移動するように、移動手段206を制御する。   When the movement control unit 213 receives the fact that the fence 102 vibrates at the first reference value or more and the data indicating the vibrated position by the instruction acquisition unit 211, the movement control unit 213 moves in front of the fence 102 at the place of vibration in the exhibition space 101. The moving means 206 is controlled so that the robot 200 moves to the position.

画像解析部214は、振動した場所の柵102の前の位置にロボット200が移動すると、撮像部203が撮像した画像に写るユーザUの顔の表情を判別する。ユーザUの顔の表情は、「喜」の表情、「怒」の表情を含む。まず、画像解析部214は、公知の手法を用いて、ユーザUの顔を検出する。例えば、撮像部203が撮像した画像内で、予めROMに記憶した人間の顔のテンプレートに合致する部分をユーザUの顔として検出する。つぎに、画像解析部214は、公知の手法を用いて、取得画像中で顔として検出した部分に写る口元の形状に基づいて表情を判別する。例えば、画像解析部214は、口元の形状が口角の上がっている形状であると判定すると、「喜」の表情であると判別する。画像解析部214は、口元の形状が口角の下がっている形状であると判定すると、「怒」の表情であると判別する。   When the robot 200 moves to a position in front of the fence 102 at the place of vibration, the image analysis unit 214 determines the facial expression of the user U that appears in the image captured by the imaging unit 203. The facial expression of the user U includes an expression of “joy” and an expression of “anger”. First, the image analysis unit 214 detects the face of the user U using a known method. For example, a part that matches a human face template stored in advance in the ROM in the image captured by the imaging unit 203 is detected as the face of the user U. Next, the image analysis unit 214 determines a facial expression based on the shape of the mouth that appears in the portion detected as a face in the acquired image, using a known method. For example, if the image analysis unit 214 determines that the shape of the mouth is a shape with a raised mouth corner, the image analysis unit 214 determines that the expression is “joy”. If the image analysis unit 214 determines that the shape of the mouth is a shape with a lowered corner, it determines that the expression is “angry”.

動作制御部215は、指示取得部211により柵102が第2の基準値以上で振動した旨と、振動した位置を示すデータを受信すると、頭部201の視線の向きを振動した位置に向けるように、首関節204にヨー軸Ymの軸回りに頭部201を回転させる。また、動作制御部215は、画像解析部214により判別されたユーザUの顔の表情に基づいて、首関節204に頭部201を動作させる。例えば、画像解析部214が、ユーザUの表情を「喜」の表情であると判別すると、動作制御部215は、首関節204に頭部201を縦に振る感情動作(頷き動作)として、ピッチ軸Xmの軸回りに往復動作させる。画像解析部214が、ユーザUの表情を「怒」の表情であると判別すると、動作制御部215は、首関節204に頭部201を横に振る感情動作(首ふり動作)として、ヨー軸Ymの軸回りに往復動作させる。   When the instruction control unit 215 receives data indicating that the fence 102 vibrates at the second reference value or more and data indicating the position of vibration, the operation control unit 215 directs the direction of the line of sight of the head 201 to the vibrated position. Then, the head 201 is rotated around the yaw axis Ym by the neck joint 204. Further, the motion control unit 215 causes the neck joint 204 to move the head 201 based on the facial expression of the user U determined by the image analysis unit 214. For example, when the image analysis unit 214 determines that the facial expression of the user U is a “joy” facial expression, the motion control unit 215 uses the pitch as an emotional motion (whringing motion) that vertically swings the head 201 to the neck joint 204. A reciprocating motion is performed around the axis Xm. When the image analysis unit 214 determines that the facial expression of the user U is an “angry” facial expression, the motion control unit 215 performs the yaw axis as an emotional motion (swinging motion) of shaking the head 201 to the neck joint 204. Reciprocate around the Ym axis.

音声制御部216は、ロボット展示装置100のマイク123に検出された音声に所定のワード、例えば「おはよう」、「こんにちは」を含んでいる旨のデータを受信すると、これに応答しスピーカ205から音声を出力する。マイク123が取得した音声制御部216は、スピーカ205から例えば、「会いに来てくれてありがとう」と音声で出力する。   Voice control unit 216, a predetermined word in the detected sound to the microphone 123 of the robot exhibition equipment 100, for example, "Good morning", when receiving the data to the effect that contains the "Hello", the sound from and speaker 205 in response thereto Is output. The voice control unit 216 acquired by the microphone 123 outputs, for example, “thank you for coming to see me” from the speaker 205 in a voice.

つぎに、以上の構成を有するロボット展示装置100が実行するコミュニケート処理およびロボット200が実行する感情動作処理について図5〜図9を参照しながら説明する。   Next, the communication process executed by the robot display apparatus 100 having the above configuration and the emotion action process executed by the robot 200 will be described with reference to FIGS.

図7に示すように、ロボット200をロボット展示装置100の展示スペース101内に配置する。操作部240が操作されることに応答し、ロボット展示装置100は図5に示すコミュニケート処理を開始する。また、操作部240が操作されることに応答し、ロボット200は図6に示す感情動作処理を開始する。感情動作処理を開始したロボット200は、省電力モードで待機する。   As shown in FIG. 7, the robot 200 is arranged in the exhibition space 101 of the robot exhibition apparatus 100. In response to the operation of the operation unit 240, the robot display device 100 starts the communication process shown in FIG. Further, in response to the operation of the operation unit 240, the robot 200 starts the emotion action process shown in FIG. The robot 200 that has started the emotion action process stands by in the power saving mode.

以下、ロボット展示装置100が実行するコミュニケート処理およびロボット200が実行する感情動作処理を、フローチャートを用いて説明する。   Hereinafter, the communication process executed by the robot display apparatus 100 and the emotion action process executed by the robot 200 will be described with reference to flowcharts.

まず、ロボット展示装置100の人検出部111は、人感センサ121から出力された赤外線の強度を示すデータが基準値以上であるか否かを判定する(ステップS101;図5)。これにより、周囲にユーザUがいるか否かを検知する。赤外線の強度を示すデータが基準値以上でないと判定すると(ステップS101;NO;図5)、ステップS101を繰り返す。つぎに、ロボット200の指示取得部211は、ロボット展示装置100から、周囲にユーザUがいる旨のデータを受信したか否かを判定する(ステップS201;図6)。この時点では、ロボット展示装置100は、指示取得部211が周囲にユーザUがいる旨を示すデータを送信していないので、指示取得部211は周囲にユーザUがいる旨を受信していないと判定するので(ステップS201;NO;図6)、ステップS201を繰り返す。   First, the human detection unit 111 of the robot display device 100 determines whether or not the data indicating the intensity of infrared rays output from the human sensor 121 is equal to or higher than a reference value (step S101; FIG. 5). Thereby, it is detected whether or not there is a user U around. If it is determined that the data indicating the intensity of infrared rays is not equal to or greater than the reference value (step S101; NO; FIG. 5), step S101 is repeated. Next, the instruction acquisition unit 211 of the robot 200 determines whether or not data indicating that the user U is in the vicinity has been received from the robot display device 100 (step S201; FIG. 6). At this time, the robot display apparatus 100 does not transmit the data indicating that the user U is around the instruction acquisition unit 211, so the instruction acquisition unit 211 has not received the notification that the user U is around. Since it determines (step S201; NO; FIG. 6), step S201 is repeated.

つぎに、ロボット展示装置100の周囲にユーザUが近づくと、ロボット展示装置100の人検出部111が赤外線の強度を示すデータが基準値以上であると判定するので(ステップS101;YES;図5)、指示送信部114は、ユーザUを検知した旨のデータをロボット200に送信する(ステップS102;図5)。ロボット展示装置100が、ユーザUを検知した旨のデータを送信したので、ロボット200の指示取得部211は、ロボット展示装置100から、周囲にユーザUがいる旨のデータを受信し(ステップS201;YES;図6)、自装置の動作モードを省エネモードから通常モードに変更する(ステップS202;図6)。   Next, when the user U approaches the periphery of the robot display device 100, the human detection unit 111 of the robot display device 100 determines that the data indicating the intensity of the infrared ray is greater than or equal to the reference value (step S101; YES; FIG. 5). The instruction transmission unit 114 transmits data indicating that the user U has been detected to the robot 200 (step S102; FIG. 5). Since the robot exhibition apparatus 100 has transmitted data indicating that the user U has been detected, the instruction acquisition unit 211 of the robot 200 receives data indicating that the user U is in the vicinity from the robot exhibition apparatus 100 (step S201; YES; FIG. 6), the operation mode of the own apparatus is changed from the energy saving mode to the normal mode (step S202; FIG. 6).

つぎに、ロボット展示装置100の判定部112は、柵102の正面左102A、正面右102B、左側面102C、右側面102D毎に、それぞれの振動の強さが第1の基準値以上であるか否かを判定する(ステップS103;図5)。第1の基準値以上の場所があれば、その場所で第1の基準値以上で振動したと判定する。第1の基準値以上である場所が2以上ある場合、最も大きい振動の強さを示した場所を振動した場所として選択する。判定部112により、柵102の振動の強さが第1の基準値以上であると判定されると(ステップS103;YES;図5)、指示送信部114は、第1の基準値以上で振動した旨と、振動した位置を示すデータをロボット200に送信する(ステップS104;図5)。ここでは、図8に示すように、ユーザUが柵102の正面右102Bの場所を揺らし、正面右102Bの場所が第1の基準値以上で振動したとする。   Next, the determination unit 112 of the robot display device 100 determines whether the vibration intensity is greater than or equal to the first reference value for each of the front left 102A, front right 102B, left side 102C, and right side 102D of the fence 102. It is determined whether or not (step S103; FIG. 5). If there is a place that is equal to or greater than the first reference value, it is determined that the place vibrates at or above the first reference value. When there are two or more locations that are equal to or greater than the first reference value, the location that exhibits the greatest vibration intensity is selected as the location where the vibration has occurred. When the determination unit 112 determines that the vibration intensity of the fence 102 is equal to or greater than the first reference value (step S103; YES; FIG. 5), the instruction transmission unit 114 vibrates at the first reference value or greater. The data indicating the fact and the position of vibration is transmitted to the robot 200 (step S104; FIG. 5). Here, as shown in FIG. 8, it is assumed that the user U shakes the location of the front right 102B of the fence 102, and the location of the front right 102B vibrates at or above the first reference value.

つぎに、ロボット200の指示取得部211は、ロボット展示装置100から送信された、第1の基準値以上で振動した旨と、振動した位置を示すデータを受信したか否かを判定する(ステップS203;図6)。ロボット展示装置100から第1の基準値以上で振動した旨と、振動した位置を示すデータが送信されているので、指示取得部211は、第1の基準値以上で振動した旨と、振動した位置を示すデータを受信したと判定する(ステップS203;YES;図6)。つぎに、ロボット200の移動制御部213は、移動手段206を制御し、ロボット200を柵102の正面右102Bの前に移動する(ステップS204;図6)。   Next, the instruction acquisition unit 211 of the robot 200 determines whether or not the data transmitted from the robot display device 100 is vibrated at the first reference value or more and the data indicating the vibrated position has been received (step). S203; FIG. 6). Since the robot exhibition apparatus 100 has transmitted the fact that it has vibrated at the first reference value or more and the data indicating the position that has been vibrated, the instruction acquisition unit 211 has vibrated that it has vibrated at the first reference value or more. It is determined that the data indicating the position has been received (step S203; YES; FIG. 6). Next, the movement control unit 213 of the robot 200 controls the moving unit 206 to move the robot 200 in front of the front right 102B of the fence 102 (step S204; FIG. 6).

つぎに、ロボット200の画像解析部214は、撮像部203が撮像した画像に写るユーザUの顔の表情を解析する(ステップS205;図6)。画像解析部214は、公知の手法を用いて、ユーザUの顔を検出する。つぎに、画像解析部214は、公知の手法を用いて画像中で顔として検出した部分に写る口元の形状に基づいて表情を判別する。例えば、画像解析部214は、口元の形状が口角の上がっている形状であると判定すると、「喜」の表情であると判別する。画像解析部214は、口元の形状が口角の下がっている形状であると判定すると、「怒」の表情であると判別する。画像解析部214は、ユーザUの顔の表情が「喜」または「怒」の表情であるか判定する(ステップS206;図6)。   Next, the image analysis unit 214 of the robot 200 analyzes the facial expression of the user U in the image captured by the imaging unit 203 (step S205; FIG. 6). The image analysis unit 214 detects the face of the user U using a known method. Next, the image analysis unit 214 discriminates a facial expression based on the shape of the mouth that appears in a portion detected as a face in the image using a known method. For example, if the image analysis unit 214 determines that the shape of the mouth is a shape with a raised mouth corner, the image analysis unit 214 determines that the expression is “joy”. If the image analysis unit 214 determines that the shape of the mouth is a shape with a lowered corner, it determines that the expression is “angry”. The image analysis unit 214 determines whether the facial expression of the user U is an expression of “joy” or “anger” (step S206; FIG. 6).

画像解析部214が、ユーザUの顔の表情が「喜」または「怒」の表情であると判定すると(ステップS206;YES;図6)、動作制御部215は、画像解析部214により判別されたユーザUの顔の表情に基づいて、首関節204に頭部201を動作させる感情動作を実施する(ステップS207;図6)。例えば、画像解析部214が、ユーザUの表情を「喜」の表情であると判別すると、動作制御部215は、首関節204に頭部201を縦に振る感情動作(頷き動作)として、ピッチ軸Xmの軸回りに往復動作させる。画像解析部214が、ユーザUの表情を「怒」の表情であると判別すると、動作制御部215は、首関節204に頭部201を横に振る感情動作(首ふり動作)として、ヨー軸Ymの軸回りに往復動作させる。   When the image analysis unit 214 determines that the facial expression of the user U is a “joy” or “anger” expression (step S206; YES; FIG. 6), the operation control unit 215 is determined by the image analysis unit 214. Then, based on the facial expression of the user U, the emotional action of moving the head 201 to the neck joint 204 is performed (step S207; FIG. 6). For example, when the image analysis unit 214 determines that the facial expression of the user U is a “joy” facial expression, the motion control unit 215 uses the pitch as an emotional motion (whringing motion) that vertically swings the head 201 to the neck joint 204. A reciprocating motion is performed around the axis Xm. When the image analysis unit 214 determines that the facial expression of the user U is an “angry” facial expression, the motion control unit 215 performs the yaw axis as an emotional motion (swinging motion) of shaking the head 201 to the neck joint 204. Reciprocate around the Ym axis.

つぎに、ロボット展示装置100の音声検出部113は、マイク123が取得した音声に所定のワードが含まれているか否かを判定する(ステップS107;図5)。所定のワードは、「おはよう」、「こんにちは」を含む。音声検出部113が所定のワードを含んでいると判定すると(ステップS107;YES;図5)、指示送信部114は、音声に所定のワードを含む旨のデータをロボット200に送信する(ステップS108;図5)。つぎに、操作部140に終了指示が入力されているか否かを判定する(ステップS109;図5)。終了指示が入力されていると判定されると(ステップS109;YES;図5)、コミュニケート処理を終了する。終了指示が入力されていないと判定されると(ステップS109;NO;図5)、ステップS101に戻る。音声検出部113が所定のワードを含んでいないと判定すると(ステップS107;NO;図5)、ステップS109に進む。   Next, the voice detection unit 113 of the robot display device 100 determines whether or not a predetermined word is included in the voice acquired by the microphone 123 (step S107; FIG. 5). A given word, including a "Good morning", "Hello". If the voice detection unit 113 determines that the predetermined word is included (step S107; YES; FIG. 5), the instruction transmission unit 114 transmits data indicating that the voice includes the predetermined word to the robot 200 (step S108). FIG. 5). Next, it is determined whether or not an end instruction is input to the operation unit 140 (step S109; FIG. 5). If it is determined that an end instruction has been input (step S109; YES; FIG. 5), the communication process ends. If it is determined that the end instruction has not been input (step S109; NO; FIG. 5), the process returns to step S101. When the voice detection unit 113 determines that the predetermined word is not included (step S107; NO; FIG. 5), the process proceeds to step S109.

つぎに、ロボット200の音声制御部216は、ロボット展示装置100からマイク123により検出した音声に所定のワードを含む旨のデータを受信したか否かを判定する(ステップS210;図6)。所定のワードを含む旨のデータを受信したと判定すると(ステップS210;YES;図6)と、音声制御部216は、スピーカ205から例えば、「会いに来てくれてありがとう」と音声で出力する(ステップS211;図6)。つぎに、操作部240に終了指示が入力されているか否かを判定する(ステップS212;図6)。終了指示が入力されていると判定されると(ステップS212;YES;図6)、感情表現処理を終了する。終了指示が入力されていないと判定されると(ステップS212;NO;図6)、ステップS203に戻る。音声検出部113が所定のワードを含んでいないと判定すると(ステップS210;NO;図5)、ステップS212に進む。   Next, the voice control unit 216 of the robot 200 determines whether data indicating that the voice detected by the microphone 123 includes a predetermined word is received from the robot display apparatus 100 (step S210; FIG. 6). If it is determined that data indicating that a predetermined word is included (step S210; YES; FIG. 6), the voice control unit 216 outputs, for example, “thank you for coming to see me” from the speaker 205. (Step S211; FIG. 6). Next, it is determined whether or not an end instruction is input to the operation unit 240 (step S212; FIG. 6). If it is determined that an end instruction has been input (step S212; YES; FIG. 6), the emotion expression process is ended. If it is determined that the end instruction has not been input (step S212; NO; FIG. 6), the process returns to step S203. If the voice detection unit 113 determines that the predetermined word is not included (step S210; NO; FIG. 5), the process proceeds to step S212.

つぎに、ロボット展示装置100の判定部112により、柵102の振動の強さが第1の基準値以上でないと判定されると(ステップS103;NO;図5)、ロボット展示装置100の判定部112は、柵102の正面左102A、正面右102B、左側面102C、右側面102D毎に、それぞれの振動の強さが第2の基準値以上であるか否かを判定する(ステップS105;図5)。判定部112により、柵102の振動の強さが第2の基準値以上でないと判定されると(ステップS105;NO;図5)、ステップS109に進む。判定部112により、柵102の振動の強さが第2の基準値以上であると判定されると(ステップS105;YES;図5)、指示送信部114は、第2の基準値以上で振動した旨と、振動した位置を示すデータをロボット200に送信する(ステップS106;図5)。ここでは、図9に示すように、ユーザUが柵102の正面右102Bの場所に触れることで、正面左102Aの場所が第2の基準値以上第1の基準値未満で振動したとする。   Next, when the determination unit 112 of the robot display device 100 determines that the vibration intensity of the fence 102 is not equal to or greater than the first reference value (step S103; NO; FIG. 5), the determination unit of the robot display device 100 112 determines whether the strength of the vibration is greater than or equal to the second reference value for each of the front left 102A, front right 102B, left side 102C, and right side 102D of the fence 102 (step S105; FIG. 5). When the determination unit 112 determines that the vibration intensity of the fence 102 is not greater than or equal to the second reference value (step S105; NO; FIG. 5), the process proceeds to step S109. When the determination unit 112 determines that the strength of the vibration of the fence 102 is equal to or greater than the second reference value (step S105; YES; FIG. 5), the instruction transmission unit 114 vibrates above the second reference value. The data indicating the fact and the vibration position is transmitted to the robot 200 (step S106; FIG. 5). Here, as shown in FIG. 9, it is assumed that the location of the front left 102 </ b> A vibrates at the second reference value or more and less than the first reference value by touching the location of the front right 102 </ b> B of the fence 102.

つぎに、柵102が第1の基準値以上で振動していないので、ロボット200の指示取得部211は、第1の基準値以上で振動した旨と、振動した位置を示すデータを受信していないと判定する(ステップS203;NO;図6)。つぎに、ロボット200の指示取得部211は、ロボット展示装置100から送信された、第2の基準値以上で振動した旨と、振動した位置を示すデータを受信したか否かを判定する(ステップS208;図6)。ロボット展示装置100から第2の基準値以上で振動した旨と、振動した位置を示すデータが送信されているので、指示取得部211は、第2の基準値以上で振動した旨と、振動した位置を示すデータを受信していると判定する(ステップS208;YES;図6)。動作制御部215は、頭部201の視線の向きDを振動した場所に向けるように、首関節204にヨー軸Ymの軸回りに頭部201を回転させる(ステップS209)。その後、ステップS210に進む。   Next, since the fence 102 has not vibrated at the first reference value or more, the instruction acquisition unit 211 of the robot 200 has received data indicating that it has vibrated at the first reference value or more and the vibration position. (Step S203; NO; FIG. 6). Next, the instruction acquisition unit 211 of the robot 200 determines whether or not the data transmitted from the robot display device 100 is vibrated at the second reference value or more and the data indicating the vibrated position has been received (step). S208; FIG. 6). Since the robot exhibition apparatus 100 has transmitted the fact that it has vibrated at the second reference value or more and the data indicating the position that has been vibrated, the instruction acquisition unit 211 has vibrated that the vibration has occurred at the second reference value or more. It is determined that the data indicating the position is received (step S208; YES; FIG. 6). The motion control unit 215 causes the neck joint 204 to rotate the head 201 about the yaw axis Ym so that the direction D of the line of sight of the head 201 is directed to the place of vibration (step S209). Thereafter, the process proceeds to step S210.

指示取得部211が、第2の基準値以上で振動した旨と、振動した位置を示すデータを受信していないと判定すると(ステップS208;NO;図6)、通常モードに変更してして基準期間経過しているか否かを判定する(ステップS213;図6)。通常モードに変更してして基準期間経過していないと判定すると(ステップS213;NO;図6)、ステップS212に進む。通常モードに変更してして基準期間経過していると判定すると(ステップS213;YES;図6)、動作モードを通常モードから省電力モードに変更する(ステップS214)。つぎに、操作部240に終了指示が入力されているか否かを判定する(ステップS212’;図6)。終了指示が入力されていると判定されると(ステップS212’;YES;図6)、感情表現処理を終了する。終了指示が入力されていないと判定されると(ステップS212’;NO;図6)、ステップS201に戻る。   If the instruction acquisition unit 211 determines that it has not received data indicating that it has vibrated at the second reference value or more (step S208; NO; FIG. 6), it changes to the normal mode. It is determined whether or not the reference period has elapsed (step S213; FIG. 6). If it is determined that the reference period has not elapsed after changing to the normal mode (step S213; NO; FIG. 6), the process proceeds to step S212. If it is determined that the reference period has elapsed after the change to the normal mode (step S213; YES; FIG. 6), the operation mode is changed from the normal mode to the power saving mode (step S214). Next, it is determined whether or not an end instruction is input to the operation unit 240 (step S212 '; FIG. 6). If it is determined that an end instruction has been input (step S212 '; YES; FIG. 6), the emotion expression process ends. If it is determined that the end instruction has not been input (step S212 '; NO; FIG. 6), the process returns to step S201.

以上のように、ロボット展示装置100によれば、ユーザUが柵102を揺らすと、図8に示すように、ロボット200がユーザUの近くに移動する。また。ユーザUが柵102に触れると、図9に示すように、ロボット200の視線の向きDがユーザUに向く。ユーザUが柵102に触れたり揺すったりすることで、ロボット200が近づいたり視線を向けたりするので、ロボット200に興味を示すユーザUに満足感を与えることができる。また、ユーザUの音声をロボット展示装置100に配置されたマイク123で検出し、この音声に所定のワードが含まれている場合、ロボット200は、ユーザUに音声で応答しアピールできる。また、ロボット展示装置100の周囲に複数のユーザUがいたとしても柵102を揺らすまたは触れたユーザUにロボット200が応答することで、ロボット200が、興味を示していないユーザUに間違って応答することを防ぐことができる。
従って、ロボット展示装置100は、ロボット200と、興味を持ったユーザUとの間で、効果的にコミュニケーションをとることができ、ユーザUにロボット200を効率的にアピールできる。
As described above, according to the robot display device 100, when the user U swings the fence 102, the robot 200 moves near the user U as shown in FIG. Also. When the user U touches the fence 102, the direction D of the line of sight of the robot 200 faces the user U as shown in FIG. When the user U touches or shakes the fence 102, the robot 200 approaches or turns its gaze, so that the user U who is interested in the robot 200 can be satisfied. In addition, when the voice of the user U is detected by the microphone 123 arranged in the robot display apparatus 100 and the predetermined word is included in the voice, the robot 200 can respond to the user U by voice and appeal. In addition, even when there are a plurality of users U around the robot display device 100, the robot 200 responds to the user U who has shaken or touched the fence 102, so that the robot 200 responds erroneously to the user U who is not interested. Can be prevented.
Therefore, the robot display apparatus 100 can effectively communicate between the robot 200 and the interested user U, and can appeal the robot 200 to the user U efficiently.

(第2の実施の形態)
第1の実施の形態においては、ロボット展示装置100が1つのロボット200を展示する例について説明した。第2の実施の形態では、図10に示すように、ロボット展示装置300が、複数のロボット(第1〜第3のロボット400a〜400c)を展示する例について説明する。
(Second Embodiment)
In the first embodiment, the example in which the robot display apparatus 100 displays one robot 200 has been described. In the second embodiment, as shown in FIG. 10, an example in which the robot display device 300 displays a plurality of robots (first to third robots 400a to 400c) will be described.

第2の実施の形態のロボット展示装置300は、第1の実施の形態のロボット展示装置100が備える構成に加えて、図11に示すように、検知部120にカメラ124を備える。また、制御部110は、第1〜第3のロボット400a〜400cの配置されている位置を検出する位置検知部115を備える。また、指示送信部114は、通信部130を介して第1〜第3のロボット400a〜400cにそれぞれ、所定のデータを送信する点で第1の実施の形態と異なる。   The robot display device 300 according to the second embodiment includes a camera 124 in the detection unit 120 as shown in FIG. 11 in addition to the configuration provided in the robot display device 100 according to the first embodiment. In addition, the control unit 110 includes a position detection unit 115 that detects positions where the first to third robots 400a to 400c are arranged. The instruction transmission unit 114 is different from the first embodiment in that predetermined data is transmitted to the first to third robots 400a to 400c via the communication unit 130, respectively.

カメラ124は、展示スペース101に配置された第1〜第3のロボット400a〜400cを上から撮像できるように、壁104の上部に配置される。カメラ124は、撮像した画像を示すデータを制御部110に出力する。   The camera 124 is arranged on the upper portion of the wall 104 so that the first to third robots 400a to 400c arranged in the exhibition space 101 can be imaged from above. The camera 124 outputs data indicating the captured image to the control unit 110.

指示送信部114は、通信部130を介して第1〜第3のロボット400a〜400cに所定のデータを送信する。柵102が第1の基準値以上で振動したと判定部112が判定した場合、指示送信部114は、第1の基準値以上で振動した旨と、振動した柵102の位置を示すデータを第1〜第3のロボット400a〜400cに送信する。第1の基準値以上で振動した場所が2箇所以上ある場合、最も強く振動した場所を示すデータを送信する。それぞれの場所の振動の強さが第1の基準値未満であり、何れかの場所で第2の基準値以上であると判定部112が判定した場合、指示送信部114は、第2の基準値以上で振動した旨と、振動した柵102の位置を示すデータを、柵102が振動した場所に最も近い第1〜第3のロボット400a〜400cに送信する。第2の基準値以上で振動した場所が2箇所以上ある場合、最も強く振動した場所を示すデータを送信する。第1〜第3のロボット400a〜400cの位置は、後述する位置検知部115により検知される。第1〜第3のロボット400a〜400cの位置と、柵102が振動した場所と、に基づいて、柵102が振動した場所に元も近い第1〜第3のロボット400a〜400cが何れであるか判定する。   The instruction transmission unit 114 transmits predetermined data to the first to third robots 400 a to 400 c via the communication unit 130. When the determination unit 112 determines that the fence 102 has vibrated at or above the first reference value, the instruction transmission unit 114 receives data indicating that the fence 102 has vibrated at or above the first reference value and the position of the vibrating fence 102. The first to third robots 400a to 400c are transmitted. When there are two or more places that vibrate at or above the first reference value, data indicating the place that vibrates most strongly is transmitted. When the determination unit 112 determines that the vibration intensity at each location is less than the first reference value and is greater than or equal to the second reference value at any location, the instruction transmission unit 114 receives the second reference value. The fact that it vibrates above the value and the data indicating the position of the vibrating fence 102 are transmitted to the first to third robots 400a to 400c closest to the place where the fence 102 vibrates. When there are two or more places that vibrate at or above the second reference value, data indicating the place that vibrates most strongly is transmitted. The positions of the first to third robots 400a to 400c are detected by a position detector 115 described later. Based on the positions of the first to third robots 400a to 400c and the place where the fence 102 vibrates, the first to third robots 400a to 400c that are also close to the place where the fence 102 vibrates are any. To determine.

位置検知部115は、カメラ124が撮像した画像に基づいて、第1〜第3のロボット400a〜400cの位置を検知する。第1〜第3のロボット400a〜400cの識別は、第1〜第3のロボット400a〜400cに配置された識別マーク450a〜450cにより実行される。   The position detection unit 115 detects the positions of the first to third robots 400a to 400c based on images captured by the camera 124. The identification of the first to third robots 400a to 400c is executed by the identification marks 450a to 450c arranged on the first to third robots 400a to 400c.

第1〜第3のロボット400a〜400cは、第1の実施の形態のロボット200の構成に加えて、第1〜第3のロボット400a〜400cの何れのロボットであるかを識別する識別マーク450a〜450cを有している。識別マーク450a〜450cは、カメラ124により撮像される位置に取り付けられている。また、通信部230は、通信IDを有し、ロボット展示装置300の通信部130は、通信IDごとにデータを送信することができる。第1のロボット400aの通信IDは、「ID400a」であり、第2のロボット400bの通信IDは、「ID400b」であり、第3のロボット400c「ID400c」である。   In addition to the configuration of the robot 200 of the first embodiment, the first to third robots 400a to 400c are identification marks 450a that identify which robot is the first to third robots 400a to 400c. ~ 450c. The identification marks 450a to 450c are attached at positions where they are imaged by the camera 124. Moreover, the communication part 230 has communication ID, and the communication part 130 of the robot display apparatus 300 can transmit data for every communication ID. The communication ID of the first robot 400a is “ID400a”, the communication ID of the second robot 400b is “ID400b”, and the third robot 400c “ID400c”.

つぎに、以上の構成を有するロボット展示装置300が実行するコミュニケート処理および第1〜第3のロボット400a〜400cが実行する感情動作処理について図10、図12〜図14を参照しながら説明する。第2の実施の形態のコミュニケート処理のステップS301〜ステップS303、ステップS308〜ステップS310、感情動作処理のステップS401〜ステップS402、ステップS404〜ステップS412は、第1の実施の形態のコミュニケート処理のステップS101〜ステップS103、ステップS107〜ステップS109、感情動作処理のステップS201〜ステップS202、ステップS204〜ステップS207、ステップS210〜ステップS214と同様である。   Next, the communication process executed by the robot exhibition apparatus 300 having the above configuration and the emotion action process executed by the first to third robots 400a to 400c will be described with reference to FIGS. 10 and 12 to 14. FIG. Steps S301 to S303, Steps S308 to S310 of the communication process according to the second embodiment, Steps S401 to S402, and Steps S404 to S412 of the emotion action process are steps of the communication process according to the first embodiment. Steps S101 to S103, Steps S107 to S109, Steps S201 to S202, Steps S204 to S207, and Steps S210 to S214 of emotion motion processing are the same.

図10に示すように、第1〜第3のロボット400a〜400cをロボット展示装置300の展示スペース101内に配置する。操作部240が操作されることに応答し、ロボット展示装置300は図12に示すコミュニケート処理を開始する。また、操作部240が操作されることに応答し、ロボット200は図13に示す感情動作処理を開始する。   As shown in FIG. 10, the first to third robots 400 a to 400 c are arranged in the exhibition space 101 of the robot exhibition apparatus 300. In response to the operation unit 240 being operated, the robot exhibition apparatus 300 starts the communication process shown in FIG. Further, in response to the operation of the operation unit 240, the robot 200 starts the emotion action process shown in FIG.

図14に示すように、ユーザUが柵102の正面右102Bの場所に接触して、正面右102Bの場所が第1の基準値未満第2の基準値以上で振動した場合について説明する。   As shown in FIG. 14, the case where the user U touches the location of the front right 102B of the fence 102 and the location of the front right 102B vibrates at a second reference value less than the first reference value will be described.

ロボット展示装置300の判定部112により、柵102の振動の強さが第1の基準値以上でないと判定されるので(ステップS303;NO;図12)、ロボット展示装置300の判定部112は、柵102の正面左102A、正面右102B、左側面102C、右側面102D毎に、それぞれの振動の強さが第2の基準値以上であるか否かを判定する(ステップS305;図5)。判定部112は、柵102の振動の強さが第2の基準値以上であると判定するので(ステップS305;YES;図12)、位置検知部115は、カメラ124が撮像した画像に基づいて、第1〜第3のロボット400a〜400cの位置を検知する(ステップS306;図12)。第1〜第3のロボット400a〜400cの識別は、第1〜第3のロボット400a〜400cに配置された識別マーク450a〜450cにより実行される。つぎに、指示送信部114は、第2の基準値以上で振動した旨と、振動した位置を示すデータを柵102が振動した位置に最も近い第1〜第3のロボット400a〜400cに送信する(ステップS307;図12)。ここでは、柵102の正面右102Bの場所が振動しているので、第1のロボット400aが正面右102Bに最も近いので、ロボット展示装置300の通信部130は、第2の基準値以上で振動した旨と、振動した位置を示すデータを、通信ID「ID400a」を有する第1のロボット400aに送信する。   Since the determination unit 112 of the robot display device 300 determines that the vibration intensity of the fence 102 is not equal to or greater than the first reference value (step S303; NO; FIG. 12), the determination unit 112 of the robot display device 300 For each of the front left 102A, front right 102B, left side 102C, and right side 102D of the fence 102, it is determined whether or not the intensity of each vibration is equal to or greater than the second reference value (step S305; FIG. 5). Since the determination unit 112 determines that the vibration intensity of the fence 102 is equal to or greater than the second reference value (step S305; YES; FIG. 12), the position detection unit 115 is based on the image captured by the camera 124. The positions of the first to third robots 400a to 400c are detected (step S306; FIG. 12). The identification of the first to third robots 400a to 400c is executed by the identification marks 450a to 450c arranged on the first to third robots 400a to 400c. Next, the instruction transmission unit 114 transmits to the first to third robots 400a to 400c closest to the position where the fence 102 vibrates to the effect that the vibration is greater than or equal to the second reference value and the data indicating the position of vibration. (Step S307; FIG. 12). Here, since the location of the front right 102B of the fence 102 is vibrating, the first robot 400a is closest to the front right 102B, so the communication unit 130 of the robot display device 300 vibrates at a second reference value or more. And the data indicating the position of vibration are transmitted to the first robot 400a having the communication ID “ID400a”.

第1のロボット400aの指示取得部211は、ロボット展示装置300から送信された、第1または第2の基準値以上で振動した旨と、振動した位置を示すデータを受信したか否かを判定する(ステップS403;図13)。ロボット展示装置300から第2の基準値以上で振動した旨と、振動した位置を示すデータが送信されているので、指示取得部211は、第2の基準値以上で振動した旨と、振動した位置を示すデータを受信したと判定する(ステップS403;YES;図13)。つぎに、第1のロボット400aの移動制御部213は、移動手段206を制御し、第1のロボット400aを柵102の正面右102Bの前に移動する(ステップS404;図13)。   The instruction acquisition unit 211 of the first robot 400a determines whether or not it has received data indicating that it has vibrated at the first or second reference value or more and transmitted from the robot display apparatus 300. (Step S403; FIG. 13). Since the robot display device 300 has transmitted the fact that it has vibrated at the second reference value or more and the data indicating the position that has been vibrated, the instruction acquisition unit 211 has vibrated that it has vibrated at the second reference value or more. It is determined that the data indicating the position has been received (step S403; YES; FIG. 13). Next, the movement control unit 213 of the first robot 400a controls the moving means 206 to move the first robot 400a in front of the front right 102B of the fence 102 (step S404; FIG. 13).

一方、ロボット展示装置300の通信部130は、第2の基準値以上で振動した旨と、振動した位置を示すデータを、第2と第3のロボット400b、400cに送信していないので、第2と第3のロボット400b、400cの指示取得部211は、第1または第2の基準値以上で振動した旨と、振動した位置を示すデータを受信していないと判定する(ステップS403;NO;図13)。このため、第2と第3のロボット400b、400cは、柵102の振動した位置には移動せず、ステップS411に進む。これにより、ユーザUが接触した柵102の正面右102Bの場所に、第1のロボット400aだけが近づくこととなる。   On the other hand, since the communication unit 130 of the robot display device 300 has not transmitted to the second and third robots 400b and 400c, the fact that it has vibrated above the second reference value and the data indicating the position of vibration have not been transmitted. The instruction acquisition unit 211 of the second and third robots 400b and 400c determines that it has not received data indicating that it vibrates at the first or second reference value or more and data indicating the position of vibration (step S403; NO). FIG. 13). For this reason, the second and third robots 400b and 400c do not move to the position where the fence 102 vibrates, and proceed to step S411. As a result, only the first robot 400a approaches the location on the front right 102B of the fence 102 that the user U has contacted.

つぎに、図15に示すように、ユーザUが柵102の正面左102Aの場所を揺らして、正面右102Bの場所が第1の基準値以上で振動した場合について説明する。   Next, as shown in FIG. 15, the case where the user U shakes the location of the front left 102 </ b> A of the fence 102 and the location of the front right 102 </ b> B vibrates at the first reference value or more will be described.

ロボット展示装置300の判定部112は、柵102の振動の強さが第1の基準値以上であると判定するので(ステップS303;YES;図12)、指示送信部114は、第1の基準値以上で振動した旨と、振動した位置を示すデータを第1〜第3のロボット400a〜400cに送信する(ステップS304;図12)。   Since the determination unit 112 of the robot display device 300 determines that the strength of the vibration of the fence 102 is equal to or greater than the first reference value (step S303; YES; FIG. 12), the instruction transmission unit 114 determines the first reference value. Data indicating that the vibration has occurred above the value and the position indicating the vibration are transmitted to the first to third robots 400a to 400c (step S304; FIG. 12).

第1〜第3のロボット400a〜400cの指示取得部211は、ロボット展示装置300から送信された、第1または第2の基準値以上で振動した旨と、振動した位置を示すデータを受信したか否かを判定する(ステップS403;図13)。ロボット展示装置300から第1の基準値以上で振動した旨と、振動した位置を示すデータが送信されているので、指示取得部211は、第1の基準値以上で振動した旨と、振動した位置を示すデータを受信したと判定する(ステップS403;YES;図13)。つぎに、第1〜第3のロボット400a〜400cの移動制御部213は、移動手段206を制御し、柵102の正面左102Aの前に移動する(ステップS404;図13)。これにより、ユーザUが揺らした柵102の正面左102Aの場所に、第1〜第3のロボット400a〜400cの全てが近づくこととなる。   The instruction acquisition unit 211 of the first to third robots 400a to 400c has received the data transmitted from the robot display device 300 indicating that the vibration has exceeded the first or second reference value and the position where the vibration has occurred. (Step S403; FIG. 13). Since the robot exhibition device 300 has transmitted the fact that it has vibrated at the first reference value or more and the data indicating the position that has been vibrated, the instruction acquisition unit 211 has vibrated that it has vibrated at the first reference value or more. It is determined that the data indicating the position has been received (step S403; YES; FIG. 13). Next, the movement control part 213 of the 1st-3rd robot 400a-400c controls the moving means 206, and moves in front of the front left 102A of the fence 102 (step S404; FIG. 13). Thereby, all the 1st-3rd robots 400a-400c will approach the place of the front left 102A of the fence 102 which the user U rocked.

以上のように、ロボット展示装置300によれば、ユーザUが柵102に触れると、図14に示すように、接触した場所に最も近い第1〜第3のロボット400a〜400cのうち1つがユーザUの近くに移動する。ユーザUが柵102を揺らすと、図15に示すように、第1〜第3のロボット400a〜400cのすべてがユーザUの近くに移動する。ユーザUが柵に触れたり揺すったりすることで、第1〜第3のロボット400a〜400cのロボットが近づくので、興味を示すユーザUに満足感を与えることができる。
従って、ロボット展示装置300は、第1〜第3のロボット400a〜400cと、興味を持ったユーザUとの間で、効果的にコミュニケーションをとることができ、ユーザUに第1〜第3のロボット400a〜400cを効率的にアピールできる。
As described above, according to the robot display device 300, when the user U touches the fence 102, as shown in FIG. 14, one of the first to third robots 400a to 400c closest to the contacted location is the user. Move near U. When the user U swings the fence 102, all of the first to third robots 400a to 400c move near the user U as shown in FIG. When the user U touches or shakes the fence, the robots of the first to third robots 400a to 400c approach, so that the user U who is interested can be satisfied.
Therefore, the robot display apparatus 300 can effectively communicate between the first to third robots 400a to 400c and the interested user U, and the user U can receive the first to third robots. The robots 400a to 400c can be effectively appealed.

(変形例)
上述の実施の形態では、ロボット展示装置100、300が柵102を有する場合について説明したが、ロボット展示装置100、300は、展示スペース101に配置されたロボットを囲い、ユーザUと物理的に隔てる仕切手段を有せばよい。例えば、ロボット展示装置100、300は、柵102に代えて、透明な板または網を備えてもよい。透明な板は、アクリル板などの樹脂板、ガラス板などを含む。また、ユーザUが柵102に触れたり揺すったりする動作を振動センサ122により検出していたが、静電式のタッチセンサやその他のセンサにより検知してもよい。
(Modification)
In the above-described embodiment, the case where the robot display devices 100 and 300 have the fence 102 has been described. However, the robot display devices 100 and 300 surround the robot arranged in the display space 101 and physically separate from the user U. What is necessary is just to have a partition means. For example, the robot display devices 100 and 300 may include a transparent plate or net instead of the fence 102. The transparent plate includes a resin plate such as an acrylic plate, a glass plate, and the like. In addition, although the movement of the user U touching or shaking the fence 102 is detected by the vibration sensor 122, it may be detected by an electrostatic touch sensor or other sensors.

上述の実施の形態では、ロボット展示装置100、300の柵102の振動を検知する振動センサ122により、興味を示しているユーザUを特定したが、ロボット200または第1〜第3のロボット400a〜400cに興味を示しているユーザUを特定する手段は振動センサ122に限定されない。例えば、ロボット展示装置100、300は、ユーザUを撮像するカメラを備え、カメラで撮像したユーザUの画像を解析し、ユーザUの視線の方向を特定する。ユーザUの視線がロボット200または第1〜第3のロボット400a〜400cに向いていれば、そのユーザUがロボット200または第1〜第3のロボット400a〜400cに興味を示していると判定してもよい。また、ロボット展示装置100、300は、マイク123でユーザUの音声を検出し、音声をテキストデータに変換し、テキストデータにロボット200または第1〜第3のロボット400a〜400cの名前や愛称が含まれていると判定したとき、そのユーザUがロボット200または第1〜第3のロボット400a〜400cに興味を示していると判定してもよい。また、ロボット展示装置100、300は、ユーザUの視線の方向を特定することに代えて、ユーザUの顔の向きや体の向き、手の動きに基づいて、ロボット200または第1〜第3のロボット400a〜400cに興味を示しているか否かを判定してもよい。   In the above-described embodiment, the user U who is interested is specified by the vibration sensor 122 that detects the vibration of the fence 102 of the robot display device 100 or 300. However, the robot 200 or the first to third robots 400a to 400a are used. The means for identifying the user U who is interested in 400c is not limited to the vibration sensor 122. For example, the robot exhibition devices 100 and 300 include a camera that captures the user U, analyzes an image of the user U captured by the camera, and specifies the direction of the user U's line of sight. If the line of sight of the user U is facing the robot 200 or the first to third robots 400a to 400c, it is determined that the user U is interested in the robot 200 or the first to third robots 400a to 400c. May be. Moreover, the robot display apparatuses 100 and 300 detect the voice of the user U with the microphone 123, convert the voice into text data, and the name and nickname of the robot 200 or the first to third robots 400a to 400c are included in the text data. When it is determined that the user U is included, it may be determined that the user U is interested in the robot 200 or the first to third robots 400a to 400c. In addition, the robot display devices 100 and 300, instead of specifying the direction of the line of sight of the user U, based on the direction of the face of the user U, the direction of the body, and the movement of the hand, It may be determined whether or not the robots 400a to 400c are interested.

さらに、ロボット200または第1〜第3のロボット400a〜400cは、撮像部203でユーザUの顔を撮像してユーザUの特徴を認識し、ユーザUの特徴を示す情報を記憶手段に記憶してもよい。あるいは、ロボット展示装置100、300がカメラ124でユーザUの顔を撮像してユーザUの特徴を認識し、ユーザUの特徴を示す情報を記憶手段に記憶し、ロボット200または第1〜第3のロボット400a〜400cに通信部130により送信するようにしてもよい。ユーザUの特徴を示す情報は、顔認識により認識された顔の特徴を示す情報、音声認識により認識された音声の特徴を示す情報などが含まれる。ユーザUの特徴を示す情報を記憶することによってより多彩なコミュニケート処理が可能となる。例えば、ロボット200または第1〜第3のロボット400a〜400cは、特徴が記憶されたユーザUであると判定すると、そのユーザUに、特徴が記憶されていないユーザUに実行する動作と異なる動作を実行するようにしてもよい。
また、ロボット展示装置100、300がロボットをIDコード(通信ID)や画像認識によって判別し、現在収容しているロボットを把握したり、ロボットの入退出の履歴を記憶するようにしてもよい。
Furthermore, the robot 200 or the first to third robots 400a to 400c images the face of the user U by the imaging unit 203, recognizes the feature of the user U, and stores information indicating the feature of the user U in the storage unit. May be. Alternatively, the robot exhibition apparatuses 100 and 300 capture the user U's face with the camera 124 to recognize the characteristics of the user U, and store information indicating the characteristics of the user U in the storage unit. The robot 400a to 400c may be transmitted by the communication unit 130. The information indicating the feature of the user U includes information indicating the feature of the face recognized by face recognition, information indicating the feature of the voice recognized by speech recognition, and the like. By storing information indicating the characteristics of the user U, more various communication processes can be performed. For example, when it is determined that the robot 200 or the first to third robots 400a to 400c is the user U in which the feature is stored, the user U performs an operation different from the operation to be performed on the user U in which the feature is not stored. May be executed.
Further, the robot display apparatuses 100 and 300 may identify the robot by an ID code (communication ID) or image recognition, grasp the currently accommodated robot, or store the robot entry / exit history.

ロボット展示装置100、300は、図16に示すように、ロボット200または第1〜第3のロボット400a〜400cに電力を供給する給電部105を備えてもよい。この場合、ロボット200または第1〜第3のロボット400a〜400cは、バッテリーの残量が基準値以下になると、給電部105の位置に移動し、自装置の底に配置された受電部により受電し、バッテリーに充電するようにできる。給電部105は、コイルなどを有する非接触の給電装置から構成されてもよく、端子を備える接触式の給電装置から構成されてもよい。この場合、ロボット200、第1〜第3のロボット400a〜400cは、給電部105に対応する非接触または接触式の受電部を備える。   As shown in FIG. 16, the robot exhibition apparatuses 100 and 300 may include a power feeding unit 105 that supplies power to the robot 200 or the first to third robots 400 a to 400 c. In this case, the robot 200 or the first to third robots 400a to 400c move to the position of the power supply unit 105 when the remaining battery level is equal to or lower than the reference value, and receive power by the power reception unit disposed at the bottom of the own device. And you can charge the battery. The power feeding unit 105 may be configured from a non-contact power feeding device having a coil or the like, or may be configured from a contact type power feeding device including a terminal. In this case, the robot 200 and the first to third robots 400 a to 400 c include a non-contact or contact-type power receiving unit corresponding to the power feeding unit 105.

ロボット展示装置100、300は、鏡106を備えてもよい。この場合、ロボット200、第1〜第3のロボット400a〜400cは、撮像部203で鏡106に写る自装置を撮像し、セルフチェックしてもよい。すなわち、予めROMに保存した自装置の画像と撮像した画像とを比較し、自装置の外観に破損箇所がないか否かを判定することができる。また、首関節204に頭部201を動作させながら、撮像部203で鏡106に写る自装置を撮像し、頭部201が制御した動作と同じ動作をしているか否かを判定してもよい。   The robot display devices 100 and 300 may include a mirror 106. In this case, the robot 200 and the first to third robots 400a to 400c may take an image of the own device that appears on the mirror 106 by the imaging unit 203 and perform a self-check. That is, it is possible to compare the image of the own device stored in the ROM in advance with the captured image and determine whether or not the appearance of the own device is damaged. Further, while moving the head 201 to the neck joint 204, the imaging device 203 may capture the image of the own device reflected in the mirror 106 and determine whether or not the same operation as the operation controlled by the head 201 is performed. .

上述の実施の形態では、ロボット展示装置100、300が展示会場やショッピングセンターなどでロボット200、第1〜第3のロボット400a〜400cを展示する例について説明した。ロボット展示装置100、300は、一般家庭でロボット200、第1〜第3のロボット400a〜400cを鑑賞するために用いられてもよい。この場合、ユーザUがロボット200、第1〜第3のロボット400a〜400cで遊んでいないとき、ロボット展示装置100、300に、ロボット200、第1〜第3のロボット400a〜400cを格納しておく。この場合、ユーザUがロボット展示装置100、300の柵102に触れると、ロボット200、第1〜第3のロボット400a〜400cが、眠っていた状態から起き上がる動作などの所定の動作を実行するように設定されてもよい。また、ユーザUがロボット展示装置100、300のマイクに「おはよう」などの所定のワードを話しかけると、ロボット200、第1〜第3のロボット400a〜400cが、鳴き声を発するように設定されてもよい。また、ロボット展示装置100、300は、給電部105を備え、ロボット200、第1〜第3のロボット400a〜400cを格納しているときに、充電するようにしてもよい。   In the above-described embodiment, an example in which the robot display devices 100 and 300 display the robot 200 and the first to third robots 400a to 400c at an exhibition hall or a shopping center has been described. The robot display devices 100 and 300 may be used for viewing the robot 200 and the first to third robots 400a to 400c in a general home. In this case, when the user U is not playing with the robot 200 and the first to third robots 400a to 400c, the robot 200 and the first to third robots 400a to 400c are stored in the robot display devices 100 and 300. deep. In this case, when the user U touches the fence 102 of the robot display devices 100 and 300, the robot 200 and the first to third robots 400a to 400c perform a predetermined operation such as an operation of getting up from a sleeping state. May be set. Further, even when the user U speaks a predetermined word such as “Good morning” to the microphones of the robot exhibition devices 100 and 300, the robot 200 and the first to third robots 400a to 400c are set to make a cry. Good. The robot display devices 100 and 300 may include the power supply unit 105 and may be charged when the robot 200 and the first to third robots 400a to 400c are stored.

ロボット200が、「喜」および「怒」の感情表現を実施する例について説明したが、ロボット200は、ユーザUに表現を実行すればよく、「喜」および「怒」以外の感情を表現してもよく、感情表現以外の動きを表現してもよい。   The example in which the robot 200 performs the emotion expression of “joy” and “anger” has been described. However, the robot 200 only needs to execute the expression for the user U, and expresses emotions other than “joy” and “anger”. It is also possible to express movement other than emotional expression.

上述の実施の形態では、画像解析部214が、取得画像を解析し、ユーザUの顔の表情を判別する例について説明したが、画像解析部214は、ロボット200、第1〜第3のロボット400a〜400cの動作の基になる情報を得ることができればよく、ユーザUの顔の表情を判別する場合に限定されない。例えば、画像解析部214は、ユーザUの顔の向きやユーザUの体の動きを判別してもよい。この場合、ユーザUの顔がロボット200、第1〜第3のロボット400a〜400cを向いているとき、ロボット200第1〜第3のロボット400a〜400cは、所定の動作をしてもよく、ユーザUの体の動きが所定のパターンであるとき、ロボット200、第1〜第3のロボット400a〜400cは、所定の動作をしてもよい。   In the above-described embodiment, the example in which the image analysis unit 214 analyzes the acquired image and determines the facial expression of the user U has been described. However, the image analysis unit 214 includes the robot 200 and the first to third robots. It is only necessary to obtain information on which the operations of 400a to 400c are based, and the present invention is not limited to the case of determining the facial expression of the user U. For example, the image analysis unit 214 may determine the orientation of the user U's face and the movement of the user U's body. In this case, when the face of the user U faces the robot 200 and the first to third robots 400a to 400c, the robot 200 first to third robots 400a to 400c may perform a predetermined operation, When the movement of the body of the user U is a predetermined pattern, the robot 200 and the first to third robots 400a to 400c may perform a predetermined operation.

上述の実施の形態では、ロボット200、第1〜第3のロボット400a〜400cが、ペットを擬人化した形状を有している例について説明したが、ロボット200、第1〜第3のロボット400a〜400cの形状は、特に限定されず、例えば、人を模した形状、犬または猫を含む動物を模した形状を有してもよく、想像上の生き物を模した形状であってもよい。   In the above-described embodiment, an example in which the robot 200 and the first to third robots 400a to 400c have a personified pet shape has been described. However, the robot 200 and the first to third robots 400a are described. The shape of ˜400c is not particularly limited, and may be, for example, a shape imitating a person, a shape imitating an animal including a dog or a cat, or a shape imitating an imaginary creature.

また、CPU、RAM、ROM等から構成される制御部110が実行するコミュニケート処理、制御部210が実行する感情表現処理を行う中心となる部分は、専用のシステムによらず、通常の情報携帯端末(スマートフォン、タブレットPC(Personal Computer))、パーソナルコンピュータなどを用いて実行可能である。たとえば、上述の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(Digital Versatile Disc Read Only Memory)等)に格納して配布し、このコンピュータプログラムを情報携帯端末などにインストールすることにより、上述の処理を実行する情報端末を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置にこのコンピュータプログラムを格納しておき、通常の情報処理端末などがダウンロード等することで情報処理装置を構成してもよい。   In addition, a communication information executed by the control unit 110 configured by a CPU, a RAM, a ROM, and the like, and a central part for performing the emotion expression processing executed by the control unit 210 are not related to a dedicated system, but a normal information portable terminal It can be executed using a (smart phone, tablet PC (Personal Computer)), personal computer, or the like. For example, a computer program for executing the above-described operation is stored on a computer-readable recording medium (flexible disc, CD-ROM (Compact Disc Read Only Memory), DVD-ROM (Digital Versatile Disc Read Only Memory), etc.). An information terminal that performs the above-described processing may be configured by storing and distributing and installing this computer program in an information portable terminal or the like. Alternatively, the computer program may be stored in a storage device included in a server device on a communication network such as the Internet, and the information processing device may be configured by being downloaded by a normal information processing terminal.

また、制御部110、210の機能を、OS(Operating System)とアプリケーションプログラムとの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。   Further, when the functions of the control units 110 and 210 are realized by sharing between an OS (Operating System) and an application program, or by cooperation between the OS and the application program, only the application program portion is recorded on a recording medium or a storage device. May be stored.

また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。例えば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)にこのコンピュータプログラムを掲示し、ネットワークを介してこのコンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、上述の処理を実行できるように構成してもよい。   It is also possible to superimpose a computer program on a carrier wave and distribute it via a communication network. For example, this computer program may be posted on a bulletin board (BBS: Bulletin Board System) on a communication network and distributed through the network. The computer program may be started and executed in the same manner as other application programs under the control of the OS, so that the above-described processing can be executed.

本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、上述した実施形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。つまり、本発明の範囲は、実施形態ではなく、請求の範囲によって示される。そして、請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、本発明の範囲内とみなされる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。   Various embodiments and modifications can be made to the present invention without departing from the broad spirit and scope of the present invention. Further, the above-described embodiment is for explaining the present invention, and does not limit the scope of the present invention. That is, the scope of the present invention is shown not by the embodiments but by the claims. Various modifications within the scope of the claims and within the scope of the equivalent invention are considered to be within the scope of the present invention. Hereinafter, the invention described in the scope of claims of the present application will be appended.

(付記)
(付記1)
ロボットとユーザを物理的に隔てるとともに、前記ロボットと前記ユーザとのコミュニケーションを支援するためのコミュニケート手段を有する、
ことを特徴とするロボット展示装置。
(Appendix)
(Appendix 1)
Having a communication means for physically separating the robot and the user and supporting communication between the robot and the user;
Robot exhibition device characterized by that.

(付記2)
前記コミュニケート手段は、
前記ロボットと前記ユーザとを物理的に隔てる仕切手段と、
前記ユーザを検知する検知手段と、
前記検知手段が検知した前記ユーザの情報を前記ロボットに伝達する通信手段と、
を備える、ことを特徴とする付記1に記載のロボット展示装置。
(Appendix 2)
The communicating means is:
Partition means for physically separating the robot and the user;
Detecting means for detecting the user;
Communication means for transmitting the user information detected by the detection means to the robot;
The robot exhibition device according to supplementary note 1, comprising:

(付記3)
前記検知手段は、前記ユーザを、該ユーザが前記仕切手段に接触したか否かにより検知する、
ことを特徴とする付記2に記載のロボット展示装置。
(Appendix 3)
The detection means detects the user by whether or not the user has contacted the partition means;
The robot exhibition device as set forth in appendix 2, wherein

(付記4)
前記検知手段は、前記ユーザにより前記仕切手段の何れの場所に接触されたかを検知し、
前記通信手段は、前記ユーザにより接触された前記仕切手段の場所を示すデータを前記ロボットに送信する、
ことを特徴とする付記3に記載のロボット展示装置。
(Appendix 4)
The detection means detects where the partition means is touched by the user,
The communication means transmits data indicating the location of the partition means touched by the user to the robot.
The robot exhibition device according to supplementary note 3, characterized by:

(付記5)
前記検知手段は、前記ユーザにより振動させられた前記仕切手段の振動する強さを検知し、振動する強さが第1の基準値以上であるか否かを判定し、前記第1の基準値以上であれば、前記通信手段は、振動する強さが前記第1の基準値以上である旨のデータを前記ロボットに送信する、
ことを特徴とする付記2から4の何れか1つに記載のロボット展示装置。
(Appendix 5)
The detection means detects the strength of vibration of the partition means vibrated by the user, determines whether or not the strength of vibration is greater than or equal to a first reference value, and the first reference value If it is above, the communication means transmits data indicating that the vibration intensity is equal to or greater than the first reference value to the robot.
The robot exhibition device according to any one of appendices 2 to 4, characterized in that:

(付記6)
前記検知手段は、前記仕切手段の振動する強さが前記第1の基準値以上でない場合、振動する強さが前記第1の基準値より小さい第2の基準値以上であるか否かを判定し、前記第2の基準値以上であれば前記通信手段は、振動する強さが前記第2の基準値以上である旨のデータを前記ロボットに送信する、
ことを特徴とする付記5に記載のロボット展示装置。
(Appendix 6)
The detection means determines whether or not the vibration strength of the partitioning means is equal to or greater than a second reference value smaller than the first reference value when the vibration strength of the partition means is not equal to or greater than the first reference value. If it is equal to or greater than the second reference value, the communication means transmits data indicating that the vibration strength is equal to or greater than the second reference value to the robot.
The robot exhibition device according to appendix 5, characterized in that:

(付記7)
前記検知手段は、前記仕切手段の複数の場所で前記第1の基準値以上の強さの振動を検知した場合、最も強く振動した場所を特定し、前記通信手段は、前記最も強く振動した場所のデータを前記ロボットに送信する、
ことを特徴とする付記5または6に記載のロボット展示装置。
(Appendix 7)
When the detection means detects vibrations having a strength greater than or equal to the first reference value at a plurality of locations of the partitioning means, the location of the strongest vibration is specified, and the communication means is the location of the strongest vibration. Sending the data to the robot,
The robot exhibition device according to appendix 5 or 6, characterized by the above.

(付記8)
前記仕切手段は、複数のロボットをユーザと分離し、
前記検知手段は、前記ユーザが前記仕切手段に接触した位置を検知し、
前記通信手段は、前記仕切手段に接触した位置に最も近い前記ロボットに、前記ユーザの存在を示すデータを送信する、
ことを特徴とする付記2から7の何れか1つに記載のロボット展示装置。
(Appendix 8)
The partition means separates a plurality of robots from a user,
The detection means detects a position where the user contacts the partition means,
The communication means transmits data indicating the presence of the user to the robot closest to the position in contact with the partition means;
The robot exhibition device according to any one of appendices 2 to 7, characterized in that

(付記9)
前記仕切手段は、複数のロボットをユーザと分離し、
前記検知手段は、前記ユーザが前記仕切手段に接触した位置を検知し、
前記通信手段は、複数の前記ロボットのうち2以上の前記ロボットに、前記ユーザの存在を示すデータを送信する、
ことを特徴とする付記2から8の何れか1つに記載のロボット展示装置。
(Appendix 9)
The partition means separates a plurality of robots from a user,
The detection means detects a position where the user contacts the partition means,
The communication means transmits data indicating the presence of the user to two or more of the plurality of robots.
The robot exhibition device according to any one of appendices 2 to 8, characterized in that

(付記10)
前記仕切手段は、柵または透明な板から構成され、
前記検知手段は、前記ユーザと前記柵または前記透明な板との接触を検知する、
ことを特徴とする付記2から9の何れか1つに記載のロボット展示装置。
(Appendix 10)
The partition means is composed of a fence or a transparent plate,
The detection means detects contact between the user and the fence or the transparent plate.
10. The robot exhibition device according to any one of appendices 2 to 9, wherein

(付記11)
前記コミュニケート手段は、ユーザを認識する手段を有し、
前記通信手段は、前記認識した結果を前記ロボットに送信する、
ことを特徴とする付記2から10の何れか1つに記載のロボット展示装置。
(Appendix 11)
The communicating means includes means for recognizing a user;
The communication means transmits the recognized result to the robot;
The robot exhibition device according to any one of appendices 2 to 10, characterized in that

(付記12)
前記コミュニケート手段は、前記ロボットに興味を示しているユーザを認識し、前記認識したユーザに対してコミュニケーションを取るように、前記認識したユーザを前記ロボットに通知する付記1から11の何れか1つに記載のロボット展示装置。
(Appendix 12)
The communication means recognizes a user who is interested in the robot and notifies the robot of the recognized user so as to communicate with the recognized user. The robot exhibition device described in 1.

(付記13)
付記2から11の何れか1つに記載のロボット展示装置と、
前記仕切手段によりユーザから物理的に隔てられた場所に配置されたロボットと、を備え、
前記ロボットは、
前記ロボット展示装置が備える前記通信手段から伝達された前記ユーザの情報を受信する通信手段と、
前記通信手段が受信したユーザの情報に基づいて、前記ユーザに対する動作を実行する動作制御部と、を有する、
ことを特徴とするロボット展示システム。
(Appendix 13)
The robot display device according to any one of appendices 2 to 11, and
A robot disposed at a location physically separated from the user by the partitioning means,
The robot is
Communication means for receiving the information of the user transmitted from the communication means included in the robot exhibition device;
An operation control unit that executes an operation for the user based on the user information received by the communication unit;
Robot exhibition system characterized by that.

(付記14)
付記1から12の何れか1つに記載のロボット展示装置と、
前記ユーザから物理的に隔てられた場所に配置されたロボットと、を備え、
前記ロボット展示装置は、鏡をさらに備え、
前記ロボットは、自装置を前記鏡に映すことにより、セルフチェックを行なう手段を備える、
ことを特徴とするロボット展示システム。
(Appendix 14)
The robot display device according to any one of appendices 1 to 12, and
A robot disposed at a location physically separated from the user,
The robot exhibition device further includes a mirror,
The robot includes means for performing a self-check by reflecting its own device on the mirror.
Robot exhibition system characterized by that.

(付記15)
ロボットとユーザとを物理的に隔てる仕切手段を有する展示装置を用いて前記ロボットを展示するロボット展示方法であって、
ユーザを検知する検知ステップと、
前記ユーザが前記仕切手段に接触した情報を前記ロボットに送信する通信ステップと、
を備える、
ことを特徴とするロボット展示方法。
(Appendix 15)
A robot exhibition method for exhibiting the robot using an exhibition apparatus having partition means for physically separating the robot and the user,
A detection step for detecting a user;
A communication step of transmitting information that the user has contacted the partition means to the robot;
Comprising
Robot exhibition method characterized by this.

(付記16)
ロボットとユーザとを物理的に隔てる仕切手段を有するロボット展示装置を制御するコンピュータを、
ユーザを検知する検知手段、
前記検知手段が検知した前記ユーザの存在を示すデータを前記ロボットに送信する通信手段、
として機能させるプログラム。
(Appendix 16)
A computer for controlling a robot exhibition apparatus having partition means for physically separating the robot and the user;
Detection means for detecting a user;
Communication means for transmitting data indicating the presence of the user detected by the detection means to the robot;
Program to function as.

1…ロボット展示システム、2…コミュニケート手段、100、300…ロボット展示装置、101…展示スペース、102…柵、102A…正面左、102B…正面右、102C…左側面、102D…右側面、103…基準マーカ、104…壁、105…給電部、106…鏡、110、210…制御部、111…人検出部、112…判定部、113…音声検出部、114…指示送信部、115…位置検知部、120…検知部、121…人感センサ、122…振動センサ、123…マイク、124…カメラ、130、230…通信部、140、240…操作部、200…ロボット、201…頭部、202…胴体部、203…撮像部、204…首関節、205…スピーカ、206…移動手段、211…指示取得部、212…位置取得部、213…移動制御部、214…画像解析部、215…動作制御部、216…音声制御部、400a…第1のロボット、400b…第2のロボット、400c…第3のロボット DESCRIPTION OF SYMBOLS 1 ... Robot exhibition system, 2 ... Communicating means, 100, 300 ... Robot exhibition apparatus, 101 ... Exhibition space, 102 ... Fence, 102A ... Front left, 102B ... Front right, 102C ... Left side, 102D ... Right side, 103 ... Reference marker 104 ... wall 105 ... feeding unit 106 ... mirror 110, 210 ... control unit 111 ... human detection unit 112 ... determination unit 113 ... sound detection unit 114 ... instruction transmission unit 115 ... position detection , 120 ... detection unit, 121 ... human sensor, 122 ... vibration sensor, 123 ... microphone, 124 ... camera, 130, 230 ... communication unit, 140, 240 ... operation unit, 200 ... robot, 201 ... head, 202 ... Body part 203 ... Imaging part 204 ... Neck joint 205 ... Speaker 206 ... Moving means 211 ... Instruction acquisition part 212 ... Position acquisition part 213 Movement control unit, 214 ... image analysis unit, 215 ... operation control unit, 216 ... voice control unit, 400a ... first robot, 400b ... second robot, 400c ... third robot

Claims (16)

ロボットとユーザを物理的に隔てるとともに、前記ロボットと前記ユーザとのコミュニケーションを支援するためのコミュニケート手段を有する、
ことを特徴とするロボット展示装置。
Having a communication means for physically separating the robot and the user and supporting communication between the robot and the user;
Robot exhibition device characterized by that.
前記コミュニケート手段は、
前記ロボットと前記ユーザとを物理的に隔てる仕切手段と、
前記ユーザを検知する検知手段と、
前記検知手段が検知した前記ユーザの情報を前記ロボットに伝達する通信手段と、
を備える、ことを特徴とする請求項1に記載のロボット展示装置。
The communicating means is:
Partition means for physically separating the robot and the user;
Detecting means for detecting the user;
Communication means for transmitting the user information detected by the detection means to the robot;
The robot exhibition device according to claim 1, further comprising:
前記検知手段は、前記ユーザを、該ユーザが前記仕切手段に接触したか否かにより検知する、
ことを特徴とする請求項2に記載のロボット展示装置。
The detection means detects the user by whether or not the user has contacted the partition means;
The robot exhibition device according to claim 2, wherein
前記検知手段は、前記ユーザにより前記仕切手段の何れの場所に接触されたかを検知し、
前記通信手段は、前記ユーザにより接触された前記仕切手段の場所を示すデータを前記ロボットに送信する、
ことを特徴とする請求項3に記載のロボット展示装置。
The detection means detects where the partition means is touched by the user,
The communication means transmits data indicating the location of the partition means touched by the user to the robot.
The robot exhibition apparatus according to claim 3, wherein
前記検知手段は、前記ユーザにより振動させられた前記仕切手段の振動する強さを検知し、振動する強さが第1の基準値以上であるか否かを判定し、前記第1の基準値以上であれば、前記通信手段は、振動する強さが前記第1の基準値以上である旨のデータを前記ロボットに送信する、
ことを特徴とする請求項2から4の何れか1項に記載のロボット展示装置。
The detection means detects the strength of vibration of the partition means vibrated by the user, determines whether or not the strength of vibration is greater than or equal to a first reference value, and the first reference value If it is above, the communication means transmits data indicating that the vibration intensity is equal to or greater than the first reference value to the robot.
The robot display device according to any one of claims 2 to 4, wherein the robot exhibition device is any one of the above.
前記検知手段は、前記仕切手段の振動する強さが前記第1の基準値以上でない場合、振動する強さが前記第1の基準値より小さい第2の基準値以上であるか否かを判定し、前記第2の基準値以上であれば前記通信手段は、振動する強さが前記第2の基準値以上である旨のデータを前記ロボットに送信する、
ことを特徴とする請求項5に記載のロボット展示装置。
The detection means determines whether or not the vibration strength of the partitioning means is equal to or greater than a second reference value smaller than the first reference value when the vibration strength of the partition means is not equal to or greater than the first reference value. If it is equal to or greater than the second reference value, the communication means transmits data indicating that the vibration strength is equal to or greater than the second reference value to the robot.
The robot display device according to claim 5, wherein
前記検知手段は、前記仕切手段の複数の場所で前記第1の基準値以上の強さの振動を検知した場合、最も強く振動した場所を特定し、前記通信手段は、前記最も強く振動した場所のデータを前記ロボットに送信する、
ことを特徴とする請求項5または6に記載のロボット展示装置。
When the detection means detects vibrations having a strength greater than or equal to the first reference value at a plurality of locations of the partitioning means, the location of the strongest vibration is specified, and the communication means is the location of the strongest vibration. Sending the data to the robot,
The robot display device according to claim 5 or 6, characterized in that
前記仕切手段は、複数のロボットをユーザと分離し、
前記検知手段は、前記ユーザが前記仕切手段に接触した位置を検知し、
前記通信手段は、前記仕切手段に接触した位置に最も近い前記ロボットに、前記ユーザの存在を示すデータを送信する、
ことを特徴とする請求項2から7の何れか1項に記載のロボット展示装置。
The partition means separates a plurality of robots from a user,
The detection means detects a position where the user contacts the partition means,
The communication means transmits data indicating the presence of the user to the robot closest to the position in contact with the partition means;
The robot display device according to any one of claims 2 to 7, wherein
前記仕切手段は、複数のロボットをユーザと分離し、
前記検知手段は、前記ユーザが前記仕切手段に接触した位置を検知し、
前記通信手段は、複数の前記ロボットのうち2以上の前記ロボットに、前記ユーザの存在を示すデータを送信する、
ことを特徴とする請求項2から8の何れか1項に記載のロボット展示装置。
The partition means separates a plurality of robots from a user,
The detection means detects a position where the user contacts the partition means,
The communication means transmits data indicating the presence of the user to two or more of the plurality of robots.
The robot exhibition device according to claim 2, wherein the robot exhibition device is a robot display device.
前記仕切手段は、柵または透明な板から構成され、
前記検知手段は、前記ユーザと前記柵または前記透明な板との接触を検知する、
ことを特徴とする請求項2から9の何れか1項に記載のロボット展示装置。
The partition means is composed of a fence or a transparent plate,
The detection means detects contact between the user and the fence or the transparent plate.
The robot display device according to any one of claims 2 to 9, wherein
前記コミュニケート手段は、ユーザを認識する手段を有し、
前記通信手段は、前記認識した結果を前記ロボットに送信する、
ことを特徴とする請求項2から10の何れか1項に記載のロボット展示装置。
The communicating means includes means for recognizing a user;
The communication means transmits the recognized result to the robot;
The robot display device according to any one of claims 2 to 10, wherein
前記コミュニケート手段は、前記ロボットに興味を示しているユーザを認識し、前記認識したユーザに対してコミュニケーションを取るように、前記認識したユーザを前記ロボットに通知する請求項1から11の何れか1項に記載のロボット展示装置。   12. The communication device according to claim 1, wherein the communicating unit recognizes a user who is interested in the robot and notifies the robot of the recognized user so as to communicate with the recognized user. The robot exhibition device according to the item. 請求項2から11の何れか1項に記載のロボット展示装置と、
前記仕切手段によりユーザから物理的に隔てられた場所に配置されたロボットと、を備え、
前記ロボットは、
前記ロボット展示装置が備える前記通信手段から伝達された前記ユーザの情報を受信する通信手段と、
前記通信手段が受信したユーザの情報に基づいて、前記ユーザに対する動作を実行する動作制御部と、を有する、
ことを特徴とするロボット展示システム。
The robot display device according to any one of claims 2 to 11,
A robot disposed at a location physically separated from the user by the partitioning means,
The robot is
Communication means for receiving the information of the user transmitted from the communication means included in the robot exhibition device;
An operation control unit that executes an operation for the user based on the user information received by the communication unit;
Robot exhibition system characterized by that.
請求項1から12の何れか1項に記載のロボット展示装置と、
前記ユーザから物理的に隔てられた場所に配置されたロボットと、を備え、
前記ロボット展示装置は、鏡をさらに備え、
前記ロボットは、自装置を前記鏡に映すことにより、セルフチェックを行なう手段を備える、
ことを特徴とするロボット展示システム。
The robot display device according to any one of claims 1 to 12,
A robot disposed at a location physically separated from the user,
The robot exhibition device further includes a mirror,
The robot includes means for performing a self-check by reflecting its own device on the mirror.
Robot exhibition system characterized by that.
ロボットとユーザとを物理的に隔てる仕切手段を有する展示装置を用いて前記ロボットを展示するロボット展示方法であって、
ユーザを検知する検知ステップと、
前記ユーザが前記仕切手段に接触した情報を前記ロボットに送信する通信ステップと、
を備える、
ことを特徴とするロボット展示方法。
A robot exhibition method for exhibiting the robot using an exhibition apparatus having partition means for physically separating the robot and the user,
A detection step for detecting a user;
A communication step of transmitting information that the user has contacted the partition means to the robot;
Comprising
Robot exhibition method characterized by this.
ロボットとユーザとを物理的に隔てる仕切手段を有するロボット展示装置を制御するコンピュータを、
ユーザを検知する検知手段、
前記検知手段が検知した前記ユーザの存在を示すデータを前記ロボットに送信する通信手段、
として機能させるプログラム。
A computer for controlling a robot exhibition apparatus having partition means for physically separating the robot and the user;
Detection means for detecting a user;
Communication means for transmitting data indicating the presence of the user detected by the detection means to the robot;
Program to function as.
JP2017129029A 2017-06-30 2017-06-30 Robot exhibition device, robot exhibition system, robot exhibition method and program Pending JP2019010710A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017129029A JP2019010710A (en) 2017-06-30 2017-06-30 Robot exhibition device, robot exhibition system, robot exhibition method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017129029A JP2019010710A (en) 2017-06-30 2017-06-30 Robot exhibition device, robot exhibition system, robot exhibition method and program

Publications (1)

Publication Number Publication Date
JP2019010710A true JP2019010710A (en) 2019-01-24

Family

ID=65226461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017129029A Pending JP2019010710A (en) 2017-06-30 2017-06-30 Robot exhibition device, robot exhibition system, robot exhibition method and program

Country Status (1)

Country Link
JP (1) JP2019010710A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022172997A (en) * 2021-05-06 2022-11-17 ベアー ロボティックス,インコーポレイテッド Method, system, and non-transitory computer-readable recording medium for controlling robot
WO2024071168A1 (en) * 2022-09-29 2024-04-04 日東電工株式会社 Robot

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022172997A (en) * 2021-05-06 2022-11-17 ベアー ロボティックス,インコーポレイテッド Method, system, and non-transitory computer-readable recording medium for controlling robot
JP7209768B2 (en) 2021-05-06 2023-01-20 ベアー ロボティックス,インコーポレイテッド METHOD, SYSTEM AND NON-TRANSIENT COMPUTER-READABLE MEDIUM FOR CONTROLLING A ROBOT
WO2024071168A1 (en) * 2022-09-29 2024-04-04 日東電工株式会社 Robot

Similar Documents

Publication Publication Date Title
US8538750B2 (en) Speech communication system and method, and robot apparatus
US8914139B2 (en) Robot
JP6984004B2 (en) Continuous selection of scenarios based on identification tags that describe the user&#39;s contextual environment for the user&#39;s artificial intelligence model to run through an autonomous personal companion.
JP4556024B2 (en) Robot and robot system
CN109635616B (en) Interaction method and device
JP2020533687A (en) How and system to generate detailed datasets of the environment through gameplay
KR102463806B1 (en) Electronic device capable of moving and method for operating thereof
US11416080B2 (en) User intention-based gesture recognition method and apparatus
CN210155626U (en) Information processing apparatus
US20180376069A1 (en) Erroneous operation-preventable robot, robot control method, and recording medium
JP3974098B2 (en) Relationship detection system
JP2005131713A (en) Communication robot
JP2019010710A (en) Robot exhibition device, robot exhibition system, robot exhibition method and program
KR20200101221A (en) Method for processing user input and electronic device supporting the same
KR20200076438A (en) Electronic device for tracking activity of user and method for the same
JP7502520B2 (en) ROBOT, ROBOT CONTROL METHOD AND PROGRAM
US11363189B2 (en) Apparatus and method for recognizing voice and face on basis of change in camera driving method
US20190329417A1 (en) Method for performing emotional gestures by a device to interact with a user
JP6495399B2 (en) Program and method executed by computer to provide virtual space, and information processing apparatus for executing the program
JP2019200607A (en) Information processing system and information processing method
US20220055223A1 (en) Electronic device for providing reaction on basis of user state and operating method therefor
KR102072175B1 (en) Smart character toy embedded artificiall intelligence function
KR20200092481A (en) Electronic device performing an operation associated with a function of external electronic device mounted on the electronic device and method for operating thereof
CN111730608A (en) Control device, robot, control method, and storage medium
KR20200102295A (en) Method of managing muti tasks and electronic device therefor