JP2019010710A - Robot exhibition device, robot exhibition system, robot exhibition method and program - Google Patents
Robot exhibition device, robot exhibition system, robot exhibition method and program Download PDFInfo
- Publication number
- JP2019010710A JP2019010710A JP2017129029A JP2017129029A JP2019010710A JP 2019010710 A JP2019010710 A JP 2019010710A JP 2017129029 A JP2017129029 A JP 2017129029A JP 2017129029 A JP2017129029 A JP 2017129029A JP 2019010710 A JP2019010710 A JP 2019010710A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- user
- exhibition
- reference value
- communication
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
- Toys (AREA)
Abstract
Description
本発明は、ロボットを販売やレンタル、鑑賞等のために展示する技術に関する。 The present invention relates to a technique for displaying a robot for sale, rental, viewing, or the like.
人とコミュニケーションを取ることができるロボットが知られている。特許文献1は、人が近づくと、人をセンサで検知し自動的に起動して動作を開始し、コミュニケーションを取ることができる電子玩具(ロボット)を開示している。ここで、コミュニケーションを取るとは、人を見つめるように頭部を動かしたり、尻尾を振ったり、人に寄って来るように移動したり、喜んでいる表情をしたり、挨拶をしたりといった、人の興味を引く動作を実行することを指す。
Robots that can communicate with people are known.
この種のロボットの展示販売事例はあまりなく、ネット販売が主流であった。そのため、現場でロボットを展示する技術やノウハウが不足していた。 There were not many examples of this type of robot on display and sales, and online sales were the mainstream. For this reason, there was a lack of technology and know-how for exhibiting robots on site.
本発明は、ロボットを販売やレンタル、鑑賞等のために展示する技術を提供することを目的とする。 An object of the present invention is to provide a technique for displaying a robot for sale, rental, viewing, or the like.
本発明の目的を達成するため、本発明に係るロボット展示装置は、
ロボットとユーザを物理的に隔てるとともに、前記ロボットと前記ユーザとのコミュニケーションを支援するためのコミュニケート手段を有する、
ことを特徴とする。
In order to achieve the object of the present invention, a robot display device according to the present invention includes:
Having a communication means for physically separating the robot and the user and supporting communication between the robot and the user;
It is characterized by that.
本発明によれば、ロボットを販売やレンタル、鑑賞等のために展示する技術を提供することができる。 According to the present invention, it is possible to provide a technique for displaying a robot for sale, rental, appreciation, or the like.
以下、本発明を実施するための形態に係るロボット展示装置を図面を参照しながら説明する。 Hereinafter, a robot exhibition apparatus according to an embodiment for carrying out the present invention will be described with reference to the drawings.
(第1の実施の形態)
本発明の実施形態に係るロボット展示装置100は、複数のユーザU(来場者)が集まる展示会場やショッピングセンターなどで、ユーザUの動きなどに応じて自律的に動作するロボット200を展示するために用いるものである。ロボット展示装置100は、図1に示すように、ロボット200を展示する展示スペース101と、展示スペース101の正面と左右の側面に配置された柵102と、を備える。柵102は、ロボット200とユーザUとを物理的に隔てる仕切手段として機能する。展示スペース101には、ロボット200が自装置の位置を取得するための基準マーカ103が配置されている。展示スペース101の背面には、壁104が配置されている。ロボット展示装置100は、ペットショップなどで、柵の中にペットを展示するのに似せて、柵102の中にペットを擬人化した形状を有しているロボット200を販売やレンタルのために展示することができる。なお、ロボット展示装置100とロボット200とは、ロボット展示システム1を構成する。
(First embodiment)
The
ロボット展示装置100は、電気的構成として、図2に示すように、制御部110と、検知部120と、通信部130と、を備える。
As shown in FIG. 2, the
制御部110は、CPU(Central Processing Unit)と、ROM(Read Only Memory)と、RAM(Random Access Memory)と、を備え、ロボット展示装置100の全体の動作を制御する。制御部110は、CPUがROMに記憶されたプログラムを実行することにより、人検出部111と、判定部112と、音声検出部113と、指示送信部114として機能する。
The
検知部120は、人感センサ121と、振動センサ122と、マイク123と、を備え、ロボット展示装置100の周囲の情報を検出する。
The
人感センサ121は、赤外線センサから構成され、周囲にユーザUがいることを検出するものである。人感センサ121は、赤外線センサが受信した赤外線の強度を示すデータを制御部110に出力する。
The
振動センサ122は、柵102の振動を検知するセンサから構成される。振動センサ122は、図1に示す柵102の正面左102A、正面右102B、左側面102C、右側面102Dにそれぞれ配置される。振動センサ122は、接触により振動したそれぞれの場所(正面左102A、正面右102B、左側面102C、右側面102D)の振動の強さを示すデータを制御部110に出力する。
The
マイク123は、周囲で発生している音を検出し、検出した音のデータを制御部110に出力する。
The
通信部130は、RF(Radio Frequency)回路、BB(BaseBand)回路、アンテナ等を備え、ロボット200と離無線通信を行う。この無線通信に用いる通信規格としては、例えば、Bluetooth(登録商標)を用いることができる。
The
操作部140は、ユーザUから操作を受け付けるものである。操作部140は、コミュニケート処理を実行する操作を受け付ける。
The
人検出部111は、人感センサ121から出力された赤外線の強度を示すデータが基準値以上であるか否かを判定し、基準値以上であると判定すると、周囲にユーザUがいると判定する。
The
判定部112は、ユーザUがロボット200に興味を示しているか否かを、ユーザUの接触により柵102が振動させられたか否かにより判定する。具体的には、判定部112は、振動センサ122から出力されたそれぞれの場所の振動の強さを示すデータに基づいて、正面左102A、正面右102B、左側面102C、右側面102D毎に、それぞれの振動の強さが第1の基準値以上であるか否かを判定する。第1の基準値以上の場所があれば、その場所で第1の基準値以上で振動したと判定する。第1の基準値以上である場所が2箇所以上ある場合、最も大きい振動の強さを示した場所を振動した場所として選択する。
柵102のそれぞれの場所の振動の強さが第1の基準値未満である場合、判定部112は、それぞれの場所の振動の強さが第1の基準値より小さい第2の基準値以上であるか否かを判定する。第2の基準値以上の場所があれば、その場所で第2の基準値以上で振動したと判定する。第2の基準値以上である場所が2箇所以上ある場合、最も大きい振動の強さを示した場所を振動した場所として選択する。
なお、第1の基準値は、柵102を揺らしたと判断できる振動の強さの値であり、第2の基準値は、柵102に触れたと判断できる振動の強さの値である。
The
When the vibration intensity at each location of the
The first reference value is a vibration intensity value that can be determined to have shaken the
音声検出部113は、マイク123が取得した音を音声認識して、人の音声であると認識した場合には、音声をテキストデータに変換し、所定のワードが含まれているか否かを判定する。所定のワードは、例えば「おはよう」、「こんにちは」等である。
When the
指示送信部114は、通信部130を介してロボット200に所定のデータを送信する。指示送信部114は、人検出部111が周囲に人を検知すると、周囲に人を検知した旨のデータをロボット200に送信する。また、柵102が第1の基準値以上で振動したと判定部112が判定した場合、指示送信部114は、第1の基準値以上で振動した旨と、振動した柵102の位置を示すデータをロボット200に送信する。第1の基準値以上で振動した場所が2箇所以上ある場合、最も強く振動した場所を示すデータを送信する。それぞれの場所の振動の強さが第1の基準値未満であり、何れかの場所で第2の基準値以上であると判定部112が判定した場合、指示送信部114は、第2の基準値以上で振動した旨と、振動した柵102の位置を示すデータをロボット200に送信する。第2の基準値以上で振動した場所が2箇所以上ある場合、最も強く振動した場所を示すデータを送信する。また、指示送信部114は、音声検出部113によりマイク123が取得した音声に所定のワードを含むと判定されると、その旨をロボット200に送信する。なお、柵102と、制御部110と、検知部120と、通信部130とは、コミュニケート手段2として機能する。
The
ロボット200は、画像を撮像する撮像部203を頭部に有して、ユーザUの動き、表情などを撮像し、ユーザUの動き、表情などに応じて自律的にコミニュケーションするものである。ロボット200は、図3に示すように、ペットを擬人化した形状を有し、目と耳を模した部材が配置された頭部201と、手と足を模した部材が配置された胴体部202と、頭部201に配置された撮像部203と、胴体部202に頭部201を連結する首関節204と、口の位置に配置されたスピーカ205と、底面に設けられた移動手段206と、胴体部202の内部に配置された制御部210、通信部230を備える。
The
撮像部203は、頭部201の前面の下部、人の顔でいうところの鼻の位置に設けられている。撮像部203は、撮像した画像を後述する制御部210に出力する。
The
首関節204は、頭部201と胴体部202とを連結する部材であり、頭部201を回転する複数のモータを有する。複数のモータは、後述する制御部210により駆動される。頭部201は、首関節204により、胴体部202に対して、ピッチ軸Xmの軸回り、ロール軸Zmの軸回り、ヨー軸Ymの軸回りに回転可能である。
The neck joint 204 is a member that connects the
スピーカ205は、制御部210の制御に基づいて音声を出力する。
The
移動手段206は、制御部210に制御されるモータと、モータに駆動される車輪と、を有する。ロボット200は、移動手段206により展示スペース101内を移動する。
The moving
制御部210は、CPU、ROM、RAMから構成される。制御部210は、CPUがROMに記憶されたプログラムを読み出してRAM上で実行することにより、図4に示すように、指示取得部211と、位置取得部212と、移動制御部213と、画像解析部214と、動作制御部215と、音声制御部216として機能する。
The
通信部230は、RF回路、BB回路、アンテナ等を備え、ロボット展示装置100と離無線通信を行う。この無線通信に用いる通信規格としては、例えば、Bluetooth(登録商標)を用いることができる。
The
操作部240は、ユーザUからの操作を受け付けるものである。操作部240は、後述する感情動作処理を開始する操作を受け付ける。
The
指示取得部211は、ロボット展示装置100の通信部130から送信されたデータをロボット200の通信部230を介して受信する。具体的には、指示取得部211は、ロボット展示装置100から、ユーザUが周囲にいる旨のデータを受信したか否かを判定し、受信したと判定すると、自装置を省電力モード(スリープモード)から通常の動作可能な通常モードに切り替える。また、指示取得部211は、ロボット展示装置100から送信された、第1または第2の基準値以上で振動した旨と、振動した位置を示すデータを受信する。また、指示取得部211は、ロボット展示装置100から送信された、マイク123が取得した音声に所定のワードを含む旨のデータを受信する。
The
位置取得部212は、撮像部203が撮像した画像に写る展示スペース101に配置された基準マーカ103を解析し、予めROMに記憶した展示スペース101内のマップに基づいて、展示スペース101内での自装置の位置を取得する。
The
移動制御部213は、指示取得部211により柵102が第1の基準値以上で振動した旨と、振動した位置を示すデータを受信すると、展示スペース101内で、振動した場所の柵102の前の位置にロボット200が移動するように、移動手段206を制御する。
When the
画像解析部214は、振動した場所の柵102の前の位置にロボット200が移動すると、撮像部203が撮像した画像に写るユーザUの顔の表情を判別する。ユーザUの顔の表情は、「喜」の表情、「怒」の表情を含む。まず、画像解析部214は、公知の手法を用いて、ユーザUの顔を検出する。例えば、撮像部203が撮像した画像内で、予めROMに記憶した人間の顔のテンプレートに合致する部分をユーザUの顔として検出する。つぎに、画像解析部214は、公知の手法を用いて、取得画像中で顔として検出した部分に写る口元の形状に基づいて表情を判別する。例えば、画像解析部214は、口元の形状が口角の上がっている形状であると判定すると、「喜」の表情であると判別する。画像解析部214は、口元の形状が口角の下がっている形状であると判定すると、「怒」の表情であると判別する。
When the
動作制御部215は、指示取得部211により柵102が第2の基準値以上で振動した旨と、振動した位置を示すデータを受信すると、頭部201の視線の向きを振動した位置に向けるように、首関節204にヨー軸Ymの軸回りに頭部201を回転させる。また、動作制御部215は、画像解析部214により判別されたユーザUの顔の表情に基づいて、首関節204に頭部201を動作させる。例えば、画像解析部214が、ユーザUの表情を「喜」の表情であると判別すると、動作制御部215は、首関節204に頭部201を縦に振る感情動作(頷き動作)として、ピッチ軸Xmの軸回りに往復動作させる。画像解析部214が、ユーザUの表情を「怒」の表情であると判別すると、動作制御部215は、首関節204に頭部201を横に振る感情動作(首ふり動作)として、ヨー軸Ymの軸回りに往復動作させる。
When the
音声制御部216は、ロボット展示装置100のマイク123に検出された音声に所定のワード、例えば「おはよう」、「こんにちは」を含んでいる旨のデータを受信すると、これに応答しスピーカ205から音声を出力する。マイク123が取得した音声制御部216は、スピーカ205から例えば、「会いに来てくれてありがとう」と音声で出力する。
つぎに、以上の構成を有するロボット展示装置100が実行するコミュニケート処理およびロボット200が実行する感情動作処理について図5〜図9を参照しながら説明する。
Next, the communication process executed by the
図7に示すように、ロボット200をロボット展示装置100の展示スペース101内に配置する。操作部240が操作されることに応答し、ロボット展示装置100は図5に示すコミュニケート処理を開始する。また、操作部240が操作されることに応答し、ロボット200は図6に示す感情動作処理を開始する。感情動作処理を開始したロボット200は、省電力モードで待機する。
As shown in FIG. 7, the
以下、ロボット展示装置100が実行するコミュニケート処理およびロボット200が実行する感情動作処理を、フローチャートを用いて説明する。
Hereinafter, the communication process executed by the
まず、ロボット展示装置100の人検出部111は、人感センサ121から出力された赤外線の強度を示すデータが基準値以上であるか否かを判定する(ステップS101;図5)。これにより、周囲にユーザUがいるか否かを検知する。赤外線の強度を示すデータが基準値以上でないと判定すると(ステップS101;NO;図5)、ステップS101を繰り返す。つぎに、ロボット200の指示取得部211は、ロボット展示装置100から、周囲にユーザUがいる旨のデータを受信したか否かを判定する(ステップS201;図6)。この時点では、ロボット展示装置100は、指示取得部211が周囲にユーザUがいる旨を示すデータを送信していないので、指示取得部211は周囲にユーザUがいる旨を受信していないと判定するので(ステップS201;NO;図6)、ステップS201を繰り返す。
First, the
つぎに、ロボット展示装置100の周囲にユーザUが近づくと、ロボット展示装置100の人検出部111が赤外線の強度を示すデータが基準値以上であると判定するので(ステップS101;YES;図5)、指示送信部114は、ユーザUを検知した旨のデータをロボット200に送信する(ステップS102;図5)。ロボット展示装置100が、ユーザUを検知した旨のデータを送信したので、ロボット200の指示取得部211は、ロボット展示装置100から、周囲にユーザUがいる旨のデータを受信し(ステップS201;YES;図6)、自装置の動作モードを省エネモードから通常モードに変更する(ステップS202;図6)。
Next, when the user U approaches the periphery of the
つぎに、ロボット展示装置100の判定部112は、柵102の正面左102A、正面右102B、左側面102C、右側面102D毎に、それぞれの振動の強さが第1の基準値以上であるか否かを判定する(ステップS103;図5)。第1の基準値以上の場所があれば、その場所で第1の基準値以上で振動したと判定する。第1の基準値以上である場所が2以上ある場合、最も大きい振動の強さを示した場所を振動した場所として選択する。判定部112により、柵102の振動の強さが第1の基準値以上であると判定されると(ステップS103;YES;図5)、指示送信部114は、第1の基準値以上で振動した旨と、振動した位置を示すデータをロボット200に送信する(ステップS104;図5)。ここでは、図8に示すように、ユーザUが柵102の正面右102Bの場所を揺らし、正面右102Bの場所が第1の基準値以上で振動したとする。
Next, the
つぎに、ロボット200の指示取得部211は、ロボット展示装置100から送信された、第1の基準値以上で振動した旨と、振動した位置を示すデータを受信したか否かを判定する(ステップS203;図6)。ロボット展示装置100から第1の基準値以上で振動した旨と、振動した位置を示すデータが送信されているので、指示取得部211は、第1の基準値以上で振動した旨と、振動した位置を示すデータを受信したと判定する(ステップS203;YES;図6)。つぎに、ロボット200の移動制御部213は、移動手段206を制御し、ロボット200を柵102の正面右102Bの前に移動する(ステップS204;図6)。
Next, the
つぎに、ロボット200の画像解析部214は、撮像部203が撮像した画像に写るユーザUの顔の表情を解析する(ステップS205;図6)。画像解析部214は、公知の手法を用いて、ユーザUの顔を検出する。つぎに、画像解析部214は、公知の手法を用いて画像中で顔として検出した部分に写る口元の形状に基づいて表情を判別する。例えば、画像解析部214は、口元の形状が口角の上がっている形状であると判定すると、「喜」の表情であると判別する。画像解析部214は、口元の形状が口角の下がっている形状であると判定すると、「怒」の表情であると判別する。画像解析部214は、ユーザUの顔の表情が「喜」または「怒」の表情であるか判定する(ステップS206;図6)。
Next, the
画像解析部214が、ユーザUの顔の表情が「喜」または「怒」の表情であると判定すると(ステップS206;YES;図6)、動作制御部215は、画像解析部214により判別されたユーザUの顔の表情に基づいて、首関節204に頭部201を動作させる感情動作を実施する(ステップS207;図6)。例えば、画像解析部214が、ユーザUの表情を「喜」の表情であると判別すると、動作制御部215は、首関節204に頭部201を縦に振る感情動作(頷き動作)として、ピッチ軸Xmの軸回りに往復動作させる。画像解析部214が、ユーザUの表情を「怒」の表情であると判別すると、動作制御部215は、首関節204に頭部201を横に振る感情動作(首ふり動作)として、ヨー軸Ymの軸回りに往復動作させる。
When the
つぎに、ロボット展示装置100の音声検出部113は、マイク123が取得した音声に所定のワードが含まれているか否かを判定する(ステップS107;図5)。所定のワードは、「おはよう」、「こんにちは」を含む。音声検出部113が所定のワードを含んでいると判定すると(ステップS107;YES;図5)、指示送信部114は、音声に所定のワードを含む旨のデータをロボット200に送信する(ステップS108;図5)。つぎに、操作部140に終了指示が入力されているか否かを判定する(ステップS109;図5)。終了指示が入力されていると判定されると(ステップS109;YES;図5)、コミュニケート処理を終了する。終了指示が入力されていないと判定されると(ステップS109;NO;図5)、ステップS101に戻る。音声検出部113が所定のワードを含んでいないと判定すると(ステップS107;NO;図5)、ステップS109に進む。
Next, the
つぎに、ロボット200の音声制御部216は、ロボット展示装置100からマイク123により検出した音声に所定のワードを含む旨のデータを受信したか否かを判定する(ステップS210;図6)。所定のワードを含む旨のデータを受信したと判定すると(ステップS210;YES;図6)と、音声制御部216は、スピーカ205から例えば、「会いに来てくれてありがとう」と音声で出力する(ステップS211;図6)。つぎに、操作部240に終了指示が入力されているか否かを判定する(ステップS212;図6)。終了指示が入力されていると判定されると(ステップS212;YES;図6)、感情表現処理を終了する。終了指示が入力されていないと判定されると(ステップS212;NO;図6)、ステップS203に戻る。音声検出部113が所定のワードを含んでいないと判定すると(ステップS210;NO;図5)、ステップS212に進む。
Next, the
つぎに、ロボット展示装置100の判定部112により、柵102の振動の強さが第1の基準値以上でないと判定されると(ステップS103;NO;図5)、ロボット展示装置100の判定部112は、柵102の正面左102A、正面右102B、左側面102C、右側面102D毎に、それぞれの振動の強さが第2の基準値以上であるか否かを判定する(ステップS105;図5)。判定部112により、柵102の振動の強さが第2の基準値以上でないと判定されると(ステップS105;NO;図5)、ステップS109に進む。判定部112により、柵102の振動の強さが第2の基準値以上であると判定されると(ステップS105;YES;図5)、指示送信部114は、第2の基準値以上で振動した旨と、振動した位置を示すデータをロボット200に送信する(ステップS106;図5)。ここでは、図9に示すように、ユーザUが柵102の正面右102Bの場所に触れることで、正面左102Aの場所が第2の基準値以上第1の基準値未満で振動したとする。
Next, when the
つぎに、柵102が第1の基準値以上で振動していないので、ロボット200の指示取得部211は、第1の基準値以上で振動した旨と、振動した位置を示すデータを受信していないと判定する(ステップS203;NO;図6)。つぎに、ロボット200の指示取得部211は、ロボット展示装置100から送信された、第2の基準値以上で振動した旨と、振動した位置を示すデータを受信したか否かを判定する(ステップS208;図6)。ロボット展示装置100から第2の基準値以上で振動した旨と、振動した位置を示すデータが送信されているので、指示取得部211は、第2の基準値以上で振動した旨と、振動した位置を示すデータを受信していると判定する(ステップS208;YES;図6)。動作制御部215は、頭部201の視線の向きDを振動した場所に向けるように、首関節204にヨー軸Ymの軸回りに頭部201を回転させる(ステップS209)。その後、ステップS210に進む。
Next, since the
指示取得部211が、第2の基準値以上で振動した旨と、振動した位置を示すデータを受信していないと判定すると(ステップS208;NO;図6)、通常モードに変更してして基準期間経過しているか否かを判定する(ステップS213;図6)。通常モードに変更してして基準期間経過していないと判定すると(ステップS213;NO;図6)、ステップS212に進む。通常モードに変更してして基準期間経過していると判定すると(ステップS213;YES;図6)、動作モードを通常モードから省電力モードに変更する(ステップS214)。つぎに、操作部240に終了指示が入力されているか否かを判定する(ステップS212’;図6)。終了指示が入力されていると判定されると(ステップS212’;YES;図6)、感情表現処理を終了する。終了指示が入力されていないと判定されると(ステップS212’;NO;図6)、ステップS201に戻る。
If the
以上のように、ロボット展示装置100によれば、ユーザUが柵102を揺らすと、図8に示すように、ロボット200がユーザUの近くに移動する。また。ユーザUが柵102に触れると、図9に示すように、ロボット200の視線の向きDがユーザUに向く。ユーザUが柵102に触れたり揺すったりすることで、ロボット200が近づいたり視線を向けたりするので、ロボット200に興味を示すユーザUに満足感を与えることができる。また、ユーザUの音声をロボット展示装置100に配置されたマイク123で検出し、この音声に所定のワードが含まれている場合、ロボット200は、ユーザUに音声で応答しアピールできる。また、ロボット展示装置100の周囲に複数のユーザUがいたとしても柵102を揺らすまたは触れたユーザUにロボット200が応答することで、ロボット200が、興味を示していないユーザUに間違って応答することを防ぐことができる。
従って、ロボット展示装置100は、ロボット200と、興味を持ったユーザUとの間で、効果的にコミュニケーションをとることができ、ユーザUにロボット200を効率的にアピールできる。
As described above, according to the
Therefore, the
(第2の実施の形態)
第1の実施の形態においては、ロボット展示装置100が1つのロボット200を展示する例について説明した。第2の実施の形態では、図10に示すように、ロボット展示装置300が、複数のロボット(第1〜第3のロボット400a〜400c)を展示する例について説明する。
(Second Embodiment)
In the first embodiment, the example in which the
第2の実施の形態のロボット展示装置300は、第1の実施の形態のロボット展示装置100が備える構成に加えて、図11に示すように、検知部120にカメラ124を備える。また、制御部110は、第1〜第3のロボット400a〜400cの配置されている位置を検出する位置検知部115を備える。また、指示送信部114は、通信部130を介して第1〜第3のロボット400a〜400cにそれぞれ、所定のデータを送信する点で第1の実施の形態と異なる。
The
カメラ124は、展示スペース101に配置された第1〜第3のロボット400a〜400cを上から撮像できるように、壁104の上部に配置される。カメラ124は、撮像した画像を示すデータを制御部110に出力する。
The
指示送信部114は、通信部130を介して第1〜第3のロボット400a〜400cに所定のデータを送信する。柵102が第1の基準値以上で振動したと判定部112が判定した場合、指示送信部114は、第1の基準値以上で振動した旨と、振動した柵102の位置を示すデータを第1〜第3のロボット400a〜400cに送信する。第1の基準値以上で振動した場所が2箇所以上ある場合、最も強く振動した場所を示すデータを送信する。それぞれの場所の振動の強さが第1の基準値未満であり、何れかの場所で第2の基準値以上であると判定部112が判定した場合、指示送信部114は、第2の基準値以上で振動した旨と、振動した柵102の位置を示すデータを、柵102が振動した場所に最も近い第1〜第3のロボット400a〜400cに送信する。第2の基準値以上で振動した場所が2箇所以上ある場合、最も強く振動した場所を示すデータを送信する。第1〜第3のロボット400a〜400cの位置は、後述する位置検知部115により検知される。第1〜第3のロボット400a〜400cの位置と、柵102が振動した場所と、に基づいて、柵102が振動した場所に元も近い第1〜第3のロボット400a〜400cが何れであるか判定する。
The
位置検知部115は、カメラ124が撮像した画像に基づいて、第1〜第3のロボット400a〜400cの位置を検知する。第1〜第3のロボット400a〜400cの識別は、第1〜第3のロボット400a〜400cに配置された識別マーク450a〜450cにより実行される。
The
第1〜第3のロボット400a〜400cは、第1の実施の形態のロボット200の構成に加えて、第1〜第3のロボット400a〜400cの何れのロボットであるかを識別する識別マーク450a〜450cを有している。識別マーク450a〜450cは、カメラ124により撮像される位置に取り付けられている。また、通信部230は、通信IDを有し、ロボット展示装置300の通信部130は、通信IDごとにデータを送信することができる。第1のロボット400aの通信IDは、「ID400a」であり、第2のロボット400bの通信IDは、「ID400b」であり、第3のロボット400c「ID400c」である。
In addition to the configuration of the
つぎに、以上の構成を有するロボット展示装置300が実行するコミュニケート処理および第1〜第3のロボット400a〜400cが実行する感情動作処理について図10、図12〜図14を参照しながら説明する。第2の実施の形態のコミュニケート処理のステップS301〜ステップS303、ステップS308〜ステップS310、感情動作処理のステップS401〜ステップS402、ステップS404〜ステップS412は、第1の実施の形態のコミュニケート処理のステップS101〜ステップS103、ステップS107〜ステップS109、感情動作処理のステップS201〜ステップS202、ステップS204〜ステップS207、ステップS210〜ステップS214と同様である。
Next, the communication process executed by the
図10に示すように、第1〜第3のロボット400a〜400cをロボット展示装置300の展示スペース101内に配置する。操作部240が操作されることに応答し、ロボット展示装置300は図12に示すコミュニケート処理を開始する。また、操作部240が操作されることに応答し、ロボット200は図13に示す感情動作処理を開始する。
As shown in FIG. 10, the first to
図14に示すように、ユーザUが柵102の正面右102Bの場所に接触して、正面右102Bの場所が第1の基準値未満第2の基準値以上で振動した場合について説明する。
As shown in FIG. 14, the case where the user U touches the location of the front right 102B of the
ロボット展示装置300の判定部112により、柵102の振動の強さが第1の基準値以上でないと判定されるので(ステップS303;NO;図12)、ロボット展示装置300の判定部112は、柵102の正面左102A、正面右102B、左側面102C、右側面102D毎に、それぞれの振動の強さが第2の基準値以上であるか否かを判定する(ステップS305;図5)。判定部112は、柵102の振動の強さが第2の基準値以上であると判定するので(ステップS305;YES;図12)、位置検知部115は、カメラ124が撮像した画像に基づいて、第1〜第3のロボット400a〜400cの位置を検知する(ステップS306;図12)。第1〜第3のロボット400a〜400cの識別は、第1〜第3のロボット400a〜400cに配置された識別マーク450a〜450cにより実行される。つぎに、指示送信部114は、第2の基準値以上で振動した旨と、振動した位置を示すデータを柵102が振動した位置に最も近い第1〜第3のロボット400a〜400cに送信する(ステップS307;図12)。ここでは、柵102の正面右102Bの場所が振動しているので、第1のロボット400aが正面右102Bに最も近いので、ロボット展示装置300の通信部130は、第2の基準値以上で振動した旨と、振動した位置を示すデータを、通信ID「ID400a」を有する第1のロボット400aに送信する。
Since the
第1のロボット400aの指示取得部211は、ロボット展示装置300から送信された、第1または第2の基準値以上で振動した旨と、振動した位置を示すデータを受信したか否かを判定する(ステップS403;図13)。ロボット展示装置300から第2の基準値以上で振動した旨と、振動した位置を示すデータが送信されているので、指示取得部211は、第2の基準値以上で振動した旨と、振動した位置を示すデータを受信したと判定する(ステップS403;YES;図13)。つぎに、第1のロボット400aの移動制御部213は、移動手段206を制御し、第1のロボット400aを柵102の正面右102Bの前に移動する(ステップS404;図13)。
The
一方、ロボット展示装置300の通信部130は、第2の基準値以上で振動した旨と、振動した位置を示すデータを、第2と第3のロボット400b、400cに送信していないので、第2と第3のロボット400b、400cの指示取得部211は、第1または第2の基準値以上で振動した旨と、振動した位置を示すデータを受信していないと判定する(ステップS403;NO;図13)。このため、第2と第3のロボット400b、400cは、柵102の振動した位置には移動せず、ステップS411に進む。これにより、ユーザUが接触した柵102の正面右102Bの場所に、第1のロボット400aだけが近づくこととなる。
On the other hand, since the
つぎに、図15に示すように、ユーザUが柵102の正面左102Aの場所を揺らして、正面右102Bの場所が第1の基準値以上で振動した場合について説明する。
Next, as shown in FIG. 15, the case where the user U shakes the location of the front left 102 </ b> A of the
ロボット展示装置300の判定部112は、柵102の振動の強さが第1の基準値以上であると判定するので(ステップS303;YES;図12)、指示送信部114は、第1の基準値以上で振動した旨と、振動した位置を示すデータを第1〜第3のロボット400a〜400cに送信する(ステップS304;図12)。
Since the
第1〜第3のロボット400a〜400cの指示取得部211は、ロボット展示装置300から送信された、第1または第2の基準値以上で振動した旨と、振動した位置を示すデータを受信したか否かを判定する(ステップS403;図13)。ロボット展示装置300から第1の基準値以上で振動した旨と、振動した位置を示すデータが送信されているので、指示取得部211は、第1の基準値以上で振動した旨と、振動した位置を示すデータを受信したと判定する(ステップS403;YES;図13)。つぎに、第1〜第3のロボット400a〜400cの移動制御部213は、移動手段206を制御し、柵102の正面左102Aの前に移動する(ステップS404;図13)。これにより、ユーザUが揺らした柵102の正面左102Aの場所に、第1〜第3のロボット400a〜400cの全てが近づくこととなる。
The
以上のように、ロボット展示装置300によれば、ユーザUが柵102に触れると、図14に示すように、接触した場所に最も近い第1〜第3のロボット400a〜400cのうち1つがユーザUの近くに移動する。ユーザUが柵102を揺らすと、図15に示すように、第1〜第3のロボット400a〜400cのすべてがユーザUの近くに移動する。ユーザUが柵に触れたり揺すったりすることで、第1〜第3のロボット400a〜400cのロボットが近づくので、興味を示すユーザUに満足感を与えることができる。
従って、ロボット展示装置300は、第1〜第3のロボット400a〜400cと、興味を持ったユーザUとの間で、効果的にコミュニケーションをとることができ、ユーザUに第1〜第3のロボット400a〜400cを効率的にアピールできる。
As described above, according to the
Therefore, the
(変形例)
上述の実施の形態では、ロボット展示装置100、300が柵102を有する場合について説明したが、ロボット展示装置100、300は、展示スペース101に配置されたロボットを囲い、ユーザUと物理的に隔てる仕切手段を有せばよい。例えば、ロボット展示装置100、300は、柵102に代えて、透明な板または網を備えてもよい。透明な板は、アクリル板などの樹脂板、ガラス板などを含む。また、ユーザUが柵102に触れたり揺すったりする動作を振動センサ122により検出していたが、静電式のタッチセンサやその他のセンサにより検知してもよい。
(Modification)
In the above-described embodiment, the case where the
上述の実施の形態では、ロボット展示装置100、300の柵102の振動を検知する振動センサ122により、興味を示しているユーザUを特定したが、ロボット200または第1〜第3のロボット400a〜400cに興味を示しているユーザUを特定する手段は振動センサ122に限定されない。例えば、ロボット展示装置100、300は、ユーザUを撮像するカメラを備え、カメラで撮像したユーザUの画像を解析し、ユーザUの視線の方向を特定する。ユーザUの視線がロボット200または第1〜第3のロボット400a〜400cに向いていれば、そのユーザUがロボット200または第1〜第3のロボット400a〜400cに興味を示していると判定してもよい。また、ロボット展示装置100、300は、マイク123でユーザUの音声を検出し、音声をテキストデータに変換し、テキストデータにロボット200または第1〜第3のロボット400a〜400cの名前や愛称が含まれていると判定したとき、そのユーザUがロボット200または第1〜第3のロボット400a〜400cに興味を示していると判定してもよい。また、ロボット展示装置100、300は、ユーザUの視線の方向を特定することに代えて、ユーザUの顔の向きや体の向き、手の動きに基づいて、ロボット200または第1〜第3のロボット400a〜400cに興味を示しているか否かを判定してもよい。
In the above-described embodiment, the user U who is interested is specified by the
さらに、ロボット200または第1〜第3のロボット400a〜400cは、撮像部203でユーザUの顔を撮像してユーザUの特徴を認識し、ユーザUの特徴を示す情報を記憶手段に記憶してもよい。あるいは、ロボット展示装置100、300がカメラ124でユーザUの顔を撮像してユーザUの特徴を認識し、ユーザUの特徴を示す情報を記憶手段に記憶し、ロボット200または第1〜第3のロボット400a〜400cに通信部130により送信するようにしてもよい。ユーザUの特徴を示す情報は、顔認識により認識された顔の特徴を示す情報、音声認識により認識された音声の特徴を示す情報などが含まれる。ユーザUの特徴を示す情報を記憶することによってより多彩なコミュニケート処理が可能となる。例えば、ロボット200または第1〜第3のロボット400a〜400cは、特徴が記憶されたユーザUであると判定すると、そのユーザUに、特徴が記憶されていないユーザUに実行する動作と異なる動作を実行するようにしてもよい。
また、ロボット展示装置100、300がロボットをIDコード(通信ID)や画像認識によって判別し、現在収容しているロボットを把握したり、ロボットの入退出の履歴を記憶するようにしてもよい。
Furthermore, the
Further, the
ロボット展示装置100、300は、図16に示すように、ロボット200または第1〜第3のロボット400a〜400cに電力を供給する給電部105を備えてもよい。この場合、ロボット200または第1〜第3のロボット400a〜400cは、バッテリーの残量が基準値以下になると、給電部105の位置に移動し、自装置の底に配置された受電部により受電し、バッテリーに充電するようにできる。給電部105は、コイルなどを有する非接触の給電装置から構成されてもよく、端子を備える接触式の給電装置から構成されてもよい。この場合、ロボット200、第1〜第3のロボット400a〜400cは、給電部105に対応する非接触または接触式の受電部を備える。
As shown in FIG. 16, the
ロボット展示装置100、300は、鏡106を備えてもよい。この場合、ロボット200、第1〜第3のロボット400a〜400cは、撮像部203で鏡106に写る自装置を撮像し、セルフチェックしてもよい。すなわち、予めROMに保存した自装置の画像と撮像した画像とを比較し、自装置の外観に破損箇所がないか否かを判定することができる。また、首関節204に頭部201を動作させながら、撮像部203で鏡106に写る自装置を撮像し、頭部201が制御した動作と同じ動作をしているか否かを判定してもよい。
The
上述の実施の形態では、ロボット展示装置100、300が展示会場やショッピングセンターなどでロボット200、第1〜第3のロボット400a〜400cを展示する例について説明した。ロボット展示装置100、300は、一般家庭でロボット200、第1〜第3のロボット400a〜400cを鑑賞するために用いられてもよい。この場合、ユーザUがロボット200、第1〜第3のロボット400a〜400cで遊んでいないとき、ロボット展示装置100、300に、ロボット200、第1〜第3のロボット400a〜400cを格納しておく。この場合、ユーザUがロボット展示装置100、300の柵102に触れると、ロボット200、第1〜第3のロボット400a〜400cが、眠っていた状態から起き上がる動作などの所定の動作を実行するように設定されてもよい。また、ユーザUがロボット展示装置100、300のマイクに「おはよう」などの所定のワードを話しかけると、ロボット200、第1〜第3のロボット400a〜400cが、鳴き声を発するように設定されてもよい。また、ロボット展示装置100、300は、給電部105を備え、ロボット200、第1〜第3のロボット400a〜400cを格納しているときに、充電するようにしてもよい。
In the above-described embodiment, an example in which the
ロボット200が、「喜」および「怒」の感情表現を実施する例について説明したが、ロボット200は、ユーザUに表現を実行すればよく、「喜」および「怒」以外の感情を表現してもよく、感情表現以外の動きを表現してもよい。
The example in which the
上述の実施の形態では、画像解析部214が、取得画像を解析し、ユーザUの顔の表情を判別する例について説明したが、画像解析部214は、ロボット200、第1〜第3のロボット400a〜400cの動作の基になる情報を得ることができればよく、ユーザUの顔の表情を判別する場合に限定されない。例えば、画像解析部214は、ユーザUの顔の向きやユーザUの体の動きを判別してもよい。この場合、ユーザUの顔がロボット200、第1〜第3のロボット400a〜400cを向いているとき、ロボット200第1〜第3のロボット400a〜400cは、所定の動作をしてもよく、ユーザUの体の動きが所定のパターンであるとき、ロボット200、第1〜第3のロボット400a〜400cは、所定の動作をしてもよい。
In the above-described embodiment, the example in which the
上述の実施の形態では、ロボット200、第1〜第3のロボット400a〜400cが、ペットを擬人化した形状を有している例について説明したが、ロボット200、第1〜第3のロボット400a〜400cの形状は、特に限定されず、例えば、人を模した形状、犬または猫を含む動物を模した形状を有してもよく、想像上の生き物を模した形状であってもよい。
In the above-described embodiment, an example in which the
また、CPU、RAM、ROM等から構成される制御部110が実行するコミュニケート処理、制御部210が実行する感情表現処理を行う中心となる部分は、専用のシステムによらず、通常の情報携帯端末(スマートフォン、タブレットPC(Personal Computer))、パーソナルコンピュータなどを用いて実行可能である。たとえば、上述の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(Digital Versatile Disc Read Only Memory)等)に格納して配布し、このコンピュータプログラムを情報携帯端末などにインストールすることにより、上述の処理を実行する情報端末を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置にこのコンピュータプログラムを格納しておき、通常の情報処理端末などがダウンロード等することで情報処理装置を構成してもよい。
In addition, a communication information executed by the
また、制御部110、210の機能を、OS(Operating System)とアプリケーションプログラムとの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。
Further, when the functions of the
また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。例えば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)にこのコンピュータプログラムを掲示し、ネットワークを介してこのコンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、上述の処理を実行できるように構成してもよい。 It is also possible to superimpose a computer program on a carrier wave and distribute it via a communication network. For example, this computer program may be posted on a bulletin board (BBS: Bulletin Board System) on a communication network and distributed through the network. The computer program may be started and executed in the same manner as other application programs under the control of the OS, so that the above-described processing can be executed.
本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、上述した実施形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。つまり、本発明の範囲は、実施形態ではなく、請求の範囲によって示される。そして、請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、本発明の範囲内とみなされる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 Various embodiments and modifications can be made to the present invention without departing from the broad spirit and scope of the present invention. Further, the above-described embodiment is for explaining the present invention, and does not limit the scope of the present invention. That is, the scope of the present invention is shown not by the embodiments but by the claims. Various modifications within the scope of the claims and within the scope of the equivalent invention are considered to be within the scope of the present invention. Hereinafter, the invention described in the scope of claims of the present application will be appended.
(付記)
(付記1)
ロボットとユーザを物理的に隔てるとともに、前記ロボットと前記ユーザとのコミュニケーションを支援するためのコミュニケート手段を有する、
ことを特徴とするロボット展示装置。
(Appendix)
(Appendix 1)
Having a communication means for physically separating the robot and the user and supporting communication between the robot and the user;
Robot exhibition device characterized by that.
(付記2)
前記コミュニケート手段は、
前記ロボットと前記ユーザとを物理的に隔てる仕切手段と、
前記ユーザを検知する検知手段と、
前記検知手段が検知した前記ユーザの情報を前記ロボットに伝達する通信手段と、
を備える、ことを特徴とする付記1に記載のロボット展示装置。
(Appendix 2)
The communicating means is:
Partition means for physically separating the robot and the user;
Detecting means for detecting the user;
Communication means for transmitting the user information detected by the detection means to the robot;
The robot exhibition device according to
(付記3)
前記検知手段は、前記ユーザを、該ユーザが前記仕切手段に接触したか否かにより検知する、
ことを特徴とする付記2に記載のロボット展示装置。
(Appendix 3)
The detection means detects the user by whether or not the user has contacted the partition means;
The robot exhibition device as set forth in
(付記4)
前記検知手段は、前記ユーザにより前記仕切手段の何れの場所に接触されたかを検知し、
前記通信手段は、前記ユーザにより接触された前記仕切手段の場所を示すデータを前記ロボットに送信する、
ことを特徴とする付記3に記載のロボット展示装置。
(Appendix 4)
The detection means detects where the partition means is touched by the user,
The communication means transmits data indicating the location of the partition means touched by the user to the robot.
The robot exhibition device according to supplementary note 3, characterized by:
(付記5)
前記検知手段は、前記ユーザにより振動させられた前記仕切手段の振動する強さを検知し、振動する強さが第1の基準値以上であるか否かを判定し、前記第1の基準値以上であれば、前記通信手段は、振動する強さが前記第1の基準値以上である旨のデータを前記ロボットに送信する、
ことを特徴とする付記2から4の何れか1つに記載のロボット展示装置。
(Appendix 5)
The detection means detects the strength of vibration of the partition means vibrated by the user, determines whether or not the strength of vibration is greater than or equal to a first reference value, and the first reference value If it is above, the communication means transmits data indicating that the vibration intensity is equal to or greater than the first reference value to the robot.
The robot exhibition device according to any one of
(付記6)
前記検知手段は、前記仕切手段の振動する強さが前記第1の基準値以上でない場合、振動する強さが前記第1の基準値より小さい第2の基準値以上であるか否かを判定し、前記第2の基準値以上であれば前記通信手段は、振動する強さが前記第2の基準値以上である旨のデータを前記ロボットに送信する、
ことを特徴とする付記5に記載のロボット展示装置。
(Appendix 6)
The detection means determines whether or not the vibration strength of the partitioning means is equal to or greater than a second reference value smaller than the first reference value when the vibration strength of the partition means is not equal to or greater than the first reference value. If it is equal to or greater than the second reference value, the communication means transmits data indicating that the vibration strength is equal to or greater than the second reference value to the robot.
The robot exhibition device according to appendix 5, characterized in that:
(付記7)
前記検知手段は、前記仕切手段の複数の場所で前記第1の基準値以上の強さの振動を検知した場合、最も強く振動した場所を特定し、前記通信手段は、前記最も強く振動した場所のデータを前記ロボットに送信する、
ことを特徴とする付記5または6に記載のロボット展示装置。
(Appendix 7)
When the detection means detects vibrations having a strength greater than or equal to the first reference value at a plurality of locations of the partitioning means, the location of the strongest vibration is specified, and the communication means is the location of the strongest vibration. Sending the data to the robot,
The robot exhibition device according to appendix 5 or 6, characterized by the above.
(付記8)
前記仕切手段は、複数のロボットをユーザと分離し、
前記検知手段は、前記ユーザが前記仕切手段に接触した位置を検知し、
前記通信手段は、前記仕切手段に接触した位置に最も近い前記ロボットに、前記ユーザの存在を示すデータを送信する、
ことを特徴とする付記2から7の何れか1つに記載のロボット展示装置。
(Appendix 8)
The partition means separates a plurality of robots from a user,
The detection means detects a position where the user contacts the partition means,
The communication means transmits data indicating the presence of the user to the robot closest to the position in contact with the partition means;
The robot exhibition device according to any one of
(付記9)
前記仕切手段は、複数のロボットをユーザと分離し、
前記検知手段は、前記ユーザが前記仕切手段に接触した位置を検知し、
前記通信手段は、複数の前記ロボットのうち2以上の前記ロボットに、前記ユーザの存在を示すデータを送信する、
ことを特徴とする付記2から8の何れか1つに記載のロボット展示装置。
(Appendix 9)
The partition means separates a plurality of robots from a user,
The detection means detects a position where the user contacts the partition means,
The communication means transmits data indicating the presence of the user to two or more of the plurality of robots.
The robot exhibition device according to any one of
(付記10)
前記仕切手段は、柵または透明な板から構成され、
前記検知手段は、前記ユーザと前記柵または前記透明な板との接触を検知する、
ことを特徴とする付記2から9の何れか1つに記載のロボット展示装置。
(Appendix 10)
The partition means is composed of a fence or a transparent plate,
The detection means detects contact between the user and the fence or the transparent plate.
10. The robot exhibition device according to any one of
(付記11)
前記コミュニケート手段は、ユーザを認識する手段を有し、
前記通信手段は、前記認識した結果を前記ロボットに送信する、
ことを特徴とする付記2から10の何れか1つに記載のロボット展示装置。
(Appendix 11)
The communicating means includes means for recognizing a user;
The communication means transmits the recognized result to the robot;
The robot exhibition device according to any one of
(付記12)
前記コミュニケート手段は、前記ロボットに興味を示しているユーザを認識し、前記認識したユーザに対してコミュニケーションを取るように、前記認識したユーザを前記ロボットに通知する付記1から11の何れか1つに記載のロボット展示装置。
(Appendix 12)
The communication means recognizes a user who is interested in the robot and notifies the robot of the recognized user so as to communicate with the recognized user. The robot exhibition device described in 1.
(付記13)
付記2から11の何れか1つに記載のロボット展示装置と、
前記仕切手段によりユーザから物理的に隔てられた場所に配置されたロボットと、を備え、
前記ロボットは、
前記ロボット展示装置が備える前記通信手段から伝達された前記ユーザの情報を受信する通信手段と、
前記通信手段が受信したユーザの情報に基づいて、前記ユーザに対する動作を実行する動作制御部と、を有する、
ことを特徴とするロボット展示システム。
(Appendix 13)
The robot display device according to any one of
A robot disposed at a location physically separated from the user by the partitioning means,
The robot is
Communication means for receiving the information of the user transmitted from the communication means included in the robot exhibition device;
An operation control unit that executes an operation for the user based on the user information received by the communication unit;
Robot exhibition system characterized by that.
(付記14)
付記1から12の何れか1つに記載のロボット展示装置と、
前記ユーザから物理的に隔てられた場所に配置されたロボットと、を備え、
前記ロボット展示装置は、鏡をさらに備え、
前記ロボットは、自装置を前記鏡に映すことにより、セルフチェックを行なう手段を備える、
ことを特徴とするロボット展示システム。
(Appendix 14)
The robot display device according to any one of
A robot disposed at a location physically separated from the user,
The robot exhibition device further includes a mirror,
The robot includes means for performing a self-check by reflecting its own device on the mirror.
Robot exhibition system characterized by that.
(付記15)
ロボットとユーザとを物理的に隔てる仕切手段を有する展示装置を用いて前記ロボットを展示するロボット展示方法であって、
ユーザを検知する検知ステップと、
前記ユーザが前記仕切手段に接触した情報を前記ロボットに送信する通信ステップと、
を備える、
ことを特徴とするロボット展示方法。
(Appendix 15)
A robot exhibition method for exhibiting the robot using an exhibition apparatus having partition means for physically separating the robot and the user,
A detection step for detecting a user;
A communication step of transmitting information that the user has contacted the partition means to the robot;
Comprising
Robot exhibition method characterized by this.
(付記16)
ロボットとユーザとを物理的に隔てる仕切手段を有するロボット展示装置を制御するコンピュータを、
ユーザを検知する検知手段、
前記検知手段が検知した前記ユーザの存在を示すデータを前記ロボットに送信する通信手段、
として機能させるプログラム。
(Appendix 16)
A computer for controlling a robot exhibition apparatus having partition means for physically separating the robot and the user;
Detection means for detecting a user;
Communication means for transmitting data indicating the presence of the user detected by the detection means to the robot;
Program to function as.
1…ロボット展示システム、2…コミュニケート手段、100、300…ロボット展示装置、101…展示スペース、102…柵、102A…正面左、102B…正面右、102C…左側面、102D…右側面、103…基準マーカ、104…壁、105…給電部、106…鏡、110、210…制御部、111…人検出部、112…判定部、113…音声検出部、114…指示送信部、115…位置検知部、120…検知部、121…人感センサ、122…振動センサ、123…マイク、124…カメラ、130、230…通信部、140、240…操作部、200…ロボット、201…頭部、202…胴体部、203…撮像部、204…首関節、205…スピーカ、206…移動手段、211…指示取得部、212…位置取得部、213…移動制御部、214…画像解析部、215…動作制御部、216…音声制御部、400a…第1のロボット、400b…第2のロボット、400c…第3のロボット
DESCRIPTION OF
Claims (16)
ことを特徴とするロボット展示装置。 Having a communication means for physically separating the robot and the user and supporting communication between the robot and the user;
Robot exhibition device characterized by that.
前記ロボットと前記ユーザとを物理的に隔てる仕切手段と、
前記ユーザを検知する検知手段と、
前記検知手段が検知した前記ユーザの情報を前記ロボットに伝達する通信手段と、
を備える、ことを特徴とする請求項1に記載のロボット展示装置。 The communicating means is:
Partition means for physically separating the robot and the user;
Detecting means for detecting the user;
Communication means for transmitting the user information detected by the detection means to the robot;
The robot exhibition device according to claim 1, further comprising:
ことを特徴とする請求項2に記載のロボット展示装置。 The detection means detects the user by whether or not the user has contacted the partition means;
The robot exhibition device according to claim 2, wherein
前記通信手段は、前記ユーザにより接触された前記仕切手段の場所を示すデータを前記ロボットに送信する、
ことを特徴とする請求項3に記載のロボット展示装置。 The detection means detects where the partition means is touched by the user,
The communication means transmits data indicating the location of the partition means touched by the user to the robot.
The robot exhibition apparatus according to claim 3, wherein
ことを特徴とする請求項2から4の何れか1項に記載のロボット展示装置。 The detection means detects the strength of vibration of the partition means vibrated by the user, determines whether or not the strength of vibration is greater than or equal to a first reference value, and the first reference value If it is above, the communication means transmits data indicating that the vibration intensity is equal to or greater than the first reference value to the robot.
The robot display device according to any one of claims 2 to 4, wherein the robot exhibition device is any one of the above.
ことを特徴とする請求項5に記載のロボット展示装置。 The detection means determines whether or not the vibration strength of the partitioning means is equal to or greater than a second reference value smaller than the first reference value when the vibration strength of the partition means is not equal to or greater than the first reference value. If it is equal to or greater than the second reference value, the communication means transmits data indicating that the vibration strength is equal to or greater than the second reference value to the robot.
The robot display device according to claim 5, wherein
ことを特徴とする請求項5または6に記載のロボット展示装置。 When the detection means detects vibrations having a strength greater than or equal to the first reference value at a plurality of locations of the partitioning means, the location of the strongest vibration is specified, and the communication means is the location of the strongest vibration. Sending the data to the robot,
The robot display device according to claim 5 or 6, characterized in that
前記検知手段は、前記ユーザが前記仕切手段に接触した位置を検知し、
前記通信手段は、前記仕切手段に接触した位置に最も近い前記ロボットに、前記ユーザの存在を示すデータを送信する、
ことを特徴とする請求項2から7の何れか1項に記載のロボット展示装置。 The partition means separates a plurality of robots from a user,
The detection means detects a position where the user contacts the partition means,
The communication means transmits data indicating the presence of the user to the robot closest to the position in contact with the partition means;
The robot display device according to any one of claims 2 to 7, wherein
前記検知手段は、前記ユーザが前記仕切手段に接触した位置を検知し、
前記通信手段は、複数の前記ロボットのうち2以上の前記ロボットに、前記ユーザの存在を示すデータを送信する、
ことを特徴とする請求項2から8の何れか1項に記載のロボット展示装置。 The partition means separates a plurality of robots from a user,
The detection means detects a position where the user contacts the partition means,
The communication means transmits data indicating the presence of the user to two or more of the plurality of robots.
The robot exhibition device according to claim 2, wherein the robot exhibition device is a robot display device.
前記検知手段は、前記ユーザと前記柵または前記透明な板との接触を検知する、
ことを特徴とする請求項2から9の何れか1項に記載のロボット展示装置。 The partition means is composed of a fence or a transparent plate,
The detection means detects contact between the user and the fence or the transparent plate.
The robot display device according to any one of claims 2 to 9, wherein
前記通信手段は、前記認識した結果を前記ロボットに送信する、
ことを特徴とする請求項2から10の何れか1項に記載のロボット展示装置。 The communicating means includes means for recognizing a user;
The communication means transmits the recognized result to the robot;
The robot display device according to any one of claims 2 to 10, wherein
前記仕切手段によりユーザから物理的に隔てられた場所に配置されたロボットと、を備え、
前記ロボットは、
前記ロボット展示装置が備える前記通信手段から伝達された前記ユーザの情報を受信する通信手段と、
前記通信手段が受信したユーザの情報に基づいて、前記ユーザに対する動作を実行する動作制御部と、を有する、
ことを特徴とするロボット展示システム。 The robot display device according to any one of claims 2 to 11,
A robot disposed at a location physically separated from the user by the partitioning means,
The robot is
Communication means for receiving the information of the user transmitted from the communication means included in the robot exhibition device;
An operation control unit that executes an operation for the user based on the user information received by the communication unit;
Robot exhibition system characterized by that.
前記ユーザから物理的に隔てられた場所に配置されたロボットと、を備え、
前記ロボット展示装置は、鏡をさらに備え、
前記ロボットは、自装置を前記鏡に映すことにより、セルフチェックを行なう手段を備える、
ことを特徴とするロボット展示システム。 The robot display device according to any one of claims 1 to 12,
A robot disposed at a location physically separated from the user,
The robot exhibition device further includes a mirror,
The robot includes means for performing a self-check by reflecting its own device on the mirror.
Robot exhibition system characterized by that.
ユーザを検知する検知ステップと、
前記ユーザが前記仕切手段に接触した情報を前記ロボットに送信する通信ステップと、
を備える、
ことを特徴とするロボット展示方法。 A robot exhibition method for exhibiting the robot using an exhibition apparatus having partition means for physically separating the robot and the user,
A detection step for detecting a user;
A communication step of transmitting information that the user has contacted the partition means to the robot;
Comprising
Robot exhibition method characterized by this.
ユーザを検知する検知手段、
前記検知手段が検知した前記ユーザの存在を示すデータを前記ロボットに送信する通信手段、
として機能させるプログラム。 A computer for controlling a robot exhibition apparatus having partition means for physically separating the robot and the user;
Detection means for detecting a user;
Communication means for transmitting data indicating the presence of the user detected by the detection means to the robot;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017129029A JP2019010710A (en) | 2017-06-30 | 2017-06-30 | Robot exhibition device, robot exhibition system, robot exhibition method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017129029A JP2019010710A (en) | 2017-06-30 | 2017-06-30 | Robot exhibition device, robot exhibition system, robot exhibition method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019010710A true JP2019010710A (en) | 2019-01-24 |
Family
ID=65226461
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017129029A Pending JP2019010710A (en) | 2017-06-30 | 2017-06-30 | Robot exhibition device, robot exhibition system, robot exhibition method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019010710A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022172997A (en) * | 2021-05-06 | 2022-11-17 | ベアー ロボティックス,インコーポレイテッド | Method, system, and non-transitory computer-readable recording medium for controlling robot |
WO2024071168A1 (en) * | 2022-09-29 | 2024-04-04 | 日東電工株式会社 | Robot |
-
2017
- 2017-06-30 JP JP2017129029A patent/JP2019010710A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022172997A (en) * | 2021-05-06 | 2022-11-17 | ベアー ロボティックス,インコーポレイテッド | Method, system, and non-transitory computer-readable recording medium for controlling robot |
JP7209768B2 (en) | 2021-05-06 | 2023-01-20 | ベアー ロボティックス,インコーポレイテッド | METHOD, SYSTEM AND NON-TRANSIENT COMPUTER-READABLE MEDIUM FOR CONTROLLING A ROBOT |
WO2024071168A1 (en) * | 2022-09-29 | 2024-04-04 | 日東電工株式会社 | Robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8538750B2 (en) | Speech communication system and method, and robot apparatus | |
US8914139B2 (en) | Robot | |
JP6984004B2 (en) | Continuous selection of scenarios based on identification tags that describe the user's contextual environment for the user's artificial intelligence model to run through an autonomous personal companion. | |
JP4556024B2 (en) | Robot and robot system | |
CN109635616B (en) | Interaction method and device | |
JP2020533687A (en) | How and system to generate detailed datasets of the environment through gameplay | |
KR102463806B1 (en) | Electronic device capable of moving and method for operating thereof | |
US11416080B2 (en) | User intention-based gesture recognition method and apparatus | |
CN210155626U (en) | Information processing apparatus | |
US20180376069A1 (en) | Erroneous operation-preventable robot, robot control method, and recording medium | |
JP3974098B2 (en) | Relationship detection system | |
JP2005131713A (en) | Communication robot | |
JP2019010710A (en) | Robot exhibition device, robot exhibition system, robot exhibition method and program | |
KR20200101221A (en) | Method for processing user input and electronic device supporting the same | |
KR20200076438A (en) | Electronic device for tracking activity of user and method for the same | |
JP7502520B2 (en) | ROBOT, ROBOT CONTROL METHOD AND PROGRAM | |
US11363189B2 (en) | Apparatus and method for recognizing voice and face on basis of change in camera driving method | |
US20190329417A1 (en) | Method for performing emotional gestures by a device to interact with a user | |
JP6495399B2 (en) | Program and method executed by computer to provide virtual space, and information processing apparatus for executing the program | |
JP2019200607A (en) | Information processing system and information processing method | |
US20220055223A1 (en) | Electronic device for providing reaction on basis of user state and operating method therefor | |
KR102072175B1 (en) | Smart character toy embedded artificiall intelligence function | |
KR20200092481A (en) | Electronic device performing an operation associated with a function of external electronic device mounted on the electronic device and method for operating thereof | |
CN111730608A (en) | Control device, robot, control method, and storage medium | |
KR20200102295A (en) | Method of managing muti tasks and electronic device therefor |