JP5948359B2 - ロボット、およびロボットの制御方法 - Google Patents
ロボット、およびロボットの制御方法 Download PDFInfo
- Publication number
- JP5948359B2 JP5948359B2 JP2014048167A JP2014048167A JP5948359B2 JP 5948359 B2 JP5948359 B2 JP 5948359B2 JP 2014048167 A JP2014048167 A JP 2014048167A JP 2014048167 A JP2014048167 A JP 2014048167A JP 5948359 B2 JP5948359 B2 JP 5948359B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- audience
- head
- unit
- sight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
Description
以下、図面を参照し、本発明のロボット、およびロボットの制御方法の実施形態について説明する。以下に説明するロボットは、例えば、左右一対の脚部と左右一対の腕部とを備え、脚部の動作によって移動可能な人型ロボットである。なお、これに限らず、ロボットは、車輪やホバークラフト等によって移動可能なロボットであってもよいし、腕部を一つまたは三つ以上有するものであってもよい。本発明に係るロボットは、ステージ上で(所定の領域内において)、ステージ外にいる観客に向けて説明を行うように制御される。
シナリオ選択部93は、シナリオデータ84を順次選択する。ロボット1が1回の説明を行うための1つの説明シナリオは、例えば複数のシナリオデータ84によって構成されており、大本の説明シナリオにはシナリオデータ84の遷移順序が記述されている。シナリオデータ84の遷移は1本道であってもよいし、途中で、例えば挙手認識による観客Aの反応によって遷移が分岐したりしてもよい。シナリオデータ84には、所定の箇所から観客の全体を見渡して説明を行う態様を指定するシナリオデータA、観客の一部に接近して説明を行う態様を指定するシナリオデータB、ステージ奥に設置された説明対象(例えばスクリーン)を指し示して説明を行う態様を指定するシナリオデータC等、複数のものが記憶部80に格納される。シナリオ選択部93は、例えば、シナリオデータ84に従って、各シナリオデータを順次選択する。
以下、各動作モードにおけるロボット1の挙動について、より詳細に説明する。本実施形態におけるロボット1の挙動は、以下の知見に基づいている。まず、観客の注意を効果的に惹きつけるためには、以下の条件が必要であると考えられる。(1)観客全員に疎外感を与えない(2)観客を説明に引き込む(3)説明対象に観客の興味を誘導する。ここで、ロボット1が説明する内容に合わせて、立ち位置や視線配分の態様を適切に選択しないと、観客が説明内容に集中してくれなかったり、疎外感を感じて途中退場してしまったりするという知見が得られている。従って、観客全体を万遍なく見回す場合、素早く観客全体を見回したり、じっくり一人ひとりの顔を順に見つめながら観客全体を見回すなど、説明内容やシーン、また観客の位置分布に応じて、見回し方をコントロールするのが好ましい。このとき、以下の3点について両立させる必要がある。(1)スピード(見回しの所要時間、一人ひとりを見つめる時間)のコントロール(2)(1)の条件下で、観客の分布範囲全体を見回す(3)説明全体を通じて、観客全員に万遍なく視線配分する。また、ロボット1が観客に接近して説明する場合、一部の観客に接近して説明していると、離れた場所の聴衆が疎外感を感じるため、説明全体を通じて、観客全体に対して公平に接近する必要がある。また、説明途中で観客が増減して分布が変わった場合でも、それに合わせて万遍なく接近する位置を選択することが好ましい。これらの条件のうち少なくとも一部を満たすことで、観客の注意を効果的に惹きつけることができると考えられる。
観客の全体を見渡して説明するシナリオデータAが実行される際に指定される視線配分モード(1)とは、ある観客に視線方向を向けてから一定時間、その観客に視線方向を向け続け、一定時間が経過すると他の観客に視線方向を向けるというものである。ここで、「視線方向を向ける」とは、ロボット1の頭部10の正対方向に観客がいることを意味してもよいし、黒目に相当する部材が駆動可能なロボットであれば、文字通り黒目を駆動して視線を向けることを意味してもよい。本実施形態では、観客にロボット1の頭部10の正対方向を向けることを意味するものとする。
観客の一部に接近して説明するシナリオデータBが実行される場合、立ち位置決定部95は、以下の処理を行う。図10は、観客の一部に接近して説明する場面を説明するための図である。立ち位置決定部95は、まず、観客Aが分布する領域Sを認識し、領域Sを、各分割領域の幅が所定距離(例えば2.5[m]程度)以下となるように、均等に分割する。そして、立ち位置決定部95は、注視回数ヒストグラム87を参照し、対応する投影回数の最も少ない分割領域内の観客Aに接近するように立ち位置を定める。
シナリオデータCが選択されると、視線方向決定部96は、視線配分モード(1)または(4)で視線方向を決定する。視線配分モード(1)は前述したものと同じであり、視線配分モード(4)は、説明対象(スクリーンSC)を見続けるものである。
シナリオデータ間の遷移状態において、視線方向決定部96は、移動に要する所要時間の間、観客の端から端までを見渡す動作を行う(視線配分モード(2))。ここで、シナリオデータBに遷移する場合には、観客の端から端までに代えて、接近するエリアの端から端までを見渡してもよい。
図13は、本実施形態の制御部90により実行される処理の流れの一例を示すフローチャートである。まず、シナリオ選択部93がシナリオデータを読み込み(ステップS200)、動作モード決定部94が動作モードを決定する(ステップS202)。次に、環境認識部92が、観客の位置を示す情報を取得する(ステップS204)。次に、立ち位置決定部95と視線方向決定部96が、ロボット1の立ち位置と視線配分モードをそれぞれ決定する(ステップS206)。そして、姿勢制御部97と音声制御部98が、ステップS206で決定されたロボット1の立ち位置と視線配分モード、およびシナリオデータに付随する音声内容に基づいて、アクチュエータ群60とスピーカ70をそれぞれ制御する(ステップS208)。そして、制御部90は、シナリオデータの全てが実行されたか否かを判定し、シナリオデータの全てが実行されていなければステップS200に処理を戻し、シナリオデータの全てが実行されていれば本フローチャートの処理を終了する(ステップS210)。
Claims (6)
- ロボットの基体を移動させる移動部と、
観客の位置を示す情報を取得する取得部と、
所定の領域内において前記観客に向けて説明を行うように制御する制御部であって、前記取得部により取得される前記観客の位置に基づいて、前記ロボットの立ち位置を決定し、前記決定した前記ロボットの立ち位置を実現するように、前記移動部を制御する制御部と、
前記ロボットの頭部を駆動し、前記ロボットの頭部の向きを変化させる頭部駆動部と、
を備え、
前記制御部は、
前記観客に頭部の正面または視線を向けた回数を所定の軸上に投影してカウントして投影データを記憶部に記憶しておき、前記投影データに基づいて移動するように前記移動部を制御し、
前記頭部の正面または視線を向けた観客であるか否かを、前記頭部駆動部に指示した方向を基準として定まる方向を中心とした所定範囲内に存在したか否かによって判定する、
ロボット。 - 前記制御部は、観客に頭部の正面または視線を向けた時間を、観客毎に累積して記憶部に記憶しておき、前記累積した時間の短い観客に対して優先的に頭部の向きを向けるように、前記頭部駆動部を制御する、
請求項1記載のロボット。 - 前記制御部は、前記観客に向けての説明の内容および形態を指定するシナリオデータを順次選択することで、前記ロボットの立ち位置および頭部の向きの配分態様を指定する動作モードを決定し、前記決定した動作モードと、前記取得部により取得される前記観客の位置とに基づいて、前記ロボットの立ち位置および頭部の向きを決定する、
請求項1または2記載のロボット。 - 前記シナリオデータは、所定の箇所から前記観客の全体を見渡して説明を行う態様を指定するシナリオデータと、前記観客の一部に接近して説明を行う態様を指定するシナリオデータとを含む複数のシナリオデータの中から選択される、
請求項3記載のロボット。 - 前記制御部は、前記投影データにおいて投影回数の少ない観客に接近するように前記移動部を制御する、
請求項1から4のいずれか1項記載のロボット。 - ロボットの基体を移動させる移動部と、観客の位置を示す情報を取得する取得部と、前記ロボットの頭部を駆動し、前記ロボットの頭部の向きを変化させる頭部駆動部とを備えるロボットを、所定の領域内において前記観客に向けて説明を行うように制御するロボットの制御方法であって、
前記取得部により取得される前記観客の位置と、前記観客に前記頭部の正面または視線を向けた回数を所定の軸上に投影してカウントした投影データとに基づいて、前記ロボットの立ち位置を決定し、
前記決定した前記ロボットの立ち位置を実現するように、前記移動部を制御し、
前記頭部の正面または視線を向けた観客であるか否かは、前記頭部駆動部に指示した方向を基準として定まる方向を中心とした所定範囲内に存在したか否かによって判定する、
ロボットの制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014048167A JP5948359B2 (ja) | 2014-03-11 | 2014-03-11 | ロボット、およびロボットの制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014048167A JP5948359B2 (ja) | 2014-03-11 | 2014-03-11 | ロボット、およびロボットの制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015171737A JP2015171737A (ja) | 2015-10-01 |
JP5948359B2 true JP5948359B2 (ja) | 2016-07-06 |
Family
ID=54259413
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014048167A Active JP5948359B2 (ja) | 2014-03-11 | 2014-03-11 | ロボット、およびロボットの制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5948359B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106426269A (zh) * | 2016-11-24 | 2017-02-22 | 深圳市旗瀚云技术有限公司 | 一种用于仿人机器人的腰部结构和控制方法 |
CN109986579A (zh) * | 2019-04-28 | 2019-07-09 | 山东大学 | 多模式运动仿灵长类机器人 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001198868A (ja) * | 2000-01-17 | 2001-07-24 | Atr Media Integration & Communications Res Lab | サイバー漫才用ロボットおよび支援装置 |
JP2005199403A (ja) * | 2004-01-16 | 2005-07-28 | Sony Corp | 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置 |
JP2006263858A (ja) * | 2005-03-24 | 2006-10-05 | Advanced Telecommunication Research Institute International | コミュニケーションロボット |
JP4822319B2 (ja) * | 2005-10-27 | 2011-11-24 | 株式会社国際電気通信基礎技術研究所 | コミュニケーションロボットおよびそれを用いた注意制御システム |
JP4599522B2 (ja) * | 2006-02-21 | 2010-12-15 | 株式会社国際電気通信基礎技術研究所 | コミュニケーションロボット |
JP2008087140A (ja) * | 2006-10-05 | 2008-04-17 | Toyota Motor Corp | 音声認識ロボットおよび音声認識ロボットの制御方法 |
JP5751610B2 (ja) * | 2010-09-30 | 2015-07-22 | 学校法人早稲田大学 | 会話ロボット |
-
2014
- 2014-03-11 JP JP2014048167A patent/JP5948359B2/ja active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106426269A (zh) * | 2016-11-24 | 2017-02-22 | 深圳市旗瀚云技术有限公司 | 一种用于仿人机器人的腰部结构和控制方法 |
CN109986579A (zh) * | 2019-04-28 | 2019-07-09 | 山东大学 | 多模式运动仿灵长类机器人 |
CN109986579B (zh) * | 2019-04-28 | 2021-06-15 | 山东大学 | 多模式运动仿灵长类机器人 |
Also Published As
Publication number | Publication date |
---|---|
JP2015171737A (ja) | 2015-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6212667B1 (ja) | 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置 | |
US9838597B2 (en) | Imaging device, imaging method, and program | |
US10313481B2 (en) | Information processing method and system for executing the information method | |
US20170131764A1 (en) | Systems and methods for eye vergence control | |
JP5187517B2 (ja) | 情報提供装置、情報提供方法およびプログラム | |
US10579109B2 (en) | Control device and control method | |
JP6229089B1 (ja) | 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置 | |
JP2018124666A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
US9332219B2 (en) | Telepresence device | |
Pateromichelakis et al. | Head-eyes system and gaze analysis of the humanoid robot Romeo | |
US11609428B2 (en) | Information processing apparatus and information processing method | |
US10860089B2 (en) | Method of suppressing VR sickness, system for executing the method, and information processing device | |
WO2020162193A1 (ja) | 情報処理装置および方法、並びにプログラム | |
Abidi et al. | Human pointing as a robot directive | |
JP2017111539A (ja) | プログラム及びコンピュータ | |
JP5948359B2 (ja) | ロボット、およびロボットの制御方法 | |
JP7390541B2 (ja) | アニメーション制作システム | |
JP2008018529A (ja) | コミュニケーションロボット | |
JP2007130691A (ja) | コミュニケーションロボット | |
JP2004042151A (ja) | コミュニケーションロボット | |
WO2017090298A1 (ja) | 仮想空間内オブジェクトへの動作指示方法、及びプログラム | |
JP6158665B2 (ja) | ロボット、ロボット制御方法、およびロボット制御プログラム | |
Makabe et al. | Development of movable binocular high-resolution eye-camera unit for humanoid and the evaluation of looking around fixation control and object recognition | |
WO2020081090A1 (en) | Video capture device positioning based on participant movement | |
JP6964302B2 (ja) | アニメーション制作方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151104 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160606 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Ref document number: 5948359 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |