JP2021013964A - Robot, robot control program, and robot control method - Google Patents
Robot, robot control program, and robot control method Download PDFInfo
- Publication number
- JP2021013964A JP2021013964A JP2019128680A JP2019128680A JP2021013964A JP 2021013964 A JP2021013964 A JP 2021013964A JP 2019128680 A JP2019128680 A JP 2019128680A JP 2019128680 A JP2019128680 A JP 2019128680A JP 2021013964 A JP2021013964 A JP 2021013964A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- attention
- route
- target person
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 52
- 230000009471 action Effects 0.000 claims abstract description 49
- 238000001514 detection method Methods 0.000 claims description 6
- 230000006399 behavior Effects 0.000 description 42
- 230000008569 process Effects 0.000 description 37
- 241000282414 Homo sapiens Species 0.000 description 29
- 238000013459 approach Methods 0.000 description 29
- 210000005252 bulbus oculi Anatomy 0.000 description 14
- 210000001508 eye Anatomy 0.000 description 14
- 210000000323 shoulder joint Anatomy 0.000 description 13
- 238000004891 communication Methods 0.000 description 11
- 210000000245 forearm Anatomy 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 210000002310 elbow joint Anatomy 0.000 description 7
- 210000003128 head Anatomy 0.000 description 7
- 241000282412 Homo Species 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000000391 smoking effect Effects 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 235000019504 cigarettes Nutrition 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000010813 municipal solid waste Substances 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
この発明はロボット、ロボット制御プログラムおよびロボット制御方法に関し、特にたとえば、人物を監視する、ロボット、ロボット制御プログラムおよびロボット制御方法に関する。 The present invention relates to robots, robot control programs and robot control methods, and more particularly to robots, robot control programs and robot control methods for monitoring people, for example.
この種の従来の人物監視システムの一例が特許文献1に開示されている。この特許文献1に開示される人物監視システムでは、所定エリア内に進入した移動物が監視対象者であるか否かが判定され、移動物が監視対象者であると判定されると、ロボットが、監視対象者の移動経路を推定し、推定した移動経路上に直線的に移動し、監視対象者の正面側から監視対象者に対して対話を実行する。 An example of a conventional person monitoring system of this type is disclosed in Patent Document 1. In the person monitoring system disclosed in Patent Document 1, it is determined whether or not a moving object that has entered the predetermined area is a monitored person, and when it is determined that the moving object is a monitored person, the robot causes the robot. , Estimate the movement route of the monitored person, move linearly on the estimated movement route, and execute a dialogue with the monitored person from the front side of the monitored person.
このとき、ロボットは、監視対象者の推定移動経路に対して垂直方向に移動して、推定移動経路上の地点に到達する。 At this time, the robot moves in the direction perpendicular to the estimated movement path of the monitored person and reaches a point on the estimated movement path.
上記の特許文献1の人物監視システムでは、ロボットが、推定移動経路に対して直線的に移動し、監視対象者の正面から監視対象者に対して対話を実行する。 In the person monitoring system of Patent Document 1 described above, the robot moves linearly with respect to the estimated movement path and executes a dialogue with the monitored person from the front of the monitored person.
しかしながら、不適切な行為を行う歩行中の注意対象者に注意を与える場合には、単にロボットが直線的に移動し、正面から対話を実行するだけでは、注意対象者に無視されることがあるという問題がある。 However, when giving attention to a person to be watched while walking who performs inappropriate actions, the robot may simply move in a straight line and perform a dialogue from the front, which may be ignored by the person to be watched. There is a problem.
それゆえに、この発明の主たる目的は、新規な、ロボット、ロボット制御プログラムおよびロボット制御方法を提供することである。 Therefore, a main object of the present invention is to provide new robots, robot control programs and robot control methods.
この発明の他の目的は、歩行中の注意対象者に対して効果的に注意を与えることができる、ロボット、ロボット制御プログラムおよびロボット制御方法を提供することである。 Another object of the present invention is to provide a robot, a robot control program, and a robot control method capable of effectively giving attention to a person to be watched while walking.
第1の発明は、全方位に移動可能な移動手段およびスピーカを備えるロボットであって、不適切な行為を行う歩行中の注意対象者を検出する検出手段、注意対象者が移動する推定経路を推定する経路推定手段、推定経路に基づいて、ロボットの自己位置に応じた出発点から注意対象者と合流する合流点に至る、転回点を有する移動経路を作成する経路作成手段、経路作成手段によって作成された移動経路に従ってロボットが所定の移動速度で移動するように移動手段を制御する制御手段、およびロボットが移動経路に従って移動する間であって、合流点に到達する前に、スピーカから注意対象者に対する注意発話を与える注意手段を備える、ロボットである。 The first invention is a robot provided with a moving means and a speaker that can move in all directions, and provides a detecting means for detecting an attention target person who is walking and performing an inappropriate action, and an estimated route for the attention target person to move. By the route estimation means to be estimated, the route creation means to create a movement route having a turning point from the starting point according to the robot's own position to the confluence point to join the attention target person, and the route creation means based on the estimated route. A control means that controls the moving means so that the robot moves at a predetermined moving speed according to the created movement path, and a attention target from the speaker while the robot moves according to the moving path and before reaching the confluence. It is a robot equipped with a means of caution that gives attention to a person.
第1の発明では、ロボット(10)は、全方位に移動可能な移動手段(30)およびスピーカ(64)を備える。検出手段(80、46、70、S1)は、不適切な行為を行う歩行中の注意対象者を検出する。経路推定手段(80、S33)は、注意対象者が移動する推定経路を推定する。経路作成手段(80、S35〜S61)は、推定経路に基づいて、ロボットの自己位置に応じた出発点から注意対象者と合流する合流点に至る、転回点を有する移動経路を作成する。制御手段(80、S75)は、経路作成手段によって作成された移動経路に従ってロボットが所定の移動速度で移動するように移動手段を制御する。注意手段(14、S77、S83)は、ロボットが移動経路に従って移動する間であって、合流点に到達する前に、スピーカから注意対象者に対する注意発話を与える。 In the first invention, the robot (10) includes a moving means (30) and a speaker (64) that can move in all directions. The detection means (80, 46, 70, S1) detects a person to be watched while walking who performs an inappropriate act. The route estimation means (80, S33) estimates the estimated route on which the attention subject moves. The route creating means (80, S35 to S61) creates a moving route having a turning point from a starting point according to the robot's own position to a confluence point where the robot joins the attention target person, based on the estimated route. The control means (80, S75) controls the moving means so that the robot moves at a predetermined moving speed according to the moving route created by the route creating means. The attention means (14, S77, S83) gives a caution utterance from the speaker to the attention target person while the robot moves according to the movement path and before reaching the confluence.
第1の発明によれば、ロボットが転回点を有する移動経路に従って移動し、合流点に到達する前に、注意対象者に対する注意発話を与えるので、歩行中の注意対象者に効果的に注意を与えることができる。 According to the first invention, since the robot moves according to the movement path having the turning point and gives a caution utterance to the attention target person before reaching the confluence point, the attention target person while walking is effectively paid attention. Can be given.
第2の発明は、第1の発明に従属し、経路作成手段は、転回点を通過した後の経路が、当該転回点を通過する前の経路よりも注意対象者の進行方向に直交する方向に近い向きの経路となるように、移動経路を作成する、ロボットである。 The second invention is subordinate to the first invention, and the route creating means is a direction in which the route after passing the turning point is orthogonal to the traveling direction of the attention subject more than the route before passing the turning point. It is a robot that creates a movement route so that the route is in a direction close to.
第2の発明によれば、ロボットが転回点を通過後、進行方向に直交する方向から注意対象者に近づくので、注意対象者の注意を引くことができ、歩行中の注意対象者に効果的に注意を与えることができる。 According to the second invention, after the robot passes the turning point, it approaches the attention target person from the direction orthogonal to the traveling direction, so that the attention target person can be attracted and is effective for the attention target person while walking. Can be given attention to.
第3の発明は、第1または第2の発明に従属し、経路作成手段は、注意対象者の歩行速度と、ロボットの移動速度とに応じて、注意対象者およびロボットのそれぞれが合流点に到達するまでの所要時間の差が所定の範囲内になるように、当該合流点を設定する、ロボットである。 The third invention is subordinate to the first or second invention, and the route creation means is such that the attention target person and the robot meet at the confluence point according to the walking speed of the attention target person and the moving speed of the robot. It is a robot that sets the confluence so that the difference in the time required to reach it is within a predetermined range.
第3の発明によれば、ロボットの移動経路を適切に設定することができる。 According to the third invention, the movement path of the robot can be appropriately set.
第4の発明は、第1から第3までのいずれかの発明に従属し、合流点は、推定経路から所定距離離れた位置に設定される、ロボットである。 The fourth invention is dependent on any one of the first to third inventions, and the merging point is a robot set at a position separated from the estimated path by a predetermined distance.
第4の発明によれば、注意対象者の動きを妨げないようにすることができる。 According to the fourth invention, it is possible to prevent the movement of the person to be watched from being hindered.
第5の発明は、第1から第4までのいずれかの発明に従属し、注意手段は、ロボットが転回点を通過するときに、注意対象者に対する注意発話を与える、ロボットである。 The fifth invention is subordinate to any one of the first to fourth inventions, and the attention means is a robot that gives a caution utterance to a person to be watched when the robot passes a turning point.
第5の発明によれば、注意対象者の注意を引くことができ、歩行中の注意対象者に効果的に注意を与えることができる。 According to the fifth invention, it is possible to draw the attention of the attention target person and effectively give the attention target person while walking.
第6の発明は、第1から第5までのいずれかの発明に従属し、制御手段は、ロボットが移動経路に従って移動する際に、人の早歩きと同程度の移動速度でロボットが移動するように移動手段を制御する、ロボットである。 The sixth invention is subordinate to any one of the first to fifth inventions, and the control means moves the robot at a moving speed similar to that of a person walking fast when the robot moves according to the movement path. It is a robot that controls the means of transportation.
第6の発明によれば、注意対象者の注意を引くことができ、歩行中の注意対象者に効果的に注意を与えることができる。 According to the sixth invention, the attention target person can be attracted, and the attention target person who is walking can be effectively given attention.
第7の発明は、全方位に移動可能な移動手段およびスピーカを備えるロボットのロボット制御プログラムであって、ロボットのプロセッサに、不適切な行為を行う歩行中の注意対象者を検出する検出ステップ、注意対象者が移動する推定経路を推定する経路推定ステップ、推定経路に基づいて、ロボットの自己位置に応じた出発点から注意対象者と合流する合流点に至る、転回点を有する移動経路を作成する経路作成ステップ、経路作成ステップによって作成された移動経路に従ってロボットが所定の移動速度で移動するように移動手段を制御する制御ステップ、およびロボットが移動経路に従って移動する間であって、合流点に到達する前に、スピーカから注意対象者に対する注意発話を与える注意ステップを実行させる、ロボット制御プログラムである。 A seventh invention is a robot control program for a robot including a moving means and a speaker that can move in all directions, and a detection step of detecting a person to be watched while walking by using a robot processor to perform an inappropriate action. Based on the route estimation step for estimating the estimated route to which the attention target person moves and the estimated route, a movement route having a turning point is created from the starting point according to the robot's own position to the confluence point where the attention target person joins. The route creation step to be performed, the control step of controlling the moving means so that the robot moves at a predetermined movement speed according to the movement path created by the route creation step, and the confluence while the robot moves according to the movement path. It is a robot control program that executes a caution step that gives a caution speech to a attention target person from a speaker before reaching the robot.
第8の発明は、全方位に移動可能な移動手段およびスピーカを備えるロボットのロボット制御方法であって、(a)不適切な行為を行う歩行中の注意対象者を検出するステップ、(b)注意対象者が移動する推定経路を推定するステップ、(c)推定経路に基づいて、ロボットの自己位置に応じた出発点から注意対象者と合流する合流点に至る、転回点を有する移動経路を作成するステップ、(d)ステップ(c)で作成された移動経路に従ってロボットが所定の移動速度で移動するように移動手段を制御するステップ、および(e)ロボットが移動経路に従って移動する間であって、合流点に到達する前に、スピーカから注意対象者に対する注意発話を与えるステップを含む、ロボット制御方法である。 An eighth invention is a robot control method for a robot provided with a moving means and a speaker that can move in all directions, wherein (a) a step of detecting a person to be watched while walking who performs an inappropriate action, (b). Steps to estimate the estimated route for the attention target person to move, (c) Based on the estimated route, a movement route having a turning point from the starting point according to the robot's own position to the confluence point where the attention target person joins. A step of creating, (d) a step of controlling the moving means so that the robot moves at a predetermined moving speed according to the moving path created in step (c), and (e) while the robot moves according to the moving path. This is a robot control method including a step of giving a cautionary speech from a speaker to a person to be watched before reaching a confluence.
第7および第8の発明によれば、第1の発明と同様の効果が期待できる。 According to the seventh and eighth inventions, the same effect as that of the first invention can be expected.
この発明によれば、歩行中の注意対象者に対して効果的に注意を与えることができる。 According to the present invention, it is possible to effectively give attention to a person to be watched while walking.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above-mentioned objectives, other objectives, features and advantages of the present invention will become more apparent from the detailed description of the following examples made with reference to the drawings.
図1を参照して、コミュニケーションロボット(以下、単に「ロボット」という。)10は、自律行動型のロボットであり、少なくとも音声を用いて、人間とコミュニケーションを行うことができる。 With reference to FIG. 1, the communication robot (hereinafter, simply referred to as “robot”) 10 is an autonomous action type robot, and can communicate with a human using at least voice.
また、図1では省略するが、操作者は、端末(PCなどの汎用のコンピュータである)を用いてロボット10にコマンドを送信することにより、遠隔でロボット10を操作することもできる。以下、この明細書において、ロボット10を遠隔で操作する操作者を「ユーザ」と呼ぶことにする。また、この「ユーザ」に対して、ロボット10またはロボット10のユーザのコミュニケーション対象を「人間」または「人」と呼ぶことにする。
Further, although omitted in FIG. 1, the operator can remotely control the
なお、遠隔に設けられた端末を用いてロボット10を操作等することは既に周知であり、また、本願の本質的な内容ではないため、この明細書においては、ユーザが使用する端末および遠隔操作についての詳細な説明は省略する。
It is already well known that the
この実施例のロボット10は、空港、駅、地下街、ショッピングモール、イベント会場、遊園地および美術館などの不特定多数の人間が存在する環境または日常空間(以下、まとめて「環境」ということがある。)に配置される。
The
このロボット10は、同じ環境に配置され、自身が配置される環境について予め記憶した地図(間取り図)の情報および自身に備わる各種センサからの情報に基づいて自律的に行動する(移動および動作する)ことができる。以下、ロボット10の構成について具体的に説明する。
The
まず、図1を参照して、ロボット10のハードウェアの構成について説明する。図1は、この実施例のロボット10の外観を示す正面図である。ロボット10は台車30を含み、台車30の下面にはロボット10を自律移動させる複数(たとえば3個または4個)の車輪32が設けられる。台車30は、前後左右の任意方向(全方位)に移動可能な所謂全方位移動型の台車である。車輪32は車輪モータ36(図2参照)によってそれぞれ独立に駆動され、台車30すなわちロボット10を前後左右の任意方向に動かすことができる。車輪32としては、メカナムホイールまたはオムニホイール等を用いることができる。したがって、ロボット10は、配置された環境内を自律制御によって移動可能である。
First, the hardware configuration of the
台車30の上には、胴体42が直立するように設けられる。また、胴体42の前方中央上部(人の胸に相当する位置)には、距離センサ40が設けられる。この距離センサ40は、ロボット10の周囲の物体(人間や障害物など)との距離を測定するものであり、ロボット10の前方の主として人間との距離を計測する。
The
なお、この実施例では、距離センサとして、赤外線距離センサを用いるようにしてあるが、赤外線距離センサに代えて、超音波距離センサやミリ波レーダなどを用いることもできる。 In this embodiment, the infrared distance sensor is used as the distance sensor, but an ultrasonic distance sensor, a millimeter wave radar, or the like can be used instead of the infrared distance sensor.
また、胴体42には、その側面側上端部のほぼ中央から伸びる支柱44が設けられ、支柱44の上には、全方位カメラ46が設けられる。全方位カメラ46は、ロボット10の周囲を撮影するものであり、後述する眼カメラ70とは区別される。この全方位カメラ46としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら距離センサ40および全方位カメラ46の設置位置は、当該部位に限定されず適宜変更され得る。
Further, the
胴体42の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節48Rおよび肩関節48Lによって、上腕50Rおよび上腕50Lが設けられる。図示は省略するが、肩関節48Rおよび肩関節48Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節48Rは、直交する3軸のそれぞれの軸廻りにおいて上腕50Rの角度を制御できる。肩関節48Rの或る軸(ヨー軸)は、上腕50Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節48Lは、直交する3軸のそれぞれの軸廻りにおいて上腕50Lの角度を制御できる。肩関節48Lの或る軸(ヨー軸)は、上腕50Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。
また、上腕50Rおよび上腕50Lのそれぞれの先端には、肘関節52Rおよび肘関節52Lを介して、前腕54Rおよび前腕54Lが設けられる。図示は省略するが、肘関節52Rおよび肘関節52Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕54Rおよび前腕54Lの角度を制御できる。
Further, a
前腕54Rおよび前腕54Lのそれぞれの先端には、人間の手に酷似した形状であり、指や掌の機能を持たせた右手56Rおよび左手56Lがそれぞれ設けられる。ただし、指や掌の機能が不要な場合には、前腕54Rおよび前腕54Lのそれぞれの先端に人の手に相当する球体を設けることも可能である。
At the tips of the
また、図示は省略するが、胴体42の前面、肩関節48Rと肩関節48Lとを含む肩に相当する部位、上腕50R、上腕50L、前腕54R、前腕54L、右手56Rおよび左手56Lには、それぞれ、接触センサ58(図2で包括的に示す)が設けられる。胴体42の前面の接触センサ58は、胴体42への人間や他の障害物の接触を検知する。したがって、ロボット10は、その自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪32の駆動を停止してロボット10の移動を急停止させることができる。また、その他の接触センサ58は、当該各部位に触れたかどうかを検知する。なお、接触センサ58の設置位置は、当該部位に限定されず、適宜な位置(人の頭、胸、腹、脇、背中および腰に相当する位置)に設けられてもよい。
Although not shown, the front surface of the
胴体42の中央上部(人の首に相当する位置)には首関節60が設けられ、さらにその上には頭部62が設けられる。図示は省略するが、首関節60は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット10の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。
A neck joint 60 is provided at the upper center of the body 42 (a position corresponding to a person's neck), and a
頭部62には、人の口に相当する位置に、スピーカ64が設けられる。スピーカ64は、ロボット10が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、人の耳に相当する位置には、マイク66Rおよびマイク66Lが設けられる。以下、右のマイク66Rと左のマイク66Lとをまとめてマイク66ということがある。マイク66は、周囲の音、とりわけコミュニケーションを実行する対象(以下、「コミュニケーション対象」ということある)である人間の声を取り込む。さらに、人の目に相当する位置には、眼球部68Rおよび眼球部68Lが設けられる。眼球部68Rおよび眼球部68Lは、それぞれ眼カメラ70Rおよび眼カメラ70Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがある。また、右の眼カメラ70Rと左の眼カメラ70Lとをまとめて眼カメラ70ということがある。
A
眼カメラ70は、ロボット10に接近した人間の顔または人間の他の部分或いは物体などを撮影して、それに対応する映像信号を取り込む。また、眼カメラ70は、上述した全方位カメラ46と同様のカメラを用いることができる。たとえば、眼カメラ70は、眼球部68内に固定され、眼球部68は、眼球支持部(図示せず)を介して頭部62内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部62の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部62の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ70の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ64、マイク66および眼カメラ70の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。
The
このように、この実施例のロボット10は、肩関節48の3自由度(左右で6自由度),肘関節52の1自由度(左右で2自由度),首関節60の3自由度および眼球支持部の2自由度(左右で4自由度)の合計15自由度を有する。
As described above, the
図2はロボット10の電気的な構成を示すブロック図である。この図2を参照して、ロボット10は、CPU80を含む。CPU80は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス82を介して、メモリ84、モータ制御ボード86、センサ入力/出力ボード88および音声入力/出力ボード90に接続される。
FIG. 2 is a block diagram showing an electrical configuration of the
メモリ84は、図示は省略をするが、ROM、HDDおよびRAMを含む。ROMおよびHDDには、ロボット10の行動を制御(タスクを実行)するための制御プログラム(ロボット制御プログラム)が予め記憶される。たとえば、ロボット制御プログラムは、各センサの出力(センサ情報)を検知するための検知プログラムや、他のロボットおよびユーザの端末などの外部コンピュータとの間で必要なデータおよびコマンドを送受信するための通信プログラムなどを含む。また、RAMは、CPU80のワークメモリおよびバッファメモリとして用いられる。
The
さらに、この実施例では、ロボット10は、人間とのコミュニケーションをとるために発話したり、ジェスチャしたりできるように構成されているが、メモリ84に、このような発話およびジェスチャのための辞書(発話/ジェスチャ辞書)のデータが記憶されている。
Further, in this embodiment, the
モータ制御ボード86は、たとえばDSPで構成され、各腕や首関節などの各軸モータの駆動を制御する。すなわち、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ96」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ98」と示す)の回転角度を制御する。
The
さらに、モータ制御ボード86は、CPU80からの制御データを受け、首関節60の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ100」と示す)の回転角度を制御する。そして、モータ制御ボード86は、CPU80からの制御データを受け、車輪32を駆動する2つのモータ(図3では、まとめて「車輪モータ36」と示す)の回転角度を制御する。
Further, the
なお、この実施例では、車輪モータ36を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ36と同様に直流モータを用いるようにしてもよい。また、ロボット10の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更された、たとえば、他の実施例では、エアアクチュエータが適用されてもよい。
In this embodiment, the motors other than the
センサ入力/出力ボード88は、モータ制御ボード86と同様に、DSPで構成され、各センサからの信号を取り込んでCPU80に与える。すなわち、距離センサ40からの距離に関するデータ(たとえば反射時間のデータ)がこのセンサ入力/出力ボード88を通じてCPU80に入力される。また、全方位カメラ46からの映像信号が、必要に応じてセンサ入力/出力ボード88で所定の処理を施してからCPU80に入力される。眼カメラ70からの映像信号も、同様にして、CPU80に入力される。また、上述した複数の接触センサ58(図3では、まとめて「接触センサ58」と示す)からの信号がセンサ入力/出力ボード88を介してCPU80に与えられる。
Similar to the
音声入力/出力ボード90もまた、同様に、DSPで構成され、CPU80から与えられる音声合成データに従った音声または声がスピーカ64から出力される。また、マイク66からの音声入力が、音声入力/出力ボード90を介してCPU80に与えられる。
Similarly, the voice input /
また、CPU80は、バス82を介して通信LANボード102に接続される。通信LANボード102は、たとえばDSPで構成され、CPU80から与えられた送信データを無線通信装置104に与え、無線通信装置104は送信データを、外部コンピュータに送信する。また、通信LANボード102は、無線通信装置104を介して外部コンピュータからデータを受信し、受信したデータ(受信データ)をCPU80に与える。
Further, the
また、CPU80は、バス82を介して、2次元距離計測装置106および3次元距離計測装置108に接続される。図1では省略したが、2次元距離計測装置106および3次元距離計測装置108は、ロボット10の台車30、センサ取り付けパネル38または胴体42の適宜の位置に取り付けられる。
Further, the
2次元距離計測装置106は、水平方向にレーザを照射し、物体(人間も含む)に反射して戻ってくるまでの時間から当該物体までの距離を計測するものである。たとえば、トランスミッタ(図示せず)から照射したレーザを回転ミラー(図示せず)で反射させて、前方を扇状に一定角度(たとえば、0.5度)ずつスキャンする。ここで、2次元距離計測装置106としては、SICK社製のレーザーレンジファインダ(型式 LMS200)を用いることができる。このレーザーレンジファインダを用いた場合には、距離8mを±15mm程度の誤差で計測可能である。
The two-dimensional
この実施例では、ロボット10は、2次元距離計測装置106で検出された障害物までの2次元(または水平方向)の距離情報と、ロボット10が配置される環境(たとえば、場所ないし領域)についての地図をマッチングすることで、ロボット10自身の位置(自己位置)すなわちロボット10の現在位置を推定する。ただし、より正確な現在位置を推定するために、パーティクルフィルタを用いて計算されたロボット10のオドメトリ(移動情報)も入力として利用される。ロボット10の現在位置を推定する手法としては、文献「D. Fox, W. Burgard and S. Thrun, Markov Localization for Mobile Robots in Dynamic Environments, Journal of Artificial Intelligence Research, vol. 11, pp. 391-427, 1999.」に開示される手法を用いることができる。ロボット10の現在位置を推定すること自体は本願の本質的な内容ではないため、詳細な説明は省略する。
In this embodiment, the
また、3次元距離計測装置108は、水平方向を基準(0°)として上下40°(+30°〜−10°)の検知角度(垂直視野角)を有する3次元全方位レーザ距離計である。この3次元距離計測装置108は、0.1秒に1回転して、およそ100mまでの距離を計測し、ロボット10周辺の3次元距離情報を格納した点群情報を取得することができる。ここでは、3次元距離計測装置108としては、Velodine社製のイメージングユニットLiDAR(HDL-32E)(商品名)を用いることができる。
Further, the three-dimensional
この実施例では、ロボット10は、3次元距離計測装置108で検出された3次元の距離情報に基づいて人間を検出するとともに、当該人間の位置を計測する。具体的には、3次元距離計測装置108から得られる3次元の距離情報と上記の地図を用いて、ロボット10が環境内のどの位置に存在しているか、およびどの方向を向いているかが推定される。次に、3次元距離計測装置108から取得した3次元の距離情報と、地図に基づく環境内の3次元の距離情報と比較し、近似する3次元の距離情報を格納した点群情報が示す点群を背景としてフィルタリングする。続いて、3次元距離計測装置108から取得した3次元の距離情報を格納した点群情報が示す点群のうち、閾値(Zmin, Zmax)を用いて一定の高さに存在しない点群をフィルタリングする。この実施例では、Zminが5cmに設定され、Zmaxが220cmに設定され、極端な高さの点群は、人間でないと判断し、人間の位置を計測する処理から除外される。
In this embodiment, the
一定の高さに存在しない点群がフィルタリングされると、フィルタリング後のすべての点群に含まれる高さ情報を0に設定した2次元の点群情報が生成される。生成された2次元の点群情報は、ユークリッド距離を用いてクラスタリングされる。一例として、Point Cloud Libraryに実装されているクラスタリング手法が利用される。 When a point cloud that does not exist at a constant height is filtered, two-dimensional point cloud information in which the height information included in all the filtered point clouds is set to 0 is generated. The generated two-dimensional point cloud information is clustered using the Euclidean distance. As an example, the clustering method implemented in Point Cloud Library is used.
さらに、クラスタリングされた点群情報に含まれる元々の高さ情報を利用し、高さの最大値から高さの最小値を引いた値が30cm未満であるもの、および点群の数が閾値以下であるもの(ここでは4個と設定した)がフィルタリングされる。つまり、小さすぎる物または壁などの人間以外の物と判断されたクラスタが除去される。そして、フィルタリング後の各クラスタの重心位置が各人間の位置情報として設定される。つまり、ロボット10の周囲に存在する人間が検出されるとともに、検出された人間の位置が計測される。
Furthermore, using the original height information included in the clustered point cloud information, the value obtained by subtracting the minimum height from the maximum height is less than 30 cm, and the number of point clouds is less than the threshold value. Those that are (set to 4 here) are filtered. That is, clusters that are determined to be too small or non-human, such as walls, are removed. Then, the position of the center of gravity of each cluster after filtering is set as the position information of each person. That is, a human being around the
なお、ロボット10の位置を推定したり、人間の位置を計測したりするために、ロボット10は、2次元距離計測装置106および3次元距離計測装置108を備えているが、これらの計測装置は、ロボット10に備えずに、または、ロボット10に備えるとともに、ロボット10が配置される環境内に設置されてもよい。また、床センサなどの他のセンサを用いて、ロボット10の位置を推定したり、人間の位置を計測(推定)したりしてもよい。
In order to estimate the position of the
また、この実施例では、ロボット10は、2次元距離計測装置106および3次元距離計測装置108を備えるようにしてあるが、3次元距離計測装置108の計測結果を用いてロボット10自身の位置を推定することもできるため、2次元距離計測装置106は省略することもできる。
Further, in this embodiment, the
上記のようなロボット10は、自身が配置される、不特定多数の人間が存在する環境において、不適切な行為を行う歩行中の注意対象者に注意を与える行動(注意行動または注意タスク)を実行する。
The
ただし、不適切な行為とは、ロボット10が配置される環境において禁止されている行為、たとえば、携帯端末(フィーチャーフォン、スマートフォンおよびタブレットPC等)を操作しながら歩行する行為(いわゆる歩きスマホ)および喫煙が禁止されたエリアでたばこを吸いながら歩行する行為(いわゆる歩きたばこ)などのことである。
However, inappropriate acts include acts that are prohibited in the environment in which the
また、注意行動は、ロボット10によって自律的に実行されたり、当該ロボット10のユーザの命令に従って実行されたりする。また、ユーザの命令に従う行動は、ユーザの端末から送信されたコマンドに従う行動である。たとえば、ロボット10自身に備わる各種センサ(たとえば全方位カメラ46または眼カメラ70)の出力に応じて、ロボット10の周囲に存在する人間の中に注意対象者が存在するかどうかをロボット10が自動的に判断しても良いし、ロボット10の周囲に存在する人間の中から注意対象者をユーザが指定するようにしても良い。
Further, the attention action is autonomously executed by the
図1では省略したが、ユーザの端末は、直接、または、ネットワークを介して、ロボット10と通信可能である。なお、ロボット10がユーザの端末に送信する送信データは、ユーザの端末からのコマンドに従う行動の実行を終了したことの通知などのデータである。
Although omitted in FIG. 1, the user's terminal can communicate with the
このような自律行動型のロボットの注意行動の従来例としては、図3に示すように、注意対象者が検出されると、注意対象者から十分な距離を保持した状態で、ロボットの自己位置である出発点Psから注意対象者との合流点Peに対して直線的に最短距離で移動し、注意対象者に対して注意発話を与える。このとき、ロボットは、人の平均的な歩行速度と同程度の移動速度(たとえば1.1m/秒)で移動する。以下、従来例のように、出発点Psから合流点Peまで直線的に移動する経路のことを、通常接近経路といい、従来例の注意行動におけるロボットの移動速度のことを、通常接近速度という。 As a conventional example of the attention behavior of such an autonomous behavior type robot, as shown in FIG. 3, when the attention target person is detected, the robot's self-position is maintained at a sufficient distance from the attention target person. It moves linearly from the starting point Ps, which is, to the confluence point Pe with the attention target person, at the shortest distance, and gives a caution utterance to the attention target person. At this time, the robot moves at a moving speed (for example, 1.1 m / sec) similar to the average walking speed of a person. Hereinafter, the path that linearly moves from the starting point Ps to the merging point Pe as in the conventional example is referred to as a normal approaching path, and the moving speed of the robot in the attention behavior of the conventional example is referred to as a normal approaching speed. ..
しかしながら、歩行中の注意対象者に注意を与える場合には、単にロボットが直線的に移動し、正面から対話を実行するだけでは、注意対象者にロボットの存在を気づかれなかったり、注意対象者自身に対する注意であると気づかれなかったりして、注意対象者に無視されることがあるという問題がある。 However, when giving attention to a person to be watched while walking, the robot may not be aware of the existence of the robot or the person to be watched may not be aware of the existence of the robot simply by moving the robot linearly and performing a dialogue from the front. There is a problem that the attention target person may ignore it because it may not be noticed as attention to oneself.
これを回避するため、この実施例では、歩行中の注意対象者に対して効果的に注意を与えることができるようにしてある。すなわち、歩行中の注意対象者の注意を引くように、ロボット10の移動経路を設定し、ロボット10の移動速度を設定し、注意発話のタイミングを設定してある。
In order to avoid this, in this embodiment, attention can be effectively given to a person to be watched while walking. That is, the movement path of the
以下、図4および図5を参照して、本実施例の注意行動について説明する。図4および図5に示すように、ロボット10は、注意対象者を検出すると、ロボットの自己位置(出発点Ps)を推定し、注意対象者が移動する推定経路を推定し、推定経路に応じて合流点Peを設定し、出発点Psから合流点Peに至る移動経路(以下、本実施例において注意行動を実行するロボット10が移動する経路のことを、注意接近経路という。)に沿って所定の移動速度で移動する。ただし、注意接近経路は、出発点Psと合流点Peとの間に設定される転回点Ptで転回するように設定される。すなわち、ロボット10は、注意行動を実行する際に、途中で折れ曲がる経路、すなわち屈曲する経路に沿って移動する。また、転回とは、経路の向きが30°以上(たとえば40°程度)変わることを意味する。すなわち、転回点Ptを通過する前の経路の向きと、転回点Ptを通過した後の経路の向きとの角度差θ1は、30°以上となる。
Hereinafter, the attention behavior of this embodiment will be described with reference to FIGS. 4 and 5. As shown in FIGS. 4 and 5, when the
図5を参照して注意接近経路の設定方法について具体的に説明する。まず、注意対象者の現在位置Pnおよび注意対象者の進行方向から注意対象者が移動する推定経路が推定される。次に、推定経路に基づいて、理想的な合流点が設定され、注意対象者の現在位置Pn、注意対象者の進行方向および注意対象者の現在速度Vpから、理想的な合流点までの所要時間後(t秒後)の注意対象者の未来位置Phを計算する。なお、詳細は後述するが、理想的な合流点は、ロボット10と注意対象者とが略同じ時間で到達する位置(時間的な中間位置)に設定される。
The method of setting the caution approach route will be specifically described with reference to FIG. First, the estimated route for the attention target person to move is estimated from the current position Pn of the attention target person and the traveling direction of the attention target person. Next, an ideal confluence point is set based on the estimated route, and the required time from the current position Pn of the attention target person, the traveling direction of the attention target person, and the current speed Vp of the attention target person to the ideal confluence point is set. The future position Ph of the attention subject after time (t seconds) is calculated. Although the details will be described later, the ideal confluence point is set at a position (temporal intermediate position) where the
また、合流点Peは、注意行動の完了時(合流点到達時)において少なくとも注意対象者の視界の範囲内(注意対象者の前方)であり、かつ、注意対象者の動き(歩行)を妨げることはない位置に設定される。具体的には、合流点Peは、注意対象者の進行方向(y)および注意対象者の進行方向に直交する方向(x)において未来位置Phから所定距離離れた位置に設定される。たとえば、注意対象者の進行方向(y)における、合流点Peと未来位置Phとの距離(垂直距離)dyは、0.5m〜1.5m程度であり、注意対象者の進行方向に直交する方向(x)における、合流点Peと未来位置Phとの距離(水平距離)dxは、0.5m〜1.5m程度である。 Further, the confluence point Pe is at least within the range of the visual field of the attention target person (in front of the attention target person) at the completion of the attention action (when the confluence point is reached), and hinders the movement (walking) of the attention target person. It is set in a position that never happens. Specifically, the confluence point Pe is set at a position separated from the future position Ph by a predetermined distance in the traveling direction (y) of the attention target person and the direction (x) orthogonal to the traveling direction of the attention target person. For example, the distance (vertical distance) dy between the confluence point Pe and the future position Ph in the traveling direction (y) of the attention target person is about 0.5 m to 1.5 m, which is orthogonal to the traveling direction of the attention target person. The distance (horizontal distance) dx between the confluence point Pe and the future position Ph in the direction (x) is about 0.5 m to 1.5 m.
さらに、転回点Ptは、合流点Peから3m以内に設定される。つまり、転回点Ptを通過した後の経路の長さdsは、3m以内となる。すなわち、注意接近経路は、合流点Peから3m以内に、30°以上経路の向きが変わる。 Further, the turning point Pt is set within 3 m from the confluence point Pe. That is, the length ds of the path after passing through the turning point Pt is within 3 m. That is, the direction of the caution approach route changes by 30 ° or more within 3 m from the confluence point Pe.
さらにまた、注意接近経路は、転回点Ptを通過した後の経路が、当該転回点を通過する前の経路よりも注意対象者の進行方向に直交する方向(注意対象者から見た左右方向)に近い向きになるように設定される。したがって、ロボット10は、注意行動を実行する際に、転回点Ptを通過した後、左右方向から注意対象者に近づくように移動する。
Furthermore, the attention approach route is a direction in which the route after passing the turning point Pt is orthogonal to the traveling direction of the attention target person than the route before passing the turning point (left-right direction as seen from the attention target person). It is set so that the orientation is close to. Therefore, when executing the attention action, the
さらにまた、注意接近経路は、転回点Ptを通過した後の経路が、注意対象者の進行方向(前後方向)において、注意対象者の前方から注意対象者に向かうように設定される。すなわち、転回点Ptは、少なくとも注意対象者の前方に設定される。以上のように、転回点Ptを通過した後の経路の向きは、注意対象者の進行方向に対して所定の傾斜角度θ2で傾く(所定の傾斜角度θ2を有する)ように設定される。たとえば、傾斜角度θ2は、50°〜89°の範囲内に設定される。 Furthermore, the attention approach route is set so that the route after passing through the turning point Pt is directed from the front of the attention target person to the attention target person in the traveling direction (front-back direction) of the attention target person. That is, the turning point Pt is set at least in front of the attention target person. As described above, the direction of the path after passing through the turning point Pt is set so as to be inclined at a predetermined inclination angle θ2 (having a predetermined inclination angle θ2) with respect to the traveling direction of the person to be watched. For example, the tilt angle θ2 is set within the range of 50 ° to 89 °.
また、図6に示すように、注意対象者が検出されたときのロボット10の自己位置(出発点Ps)が注意対象者の進行方向の後方である場合であっても、注意行動を実行する際には、注意対象者の前方から近づき、転回して注意するという経路およびそれに沿った動作は同じである。出発点Psが注意対象者の進行方向の後方である場合には、ロボット10は、まず、転回点Ptに対して注意対象者の進行方向の前方から近づくことができる位置、すなわち、転回点Ptよりも十分に前方の位置であって、注意対象者の視界の範囲内となる位置まで移動する。その後、ロボット10は、注意対象者の前方から近づき、転回点Ptで転回し、合流点Peに移動する。
Further, as shown in FIG. 6, even when the self-position (starting point Ps) of the
ただし、注意接近経路は、注意対象者が移動する推定経路とは交差しないように設定される。このため、図4〜図6に示すように、出発点Psが注意対象者よりも左方に位置する場合には、注意接近経路(転回点Ptおよび合流点Pe)は注意対象者から見て左に設定される。一方、図示は省略するが、出発点Psが注意対象者よりも右方に位置する場合には、注意接近経路(転回点Ptおよび合流点Pe)は注意対象者から見て右に設定される。すなわち、注意接近経路は、注意対象者から見て左右方向における同じ側に設定される。 However, the attention approach route is set so as not to intersect with the estimated route to which the attention target person moves. Therefore, as shown in FIGS. 4 to 6, when the starting point Ps is located to the left of the attention target person, the attention approach path (turning point Pt and confluence point Pe) is viewed from the attention target person. Set to the left. On the other hand, although not shown, when the starting point Ps is located to the right of the attention target person, the attention approach path (turning point Pt and confluence point Pe) is set to the right when viewed from the attention target person. .. That is, the attention approach route is set to the same side in the left-right direction when viewed from the attention target person.
また、注意行動におけるロボット10の移動速度Vrは、人の早歩きと同程度の速度(たとえば1.3m/秒)に設定される。以下、本実施例において注意行動を実行するロボット10が移動する速度Vrのことを、注意接近速度という。ただし、ロボット10は、注意行動を実行する際に、注意接近速度を維持するように、略一定の速度で移動する。なお、上述したように、ロボット10は、全方位移動型の台車30を備えるので、転回点Ptにおいても大きく減速することなく、移動速度Vrを維持しながら移動することができる。
Further, the moving speed Vr of the
さらに、ロボット10は、注意行動を実行する際に、所定の地点(発話開始地点)に到達したときに、注意対象者に対して注意発話を与える。注意発話は、不適切な行為を注意するためになされ、注意発話の内容としては、たとえば「すみません、歩きスマホは危険ですのでおやめください」などである。
Further, the
ただし、注意発話は、ロボット10が注意接近経路を移動する間であって、合流点Peに到達する前に注意対象者に与えられる。また、発話開始地点は、少なくとも、ロボット10が合流点Peに到達する前に注意発話が完了するように設定される。
However, the caution utterance is given to the attention target person while the
また、注意発話の開始タイミングは、ロボット10が転回点Ptを通過するタイミングに合わせて設定される。すなわち、発話開始地点は、転回点Ptおよびその近傍(転回部)に設定される。なお、注意発話の開始タイミングは、ロボット10が転回点Ptを通過する直前であっても良いし、ロボット10が転回点Ptを通過した直後であっても良いし、ロボット10が転回点Ptにおいて転回する(向きを変える)のと同時であっても良い。
Further, the start timing of the caution utterance is set according to the timing when the
なお、ロボット10が注意行動を開始した後、注意行動が完了する前に、注意対象者を見失ったり、注意対象者が環境外に出たりして追跡不能となった場合には、注意行動が中止される。
After the
以上のような本実施例の注意行動の効果を評価するために、本実施例の注意行動の効果と、従来例の注意行動の効果とを比較する実験を行った。 In order to evaluate the effect of the attention behavior of this example as described above, an experiment was conducted to compare the effect of the attention behavior of this example with the effect of the attention behavior of the conventional example.
本実施例の注意行動では、ロボットは、出発点Psと合流点Peとの間に転回点Ptを有する注意接近経路に沿って、注意接近速度(1.3m/秒)で移動する。なお、注意接近経路の具体的な設定方法は上述した内容と同じである。 In the attention behavior of this embodiment, the robot moves at a caution approach speed (1.3 m / sec) along a caution approach path having a turning point Pt between the starting point Ps and the confluence point Pe. The specific setting method of the caution approach route is the same as the above-mentioned contents.
従来例の注意行動では、ロボットは、出発点Psから合流点Peに対して直線的に移動する通常接近経路に沿って、通常接近速度(1.1m/秒)で移動する。なお、従来例の注意行動における合流点Peの算出方法は本実施例と同じである。 In the conventional caution behavior, the robot moves at a normal approach speed (1.1 m / sec) along a normal approach path that moves linearly from the starting point Ps to the merging point Pe. The method of calculating the confluence point Pe in the attention behavior of the conventional example is the same as that of the present embodiment.
ただし、本実施例の注意行動および従来例の注意行動のいずれにおいても、出発点Psは、注意対象者の左前方に設定される。したがって、本実施例の注意行動および従来例の注意行動のいずれにおいても、注意接近経路は注意対象者から見て左に設定される。 However, in both the attention behavior of this embodiment and the caution behavior of the conventional example, the starting point Ps is set to the left front of the attention target person. Therefore, in both the attention behavior of this embodiment and the attention behavior of the conventional example, the attention approach route is set to the left when viewed from the attention target person.
また、本実施例の注意行動および従来例の注意行動のいずれにおいても、合流点Peから2.7mの地点で注意発話を開始する。さらに、本実施例の注意行動および従来例の注意行動のいずれにおいても、注意発話の内容は、「すみません、歩きスマホは危険ですので、おやめください」とした。 In addition, in both the attention behavior of this embodiment and the caution behavior of the conventional example, the caution utterance is started at a point 2.7 m from the confluence Pe. Furthermore, in both the attention behavior of this example and the caution behavior of the conventional example, the content of the caution utterance was "Sorry, walking smartphones are dangerous, so please stop."
以上のような条件に従って、携帯端末を操作しながら歩行する24名の被験者に対し、被験者毎に、従来例の注意行動および本実施例の注意行動のいずれか一方の注意行動を割り当てて試行した。なお、従来例の注意行動と本実施例の注意行動とは反対均衡順序で割り当て、結果的に、従来例の注意行動について11回試行し、本実施例の注意行動について13回試行した。 According to the above conditions, 24 subjects walking while operating the mobile terminal were assigned the attention behavior of either the conventional attention behavior or the attention behavior of the present embodiment for each subject and tried. .. The attention behavior of the conventional example and the attention behavior of this example were assigned in the opposite equilibrium order, and as a result, the attention behavior of the conventional example was tried 11 times and the attention behavior of this example was tried 13 times.
そして、試行毎に、注意対象者がロボットの注意に従ったかどうか、すなわち注意が成功したかどうかを評価した。ただし、注意行動完了後に携帯端末の使用を中止した場合を「成功」とし、注意行動完了後に携帯端末の使用を中止しなかった(携帯端末の使用を継続した)場合を「失敗」とした。その集計結果(実験結果)が図7に示される。この図7に示す集計結果は、従来例の注意行動および本実施例の注意行動の各々における注意の成功数および注意の成功率を示すグラフである。 Then, for each trial, it was evaluated whether the attention subject followed the robot's attention, that is, whether the attention was successful. However, the case where the use of the mobile terminal was stopped after the caution action was completed was regarded as "success", and the case where the use of the mobile terminal was not stopped after the completion of the caution action (the use of the mobile terminal was continued) was regarded as "failure". The aggregated result (experimental result) is shown in FIG. The aggregation result shown in FIG. 7 is a graph showing the number of successful attentions and the success rate of attentions in each of the attention behaviors of the conventional example and the attention behavior of this embodiment.
図7を参照して分かるように、実験結果によれば、従来例の注意行動では、11回の試行のうち、2回成功し、9回失敗した。すなわち、従来例の注意行動では、成功率は約18%であった。一方、本実施例の注意行動では、13回の試行のうち、8回成功し、5回失敗した。すなわち、本実施例の注意行動では、成功率は約62%であった。以上のように、本実施例の注意行動は、従来例の注意行動に比べて、歩行中の注意対象者に効果的に注意を与えることができることが分かった。 As can be seen with reference to FIG. 7, according to the experimental results, the attention behavior of the conventional example succeeded twice out of 11 trials and failed 9 times. That is, in the conventional attention behavior, the success rate was about 18%. On the other hand, in the caution behavior of this example, out of 13 trials, 8 times were successful and 5 times were unsuccessful. That is, in the attention behavior of this example, the success rate was about 62%. As described above, it was found that the attention behavior of this example can effectively give attention to the attention target person while walking as compared with the attention behavior of the conventional example.
ロボット10の上記のような動作は、CPU80がメモリ84に記憶されたロボット制御プログラムを実行することによって実現される。具体的な処理については、後でフロー図を用いて説明する。
The above-mentioned operation of the
図8は図2に示したメモリ84(RAM)のメモリマップ500を示す図である。図8に示すように、メモリ84は、プログラム記憶領域502およびデータ記憶領域504を含む。プログラム記憶領域502は、ロボット制御プログラムを記憶する。ロボット制御プログラムは、通信プログラム502a、自己位置推定プログラム502b、注意対象者検出プログラム502c、経路推定プログラム502d、経路作成プログラム502e、移動制御プログラム502fおよび発話プログラム502gを含む。
FIG. 8 is a diagram showing a
なお、ロボット制御プログラムは、ロボット10が起動されたときに、HDDから読み出され、RAMに記憶される。
The robot control program is read from the HDD and stored in the RAM when the
通信プログラム502aは、他のロボットおよびユーザの端末などの外部コンピュータと通信するためのプログラムである。 The communication program 502a is a program for communicating with an external computer such as another robot and a user's terminal.
自己位置推定プログラム502bは、2次元距離計測装置106の出力と地図データ504aに基づいて、ロボット10自身の位置すなわち自己位置を推定(または検出)するためのプログラムである。
The self-position estimation program 502b is a program for estimating (or detecting) the position of the
注意対象者検出プログラム502cは、ロボット10に備わる各種センサからの出力に基づいて、ロボット10の周囲に存在する不適切な行為を行う歩行中の注意対象者を検出するためのプログラムである。また、注意対象者検出プログラム502cは、ユーザの端末から送信されたコマンドに従って、ロボット10の周囲に存在する注意対象者を検出するためのプログラムでもある。
The attention target person detection program 502c is a program for detecting a walking attention target person who exists around the
経路推定プログラム502dは、注意対象者の進行方向または注意対象者の移動速度に応じて、注意対象者が移動する推定経路を推定するためのプログラムである。 The route estimation program 502d is a program for estimating the estimated route to which the attention target person moves according to the traveling direction of the attention target person or the movement speed of the attention target person.
経路作成プログラム502eは、推定経路に応じて合流点Peを設定し、ロボット10の自己位置に応じた出発点Psから合流点Peに至る、転回点Ptを有する移動経路(注意接近経路)を作成するためのプログラムである。
The route creation program 502e sets the confluence point Pe according to the estimated route, and creates a movement route (attention approach route) having a turning point Pt from the starting point Ps according to the self-position of the
移動制御プログラム502fは、台車30の各車輪32を制御して、ロボット10を所定の移動速度で移動させるためのプログラムである。また、移動制御プログラム502fは、注意行動を実行する際に、注意接近経路に沿って注意接近速度でロボット10を移動させるためのプログラムでもある。
The movement control program 502f is a program for controlling each
発話プログラム502gは、データ記憶領域504に記憶されている発話データ504gを読み出して、発話データ504gに従った音声または声をスピーカ64から出力させるためのプログラムである。また、発話プログラム502gは、注意行動を実行する際に、所定のタイミングで、発話データ504gに含まれる注意発話用の音声についてのデータを読み出して、注意発話用の音声をスピーカ64から出力させるためのプログラムである。すなわち、発話プログラム502gは、注意発話を与えるためのプログラムである。
The utterance program 502g is a program for reading the utterance data 504g stored in the
図示は省略するが、プログラム記憶領域502には、センサ情報を検知するための検知プログラム、3次元距離計測装置108の出力に基づいて、ロボット10の周囲に存在する人間を検出するとともに、検出した人間の位置を検出するための人間位置検出プログラム、コミュニケーション対象の人間の音声を認識するための音声認識プログラムおよび注意行動以外の所定の行動を実行するための行動制御プログラムなどの他のプログラムも記憶される。
Although not shown, in the
また、データ記憶領域504には、地図データ504a、自己位置データ504b、注意対象者位置データ504c、推定経路データ504d、移動経路データ504e、速度データ504fおよび発話データ504gが記憶される。
Further, the
地図データ504aは、ロボット10が配置される環境を上方から見た2次元の地図についてのデータである。地図には、所定の位置を原点とする2次元座標が割り当てられており、平面上の位置は座標で表される。また、地図には、通路、壁、柱および固定的に配置されている障害物(たとえば、消火器、ごみ箱など)が記載される。障害物の位置(2次元座標)は予め知ることができる。
The map data 504a is data on a two-dimensional map of the environment in which the
なお、ユーザの端末は、地図データ504aと同じまたは同等の地図データを記憶しており、または、参照可能であり、ユーザは、端末を介してこの地図データに対応する地図を参照し、注意対象者として選択する人間が存在する位置を指定したりする。 Note that the user's terminal stores or can refer to the same or equivalent map data as the map data 504a, and the user refers to the map corresponding to this map data via the terminal and is to be careful. Specify the position where the person to be selected as a person exists.
自己位置データ504bは、ロボット10が配置される環境におけるロボット10自身の位置(自己位置)についてのデータである。注意対象者位置データ504cは、注意対象者の現在位置についてのデータである。ただし、ロボット10の自己位置および注意対象者の位置のそれぞれは、上述した地図上の座標として表現される。
The self-position data 504b is data about the position (self-position) of the
推定経路データ504dは、注意対象者が移動する推定経路についてのデータである。移動経路データ504eは、ロボット10の自己位置(出発点Ps)から合流点Peに至る、転回点Ptを有する移動経路(注意接近経路)についてのデータである。速度データ504fは、ロボット10が移動する際の移動速度についてのデータであり、少なくとも、注意行動を実行する際のロボット10の移動速度(注意用速度)Vaについてのデータを含む。発話データ504gは、スピーカ64から出力される音声または声についてのデータであり、少なくとも注意対象者に注意発話を与える際にスピーカ64から出力される注意発話用の音声についてのデータを含む。
The estimated route data 504d is data about an estimated route on which the attention subject moves. The movement path data 504e is data on a movement path (attention approach path) having a turning point Pt from the self-position (starting point Ps) of the
図示は省略するが、データ記憶領域504には、他のデータが記憶されたり、フラグおよび/またはタイマ(カウンタ)が設けられたりする。
Although not shown, the
図9は、図2に示したCPU80のロボット制御処理を示すフロー図である。このロボット制御処理は、ロボット10が配置される環境の状況に応じて開始/終了される。なお、ロボット制御処理の開始とは、ロボット10が配置される環境におけるロボットサービスの開始を意味し、ロボット制御処理の終了とは、ロボット10が配置される環境におけるロボットサービスの終了を意味する。また、ロボット制御処理は、定期的(たとえば0.1秒毎)に繰り返し実行される。図9に示すように、CPU80は、ロボット制御処理を開始すると、ステップS1で、注意対象者を検出したかどうかを判断する。なお、ロボット制御処理は定期的に繰り返し実行されるので、注意対象者を検出するとは、注意対象者が新たに検出することだけでなく、前回のロボット制御処理で検出していた注意対象者を引き続き検出することも含む。ステップS1で“NO”であれば、つまり、注意対象者を検出しないと判断した場合には、後述するステップS7に進む。
FIG. 9 is a flow chart showing the robot control process of the
一方、ステップS1で“YES”であれば、つまり、注意対象者を検出したと判断した場合には、ステップS3で、移動経路の作成処理を実行し、ステップS5で、移動経路に応じて注意行動処理を実行し、ステップS7に進む。 On the other hand, if "YES" in step S1, that is, when it is determined that the attention target person has been detected, the movement route creation process is executed in step S3, and attention is given according to the movement route in step S5. The action process is executed, and the process proceeds to step S7.
ステップS7では、ロボット制御処理を終了するかどうかを判断する。ステップS7で“NO”であれば、つまり、終了でなければ、ステップS1に戻る。一方、ステップS7で“YES”であれば、つまり、終了であれば、ロボット制御処理を終了する。なお、図示は省略するが、注意対象者を検出していない場合には、ロボット10は停止していても良く、また、自由に移動しても良い。
In step S7, it is determined whether or not to end the robot control process. If it is "NO" in step S7, that is, if it is not finished, the process returns to step S1. On the other hand, if "YES" in step S7, that is, if it ends, the robot control process ends. Although not shown, the
図10および図11は、図9のステップS3に示した移動経路の作成処理を示すフロー図である。図10に示すように、CPU80は、移動経路の作成処理を開始すると、ステップS31で、注意対象者の現在位置Pnを検出し、ステップS33で、注意対象者が移動する推定経路を推定し、ステップS35で、ロボット10の自己位置を推定し、ロボット10の自己位置に応じて出発点Psを設定し、ステップS37で、移動経路Planを初期化する。ここでは、Plan=NULL(不存在)とする。
10 and 11 are flow charts showing the process of creating the movement route shown in step S3 of FIG. As shown in FIG. 10, when the
続いて、ステップS39で、経路有効度の最大値Umaxを初期化する。ここでは、Umax=−∞とする。なお、経路有効度の最大値Umaxは負の値であり、経路有効度の最大値Umaxの初期値の絶対値としては、∞に限定されず、後述する最大予測時間tmaxの絶対値よりも大きい値であれば良い。 Subsequently, in step S39, the maximum value Umax of the route validity is initialized. Here, Umax = −∞. The maximum value Umax of the route effectiveness is a negative value, and the absolute value of the initial value of the maximum value Umax of the route effectiveness is not limited to ∞ and is larger than the absolute value of the maximum predicted time tmax described later. Any value will do.
次に、ステップS41で、予測時間tを初期化(t=0)して、ステップS43で、予測時間tが最大予測時間tmaxよりも大きいかどうかを判断する。ただし、予測時間tおよび最大予測時間tmaxの単位は秒であり、たとえば、最大予測時間tmaxは、20秒に設定される。 Next, in step S41, the predicted time t is initialized (t = 0), and in step S43, it is determined whether or not the predicted time t is larger than the maximum predicted time tmax. However, the unit of the predicted time t and the maximum predicted time tmax is seconds, and for example, the maximum predicted time tmax is set to 20 seconds.
ステップS43で“NO”であれば、つまり、予測時間tが最大予測時間tmaxよりも小さいと判断した場合には、ステップS45で、t秒後の注意対象者の未来位置Phを算出し、ステップS47で、未来位置Phに応じた合流点Peを設定し、ステップS49で、上述した方法で、出発点Psから合流点Peに至る、転回点Ptを有する理想経路Pathを設定する。 If it is "NO" in step S43, that is, if it is determined that the predicted time t is smaller than the maximum predicted time tmax, the future position Ph of the attention target person after t seconds is calculated in step S45, and the step In S47, the merging point Pe according to the future position Ph is set, and in step S49, the ideal path Path having the turning point Pt from the starting point Ps to the merging point Pe is set by the method described above.
続いて、図11に示すステップS51で、理想経路Pathの移動にかかる(出発点Psから合流点Peに至るまでの)所要時間taを算出して、ステップS53で、理想経路Pathの経路有効度Uを算出する。ここでは、U=−|t−ta|とする。すなわち、経路有効度Uは、予測時間tと所要時間taとの差の絶対値に応じた負の値となる。 Subsequently, in step S51 shown in FIG. 11, the required time ta (from the starting point Ps to the confluence point Pe) required for the movement of the ideal path Path is calculated, and in step S53, the path effectiveness of the ideal path Path is calculated. Calculate U. Here, U =-| t-ta |. That is, the route effectiveness U becomes a negative value according to the absolute value of the difference between the predicted time t and the required time ta.
次に、ステップS55で、理想経路Pathの経路有効度Uが経路有効度の最大値Umaxよりも大きいかどうかを判断する。ステップS55で“NO”であれば、つまり、理想経路Pathの経路有効度Uが経路有効度の最大値Umaxよりも小さいと判断した場合には、後述するステップS61に進む。一方、ステップS55で“YES”であれば、つまり、理想経路Pathの経路有効度Uが経路有効度の最大値Umaxよりも大きい(0に近い)と判断した場合には、ステップS57で、移動経路Planを現在の理想経路Pathに更新(Plan=Path)して、ステップS59で、経路有効度の最大値Umaxを現在の経路有効度Uに更新(Umax=U)して、ステップS61に進む。 Next, in step S55, it is determined whether or not the path effectiveness U of the ideal path Path is larger than the maximum value Umax of the path effectiveness. If it is "NO" in step S55, that is, if it is determined that the route effectiveness U of the ideal route Path is smaller than the maximum value Umax of the route effectiveness, the process proceeds to step S61 described later. On the other hand, if "YES" in step S55, that is, when it is determined that the route effectiveness U of the ideal route Path is larger than (close to 0) the maximum value Umax of the route effectiveness, the movement is performed in step S57. The route Plan is updated to the current ideal route Path (Plan = Path), and in step S59, the maximum value Umax of the route effectiveness is updated to the current route effectiveness U (Umax = U), and the process proceeds to step S61. ..
ステップS61では、予測時間tを更新して、図10に示すステップS43に戻る。ステップS61では、予測時間tに所定の時間xが加算される(t=t+x)。たとえば、時間xは、0.1秒である。以上のように、ステップS43で“YES”となるまで、上述したステップS45〜S61の処理を繰り返し実行する。 In step S61, the predicted time t is updated, and the process returns to step S43 shown in FIG. In step S61, a predetermined time x is added to the predicted time t (t = t + x). For example, the time x is 0.1 seconds. As described above, the above-described processes of steps S45 to S61 are repeatedly executed until "YES" is obtained in step S43.
図10に戻って、ステップS43で“YES”であれば、つまり、予測時間tが最大予測時間tmaxよりも大きいと判断した場合には、ステップS63で、経路有効度の最大値Umaxが有効かどうかを判断する。ここでは、経路有効度の最大値Umaxが所定時間以内を示す場合、すなわち、予測時間tと所要時間taとの差が所定時間以内である場合には、経路有効度の最大値Umaxが有効であると判断する。たとえば、予測時間tと所要時間taとの差が5秒以内である場合には、経路有効度の最大値Umaxが有効であると判断し、予測時間tと所要時間taとの差が5秒よりも大きい場合には、経路有効度の最大値Umaxが無効であると判断する。 Returning to FIG. 10, if “YES” in step S43, that is, when it is determined that the predicted time t is larger than the maximum predicted time tmax, is the maximum value Umax of the route effectiveness valid in step S63? Judge whether or not. Here, when the maximum value Umax of the route effectiveness indicates within a predetermined time, that is, when the difference between the predicted time t and the required time ta is within a predetermined time, the maximum value Umax of the route effectiveness is effective. Judge that there is. For example, when the difference between the predicted time t and the required time ta is within 5 seconds, it is determined that the maximum value Umax of the route effectiveness is valid, and the difference between the predicted time t and the required time ta is 5 seconds. If it is larger than, it is determined that the maximum value Umax of the route effectiveness is invalid.
ステップS63で“NO”であれば、つまり、経路有効度の最大値Umaxが無効であると判断した場合には、ステップS65で、移動経路を無効化(Plan=NULL)して、ロボット制御処理にリターンする。一方、ステップS63で“YES”であれば、つまり、経路有効度の最大値Umaxが有効であると判断した場合には、ステップS65を経ずにロボット制御処理にリターンする。 If it is "NO" in step S63, that is, if it is determined that the maximum value Umax of the route effectiveness is invalid, the movement route is invalidated (Plan = NULL) in step S65, and the robot control process is performed. Return to. On the other hand, if "YES" in step S63, that is, if it is determined that the maximum value Umax of the route effectiveness is valid, the robot control process is returned without going through step S65.
図12は、図9のステップS5に示した注意行動処理を示すフロー図である。なお、移動経路の作成処理において移動経路が無効化された場合には、注意行動処理は開始されない(実行されない)。図12に示すように、CPU80は、注意行動処理を開始すると、ステップS71で、移動経路Planを読み出し、ステップS73で、注意用速度Vaを読み出し、ステップS75で、台車30の各車輪32を制御して、移動経路Planに沿って注意用速度Vaでロボット10を移動させる。
FIG. 12 is a flow chart showing the attention behavior processing shown in step S5 of FIG. If the movement route is invalidated in the movement route creation process, the attention action process is not started (executed). As shown in FIG. 12, when the attention action process is started, the
続いて、ステップS77で、発話開始地点に到達したかどうかを判断する。ステップS77で“NO”であれば、つまり、発話開始地点に到達していないと判断した場合には、ステップS79で、注意行動可能かどうかを判断する。ここでは、注意対象者を見失っていないか、注意対象者が不適切な行為を継続しているかどうかを判断する。たとえば、注意対象者が環境外に出ることによってロボット10が注意対象者を見失った場合、および注意対象者が不適切な行為を中止した場合には、注意行動不可能と判断する。
Subsequently, in step S77, it is determined whether or not the utterance start point has been reached. If it is "NO" in step S77, that is, if it is determined that the utterance start point has not been reached, it is determined in step S79 whether or not the attention action is possible. Here, it is determined whether the person to be watched has lost sight of the person to be watched and whether the person to be watched continues to act inappropriately. For example, when the
ステップS79で“NO”であれば、つまり、注意行動不可能と判断した場合には、ステップS81で、注意行動を中止して、ロボット制御処理にリターンする。一方、ステップS79で“YES”であれば、つまり、注意行動可能と判断した場合には、ステップS77に戻る。 If it is "NO" in step S79, that is, if it is determined that the attention action is impossible, the attention action is stopped and the robot control process is returned in step S81. On the other hand, if "YES" in step S79, that is, if it is determined that attention behavior is possible, the process returns to step S77.
また、ステップS77で“YES”であれば、つまり、発話開始地点に到達したと判断した場合には、ステップS83で、注意発話を実施して、ステップS85で、注意行動を完了したかどうかを判断する。 If "YES" in step S77, that is, when it is determined that the utterance start point has been reached, the caution utterance is performed in step S83, and whether or not the caution action is completed in step S85 is determined. to decide.
ステップS85で“YES”であれば、つまり、注意行動を完了したと判断した場合は、ロボット制御処理にリターンする。一方、ステップS85で“NO”であれば、つまり、注意行動を完了していないと判断した場合は、ステップS87で、注意行動可能かどうかを判断する。ステップS87で“YES”であれば、ステップS83に戻る。一方、ステップS87で“NO”であれば、ステップS89で、注意行動を中止して、ロボット制御処理にリターンする。 If "YES" in step S85, that is, when it is determined that the attention action has been completed, the robot control process is returned. On the other hand, if it is "NO" in step S85, that is, if it is determined that the attention action has not been completed, it is determined in step S87 whether or not the attention action is possible. If "YES" in step S87, the process returns to step S83. On the other hand, if "NO" in step S87, the attention action is stopped and the robot control process is returned in step S89.
この実施例によれば、ロボット10が転回点Ptを有する移動経路に従って移動し、合流点Peに到達する前に、注意対象者に対する注意発話を与えるので、歩行中の注意対象者に効果的に対して注意を与えることができる。
According to this embodiment, since the
また、この実施例によれば、ロボット10が転回点Ptを通過後、進行方向に直交する方向(左右方向)から注意対象者に近づくので、注意対象者の注意を引くことができ、歩行中の注意対象者に対して効果的に注意を与えることができる。
Further, according to this embodiment, after the
上述の実施例では、図9〜図12のすべてのステップを1つのコンピュータ14が実行するものとして説明したが、複数のコンピュータを用いてもよく、あるいは特定の処理をコンピュータではなくDSPのような専用処理回路で処理するようにしてもよい。 In the above embodiment, all the steps of FIGS. 9 to 12 have been described as being executed by one computer 14, but a plurality of computers may be used, or a specific process may be performed like a DSP instead of a computer. It may be processed by a dedicated processing circuit.
なお、上で挙げた角度および距離などの具体的数値はいずれも単なる一例であり、必要に応じて適宜変更可能である。 The specific numerical values such as the angle and the distance mentioned above are merely examples, and can be changed as necessary.
10 …ロボット
30 …台車
64 …スピーカ
80 …CPU
84 …RAM
10 ...
84 ... RAM
Claims (8)
不適切な行為を行う歩行中の注意対象者を検出する検出手段、
前記注意対象者が移動する推定経路を推定する経路推定手段、
前記推定経路に基づいて、前記ロボットの自己位置に応じた出発点から前記注意対象者と合流する合流点に至る、転回点を有する移動経路を作成する経路作成手段、
前記経路作成手段によって作成された前記移動経路に従って前記ロボットが所定の移動速度で移動するように前記移動手段を制御する制御手段、および
前記ロボットが前記移動経路に従って移動する間であって、前記合流点に到達する前に、前記スピーカから前記注意対象者に対する注意発話を与える注意手段を備える、ロボット。 A robot equipped with moving means and speakers that can move in all directions.
A detection means that detects a person to be watched while walking that performs inappropriate actions,
A route estimating means for estimating an estimated route to which the attention subject moves,
A route creating means for creating a movement route having a turning point from a starting point according to the self-position of the robot to a confluence point where the robot joins the attention target person based on the estimated route.
A control means that controls the moving means so that the robot moves at a predetermined moving speed according to the moving path created by the route creating means, and a confluence while the robot moves according to the moving path. A robot comprising a caution means for giving a caution utterance from the speaker to the attention target person before reaching a point.
前記ロボットのプロセッサに、
不適切な行為を行う歩行中の注意対象者を検出する検出ステップ、
前記注意対象者が移動する推定経路を推定する経路推定ステップ、
前記推定経路に基づいて、前記ロボットの自己位置に応じた出発点から前記注意対象者と合流する合流点に至る、転回点を有する移動経路を作成する経路作成ステップ、
前記経路作成ステップによって作成された前記移動経路に従って前記ロボットが所定の移動速度で移動するように前記移動手段を制御する制御ステップ、および
前記ロボットが前記移動経路に従って移動する間であって、前記合流点に到達する前に、前記スピーカから前記注意対象者に対する注意発話を与える注意ステップを実行させる、ロボット制御プログラム。 A robot control program for a robot equipped with moving means and speakers that can move in all directions.
To the processor of the robot
A detection step that detects a walking attention subject who performs inappropriate actions,
The route estimation step for estimating the estimated route to which the attention subject moves,
A route creation step of creating a movement route having a turning point from a starting point according to the self-position of the robot to a merging point where the robot joins the attention target person based on the estimated route.
A control step that controls the moving means so that the robot moves at a predetermined moving speed according to the moving path created by the route creating step, and the merging while the robot moves according to the moving path. A robot control program that executes a attention step that gives a caution utterance to the attention target person from the speaker before reaching the point.
(a)不適切な行為を行う歩行中の注意対象者を検出するステップ、
(b)前記注意対象者が移動する推定経路を推定するステップ、
(c)前記推定経路に基づいて、前記ロボットの自己位置に応じた出発点から前記注意対象者と合流する合流点に至る、転回点を有する移動経路を作成するステップ、
(d)前記ステップ(c)で作成された前記移動経路に従って前記ロボットが所定の移動速度で移動するように前記移動手段を制御するステップ、および
(e)前記ロボットが前記移動経路に従って移動する間であって、前記合流点に到達する前に、前記スピーカから前記注意対象者に対する注意発話を与えるステップを含む、ロボット制御方法。 A robot control method for a robot equipped with moving means and speakers that can move in all directions.
(A) Steps to detect a person to be watched while walking who performs inappropriate acts,
(B) A step of estimating an estimated route to which the attention subject moves.
(C) A step of creating a movement path having a turning point from a starting point according to the self-position of the robot to a merging point where the robot joins the attention target person based on the estimated path.
(D) A step of controlling the moving means so that the robot moves at a predetermined moving speed according to the moving path created in the step (c), and (e) while the robot moves according to the moving path. A robot control method comprising a step of giving a caution utterance from the speaker to the attention target person before reaching the confluence.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019128680A JP7258438B2 (en) | 2019-07-10 | 2019-07-10 | ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019128680A JP7258438B2 (en) | 2019-07-10 | 2019-07-10 | ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021013964A true JP2021013964A (en) | 2021-02-12 |
JP7258438B2 JP7258438B2 (en) | 2023-04-17 |
Family
ID=74532030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019128680A Active JP7258438B2 (en) | 2019-07-10 | 2019-07-10 | ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7258438B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006051559A (en) * | 2004-08-10 | 2006-02-23 | Riyuukoku Univ | Leg module and leg type robot using it |
US20090234499A1 (en) * | 2008-03-13 | 2009-09-17 | Battelle Energy Alliance, Llc | System and method for seamless task-directed autonomy for robots |
JP2012161851A (en) * | 2011-02-03 | 2012-08-30 | Advanced Telecommunication Research Institute International | Robot system and space formation recognizing device used in the same |
JP2013061715A (en) * | 2011-09-12 | 2013-04-04 | Nec Corp | Person monitoring system, robot, person monitoring method and robot control program |
JP2016139343A (en) * | 2015-01-28 | 2016-08-04 | シャープ株式会社 | Crime prevention system |
JP2017016359A (en) * | 2015-06-30 | 2017-01-19 | セコム株式会社 | Autonomous Mobile Robot |
JP2018144118A (en) * | 2017-03-01 | 2018-09-20 | 株式会社国際電気通信基礎技術研究所 | Guide robot |
-
2019
- 2019-07-10 JP JP2019128680A patent/JP7258438B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006051559A (en) * | 2004-08-10 | 2006-02-23 | Riyuukoku Univ | Leg module and leg type robot using it |
US20090234499A1 (en) * | 2008-03-13 | 2009-09-17 | Battelle Energy Alliance, Llc | System and method for seamless task-directed autonomy for robots |
JP2012161851A (en) * | 2011-02-03 | 2012-08-30 | Advanced Telecommunication Research Institute International | Robot system and space formation recognizing device used in the same |
JP2013061715A (en) * | 2011-09-12 | 2013-04-04 | Nec Corp | Person monitoring system, robot, person monitoring method and robot control program |
JP2016139343A (en) * | 2015-01-28 | 2016-08-04 | シャープ株式会社 | Crime prevention system |
JP2017016359A (en) * | 2015-06-30 | 2017-01-19 | セコム株式会社 | Autonomous Mobile Robot |
JP2018144118A (en) * | 2017-03-01 | 2018-09-20 | 株式会社国際電気通信基礎技術研究所 | Guide robot |
Also Published As
Publication number | Publication date |
---|---|
JP7258438B2 (en) | 2023-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5366048B2 (en) | Information provision system | |
JP5324286B2 (en) | Network robot system, robot control apparatus, robot control method, and robot control program | |
JP5768273B2 (en) | A robot that predicts a pedestrian's trajectory and determines its avoidance behavior | |
JP5764795B2 (en) | Mobile robot, mobile robot learning system, and mobile robot behavior learning method | |
JP5617562B2 (en) | Mobile robot | |
US11330951B2 (en) | Robot cleaner and method of operating the same | |
US20190184569A1 (en) | Robot based on artificial intelligence, and control method thereof | |
US20180329409A1 (en) | Portable mobile robot and operation thereof | |
JP6919882B2 (en) | Person estimation system and estimation program | |
JP6893630B2 (en) | Service provision robot system | |
US20180329424A1 (en) | Portable mobile robot and operation thereof | |
JP2015066621A (en) | Robot control system, robot, output control program and output control method | |
KR20190105214A (en) | Robot cleaner for escaping constrained situation through artificial intelligence and operating method thereof | |
JP5552710B2 (en) | Robot movement control system, robot movement control program, and robot movement control method | |
JP4793904B2 (en) | Communication robot system and communication robot | |
KR20190094311A (en) | Artificial intelligence robot and operating method thereof | |
JP6142307B2 (en) | Attention target estimation system, robot and control program | |
JP2011000656A (en) | Guide robot | |
JP6713637B2 (en) | Service provision robot system | |
JP7317436B2 (en) | ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD | |
US11986959B2 (en) | Information processing device, action decision method and program | |
JP5732633B2 (en) | Communication robot | |
JP2020004182A (en) | Robot, robot control program and robot control method | |
JP7258438B2 (en) | ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD | |
JP5115886B2 (en) | Road guidance robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20190729 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220519 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230331 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230404 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7258438 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |