JP2021013964A - Robot, robot control program, and robot control method - Google Patents

Robot, robot control program, and robot control method Download PDF

Info

Publication number
JP2021013964A
JP2021013964A JP2019128680A JP2019128680A JP2021013964A JP 2021013964 A JP2021013964 A JP 2021013964A JP 2019128680 A JP2019128680 A JP 2019128680A JP 2019128680 A JP2019128680 A JP 2019128680A JP 2021013964 A JP2021013964 A JP 2021013964A
Authority
JP
Japan
Prior art keywords
robot
attention
route
target person
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019128680A
Other languages
Japanese (ja)
Other versions
JP7258438B2 (en
Inventor
聡 佐竹
Satoshi Satake
聡 佐竹
和樹 水丸
Kazuki Mizumaru
和樹 水丸
神田 崇行
Takayuki Kanda
崇行 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2019128680A priority Critical patent/JP7258438B2/en
Publication of JP2021013964A publication Critical patent/JP2021013964A/en
Application granted granted Critical
Publication of JP7258438B2 publication Critical patent/JP7258438B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To provide a robot which effectively gives warning to a person needing attention during walking.SOLUTION: A robot 10 includes a computer, a carriage movable in all directions and a speaker. The computer detects a person needing attention during walking doing an appropriate action, estimates an estimation path where the person needing attention moves, creates a moving path having a turning point Pt from a starting point Ps according to a self position of the robot to a merging point Pe where the robot merges with the person needing attention based on the estimation path, controls the carriage so that it moves at a predetermined moving speed according to the moving path, and gives warning utterance to the person needing attention from the speaker before the robot reaches the merging point while moving according to the moving path.SELECTED DRAWING: Figure 4

Description

この発明はロボット、ロボット制御プログラムおよびロボット制御方法に関し、特にたとえば、人物を監視する、ロボット、ロボット制御プログラムおよびロボット制御方法に関する。 The present invention relates to robots, robot control programs and robot control methods, and more particularly to robots, robot control programs and robot control methods for monitoring people, for example.

この種の従来の人物監視システムの一例が特許文献1に開示されている。この特許文献1に開示される人物監視システムでは、所定エリア内に進入した移動物が監視対象者であるか否かが判定され、移動物が監視対象者であると判定されると、ロボットが、監視対象者の移動経路を推定し、推定した移動経路上に直線的に移動し、監視対象者の正面側から監視対象者に対して対話を実行する。 An example of a conventional person monitoring system of this type is disclosed in Patent Document 1. In the person monitoring system disclosed in Patent Document 1, it is determined whether or not a moving object that has entered the predetermined area is a monitored person, and when it is determined that the moving object is a monitored person, the robot causes the robot. , Estimate the movement route of the monitored person, move linearly on the estimated movement route, and execute a dialogue with the monitored person from the front side of the monitored person.

このとき、ロボットは、監視対象者の推定移動経路に対して垂直方向に移動して、推定移動経路上の地点に到達する。 At this time, the robot moves in the direction perpendicular to the estimated movement path of the monitored person and reaches a point on the estimated movement path.

特開2013−061715号公報[G08B 21/02]Japanese Unexamined Patent Publication No. 2013-061715 [G08B 21/02]

上記の特許文献1の人物監視システムでは、ロボットが、推定移動経路に対して直線的に移動し、監視対象者の正面から監視対象者に対して対話を実行する。 In the person monitoring system of Patent Document 1 described above, the robot moves linearly with respect to the estimated movement path and executes a dialogue with the monitored person from the front of the monitored person.

しかしながら、不適切な行為を行う歩行中の注意対象者に注意を与える場合には、単にロボットが直線的に移動し、正面から対話を実行するだけでは、注意対象者に無視されることがあるという問題がある。 However, when giving attention to a person to be watched while walking who performs inappropriate actions, the robot may simply move in a straight line and perform a dialogue from the front, which may be ignored by the person to be watched. There is a problem.

それゆえに、この発明の主たる目的は、新規な、ロボット、ロボット制御プログラムおよびロボット制御方法を提供することである。 Therefore, a main object of the present invention is to provide new robots, robot control programs and robot control methods.

この発明の他の目的は、歩行中の注意対象者に対して効果的に注意を与えることができる、ロボット、ロボット制御プログラムおよびロボット制御方法を提供することである。 Another object of the present invention is to provide a robot, a robot control program, and a robot control method capable of effectively giving attention to a person to be watched while walking.

第1の発明は、全方位に移動可能な移動手段およびスピーカを備えるロボットであって、不適切な行為を行う歩行中の注意対象者を検出する検出手段、注意対象者が移動する推定経路を推定する経路推定手段、推定経路に基づいて、ロボットの自己位置に応じた出発点から注意対象者と合流する合流点に至る、転回点を有する移動経路を作成する経路作成手段、経路作成手段によって作成された移動経路に従ってロボットが所定の移動速度で移動するように移動手段を制御する制御手段、およびロボットが移動経路に従って移動する間であって、合流点に到達する前に、スピーカから注意対象者に対する注意発話を与える注意手段を備える、ロボットである。 The first invention is a robot provided with a moving means and a speaker that can move in all directions, and provides a detecting means for detecting an attention target person who is walking and performing an inappropriate action, and an estimated route for the attention target person to move. By the route estimation means to be estimated, the route creation means to create a movement route having a turning point from the starting point according to the robot's own position to the confluence point to join the attention target person, and the route creation means based on the estimated route. A control means that controls the moving means so that the robot moves at a predetermined moving speed according to the created movement path, and a attention target from the speaker while the robot moves according to the moving path and before reaching the confluence. It is a robot equipped with a means of caution that gives attention to a person.

第1の発明では、ロボット(10)は、全方位に移動可能な移動手段(30)およびスピーカ(64)を備える。検出手段(80、46、70、S1)は、不適切な行為を行う歩行中の注意対象者を検出する。経路推定手段(80、S33)は、注意対象者が移動する推定経路を推定する。経路作成手段(80、S35〜S61)は、推定経路に基づいて、ロボットの自己位置に応じた出発点から注意対象者と合流する合流点に至る、転回点を有する移動経路を作成する。制御手段(80、S75)は、経路作成手段によって作成された移動経路に従ってロボットが所定の移動速度で移動するように移動手段を制御する。注意手段(14、S77、S83)は、ロボットが移動経路に従って移動する間であって、合流点に到達する前に、スピーカから注意対象者に対する注意発話を与える。 In the first invention, the robot (10) includes a moving means (30) and a speaker (64) that can move in all directions. The detection means (80, 46, 70, S1) detects a person to be watched while walking who performs an inappropriate act. The route estimation means (80, S33) estimates the estimated route on which the attention subject moves. The route creating means (80, S35 to S61) creates a moving route having a turning point from a starting point according to the robot's own position to a confluence point where the robot joins the attention target person, based on the estimated route. The control means (80, S75) controls the moving means so that the robot moves at a predetermined moving speed according to the moving route created by the route creating means. The attention means (14, S77, S83) gives a caution utterance from the speaker to the attention target person while the robot moves according to the movement path and before reaching the confluence.

第1の発明によれば、ロボットが転回点を有する移動経路に従って移動し、合流点に到達する前に、注意対象者に対する注意発話を与えるので、歩行中の注意対象者に効果的に注意を与えることができる。 According to the first invention, since the robot moves according to the movement path having the turning point and gives a caution utterance to the attention target person before reaching the confluence point, the attention target person while walking is effectively paid attention. Can be given.

第2の発明は、第1の発明に従属し、経路作成手段は、転回点を通過した後の経路が、当該転回点を通過する前の経路よりも注意対象者の進行方向に直交する方向に近い向きの経路となるように、移動経路を作成する、ロボットである。 The second invention is subordinate to the first invention, and the route creating means is a direction in which the route after passing the turning point is orthogonal to the traveling direction of the attention subject more than the route before passing the turning point. It is a robot that creates a movement route so that the route is in a direction close to.

第2の発明によれば、ロボットが転回点を通過後、進行方向に直交する方向から注意対象者に近づくので、注意対象者の注意を引くことができ、歩行中の注意対象者に効果的に注意を与えることができる。 According to the second invention, after the robot passes the turning point, it approaches the attention target person from the direction orthogonal to the traveling direction, so that the attention target person can be attracted and is effective for the attention target person while walking. Can be given attention to.

第3の発明は、第1または第2の発明に従属し、経路作成手段は、注意対象者の歩行速度と、ロボットの移動速度とに応じて、注意対象者およびロボットのそれぞれが合流点に到達するまでの所要時間の差が所定の範囲内になるように、当該合流点を設定する、ロボットである。 The third invention is subordinate to the first or second invention, and the route creation means is such that the attention target person and the robot meet at the confluence point according to the walking speed of the attention target person and the moving speed of the robot. It is a robot that sets the confluence so that the difference in the time required to reach it is within a predetermined range.

第3の発明によれば、ロボットの移動経路を適切に設定することができる。 According to the third invention, the movement path of the robot can be appropriately set.

第4の発明は、第1から第3までのいずれかの発明に従属し、合流点は、推定経路から所定距離離れた位置に設定される、ロボットである。 The fourth invention is dependent on any one of the first to third inventions, and the merging point is a robot set at a position separated from the estimated path by a predetermined distance.

第4の発明によれば、注意対象者の動きを妨げないようにすることができる。 According to the fourth invention, it is possible to prevent the movement of the person to be watched from being hindered.

第5の発明は、第1から第4までのいずれかの発明に従属し、注意手段は、ロボットが転回点を通過するときに、注意対象者に対する注意発話を与える、ロボットである。 The fifth invention is subordinate to any one of the first to fourth inventions, and the attention means is a robot that gives a caution utterance to a person to be watched when the robot passes a turning point.

第5の発明によれば、注意対象者の注意を引くことができ、歩行中の注意対象者に効果的に注意を与えることができる。 According to the fifth invention, it is possible to draw the attention of the attention target person and effectively give the attention target person while walking.

第6の発明は、第1から第5までのいずれかの発明に従属し、制御手段は、ロボットが移動経路に従って移動する際に、人の早歩きと同程度の移動速度でロボットが移動するように移動手段を制御する、ロボットである。 The sixth invention is subordinate to any one of the first to fifth inventions, and the control means moves the robot at a moving speed similar to that of a person walking fast when the robot moves according to the movement path. It is a robot that controls the means of transportation.

第6の発明によれば、注意対象者の注意を引くことができ、歩行中の注意対象者に効果的に注意を与えることができる。 According to the sixth invention, the attention target person can be attracted, and the attention target person who is walking can be effectively given attention.

第7の発明は、全方位に移動可能な移動手段およびスピーカを備えるロボットのロボット制御プログラムであって、ロボットのプロセッサに、不適切な行為を行う歩行中の注意対象者を検出する検出ステップ、注意対象者が移動する推定経路を推定する経路推定ステップ、推定経路に基づいて、ロボットの自己位置に応じた出発点から注意対象者と合流する合流点に至る、転回点を有する移動経路を作成する経路作成ステップ、経路作成ステップによって作成された移動経路に従ってロボットが所定の移動速度で移動するように移動手段を制御する制御ステップ、およびロボットが移動経路に従って移動する間であって、合流点に到達する前に、スピーカから注意対象者に対する注意発話を与える注意ステップを実行させる、ロボット制御プログラムである。 A seventh invention is a robot control program for a robot including a moving means and a speaker that can move in all directions, and a detection step of detecting a person to be watched while walking by using a robot processor to perform an inappropriate action. Based on the route estimation step for estimating the estimated route to which the attention target person moves and the estimated route, a movement route having a turning point is created from the starting point according to the robot's own position to the confluence point where the attention target person joins. The route creation step to be performed, the control step of controlling the moving means so that the robot moves at a predetermined movement speed according to the movement path created by the route creation step, and the confluence while the robot moves according to the movement path. It is a robot control program that executes a caution step that gives a caution speech to a attention target person from a speaker before reaching the robot.

第8の発明は、全方位に移動可能な移動手段およびスピーカを備えるロボットのロボット制御方法であって、(a)不適切な行為を行う歩行中の注意対象者を検出するステップ、(b)注意対象者が移動する推定経路を推定するステップ、(c)推定経路に基づいて、ロボットの自己位置に応じた出発点から注意対象者と合流する合流点に至る、転回点を有する移動経路を作成するステップ、(d)ステップ(c)で作成された移動経路に従ってロボットが所定の移動速度で移動するように移動手段を制御するステップ、および(e)ロボットが移動経路に従って移動する間であって、合流点に到達する前に、スピーカから注意対象者に対する注意発話を与えるステップを含む、ロボット制御方法である。 An eighth invention is a robot control method for a robot provided with a moving means and a speaker that can move in all directions, wherein (a) a step of detecting a person to be watched while walking who performs an inappropriate action, (b). Steps to estimate the estimated route for the attention target person to move, (c) Based on the estimated route, a movement route having a turning point from the starting point according to the robot's own position to the confluence point where the attention target person joins. A step of creating, (d) a step of controlling the moving means so that the robot moves at a predetermined moving speed according to the moving path created in step (c), and (e) while the robot moves according to the moving path. This is a robot control method including a step of giving a cautionary speech from a speaker to a person to be watched before reaching a confluence.

第7および第8の発明によれば、第1の発明と同様の効果が期待できる。 According to the seventh and eighth inventions, the same effect as that of the first invention can be expected.

この発明によれば、歩行中の注意対象者に対して効果的に注意を与えることができる。 According to the present invention, it is possible to effectively give attention to a person to be watched while walking.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above-mentioned objectives, other objectives, features and advantages of the present invention will become more apparent from the detailed description of the following examples made with reference to the drawings.

図1はこの発明の一実施例のロボットの外観を正面から見た図である。FIG. 1 is a front view of the appearance of a robot according to an embodiment of the present invention. 図2は図1に示すロボットの電気的な構成を示すブロック図である。FIG. 2 is a block diagram showing an electrical configuration of the robot shown in FIG. 図3は従来例のロボットの注意行動を説明するための図解図である。FIG. 3 is an illustrated diagram for explaining the attention behavior of a conventional robot. 図4はこの発明のロボットの注意行動の一例を説明するための図解図である。FIG. 4 is an illustrated diagram for explaining an example of the attention behavior of the robot of the present invention. 図5はこの発明のロボットの注意行動における注意接近経路を説明するための図解図である。FIG. 5 is an illustrated diagram for explaining an attention approach path in the attention behavior of the robot of the present invention. 図6は変形例のロボットの注意行動を説明するための図解図である。FIG. 6 is an illustrated diagram for explaining the attention behavior of the robot in the modified example. 図7は従来例の注意行動および本実施例の注意行動のそれぞれにおける注意の成功率を示すグラフである。FIG. 7 is a graph showing the success rate of attention in each of the attention behavior of the conventional example and the attention behavior of this embodiment. 図8は図2に示すメモリのメモリマップの一例を示す図解図である。FIG. 8 is an illustrated diagram showing an example of a memory map of the memory shown in FIG. 図9は図2に示すCPUのロボット制御処理を示すフロー図である。FIG. 9 is a flow chart showing the robot control process of the CPU shown in FIG. 図10は図2に示すCPUの移動経路の作成処理の一部を示すフロー図である。FIG. 10 is a flow chart showing a part of the CPU movement path creation process shown in FIG. 図11は図2に示すCPUの移動経路の作成処理の他の一部であって、図10に後続するフロー図である。FIG. 11 is another part of the CPU movement path creation process shown in FIG. 2, and is a flow diagram following FIG. 図12は図2に示すCPUの注意行動処理の一部を示すフロー図である。FIG. 12 is a flow chart showing a part of the attention behavior processing of the CPU shown in FIG.

図1を参照して、コミュニケーションロボット(以下、単に「ロボット」という。)10は、自律行動型のロボットであり、少なくとも音声を用いて、人間とコミュニケーションを行うことができる。 With reference to FIG. 1, the communication robot (hereinafter, simply referred to as “robot”) 10 is an autonomous action type robot, and can communicate with a human using at least voice.

また、図1では省略するが、操作者は、端末(PCなどの汎用のコンピュータである)を用いてロボット10にコマンドを送信することにより、遠隔でロボット10を操作することもできる。以下、この明細書において、ロボット10を遠隔で操作する操作者を「ユーザ」と呼ぶことにする。また、この「ユーザ」に対して、ロボット10またはロボット10のユーザのコミュニケーション対象を「人間」または「人」と呼ぶことにする。 Further, although omitted in FIG. 1, the operator can remotely control the robot 10 by transmitting a command to the robot 10 using a terminal (a general-purpose computer such as a PC). Hereinafter, in this specification, an operator who remotely controls the robot 10 will be referred to as a "user". Further, with respect to this "user", the communication target of the robot 10 or the user of the robot 10 is referred to as a "human" or a "human".

なお、遠隔に設けられた端末を用いてロボット10を操作等することは既に周知であり、また、本願の本質的な内容ではないため、この明細書においては、ユーザが使用する端末および遠隔操作についての詳細な説明は省略する。 It is already well known that the robot 10 is operated by using a terminal provided remotely, and it is not an essential content of the present application. Therefore, in this specification, the terminal used by the user and remote control are used. A detailed description of the above will be omitted.

この実施例のロボット10は、空港、駅、地下街、ショッピングモール、イベント会場、遊園地および美術館などの不特定多数の人間が存在する環境または日常空間(以下、まとめて「環境」ということがある。)に配置される。 The robot 10 of this embodiment may be an environment or daily space in which an unspecified number of people exist, such as an airport, a station, an underground shopping mall, a shopping mall, an event venue, an amusement park, and a museum (hereinafter, collectively referred to as "environment"). .) Is placed.

このロボット10は、同じ環境に配置され、自身が配置される環境について予め記憶した地図(間取り図)の情報および自身に備わる各種センサからの情報に基づいて自律的に行動する(移動および動作する)ことができる。以下、ロボット10の構成について具体的に説明する。 The robot 10 is placed in the same environment and acts autonomously (moves and operates) based on the map (floor plan) information stored in advance about the environment in which it is placed and the information from various sensors provided in it. )be able to. Hereinafter, the configuration of the robot 10 will be specifically described.

まず、図1を参照して、ロボット10のハードウェアの構成について説明する。図1は、この実施例のロボット10の外観を示す正面図である。ロボット10は台車30を含み、台車30の下面にはロボット10を自律移動させる複数(たとえば3個または4個)の車輪32が設けられる。台車30は、前後左右の任意方向(全方位)に移動可能な所謂全方位移動型の台車である。車輪32は車輪モータ36(図2参照)によってそれぞれ独立に駆動され、台車30すなわちロボット10を前後左右の任意方向に動かすことができる。車輪32としては、メカナムホイールまたはオムニホイール等を用いることができる。したがって、ロボット10は、配置された環境内を自律制御によって移動可能である。 First, the hardware configuration of the robot 10 will be described with reference to FIG. FIG. 1 is a front view showing the appearance of the robot 10 of this embodiment. The robot 10 includes a carriage 30, and a plurality of (for example, three or four) wheels 32 for autonomously moving the robot 10 are provided on the lower surface of the carriage 30. The trolley 30 is a so-called omnidirectional movement type trolley that can move in any direction (omnidirectional) in the front-rear, left-right, and left-right directions. The wheels 32 are independently driven by the wheel motors 36 (see FIG. 2), and the carriage 30, that is, the robot 10 can be moved in any direction of front, back, left, and right. As the wheel 32, a mecanum wheel, an omni wheel, or the like can be used. Therefore, the robot 10 can move in the arranged environment by autonomous control.

台車30の上には、胴体42が直立するように設けられる。また、胴体42の前方中央上部(人の胸に相当する位置)には、距離センサ40が設けられる。この距離センサ40は、ロボット10の周囲の物体(人間や障害物など)との距離を測定するものであり、ロボット10の前方の主として人間との距離を計測する。 The body 42 is provided on the carriage 30 so as to stand upright. A distance sensor 40 is provided at the upper front center of the body 42 (a position corresponding to a person's chest). The distance sensor 40 measures the distance to an object (human, obstacle, etc.) around the robot 10, and mainly measures the distance to a human in front of the robot 10.

なお、この実施例では、距離センサとして、赤外線距離センサを用いるようにしてあるが、赤外線距離センサに代えて、超音波距離センサやミリ波レーダなどを用いることもできる。 In this embodiment, the infrared distance sensor is used as the distance sensor, but an ultrasonic distance sensor, a millimeter wave radar, or the like can be used instead of the infrared distance sensor.

また、胴体42には、その側面側上端部のほぼ中央から伸びる支柱44が設けられ、支柱44の上には、全方位カメラ46が設けられる。全方位カメラ46は、ロボット10の周囲を撮影するものであり、後述する眼カメラ70とは区別される。この全方位カメラ46としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら距離センサ40および全方位カメラ46の設置位置は、当該部位に限定されず適宜変更され得る。 Further, the body 42 is provided with a support column 44 extending from substantially the center of the upper end portion on the side surface side thereof, and an omnidirectional camera 46 is provided on the support column 44. The omnidirectional camera 46 captures the surroundings of the robot 10 and is distinguished from the eye camera 70 described later. As the omnidirectional camera 46, a camera using a solid-state image sensor such as a CCD or CMOS can be adopted. The installation positions of the distance sensor 40 and the omnidirectional camera 46 are not limited to the relevant parts and may be changed as appropriate.

胴体42の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節48Rおよび肩関節48Lによって、上腕50Rおよび上腕50Lが設けられる。図示は省略するが、肩関節48Rおよび肩関節48Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節48Rは、直交する3軸のそれぞれの軸廻りにおいて上腕50Rの角度を制御できる。肩関節48Rの或る軸(ヨー軸)は、上腕50Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節48Lは、直交する3軸のそれぞれの軸廻りにおいて上腕50Lの角度を制御できる。肩関節48Lの或る軸(ヨー軸)は、上腕50Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。 Upper arms 50R and upper arms 50L are provided at the upper ends of both side surfaces of the body 42 (positions corresponding to human shoulders) by the shoulder joints 48R and shoulder joints 48L, respectively. Although not shown, the shoulder joint 48R and the shoulder joint 48L each have three orthogonal degrees of freedom. That is, the shoulder joint 48R can control the angle of the upper arm 50R around each of the three orthogonal axes. One axis (yaw axis) of the shoulder joint 48R is an axis parallel to the longitudinal direction (or axis) of the upper arm 50R, and the other two axes (pitch axis and roll axis) are orthogonal to the axes from different directions. The axis to do. Similarly, the shoulder joint 48L can control the angle of the upper arm 50L around each of the three orthogonal axes. One axis (yaw axis) of the shoulder joint 48L is an axis parallel to the longitudinal direction (or axis) of the upper arm 50L, and the other two axes (pitch axis and roll axis) are orthogonal to the axes from different directions. The axis to do.

また、上腕50Rおよび上腕50Lのそれぞれの先端には、肘関節52Rおよび肘関節52Lを介して、前腕54Rおよび前腕54Lが設けられる。図示は省略するが、肘関節52Rおよび肘関節52Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕54Rおよび前腕54Lの角度を制御できる。 Further, a forearm 54R and a forearm 54L are provided at the tips of the upper arm 50R and the upper arm 50L via the elbow joint 52R and the elbow joint 52L, respectively. Although not shown, the elbow joint 52R and the elbow joint 52L each have one degree of freedom, and the angles of the forearm 54R and the forearm 54L can be controlled around the axis of this axis (pitch axis).

前腕54Rおよび前腕54Lのそれぞれの先端には、人間の手に酷似した形状であり、指や掌の機能を持たせた右手56Rおよび左手56Lがそれぞれ設けられる。ただし、指や掌の機能が不要な場合には、前腕54Rおよび前腕54Lのそれぞれの先端に人の手に相当する球体を設けることも可能である。 At the tips of the forearm 54R and the forearm 54L, a right hand 56R and a left hand 56L, which have a shape very similar to that of a human hand and have the functions of fingers and palms, are provided, respectively. However, when the functions of fingers and palms are not required, it is possible to provide a sphere corresponding to a human hand at the tip of each of the forearm 54R and the forearm 54L.

また、図示は省略するが、胴体42の前面、肩関節48Rと肩関節48Lとを含む肩に相当する部位、上腕50R、上腕50L、前腕54R、前腕54L、右手56Rおよび左手56Lには、それぞれ、接触センサ58(図2で包括的に示す)が設けられる。胴体42の前面の接触センサ58は、胴体42への人間や他の障害物の接触を検知する。したがって、ロボット10は、その自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪32の駆動を停止してロボット10の移動を急停止させることができる。また、その他の接触センサ58は、当該各部位に触れたかどうかを検知する。なお、接触センサ58の設置位置は、当該部位に限定されず、適宜な位置(人の頭、胸、腹、脇、背中および腰に相当する位置)に設けられてもよい。 Although not shown, the front surface of the torso 42, the portion corresponding to the shoulder including the shoulder joint 48R and the shoulder joint 48L, the upper arm 50R, the upper arm 50L, the forearm 54R, the forearm 54L, the right hand 56R and the left hand 56L, respectively. , A contact sensor 58 (shown comprehensively in FIG. 2) is provided. The contact sensor 58 on the front surface of the fuselage 42 detects contact of a human or other obstacle with the fuselage 42. Therefore, when the robot 10 comes into contact with an obstacle during its own movement, it can detect the contact and immediately stop the driving of the wheels 32 to suddenly stop the movement of the robot 10. In addition, the other contact sensor 58 detects whether or not the respective parts have been touched. The installation position of the contact sensor 58 is not limited to the relevant portion, and may be provided at an appropriate position (position corresponding to a person's head, chest, abdomen, armpits, back, and waist).

胴体42の中央上部(人の首に相当する位置)には首関節60が設けられ、さらにその上には頭部62が設けられる。図示は省略するが、首関節60は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット10の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。 A neck joint 60 is provided at the upper center of the body 42 (a position corresponding to a person's neck), and a head 62 is provided above the neck joint 60. Although not shown, the neck joint 60 has three degrees of freedom, and the angle can be controlled around each of the three axes. A certain axis (yaw axis) is an axis that goes directly above the robot 10 (vertically upward), and the other two axes (pitch axis, roll axis) are axes that are orthogonal to each other in different directions.

頭部62には、人の口に相当する位置に、スピーカ64が設けられる。スピーカ64は、ロボット10が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、人の耳に相当する位置には、マイク66Rおよびマイク66Lが設けられる。以下、右のマイク66Rと左のマイク66Lとをまとめてマイク66ということがある。マイク66は、周囲の音、とりわけコミュニケーションを実行する対象(以下、「コミュニケーション対象」ということある)である人間の声を取り込む。さらに、人の目に相当する位置には、眼球部68Rおよび眼球部68Lが設けられる。眼球部68Rおよび眼球部68Lは、それぞれ眼カメラ70Rおよび眼カメラ70Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがある。また、右の眼カメラ70Rと左の眼カメラ70Lとをまとめて眼カメラ70ということがある。 A speaker 64 is provided on the head 62 at a position corresponding to a person's mouth. The speaker 64 is used by the robot 10 to communicate with humans around it by voice or sound. Further, a microphone 66R and a microphone 66L are provided at positions corresponding to human ears. Hereinafter, the right microphone 66R and the left microphone 66L may be collectively referred to as a microphone 66. The microphone 66 captures ambient sounds, especially the human voice, which is the object of communication (hereinafter, referred to as “communication object”). Further, an eyeball portion 68R and an eyeball portion 68L are provided at positions corresponding to the human eye. The eyeball portion 68R and the eyeball portion 68L include an eye camera 70R and an eye camera 70L, respectively. Hereinafter, the right eyeball portion 68R and the left eyeball portion 68L may be collectively referred to as an eyeball portion 68. Further, the right eye camera 70R and the left eye camera 70L may be collectively referred to as an eye camera 70.

眼カメラ70は、ロボット10に接近した人間の顔または人間の他の部分或いは物体などを撮影して、それに対応する映像信号を取り込む。また、眼カメラ70は、上述した全方位カメラ46と同様のカメラを用いることができる。たとえば、眼カメラ70は、眼球部68内に固定され、眼球部68は、眼球支持部(図示せず)を介して頭部62内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部62の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部62の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ70の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ64、マイク66および眼カメラ70の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。 The eye camera 70 photographs a human face or another part or object of a human who approaches the robot 10 and captures a corresponding video signal. Further, as the eye camera 70, the same camera as the omnidirectional camera 46 described above can be used. For example, the eye camera 70 is fixed in the eyeball portion 68, and the eyeball portion 68 is attached to a predetermined position in the head 62 via an eyeball support portion (not shown). Although not shown, the eyeball support portion has two degrees of freedom, and the angle can be controlled around each of these axes. For example, one of these two axes is an axis (yaw axis) in the upward direction of the head 62, and the other is orthogonal to one axis and orthogonal to the front side (face) of the head 62. It is the axis (pitch axis) in the direction of By rotating the eyeball support portion around each of these two axes, the tip (front) side of the eyeball portion 68 or the eye camera 70 is displaced, and the camera axis, that is, the line-of-sight direction is moved. The installation positions of the speaker 64, the microphone 66, and the eye camera 70 are not limited to the relevant parts, and may be provided at appropriate positions.

このように、この実施例のロボット10は、肩関節48の3自由度(左右で6自由度),肘関節52の1自由度(左右で2自由度),首関節60の3自由度および眼球支持部の2自由度(左右で4自由度)の合計15自由度を有する。 As described above, the robot 10 of this embodiment has 3 degrees of freedom of the shoulder joint 48 (6 degrees of freedom on the left and right), 1 degree of freedom of the elbow joint 52 (2 degrees of freedom on the left and right), 3 degrees of freedom of the neck joint 60, and It has a total of 15 degrees of freedom, which is 2 degrees of freedom (4 degrees of freedom on the left and right) of the eyeball support.

図2はロボット10の電気的な構成を示すブロック図である。この図2を参照して、ロボット10は、CPU80を含む。CPU80は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス82を介して、メモリ84、モータ制御ボード86、センサ入力/出力ボード88および音声入力/出力ボード90に接続される。 FIG. 2 is a block diagram showing an electrical configuration of the robot 10. With reference to FIG. 2, the robot 10 includes a CPU 80. The CPU 80, also called a microcomputer or processor, is connected to a memory 84, a motor control board 86, a sensor input / output board 88, and a voice input / output board 90 via a bus 82.

メモリ84は、図示は省略をするが、ROM、HDDおよびRAMを含む。ROMおよびHDDには、ロボット10の行動を制御(タスクを実行)するための制御プログラム(ロボット制御プログラム)が予め記憶される。たとえば、ロボット制御プログラムは、各センサの出力(センサ情報)を検知するための検知プログラムや、他のロボットおよびユーザの端末などの外部コンピュータとの間で必要なデータおよびコマンドを送受信するための通信プログラムなどを含む。また、RAMは、CPU80のワークメモリおよびバッファメモリとして用いられる。 The memory 84 includes a ROM, an HDD, and a RAM, although not shown. A control program (robot control program) for controlling the action (execution of a task) of the robot 10 is stored in the ROM and the HDD in advance. For example, a robot control program is a detection program for detecting the output (sensor information) of each sensor, and communication for sending and receiving necessary data and commands to and from other robots and external computers such as user terminals. Includes programs etc. Further, the RAM is used as a work memory and a buffer memory of the CPU 80.

さらに、この実施例では、ロボット10は、人間とのコミュニケーションをとるために発話したり、ジェスチャしたりできるように構成されているが、メモリ84に、このような発話およびジェスチャのための辞書(発話/ジェスチャ辞書)のデータが記憶されている。 Further, in this embodiment, the robot 10 is configured to be able to speak and make gestures in order to communicate with humans, but in memory 84, a dictionary for such utterances and gestures ( Data of utterance / gesture dictionary) is stored.

モータ制御ボード86は、たとえばDSPで構成され、各腕や首関節などの各軸モータの駆動を制御する。すなわち、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ96」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ98」と示す)の回転角度を制御する。 The motor control board 86 is composed of, for example, a DSP, and controls the drive of each axis motor such as each arm and neck joint. That is, the motor control board 86 receives control data from the CPU 80, and includes three motors that control the angles of the three orthogonal axes of the shoulder joint 48R and one motor that controls the angles of the elbow joint 52R, for a total of four. The rotation angle of one motor (collectively referred to as "right arm motor 96" in FIG. 3) is controlled. Similarly, the motor control board 86 receives control data from the CPU 80, and has three motors that control the angles of the three orthogonal axes of the shoulder joint 48L and one motor that controls the angles of the elbow joint 52L. The rotation angles of a total of four motors (collectively referred to as "left arm motor 98" in FIG. 3) are controlled.

さらに、モータ制御ボード86は、CPU80からの制御データを受け、首関節60の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ100」と示す)の回転角度を制御する。そして、モータ制御ボード86は、CPU80からの制御データを受け、車輪32を駆動する2つのモータ(図3では、まとめて「車輪モータ36」と示す)の回転角度を制御する。 Further, the motor control board 86 receives control data from the CPU 80 and controls the angles of the three orthogonal axes of the neck joint 60 (in FIG. 3, collectively referred to as “head motor 100”). Control the rotation angle of. Then, the motor control board 86 receives the control data from the CPU 80 and controls the rotation angles of the two motors (collectively referred to as “wheel motor 36” in FIG. 3) for driving the wheels 32.

なお、この実施例では、車輪モータ36を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ36と同様に直流モータを用いるようにしてもよい。また、ロボット10の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更された、たとえば、他の実施例では、エアアクチュエータが適用されてもよい。 In this embodiment, the motors other than the wheel motor 36 use a stepping motor (that is, a pulse motor) in order to simplify the control. However, a DC motor may be used as in the wheel motor 36. Further, the actuator that drives the body part of the robot 10 is not limited to a motor that uses an electric current as a power source, and is appropriately modified. For example, in another embodiment, an air actuator may be applied.

センサ入力/出力ボード88は、モータ制御ボード86と同様に、DSPで構成され、各センサからの信号を取り込んでCPU80に与える。すなわち、距離センサ40からの距離に関するデータ(たとえば反射時間のデータ)がこのセンサ入力/出力ボード88を通じてCPU80に入力される。また、全方位カメラ46からの映像信号が、必要に応じてセンサ入力/出力ボード88で所定の処理を施してからCPU80に入力される。眼カメラ70からの映像信号も、同様にして、CPU80に入力される。また、上述した複数の接触センサ58(図3では、まとめて「接触センサ58」と示す)からの信号がセンサ入力/出力ボード88を介してCPU80に与えられる。 Similar to the motor control board 86, the sensor input / output board 88 is composed of a DSP, and takes in signals from each sensor and gives them to the CPU 80. That is, data relating to the distance from the distance sensor 40 (for example, reflection time data) is input to the CPU 80 through the sensor input / output board 88. Further, the video signal from the omnidirectional camera 46 is input to the CPU 80 after performing a predetermined process on the sensor input / output board 88 as needed. The video signal from the eye camera 70 is also input to the CPU 80 in the same manner. Further, signals from the plurality of contact sensors 58 (collectively referred to as “contact sensor 58” in FIG. 3) described above are given to the CPU 80 via the sensor input / output board 88.

音声入力/出力ボード90もまた、同様に、DSPで構成され、CPU80から与えられる音声合成データに従った音声または声がスピーカ64から出力される。また、マイク66からの音声入力が、音声入力/出力ボード90を介してCPU80に与えられる。 Similarly, the voice input / output board 90 is also composed of a DSP, and a voice or a voice according to the voice synthesis data given from the CPU 80 is output from the speaker 64. Further, the voice input from the microphone 66 is given to the CPU 80 via the voice input / output board 90.

また、CPU80は、バス82を介して通信LANボード102に接続される。通信LANボード102は、たとえばDSPで構成され、CPU80から与えられた送信データを無線通信装置104に与え、無線通信装置104は送信データを、外部コンピュータに送信する。また、通信LANボード102は、無線通信装置104を介して外部コンピュータからデータを受信し、受信したデータ(受信データ)をCPU80に与える。 Further, the CPU 80 is connected to the communication LAN board 102 via the bus 82. The communication LAN board 102 is composed of, for example, a DSP, and gives transmission data given by the CPU 80 to the wireless communication device 104, and the wireless communication device 104 transmits the transmission data to an external computer. Further, the communication LAN board 102 receives data from an external computer via the wireless communication device 104, and gives the received data (received data) to the CPU 80.

また、CPU80は、バス82を介して、2次元距離計測装置106および3次元距離計測装置108に接続される。図1では省略したが、2次元距離計測装置106および3次元距離計測装置108は、ロボット10の台車30、センサ取り付けパネル38または胴体42の適宜の位置に取り付けられる。 Further, the CPU 80 is connected to the two-dimensional distance measuring device 106 and the three-dimensional distance measuring device 108 via the bus 82. Although omitted in FIG. 1, the two-dimensional distance measuring device 106 and the three-dimensional distance measuring device 108 are mounted at appropriate positions on the trolley 30, the sensor mounting panel 38, or the body 42 of the robot 10.

2次元距離計測装置106は、水平方向にレーザを照射し、物体(人間も含む)に反射して戻ってくるまでの時間から当該物体までの距離を計測するものである。たとえば、トランスミッタ(図示せず)から照射したレーザを回転ミラー(図示せず)で反射させて、前方を扇状に一定角度(たとえば、0.5度)ずつスキャンする。ここで、2次元距離計測装置106としては、SICK社製のレーザーレンジファインダ(型式 LMS200)を用いることができる。このレーザーレンジファインダを用いた場合には、距離8mを±15mm程度の誤差で計測可能である。 The two-dimensional distance measuring device 106 irradiates a laser in the horizontal direction and measures the distance to the object from the time until it is reflected by an object (including a human being) and returned. For example, a laser emitted from a transmitter (not shown) is reflected by a rotating mirror (not shown) to scan the front in a fan shape at a fixed angle (for example, 0.5 degrees). Here, as the two-dimensional distance measuring device 106, a laser range finder (model LMS200) manufactured by SICK can be used. When this laser range finder is used, a distance of 8 m can be measured with an error of about ± 15 mm.

この実施例では、ロボット10は、2次元距離計測装置106で検出された障害物までの2次元(または水平方向)の距離情報と、ロボット10が配置される環境(たとえば、場所ないし領域)についての地図をマッチングすることで、ロボット10自身の位置(自己位置)すなわちロボット10の現在位置を推定する。ただし、より正確な現在位置を推定するために、パーティクルフィルタを用いて計算されたロボット10のオドメトリ(移動情報)も入力として利用される。ロボット10の現在位置を推定する手法としては、文献「D. Fox, W. Burgard and S. Thrun, Markov Localization for Mobile Robots in Dynamic Environments, Journal of Artificial Intelligence Research, vol. 11, pp. 391-427, 1999.」に開示される手法を用いることができる。ロボット10の現在位置を推定すること自体は本願の本質的な内容ではないため、詳細な説明は省略する。 In this embodiment, the robot 10 relates to two-dimensional (or horizontal) distance information to an obstacle detected by the two-dimensional distance measuring device 106 and an environment (for example, a place or area) in which the robot 10 is arranged. By matching the maps of, the position of the robot 10 itself (self-position), that is, the current position of the robot 10 is estimated. However, in order to estimate the current position more accurately, the odometry (movement information) of the robot 10 calculated by using the particle filter is also used as an input. As a method for estimating the current position of the robot 10, the literature "D. Fox, W. Burgard and S. Thrun, Markov Localization for Mobile Robots in Dynamic Environments, Journal of Artificial Intelligence Research, vol. 11, pp. 391-427" , 1999. ”Can be used. Since estimating the current position of the robot 10 itself is not an essential content of the present application, detailed description thereof will be omitted.

また、3次元距離計測装置108は、水平方向を基準(0°)として上下40°(+30°〜−10°)の検知角度(垂直視野角)を有する3次元全方位レーザ距離計である。この3次元距離計測装置108は、0.1秒に1回転して、およそ100mまでの距離を計測し、ロボット10周辺の3次元距離情報を格納した点群情報を取得することができる。ここでは、3次元距離計測装置108としては、Velodine社製のイメージングユニットLiDAR(HDL-32E)(商品名)を用いることができる。 Further, the three-dimensional distance measuring device 108 is a three-dimensional omnidirectional laser range finder having a detection angle (vertical viewing angle) of 40 ° (+ 30 ° to −10 °) up and down with reference to the horizontal direction (0 °). The three-dimensional distance measuring device 108 rotates once every 0.1 seconds, measures a distance of up to about 100 m, and can acquire point cloud information storing three-dimensional distance information around the robot 10. Here, as the three-dimensional distance measuring device 108, an imaging unit LiDAR (HDL-32E) (trade name) manufactured by Velodine can be used.

この実施例では、ロボット10は、3次元距離計測装置108で検出された3次元の距離情報に基づいて人間を検出するとともに、当該人間の位置を計測する。具体的には、3次元距離計測装置108から得られる3次元の距離情報と上記の地図を用いて、ロボット10が環境内のどの位置に存在しているか、およびどの方向を向いているかが推定される。次に、3次元距離計測装置108から取得した3次元の距離情報と、地図に基づく環境内の3次元の距離情報と比較し、近似する3次元の距離情報を格納した点群情報が示す点群を背景としてフィルタリングする。続いて、3次元距離計測装置108から取得した3次元の距離情報を格納した点群情報が示す点群のうち、閾値(Zmin, Zmax)を用いて一定の高さに存在しない点群をフィルタリングする。この実施例では、Zminが5cmに設定され、Zmaxが220cmに設定され、極端な高さの点群は、人間でないと判断し、人間の位置を計測する処理から除外される。 In this embodiment, the robot 10 detects a human being based on the three-dimensional distance information detected by the three-dimensional distance measuring device 108, and measures the position of the human being. Specifically, using the three-dimensional distance information obtained from the three-dimensional distance measuring device 108 and the above map, it is estimated where the robot 10 is located in the environment and in which direction it is facing. Will be done. Next, the points indicated by the point cloud information storing the three-dimensional distance information to be approximated by comparing the three-dimensional distance information acquired from the three-dimensional distance measuring device 108 with the three-dimensional distance information in the environment based on the map. Filter against the background of the group. Subsequently, among the point cloud indicated by the point cloud information storing the three-dimensional distance information acquired from the three-dimensional distance measuring device 108, the point cloud that does not exist at a constant height is filtered using the threshold (Zmin, Zmax). To do. In this embodiment, Zmin is set to 5 cm, Zmax is set to 220 cm, and a point cloud of extreme height is determined not to be a human and is excluded from the process of measuring the position of a human.

一定の高さに存在しない点群がフィルタリングされると、フィルタリング後のすべての点群に含まれる高さ情報を0に設定した2次元の点群情報が生成される。生成された2次元の点群情報は、ユークリッド距離を用いてクラスタリングされる。一例として、Point Cloud Libraryに実装されているクラスタリング手法が利用される。 When a point cloud that does not exist at a constant height is filtered, two-dimensional point cloud information in which the height information included in all the filtered point clouds is set to 0 is generated. The generated two-dimensional point cloud information is clustered using the Euclidean distance. As an example, the clustering method implemented in Point Cloud Library is used.

さらに、クラスタリングされた点群情報に含まれる元々の高さ情報を利用し、高さの最大値から高さの最小値を引いた値が30cm未満であるもの、および点群の数が閾値以下であるもの(ここでは4個と設定した)がフィルタリングされる。つまり、小さすぎる物または壁などの人間以外の物と判断されたクラスタが除去される。そして、フィルタリング後の各クラスタの重心位置が各人間の位置情報として設定される。つまり、ロボット10の周囲に存在する人間が検出されるとともに、検出された人間の位置が計測される。 Furthermore, using the original height information included in the clustered point cloud information, the value obtained by subtracting the minimum height from the maximum height is less than 30 cm, and the number of point clouds is less than the threshold value. Those that are (set to 4 here) are filtered. That is, clusters that are determined to be too small or non-human, such as walls, are removed. Then, the position of the center of gravity of each cluster after filtering is set as the position information of each person. That is, a human being around the robot 10 is detected, and the position of the detected human is measured.

なお、ロボット10の位置を推定したり、人間の位置を計測したりするために、ロボット10は、2次元距離計測装置106および3次元距離計測装置108を備えているが、これらの計測装置は、ロボット10に備えずに、または、ロボット10に備えるとともに、ロボット10が配置される環境内に設置されてもよい。また、床センサなどの他のセンサを用いて、ロボット10の位置を推定したり、人間の位置を計測(推定)したりしてもよい。 In order to estimate the position of the robot 10 and measure the position of a human, the robot 10 is provided with a two-dimensional distance measuring device 106 and a three-dimensional distance measuring device 108. , The robot 10 may not be provided, or may be provided in the robot 10 and installed in the environment in which the robot 10 is arranged. Further, another sensor such as a floor sensor may be used to estimate the position of the robot 10 or measure (estimate) the position of a human being.

また、この実施例では、ロボット10は、2次元距離計測装置106および3次元距離計測装置108を備えるようにしてあるが、3次元距離計測装置108の計測結果を用いてロボット10自身の位置を推定することもできるため、2次元距離計測装置106は省略することもできる。 Further, in this embodiment, the robot 10 is provided with the two-dimensional distance measuring device 106 and the three-dimensional distance measuring device 108, but the position of the robot 10 itself is determined by using the measurement result of the three-dimensional distance measuring device 108. Since it can be estimated, the two-dimensional distance measuring device 106 can be omitted.

上記のようなロボット10は、自身が配置される、不特定多数の人間が存在する環境において、不適切な行為を行う歩行中の注意対象者に注意を与える行動(注意行動または注意タスク)を実行する。 The robot 10 as described above performs an action (attention action or attention task) that gives attention to a walking attention target person who performs an inappropriate action in an environment in which an unspecified number of human beings are placed. Execute.

ただし、不適切な行為とは、ロボット10が配置される環境において禁止されている行為、たとえば、携帯端末(フィーチャーフォン、スマートフォンおよびタブレットPC等)を操作しながら歩行する行為(いわゆる歩きスマホ)および喫煙が禁止されたエリアでたばこを吸いながら歩行する行為(いわゆる歩きたばこ)などのことである。 However, inappropriate acts include acts that are prohibited in the environment in which the robot 10 is placed, such as walking while operating a mobile terminal (feature phone, smartphone, tablet PC, etc.) (so-called walking smartphone). This is the act of walking while smoking in an area where smoking is prohibited (so-called walking cigarette).

また、注意行動は、ロボット10によって自律的に実行されたり、当該ロボット10のユーザの命令に従って実行されたりする。また、ユーザの命令に従う行動は、ユーザの端末から送信されたコマンドに従う行動である。たとえば、ロボット10自身に備わる各種センサ(たとえば全方位カメラ46または眼カメラ70)の出力に応じて、ロボット10の周囲に存在する人間の中に注意対象者が存在するかどうかをロボット10が自動的に判断しても良いし、ロボット10の周囲に存在する人間の中から注意対象者をユーザが指定するようにしても良い。 Further, the attention action is autonomously executed by the robot 10 or executed according to a command of the user of the robot 10. Further, the action according to the user's command is the action according to the command transmitted from the user's terminal. For example, the robot 10 automatically determines whether or not there is a person to be watched among the humans around the robot 10 according to the output of various sensors (for example, the omnidirectional camera 46 or the eye camera 70) provided in the robot 10 itself. The user may specify the person to be watched from among the humans existing around the robot 10.

図1では省略したが、ユーザの端末は、直接、または、ネットワークを介して、ロボット10と通信可能である。なお、ロボット10がユーザの端末に送信する送信データは、ユーザの端末からのコマンドに従う行動の実行を終了したことの通知などのデータである。 Although omitted in FIG. 1, the user's terminal can communicate with the robot 10 directly or via a network. The transmission data transmitted by the robot 10 to the user's terminal is data such as a notification that the execution of the action according to the command from the user's terminal has been completed.

このような自律行動型のロボットの注意行動の従来例としては、図3に示すように、注意対象者が検出されると、注意対象者から十分な距離を保持した状態で、ロボットの自己位置である出発点Psから注意対象者との合流点Peに対して直線的に最短距離で移動し、注意対象者に対して注意発話を与える。このとき、ロボットは、人の平均的な歩行速度と同程度の移動速度(たとえば1.1m/秒)で移動する。以下、従来例のように、出発点Psから合流点Peまで直線的に移動する経路のことを、通常接近経路といい、従来例の注意行動におけるロボットの移動速度のことを、通常接近速度という。 As a conventional example of the attention behavior of such an autonomous behavior type robot, as shown in FIG. 3, when the attention target person is detected, the robot's self-position is maintained at a sufficient distance from the attention target person. It moves linearly from the starting point Ps, which is, to the confluence point Pe with the attention target person, at the shortest distance, and gives a caution utterance to the attention target person. At this time, the robot moves at a moving speed (for example, 1.1 m / sec) similar to the average walking speed of a person. Hereinafter, the path that linearly moves from the starting point Ps to the merging point Pe as in the conventional example is referred to as a normal approaching path, and the moving speed of the robot in the attention behavior of the conventional example is referred to as a normal approaching speed. ..

しかしながら、歩行中の注意対象者に注意を与える場合には、単にロボットが直線的に移動し、正面から対話を実行するだけでは、注意対象者にロボットの存在を気づかれなかったり、注意対象者自身に対する注意であると気づかれなかったりして、注意対象者に無視されることがあるという問題がある。 However, when giving attention to a person to be watched while walking, the robot may not be aware of the existence of the robot or the person to be watched may not be aware of the existence of the robot simply by moving the robot linearly and performing a dialogue from the front. There is a problem that the attention target person may ignore it because it may not be noticed as attention to oneself.

これを回避するため、この実施例では、歩行中の注意対象者に対して効果的に注意を与えることができるようにしてある。すなわち、歩行中の注意対象者の注意を引くように、ロボット10の移動経路を設定し、ロボット10の移動速度を設定し、注意発話のタイミングを設定してある。 In order to avoid this, in this embodiment, attention can be effectively given to a person to be watched while walking. That is, the movement path of the robot 10, the movement speed of the robot 10, and the timing of the attention utterance are set so as to attract the attention of the person to be watched while walking.

以下、図4および図5を参照して、本実施例の注意行動について説明する。図4および図5に示すように、ロボット10は、注意対象者を検出すると、ロボットの自己位置(出発点Ps)を推定し、注意対象者が移動する推定経路を推定し、推定経路に応じて合流点Peを設定し、出発点Psから合流点Peに至る移動経路(以下、本実施例において注意行動を実行するロボット10が移動する経路のことを、注意接近経路という。)に沿って所定の移動速度で移動する。ただし、注意接近経路は、出発点Psと合流点Peとの間に設定される転回点Ptで転回するように設定される。すなわち、ロボット10は、注意行動を実行する際に、途中で折れ曲がる経路、すなわち屈曲する経路に沿って移動する。また、転回とは、経路の向きが30°以上(たとえば40°程度)変わることを意味する。すなわち、転回点Ptを通過する前の経路の向きと、転回点Ptを通過した後の経路の向きとの角度差θ1は、30°以上となる。 Hereinafter, the attention behavior of this embodiment will be described with reference to FIGS. 4 and 5. As shown in FIGS. 4 and 5, when the robot 10 detects the attention target person, the robot 10 estimates the robot's own position (starting point Ps), estimates the estimated route for the attention target person to move, and responds to the estimated route. The confluence point Pe is set, and the movement route from the starting point Ps to the confluence point Pe (hereinafter, the route in which the robot 10 that executes the attention action moves in this embodiment is referred to as a caution approach route). Move at a predetermined movement speed. However, the caution approach route is set to turn at the turning point Pt set between the starting point Ps and the merging point Pe. That is, when the robot 10 executes the attention action, the robot 10 moves along a path that bends in the middle, that is, a path that bends. Further, turning means that the direction of the path changes by 30 ° or more (for example, about 40 °). That is, the angle difference θ1 between the direction of the path before passing through the turning point Pt and the direction of the path after passing through the turning point Pt is 30 ° or more.

図5を参照して注意接近経路の設定方法について具体的に説明する。まず、注意対象者の現在位置Pnおよび注意対象者の進行方向から注意対象者が移動する推定経路が推定される。次に、推定経路に基づいて、理想的な合流点が設定され、注意対象者の現在位置Pn、注意対象者の進行方向および注意対象者の現在速度Vpから、理想的な合流点までの所要時間後(t秒後)の注意対象者の未来位置Phを計算する。なお、詳細は後述するが、理想的な合流点は、ロボット10と注意対象者とが略同じ時間で到達する位置(時間的な中間位置)に設定される。 The method of setting the caution approach route will be specifically described with reference to FIG. First, the estimated route for the attention target person to move is estimated from the current position Pn of the attention target person and the traveling direction of the attention target person. Next, an ideal confluence point is set based on the estimated route, and the required time from the current position Pn of the attention target person, the traveling direction of the attention target person, and the current speed Vp of the attention target person to the ideal confluence point is set. The future position Ph of the attention subject after time (t seconds) is calculated. Although the details will be described later, the ideal confluence point is set at a position (temporal intermediate position) where the robot 10 and the person to be watched reach at substantially the same time.

また、合流点Peは、注意行動の完了時(合流点到達時)において少なくとも注意対象者の視界の範囲内(注意対象者の前方)であり、かつ、注意対象者の動き(歩行)を妨げることはない位置に設定される。具体的には、合流点Peは、注意対象者の進行方向(y)および注意対象者の進行方向に直交する方向(x)において未来位置Phから所定距離離れた位置に設定される。たとえば、注意対象者の進行方向(y)における、合流点Peと未来位置Phとの距離(垂直距離)dyは、0.5m〜1.5m程度であり、注意対象者の進行方向に直交する方向(x)における、合流点Peと未来位置Phとの距離(水平距離)dxは、0.5m〜1.5m程度である。 Further, the confluence point Pe is at least within the range of the visual field of the attention target person (in front of the attention target person) at the completion of the attention action (when the confluence point is reached), and hinders the movement (walking) of the attention target person. It is set in a position that never happens. Specifically, the confluence point Pe is set at a position separated from the future position Ph by a predetermined distance in the traveling direction (y) of the attention target person and the direction (x) orthogonal to the traveling direction of the attention target person. For example, the distance (vertical distance) dy between the confluence point Pe and the future position Ph in the traveling direction (y) of the attention target person is about 0.5 m to 1.5 m, which is orthogonal to the traveling direction of the attention target person. The distance (horizontal distance) dx between the confluence point Pe and the future position Ph in the direction (x) is about 0.5 m to 1.5 m.

さらに、転回点Ptは、合流点Peから3m以内に設定される。つまり、転回点Ptを通過した後の経路の長さdsは、3m以内となる。すなわち、注意接近経路は、合流点Peから3m以内に、30°以上経路の向きが変わる。 Further, the turning point Pt is set within 3 m from the confluence point Pe. That is, the length ds of the path after passing through the turning point Pt is within 3 m. That is, the direction of the caution approach route changes by 30 ° or more within 3 m from the confluence point Pe.

さらにまた、注意接近経路は、転回点Ptを通過した後の経路が、当該転回点を通過する前の経路よりも注意対象者の進行方向に直交する方向(注意対象者から見た左右方向)に近い向きになるように設定される。したがって、ロボット10は、注意行動を実行する際に、転回点Ptを通過した後、左右方向から注意対象者に近づくように移動する。 Furthermore, the attention approach route is a direction in which the route after passing the turning point Pt is orthogonal to the traveling direction of the attention target person than the route before passing the turning point (left-right direction as seen from the attention target person). It is set so that the orientation is close to. Therefore, when executing the attention action, the robot 10 moves so as to approach the attention target person from the left-right direction after passing through the turning point Pt.

さらにまた、注意接近経路は、転回点Ptを通過した後の経路が、注意対象者の進行方向(前後方向)において、注意対象者の前方から注意対象者に向かうように設定される。すなわち、転回点Ptは、少なくとも注意対象者の前方に設定される。以上のように、転回点Ptを通過した後の経路の向きは、注意対象者の進行方向に対して所定の傾斜角度θ2で傾く(所定の傾斜角度θ2を有する)ように設定される。たとえば、傾斜角度θ2は、50°〜89°の範囲内に設定される。 Furthermore, the attention approach route is set so that the route after passing through the turning point Pt is directed from the front of the attention target person to the attention target person in the traveling direction (front-back direction) of the attention target person. That is, the turning point Pt is set at least in front of the attention target person. As described above, the direction of the path after passing through the turning point Pt is set so as to be inclined at a predetermined inclination angle θ2 (having a predetermined inclination angle θ2) with respect to the traveling direction of the person to be watched. For example, the tilt angle θ2 is set within the range of 50 ° to 89 °.

また、図6に示すように、注意対象者が検出されたときのロボット10の自己位置(出発点Ps)が注意対象者の進行方向の後方である場合であっても、注意行動を実行する際には、注意対象者の前方から近づき、転回して注意するという経路およびそれに沿った動作は同じである。出発点Psが注意対象者の進行方向の後方である場合には、ロボット10は、まず、転回点Ptに対して注意対象者の進行方向の前方から近づくことができる位置、すなわち、転回点Ptよりも十分に前方の位置であって、注意対象者の視界の範囲内となる位置まで移動する。その後、ロボット10は、注意対象者の前方から近づき、転回点Ptで転回し、合流点Peに移動する。 Further, as shown in FIG. 6, even when the self-position (starting point Ps) of the robot 10 when the attention target person is detected is behind the direction of travel of the attention target person, the attention action is executed. In that case, the path of approaching from the front of the person to be watched, turning and paying attention, and the movement along the path are the same. When the starting point Ps is behind the traveling direction of the attention target person, the robot 10 first approaches the turning point Pt from the front in the traveling direction of the attention target person, that is, the turning point Pt. Move to a position sufficiently forward of the position within the field of view of the person to be watched. After that, the robot 10 approaches from the front of the attention target person, turns at the turning point Pt, and moves to the confluence point Pe.

ただし、注意接近経路は、注意対象者が移動する推定経路とは交差しないように設定される。このため、図4〜図6に示すように、出発点Psが注意対象者よりも左方に位置する場合には、注意接近経路(転回点Ptおよび合流点Pe)は注意対象者から見て左に設定される。一方、図示は省略するが、出発点Psが注意対象者よりも右方に位置する場合には、注意接近経路(転回点Ptおよび合流点Pe)は注意対象者から見て右に設定される。すなわち、注意接近経路は、注意対象者から見て左右方向における同じ側に設定される。 However, the attention approach route is set so as not to intersect with the estimated route to which the attention target person moves. Therefore, as shown in FIGS. 4 to 6, when the starting point Ps is located to the left of the attention target person, the attention approach path (turning point Pt and confluence point Pe) is viewed from the attention target person. Set to the left. On the other hand, although not shown, when the starting point Ps is located to the right of the attention target person, the attention approach path (turning point Pt and confluence point Pe) is set to the right when viewed from the attention target person. .. That is, the attention approach route is set to the same side in the left-right direction when viewed from the attention target person.

また、注意行動におけるロボット10の移動速度Vrは、人の早歩きと同程度の速度(たとえば1.3m/秒)に設定される。以下、本実施例において注意行動を実行するロボット10が移動する速度Vrのことを、注意接近速度という。ただし、ロボット10は、注意行動を実行する際に、注意接近速度を維持するように、略一定の速度で移動する。なお、上述したように、ロボット10は、全方位移動型の台車30を備えるので、転回点Ptにおいても大きく減速することなく、移動速度Vrを維持しながら移動することができる。 Further, the moving speed Vr of the robot 10 in the attention action is set to a speed (for example, 1.3 m / sec) equivalent to that of a person walking fast. Hereinafter, in this embodiment, the speed Vr at which the robot 10 that executes the attention action moves is referred to as the attention approach speed. However, the robot 10 moves at a substantially constant speed so as to maintain the attention approaching speed when executing the attention action. As described above, since the robot 10 includes the omnidirectional moving trolley 30, the robot 10 can move while maintaining the moving speed Vr without significantly decelerating even at the turning point Pt.

さらに、ロボット10は、注意行動を実行する際に、所定の地点(発話開始地点)に到達したときに、注意対象者に対して注意発話を与える。注意発話は、不適切な行為を注意するためになされ、注意発話の内容としては、たとえば「すみません、歩きスマホは危険ですのでおやめください」などである。 Further, the robot 10 gives an attention utterance to the attention target person when the robot 10 reaches a predetermined point (speech start point) when executing the attention action. Attention utterances are made to be careful of inappropriate acts, and the content of caution utterances is, for example, "I'm sorry, walking smartphones are dangerous, so please stop."

ただし、注意発話は、ロボット10が注意接近経路を移動する間であって、合流点Peに到達する前に注意対象者に与えられる。また、発話開始地点は、少なくとも、ロボット10が合流点Peに到達する前に注意発話が完了するように設定される。 However, the caution utterance is given to the attention target person while the robot 10 is moving in the caution approach path and before reaching the confluence Pe. Further, the utterance start point is set so that the caution utterance is completed at least before the robot 10 reaches the confluence point Pe.

また、注意発話の開始タイミングは、ロボット10が転回点Ptを通過するタイミングに合わせて設定される。すなわち、発話開始地点は、転回点Ptおよびその近傍(転回部)に設定される。なお、注意発話の開始タイミングは、ロボット10が転回点Ptを通過する直前であっても良いし、ロボット10が転回点Ptを通過した直後であっても良いし、ロボット10が転回点Ptにおいて転回する(向きを変える)のと同時であっても良い。 Further, the start timing of the caution utterance is set according to the timing when the robot 10 passes the turning point Pt. That is, the utterance start point is set at the turning point Pt and its vicinity (turning portion). Note that the start timing of the caution utterance may be immediately before the robot 10 passes the turning point Pt, immediately after the robot 10 has passed the turning point Pt, or the robot 10 at the turning point Pt. It may be at the same time as turning (turning).

なお、ロボット10が注意行動を開始した後、注意行動が完了する前に、注意対象者を見失ったり、注意対象者が環境外に出たりして追跡不能となった場合には、注意行動が中止される。 After the robot 10 starts the attention action and before the attention action is completed, if the attention target person is lost or the attention target person goes out of the environment and cannot be tracked, the attention action is performed. It will be canceled.

以上のような本実施例の注意行動の効果を評価するために、本実施例の注意行動の効果と、従来例の注意行動の効果とを比較する実験を行った。 In order to evaluate the effect of the attention behavior of this example as described above, an experiment was conducted to compare the effect of the attention behavior of this example with the effect of the attention behavior of the conventional example.

本実施例の注意行動では、ロボットは、出発点Psと合流点Peとの間に転回点Ptを有する注意接近経路に沿って、注意接近速度(1.3m/秒)で移動する。なお、注意接近経路の具体的な設定方法は上述した内容と同じである。 In the attention behavior of this embodiment, the robot moves at a caution approach speed (1.3 m / sec) along a caution approach path having a turning point Pt between the starting point Ps and the confluence point Pe. The specific setting method of the caution approach route is the same as the above-mentioned contents.

従来例の注意行動では、ロボットは、出発点Psから合流点Peに対して直線的に移動する通常接近経路に沿って、通常接近速度(1.1m/秒)で移動する。なお、従来例の注意行動における合流点Peの算出方法は本実施例と同じである。 In the conventional caution behavior, the robot moves at a normal approach speed (1.1 m / sec) along a normal approach path that moves linearly from the starting point Ps to the merging point Pe. The method of calculating the confluence point Pe in the attention behavior of the conventional example is the same as that of the present embodiment.

ただし、本実施例の注意行動および従来例の注意行動のいずれにおいても、出発点Psは、注意対象者の左前方に設定される。したがって、本実施例の注意行動および従来例の注意行動のいずれにおいても、注意接近経路は注意対象者から見て左に設定される。 However, in both the attention behavior of this embodiment and the caution behavior of the conventional example, the starting point Ps is set to the left front of the attention target person. Therefore, in both the attention behavior of this embodiment and the attention behavior of the conventional example, the attention approach route is set to the left when viewed from the attention target person.

また、本実施例の注意行動および従来例の注意行動のいずれにおいても、合流点Peから2.7mの地点で注意発話を開始する。さらに、本実施例の注意行動および従来例の注意行動のいずれにおいても、注意発話の内容は、「すみません、歩きスマホは危険ですので、おやめください」とした。 In addition, in both the attention behavior of this embodiment and the caution behavior of the conventional example, the caution utterance is started at a point 2.7 m from the confluence Pe. Furthermore, in both the attention behavior of this example and the caution behavior of the conventional example, the content of the caution utterance was "Sorry, walking smartphones are dangerous, so please stop."

以上のような条件に従って、携帯端末を操作しながら歩行する24名の被験者に対し、被験者毎に、従来例の注意行動および本実施例の注意行動のいずれか一方の注意行動を割り当てて試行した。なお、従来例の注意行動と本実施例の注意行動とは反対均衡順序で割り当て、結果的に、従来例の注意行動について11回試行し、本実施例の注意行動について13回試行した。 According to the above conditions, 24 subjects walking while operating the mobile terminal were assigned the attention behavior of either the conventional attention behavior or the attention behavior of the present embodiment for each subject and tried. .. The attention behavior of the conventional example and the attention behavior of this example were assigned in the opposite equilibrium order, and as a result, the attention behavior of the conventional example was tried 11 times and the attention behavior of this example was tried 13 times.

そして、試行毎に、注意対象者がロボットの注意に従ったかどうか、すなわち注意が成功したかどうかを評価した。ただし、注意行動完了後に携帯端末の使用を中止した場合を「成功」とし、注意行動完了後に携帯端末の使用を中止しなかった(携帯端末の使用を継続した)場合を「失敗」とした。その集計結果(実験結果)が図7に示される。この図7に示す集計結果は、従来例の注意行動および本実施例の注意行動の各々における注意の成功数および注意の成功率を示すグラフである。 Then, for each trial, it was evaluated whether the attention subject followed the robot's attention, that is, whether the attention was successful. However, the case where the use of the mobile terminal was stopped after the caution action was completed was regarded as "success", and the case where the use of the mobile terminal was not stopped after the completion of the caution action (the use of the mobile terminal was continued) was regarded as "failure". The aggregated result (experimental result) is shown in FIG. The aggregation result shown in FIG. 7 is a graph showing the number of successful attentions and the success rate of attentions in each of the attention behaviors of the conventional example and the attention behavior of this embodiment.

図7を参照して分かるように、実験結果によれば、従来例の注意行動では、11回の試行のうち、2回成功し、9回失敗した。すなわち、従来例の注意行動では、成功率は約18%であった。一方、本実施例の注意行動では、13回の試行のうち、8回成功し、5回失敗した。すなわち、本実施例の注意行動では、成功率は約62%であった。以上のように、本実施例の注意行動は、従来例の注意行動に比べて、歩行中の注意対象者に効果的に注意を与えることができることが分かった。 As can be seen with reference to FIG. 7, according to the experimental results, the attention behavior of the conventional example succeeded twice out of 11 trials and failed 9 times. That is, in the conventional attention behavior, the success rate was about 18%. On the other hand, in the caution behavior of this example, out of 13 trials, 8 times were successful and 5 times were unsuccessful. That is, in the attention behavior of this example, the success rate was about 62%. As described above, it was found that the attention behavior of this example can effectively give attention to the attention target person while walking as compared with the attention behavior of the conventional example.

ロボット10の上記のような動作は、CPU80がメモリ84に記憶されたロボット制御プログラムを実行することによって実現される。具体的な処理については、後でフロー図を用いて説明する。 The above-mentioned operation of the robot 10 is realized by the CPU 80 executing the robot control program stored in the memory 84. The specific processing will be described later with reference to a flow chart.

図8は図2に示したメモリ84(RAM)のメモリマップ500を示す図である。図8に示すように、メモリ84は、プログラム記憶領域502およびデータ記憶領域504を含む。プログラム記憶領域502は、ロボット制御プログラムを記憶する。ロボット制御プログラムは、通信プログラム502a、自己位置推定プログラム502b、注意対象者検出プログラム502c、経路推定プログラム502d、経路作成プログラム502e、移動制御プログラム502fおよび発話プログラム502gを含む。 FIG. 8 is a diagram showing a memory map 500 of the memory 84 (RAM) shown in FIG. As shown in FIG. 8, the memory 84 includes a program storage area 502 and a data storage area 504. The program storage area 502 stores the robot control program. The robot control program includes a communication program 502a, a self-position estimation program 502b, a attention target detection program 502c, a route estimation program 502d, a route creation program 502e, a movement control program 502f, and a speech program 502g.

なお、ロボット制御プログラムは、ロボット10が起動されたときに、HDDから読み出され、RAMに記憶される。 The robot control program is read from the HDD and stored in the RAM when the robot 10 is started.

通信プログラム502aは、他のロボットおよびユーザの端末などの外部コンピュータと通信するためのプログラムである。 The communication program 502a is a program for communicating with an external computer such as another robot and a user's terminal.

自己位置推定プログラム502bは、2次元距離計測装置106の出力と地図データ504aに基づいて、ロボット10自身の位置すなわち自己位置を推定(または検出)するためのプログラムである。 The self-position estimation program 502b is a program for estimating (or detecting) the position of the robot 10 itself, that is, the self-position, based on the output of the two-dimensional distance measuring device 106 and the map data 504a.

注意対象者検出プログラム502cは、ロボット10に備わる各種センサからの出力に基づいて、ロボット10の周囲に存在する不適切な行為を行う歩行中の注意対象者を検出するためのプログラムである。また、注意対象者検出プログラム502cは、ユーザの端末から送信されたコマンドに従って、ロボット10の周囲に存在する注意対象者を検出するためのプログラムでもある。 The attention target person detection program 502c is a program for detecting a walking attention target person who exists around the robot 10 and performs an inappropriate action based on outputs from various sensors provided in the robot 10. The attention target person detection program 502c is also a program for detecting the attention target person existing around the robot 10 according to a command transmitted from the user's terminal.

経路推定プログラム502dは、注意対象者の進行方向または注意対象者の移動速度に応じて、注意対象者が移動する推定経路を推定するためのプログラムである。 The route estimation program 502d is a program for estimating the estimated route to which the attention target person moves according to the traveling direction of the attention target person or the movement speed of the attention target person.

経路作成プログラム502eは、推定経路に応じて合流点Peを設定し、ロボット10の自己位置に応じた出発点Psから合流点Peに至る、転回点Ptを有する移動経路(注意接近経路)を作成するためのプログラムである。 The route creation program 502e sets the confluence point Pe according to the estimated route, and creates a movement route (attention approach route) having a turning point Pt from the starting point Ps according to the self-position of the robot 10 to the confluence point Pe. It is a program to do.

移動制御プログラム502fは、台車30の各車輪32を制御して、ロボット10を所定の移動速度で移動させるためのプログラムである。また、移動制御プログラム502fは、注意行動を実行する際に、注意接近経路に沿って注意接近速度でロボット10を移動させるためのプログラムでもある。 The movement control program 502f is a program for controlling each wheel 32 of the carriage 30 to move the robot 10 at a predetermined movement speed. The movement control program 502f is also a program for moving the robot 10 at the attention approach speed along the attention approach path when executing the attention action.

発話プログラム502gは、データ記憶領域504に記憶されている発話データ504gを読み出して、発話データ504gに従った音声または声をスピーカ64から出力させるためのプログラムである。また、発話プログラム502gは、注意行動を実行する際に、所定のタイミングで、発話データ504gに含まれる注意発話用の音声についてのデータを読み出して、注意発話用の音声をスピーカ64から出力させるためのプログラムである。すなわち、発話プログラム502gは、注意発話を与えるためのプログラムである。 The utterance program 502g is a program for reading the utterance data 504g stored in the data storage area 504 and outputting the voice or voice according to the utterance data 504g from the speaker 64. Further, the utterance program 502g reads data about the voice for attention utterance included in the utterance data 504g at a predetermined timing when executing the attention action, and outputs the voice for attention utterance from the speaker 64. Program. That is, the utterance program 502 g is a program for giving attention utterance.

図示は省略するが、プログラム記憶領域502には、センサ情報を検知するための検知プログラム、3次元距離計測装置108の出力に基づいて、ロボット10の周囲に存在する人間を検出するとともに、検出した人間の位置を検出するための人間位置検出プログラム、コミュニケーション対象の人間の音声を認識するための音声認識プログラムおよび注意行動以外の所定の行動を実行するための行動制御プログラムなどの他のプログラムも記憶される。 Although not shown, in the program storage area 502, a human being around the robot 10 is detected and detected based on the output of the detection program for detecting the sensor information and the three-dimensional distance measuring device 108. It also stores other programs such as a human position detection program for detecting a human position, a voice recognition program for recognizing a human voice to be communicated with, and an action control program for performing a predetermined action other than attention actions. Will be done.

また、データ記憶領域504には、地図データ504a、自己位置データ504b、注意対象者位置データ504c、推定経路データ504d、移動経路データ504e、速度データ504fおよび発話データ504gが記憶される。 Further, the data storage area 504 stores map data 504a, self-position data 504b, attention target person position data 504c, estimated route data 504d, movement route data 504e, velocity data 504f, and utterance data 504g.

地図データ504aは、ロボット10が配置される環境を上方から見た2次元の地図についてのデータである。地図には、所定の位置を原点とする2次元座標が割り当てられており、平面上の位置は座標で表される。また、地図には、通路、壁、柱および固定的に配置されている障害物(たとえば、消火器、ごみ箱など)が記載される。障害物の位置(2次元座標)は予め知ることができる。 The map data 504a is data on a two-dimensional map of the environment in which the robot 10 is arranged as viewed from above. Two-dimensional coordinates with a predetermined position as the origin are assigned to the map, and the position on the plane is represented by the coordinates. The map also shows passageways, walls, pillars and fixed obstacles (eg, fire extinguishers, trash cans, etc.). The position of the obstacle (two-dimensional coordinates) can be known in advance.

なお、ユーザの端末は、地図データ504aと同じまたは同等の地図データを記憶しており、または、参照可能であり、ユーザは、端末を介してこの地図データに対応する地図を参照し、注意対象者として選択する人間が存在する位置を指定したりする。 Note that the user's terminal stores or can refer to the same or equivalent map data as the map data 504a, and the user refers to the map corresponding to this map data via the terminal and is to be careful. Specify the position where the person to be selected as a person exists.

自己位置データ504bは、ロボット10が配置される環境におけるロボット10自身の位置(自己位置)についてのデータである。注意対象者位置データ504cは、注意対象者の現在位置についてのデータである。ただし、ロボット10の自己位置および注意対象者の位置のそれぞれは、上述した地図上の座標として表現される。 The self-position data 504b is data about the position (self-position) of the robot 10 itself in the environment in which the robot 10 is arranged. The attention target person position data 504c is data about the current position of the attention target person. However, each of the self-position of the robot 10 and the position of the person to be watched is expressed as the coordinates on the map described above.

推定経路データ504dは、注意対象者が移動する推定経路についてのデータである。移動経路データ504eは、ロボット10の自己位置(出発点Ps)から合流点Peに至る、転回点Ptを有する移動経路(注意接近経路)についてのデータである。速度データ504fは、ロボット10が移動する際の移動速度についてのデータであり、少なくとも、注意行動を実行する際のロボット10の移動速度(注意用速度)Vaについてのデータを含む。発話データ504gは、スピーカ64から出力される音声または声についてのデータであり、少なくとも注意対象者に注意発話を与える際にスピーカ64から出力される注意発話用の音声についてのデータを含む。 The estimated route data 504d is data about an estimated route on which the attention subject moves. The movement path data 504e is data on a movement path (attention approach path) having a turning point Pt from the self-position (starting point Ps) of the robot 10 to the confluence point Pe. The speed data 504f is data on the movement speed when the robot 10 moves, and includes at least data on the movement speed (attention speed) Va of the robot 10 when executing the attention action. The utterance data 504g is data on the voice or voice output from the speaker 64, and includes at least data on the voice for attention utterance output from the speaker 64 when giving attention utterance to the attention target person.

図示は省略するが、データ記憶領域504には、他のデータが記憶されたり、フラグおよび/またはタイマ(カウンタ)が設けられたりする。 Although not shown, the data storage area 504 may store other data or may be provided with a flag and / or a timer (counter).

図9は、図2に示したCPU80のロボット制御処理を示すフロー図である。このロボット制御処理は、ロボット10が配置される環境の状況に応じて開始/終了される。なお、ロボット制御処理の開始とは、ロボット10が配置される環境におけるロボットサービスの開始を意味し、ロボット制御処理の終了とは、ロボット10が配置される環境におけるロボットサービスの終了を意味する。また、ロボット制御処理は、定期的(たとえば0.1秒毎)に繰り返し実行される。図9に示すように、CPU80は、ロボット制御処理を開始すると、ステップS1で、注意対象者を検出したかどうかを判断する。なお、ロボット制御処理は定期的に繰り返し実行されるので、注意対象者を検出するとは、注意対象者が新たに検出することだけでなく、前回のロボット制御処理で検出していた注意対象者を引き続き検出することも含む。ステップS1で“NO”であれば、つまり、注意対象者を検出しないと判断した場合には、後述するステップS7に進む。 FIG. 9 is a flow chart showing the robot control process of the CPU 80 shown in FIG. This robot control process is started / ended according to the situation of the environment in which the robot 10 is arranged. The start of the robot control process means the start of the robot service in the environment in which the robot 10 is arranged, and the end of the robot control process means the end of the robot service in the environment in which the robot 10 is arranged. Further, the robot control process is repeatedly executed periodically (for example, every 0.1 seconds). As shown in FIG. 9, when the robot control process is started, the CPU 80 determines in step S1 whether or not the attention target person is detected. Since the robot control process is periodically and repeatedly executed, detecting the attention target person means not only newly detecting the attention target person but also detecting the attention target person detected in the previous robot control process. Including continued detection. If it is "NO" in step S1, that is, if it is determined that the person to be watched is not detected, the process proceeds to step S7 described later.

一方、ステップS1で“YES”であれば、つまり、注意対象者を検出したと判断した場合には、ステップS3で、移動経路の作成処理を実行し、ステップS5で、移動経路に応じて注意行動処理を実行し、ステップS7に進む。 On the other hand, if "YES" in step S1, that is, when it is determined that the attention target person has been detected, the movement route creation process is executed in step S3, and attention is given according to the movement route in step S5. The action process is executed, and the process proceeds to step S7.

ステップS7では、ロボット制御処理を終了するかどうかを判断する。ステップS7で“NO”であれば、つまり、終了でなければ、ステップS1に戻る。一方、ステップS7で“YES”であれば、つまり、終了であれば、ロボット制御処理を終了する。なお、図示は省略するが、注意対象者を検出していない場合には、ロボット10は停止していても良く、また、自由に移動しても良い。 In step S7, it is determined whether or not to end the robot control process. If it is "NO" in step S7, that is, if it is not finished, the process returns to step S1. On the other hand, if "YES" in step S7, that is, if it ends, the robot control process ends. Although not shown, the robot 10 may be stopped or may move freely when the person to be watched is not detected.

図10および図11は、図9のステップS3に示した移動経路の作成処理を示すフロー図である。図10に示すように、CPU80は、移動経路の作成処理を開始すると、ステップS31で、注意対象者の現在位置Pnを検出し、ステップS33で、注意対象者が移動する推定経路を推定し、ステップS35で、ロボット10の自己位置を推定し、ロボット10の自己位置に応じて出発点Psを設定し、ステップS37で、移動経路Planを初期化する。ここでは、Plan=NULL(不存在)とする。 10 and 11 are flow charts showing the process of creating the movement route shown in step S3 of FIG. As shown in FIG. 10, when the CPU 80 starts the movement route creation process, the current position Pn of the attention target person is detected in step S31, and the estimated route to which the attention target person moves is estimated in step S33. In step S35, the self-position of the robot 10 is estimated, the starting point Ps is set according to the self-position of the robot 10, and in step S37, the movement path Plan is initialized. Here, Plan = NULL (absence).

続いて、ステップS39で、経路有効度の最大値Umaxを初期化する。ここでは、Umax=−∞とする。なお、経路有効度の最大値Umaxは負の値であり、経路有効度の最大値Umaxの初期値の絶対値としては、∞に限定されず、後述する最大予測時間tmaxの絶対値よりも大きい値であれば良い。 Subsequently, in step S39, the maximum value Umax of the route validity is initialized. Here, Umax = −∞. The maximum value Umax of the route effectiveness is a negative value, and the absolute value of the initial value of the maximum value Umax of the route effectiveness is not limited to ∞ and is larger than the absolute value of the maximum predicted time tmax described later. Any value will do.

次に、ステップS41で、予測時間tを初期化(t=0)して、ステップS43で、予測時間tが最大予測時間tmaxよりも大きいかどうかを判断する。ただし、予測時間tおよび最大予測時間tmaxの単位は秒であり、たとえば、最大予測時間tmaxは、20秒に設定される。 Next, in step S41, the predicted time t is initialized (t = 0), and in step S43, it is determined whether or not the predicted time t is larger than the maximum predicted time tmax. However, the unit of the predicted time t and the maximum predicted time tmax is seconds, and for example, the maximum predicted time tmax is set to 20 seconds.

ステップS43で“NO”であれば、つまり、予測時間tが最大予測時間tmaxよりも小さいと判断した場合には、ステップS45で、t秒後の注意対象者の未来位置Phを算出し、ステップS47で、未来位置Phに応じた合流点Peを設定し、ステップS49で、上述した方法で、出発点Psから合流点Peに至る、転回点Ptを有する理想経路Pathを設定する。 If it is "NO" in step S43, that is, if it is determined that the predicted time t is smaller than the maximum predicted time tmax, the future position Ph of the attention target person after t seconds is calculated in step S45, and the step In S47, the merging point Pe according to the future position Ph is set, and in step S49, the ideal path Path having the turning point Pt from the starting point Ps to the merging point Pe is set by the method described above.

続いて、図11に示すステップS51で、理想経路Pathの移動にかかる(出発点Psから合流点Peに至るまでの)所要時間taを算出して、ステップS53で、理想経路Pathの経路有効度Uを算出する。ここでは、U=−|t−ta|とする。すなわち、経路有効度Uは、予測時間tと所要時間taとの差の絶対値に応じた負の値となる。 Subsequently, in step S51 shown in FIG. 11, the required time ta (from the starting point Ps to the confluence point Pe) required for the movement of the ideal path Path is calculated, and in step S53, the path effectiveness of the ideal path Path is calculated. Calculate U. Here, U =-| t-ta |. That is, the route effectiveness U becomes a negative value according to the absolute value of the difference between the predicted time t and the required time ta.

次に、ステップS55で、理想経路Pathの経路有効度Uが経路有効度の最大値Umaxよりも大きいかどうかを判断する。ステップS55で“NO”であれば、つまり、理想経路Pathの経路有効度Uが経路有効度の最大値Umaxよりも小さいと判断した場合には、後述するステップS61に進む。一方、ステップS55で“YES”であれば、つまり、理想経路Pathの経路有効度Uが経路有効度の最大値Umaxよりも大きい(0に近い)と判断した場合には、ステップS57で、移動経路Planを現在の理想経路Pathに更新(Plan=Path)して、ステップS59で、経路有効度の最大値Umaxを現在の経路有効度Uに更新(Umax=U)して、ステップS61に進む。 Next, in step S55, it is determined whether or not the path effectiveness U of the ideal path Path is larger than the maximum value Umax of the path effectiveness. If it is "NO" in step S55, that is, if it is determined that the route effectiveness U of the ideal route Path is smaller than the maximum value Umax of the route effectiveness, the process proceeds to step S61 described later. On the other hand, if "YES" in step S55, that is, when it is determined that the route effectiveness U of the ideal route Path is larger than (close to 0) the maximum value Umax of the route effectiveness, the movement is performed in step S57. The route Plan is updated to the current ideal route Path (Plan = Path), and in step S59, the maximum value Umax of the route effectiveness is updated to the current route effectiveness U (Umax = U), and the process proceeds to step S61. ..

ステップS61では、予測時間tを更新して、図10に示すステップS43に戻る。ステップS61では、予測時間tに所定の時間xが加算される(t=t+x)。たとえば、時間xは、0.1秒である。以上のように、ステップS43で“YES”となるまで、上述したステップS45〜S61の処理を繰り返し実行する。 In step S61, the predicted time t is updated, and the process returns to step S43 shown in FIG. In step S61, a predetermined time x is added to the predicted time t (t = t + x). For example, the time x is 0.1 seconds. As described above, the above-described processes of steps S45 to S61 are repeatedly executed until "YES" is obtained in step S43.

図10に戻って、ステップS43で“YES”であれば、つまり、予測時間tが最大予測時間tmaxよりも大きいと判断した場合には、ステップS63で、経路有効度の最大値Umaxが有効かどうかを判断する。ここでは、経路有効度の最大値Umaxが所定時間以内を示す場合、すなわち、予測時間tと所要時間taとの差が所定時間以内である場合には、経路有効度の最大値Umaxが有効であると判断する。たとえば、予測時間tと所要時間taとの差が5秒以内である場合には、経路有効度の最大値Umaxが有効であると判断し、予測時間tと所要時間taとの差が5秒よりも大きい場合には、経路有効度の最大値Umaxが無効であると判断する。 Returning to FIG. 10, if “YES” in step S43, that is, when it is determined that the predicted time t is larger than the maximum predicted time tmax, is the maximum value Umax of the route effectiveness valid in step S63? Judge whether or not. Here, when the maximum value Umax of the route effectiveness indicates within a predetermined time, that is, when the difference between the predicted time t and the required time ta is within a predetermined time, the maximum value Umax of the route effectiveness is effective. Judge that there is. For example, when the difference between the predicted time t and the required time ta is within 5 seconds, it is determined that the maximum value Umax of the route effectiveness is valid, and the difference between the predicted time t and the required time ta is 5 seconds. If it is larger than, it is determined that the maximum value Umax of the route effectiveness is invalid.

ステップS63で“NO”であれば、つまり、経路有効度の最大値Umaxが無効であると判断した場合には、ステップS65で、移動経路を無効化(Plan=NULL)して、ロボット制御処理にリターンする。一方、ステップS63で“YES”であれば、つまり、経路有効度の最大値Umaxが有効であると判断した場合には、ステップS65を経ずにロボット制御処理にリターンする。 If it is "NO" in step S63, that is, if it is determined that the maximum value Umax of the route effectiveness is invalid, the movement route is invalidated (Plan = NULL) in step S65, and the robot control process is performed. Return to. On the other hand, if "YES" in step S63, that is, if it is determined that the maximum value Umax of the route effectiveness is valid, the robot control process is returned without going through step S65.

図12は、図9のステップS5に示した注意行動処理を示すフロー図である。なお、移動経路の作成処理において移動経路が無効化された場合には、注意行動処理は開始されない(実行されない)。図12に示すように、CPU80は、注意行動処理を開始すると、ステップS71で、移動経路Planを読み出し、ステップS73で、注意用速度Vaを読み出し、ステップS75で、台車30の各車輪32を制御して、移動経路Planに沿って注意用速度Vaでロボット10を移動させる。 FIG. 12 is a flow chart showing the attention behavior processing shown in step S5 of FIG. If the movement route is invalidated in the movement route creation process, the attention action process is not started (executed). As shown in FIG. 12, when the attention action process is started, the CPU 80 reads the movement path Plan in step S71, reads the attention speed Va in step S73, and controls each wheel 32 of the carriage 30 in step S75. Then, the robot 10 is moved along the movement path Plan at the caution speed Va.

続いて、ステップS77で、発話開始地点に到達したかどうかを判断する。ステップS77で“NO”であれば、つまり、発話開始地点に到達していないと判断した場合には、ステップS79で、注意行動可能かどうかを判断する。ここでは、注意対象者を見失っていないか、注意対象者が不適切な行為を継続しているかどうかを判断する。たとえば、注意対象者が環境外に出ることによってロボット10が注意対象者を見失った場合、および注意対象者が不適切な行為を中止した場合には、注意行動不可能と判断する。 Subsequently, in step S77, it is determined whether or not the utterance start point has been reached. If it is "NO" in step S77, that is, if it is determined that the utterance start point has not been reached, it is determined in step S79 whether or not the attention action is possible. Here, it is determined whether the person to be watched has lost sight of the person to be watched and whether the person to be watched continues to act inappropriately. For example, when the robot 10 loses sight of the attention target person due to the attention target person going out of the environment, or when the attention target person stops an inappropriate act, it is determined that the attention action is impossible.

ステップS79で“NO”であれば、つまり、注意行動不可能と判断した場合には、ステップS81で、注意行動を中止して、ロボット制御処理にリターンする。一方、ステップS79で“YES”であれば、つまり、注意行動可能と判断した場合には、ステップS77に戻る。 If it is "NO" in step S79, that is, if it is determined that the attention action is impossible, the attention action is stopped and the robot control process is returned in step S81. On the other hand, if "YES" in step S79, that is, if it is determined that attention behavior is possible, the process returns to step S77.

また、ステップS77で“YES”であれば、つまり、発話開始地点に到達したと判断した場合には、ステップS83で、注意発話を実施して、ステップS85で、注意行動を完了したかどうかを判断する。 If "YES" in step S77, that is, when it is determined that the utterance start point has been reached, the caution utterance is performed in step S83, and whether or not the caution action is completed in step S85 is determined. to decide.

ステップS85で“YES”であれば、つまり、注意行動を完了したと判断した場合は、ロボット制御処理にリターンする。一方、ステップS85で“NO”であれば、つまり、注意行動を完了していないと判断した場合は、ステップS87で、注意行動可能かどうかを判断する。ステップS87で“YES”であれば、ステップS83に戻る。一方、ステップS87で“NO”であれば、ステップS89で、注意行動を中止して、ロボット制御処理にリターンする。 If "YES" in step S85, that is, when it is determined that the attention action has been completed, the robot control process is returned. On the other hand, if it is "NO" in step S85, that is, if it is determined that the attention action has not been completed, it is determined in step S87 whether or not the attention action is possible. If "YES" in step S87, the process returns to step S83. On the other hand, if "NO" in step S87, the attention action is stopped and the robot control process is returned in step S89.

この実施例によれば、ロボット10が転回点Ptを有する移動経路に従って移動し、合流点Peに到達する前に、注意対象者に対する注意発話を与えるので、歩行中の注意対象者に効果的に対して注意を与えることができる。 According to this embodiment, since the robot 10 moves according to the movement path having the turning point Pt and gives a caution utterance to the attention target person before reaching the confluence point Pe, it is effective for the attention target person while walking. Attention can be given to it.

また、この実施例によれば、ロボット10が転回点Ptを通過後、進行方向に直交する方向(左右方向)から注意対象者に近づくので、注意対象者の注意を引くことができ、歩行中の注意対象者に対して効果的に注意を与えることができる。 Further, according to this embodiment, after the robot 10 passes the turning point Pt, it approaches the attention target person from the direction orthogonal to the traveling direction (left-right direction), so that the attention target person can be attracted and walking. It is possible to effectively give attention to the target person.

上述の実施例では、図9〜図12のすべてのステップを1つのコンピュータ14が実行するものとして説明したが、複数のコンピュータを用いてもよく、あるいは特定の処理をコンピュータではなくDSPのような専用処理回路で処理するようにしてもよい。 In the above embodiment, all the steps of FIGS. 9 to 12 have been described as being executed by one computer 14, but a plurality of computers may be used, or a specific process may be performed like a DSP instead of a computer. It may be processed by a dedicated processing circuit.

なお、上で挙げた角度および距離などの具体的数値はいずれも単なる一例であり、必要に応じて適宜変更可能である。 The specific numerical values such as the angle and the distance mentioned above are merely examples, and can be changed as necessary.

10 …ロボット
30 …台車
64 …スピーカ
80 …CPU
84 …RAM
10 ... Robot 30 ... Bogie 64 ... Speaker 80 ... CPU
84 ... RAM

Claims (8)

全方位に移動可能な移動手段およびスピーカを備えるロボットであって、
不適切な行為を行う歩行中の注意対象者を検出する検出手段、
前記注意対象者が移動する推定経路を推定する経路推定手段、
前記推定経路に基づいて、前記ロボットの自己位置に応じた出発点から前記注意対象者と合流する合流点に至る、転回点を有する移動経路を作成する経路作成手段、
前記経路作成手段によって作成された前記移動経路に従って前記ロボットが所定の移動速度で移動するように前記移動手段を制御する制御手段、および
前記ロボットが前記移動経路に従って移動する間であって、前記合流点に到達する前に、前記スピーカから前記注意対象者に対する注意発話を与える注意手段を備える、ロボット。
A robot equipped with moving means and speakers that can move in all directions.
A detection means that detects a person to be watched while walking that performs inappropriate actions,
A route estimating means for estimating an estimated route to which the attention subject moves,
A route creating means for creating a movement route having a turning point from a starting point according to the self-position of the robot to a confluence point where the robot joins the attention target person based on the estimated route.
A control means that controls the moving means so that the robot moves at a predetermined moving speed according to the moving path created by the route creating means, and a confluence while the robot moves according to the moving path. A robot comprising a caution means for giving a caution utterance from the speaker to the attention target person before reaching a point.
前記経路作成手段は、前記転回点を通過した後の経路が、当該転回点を通過する前の経路よりも前記注意対象者の進行方向に直交する方向に近い向きの経路となるように、前記移動経路を作成する、請求項1記載のロボット。 The route creating means is such that the route after passing through the turning point is a route in a direction closer to the direction orthogonal to the traveling direction of the attention target person than the route before passing through the turning point. The robot according to claim 1, which creates a movement route. 前記経路作成手段は、前記注意対象者の歩行速度と、前記ロボットの移動速度とに応じて、前記注意対象者および前記ロボットのそれぞれが前記合流点に到達するまでの所要時間の差が所定の範囲内になるように、当該合流点を設定する、請求項1または2記載のロボット。 In the route creating means, the difference in the time required for each of the attention target person and the robot to reach the confluence is predetermined according to the walking speed of the attention target person and the moving speed of the robot. The robot according to claim 1 or 2, which sets the confluence so as to be within the range. 前記合流点は、前記推定経路から所定距離離れた位置に設定される、請求項1から3までのいずれかに記載のロボット。 The robot according to any one of claims 1 to 3, wherein the merging point is set at a position separated from the estimated path by a predetermined distance. 前記注意手段は、前記ロボットが前記転回点を通過するときに、前記注意対象者に対する注意発話を与える、請求項1から4までのいずれかに記載のロボット。 The robot according to any one of claims 1 to 4, wherein the caution means gives a caution utterance to the caution target person when the robot passes the turning point. 前記制御手段は、前記ロボットが前記移動経路に従って移動する際に、人の早歩きと同程度の移動速度で前記ロボットが移動するように前記移動手段を制御する、請求項1から5までのいずれかに記載のロボット。 Any of claims 1 to 5, wherein the control means controls the moving means so that when the robot moves according to the moving path, the robot moves at a moving speed similar to that of a person walking fast. The robot described in Crab. 全方位に移動可能な移動手段およびスピーカを備えるロボットのロボット制御プログラムであって、
前記ロボットのプロセッサに、
不適切な行為を行う歩行中の注意対象者を検出する検出ステップ、
前記注意対象者が移動する推定経路を推定する経路推定ステップ、
前記推定経路に基づいて、前記ロボットの自己位置に応じた出発点から前記注意対象者と合流する合流点に至る、転回点を有する移動経路を作成する経路作成ステップ、
前記経路作成ステップによって作成された前記移動経路に従って前記ロボットが所定の移動速度で移動するように前記移動手段を制御する制御ステップ、および
前記ロボットが前記移動経路に従って移動する間であって、前記合流点に到達する前に、前記スピーカから前記注意対象者に対する注意発話を与える注意ステップを実行させる、ロボット制御プログラム。
A robot control program for a robot equipped with moving means and speakers that can move in all directions.
To the processor of the robot
A detection step that detects a walking attention subject who performs inappropriate actions,
The route estimation step for estimating the estimated route to which the attention subject moves,
A route creation step of creating a movement route having a turning point from a starting point according to the self-position of the robot to a merging point where the robot joins the attention target person based on the estimated route.
A control step that controls the moving means so that the robot moves at a predetermined moving speed according to the moving path created by the route creating step, and the merging while the robot moves according to the moving path. A robot control program that executes a attention step that gives a caution utterance to the attention target person from the speaker before reaching the point.
全方位に移動可能な移動手段およびスピーカを備えるロボットのロボット制御方法であって、
(a)不適切な行為を行う歩行中の注意対象者を検出するステップ、
(b)前記注意対象者が移動する推定経路を推定するステップ、
(c)前記推定経路に基づいて、前記ロボットの自己位置に応じた出発点から前記注意対象者と合流する合流点に至る、転回点を有する移動経路を作成するステップ、
(d)前記ステップ(c)で作成された前記移動経路に従って前記ロボットが所定の移動速度で移動するように前記移動手段を制御するステップ、および
(e)前記ロボットが前記移動経路に従って移動する間であって、前記合流点に到達する前に、前記スピーカから前記注意対象者に対する注意発話を与えるステップを含む、ロボット制御方法。
A robot control method for a robot equipped with moving means and speakers that can move in all directions.
(A) Steps to detect a person to be watched while walking who performs inappropriate acts,
(B) A step of estimating an estimated route to which the attention subject moves.
(C) A step of creating a movement path having a turning point from a starting point according to the self-position of the robot to a merging point where the robot joins the attention target person based on the estimated path.
(D) A step of controlling the moving means so that the robot moves at a predetermined moving speed according to the moving path created in the step (c), and (e) while the robot moves according to the moving path. A robot control method comprising a step of giving a caution utterance from the speaker to the attention target person before reaching the confluence.
JP2019128680A 2019-07-10 2019-07-10 ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD Active JP7258438B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019128680A JP7258438B2 (en) 2019-07-10 2019-07-10 ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019128680A JP7258438B2 (en) 2019-07-10 2019-07-10 ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD

Publications (2)

Publication Number Publication Date
JP2021013964A true JP2021013964A (en) 2021-02-12
JP7258438B2 JP7258438B2 (en) 2023-04-17

Family

ID=74532030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019128680A Active JP7258438B2 (en) 2019-07-10 2019-07-10 ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD

Country Status (1)

Country Link
JP (1) JP7258438B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006051559A (en) * 2004-08-10 2006-02-23 Riyuukoku Univ Leg module and leg type robot using it
US20090234499A1 (en) * 2008-03-13 2009-09-17 Battelle Energy Alliance, Llc System and method for seamless task-directed autonomy for robots
JP2012161851A (en) * 2011-02-03 2012-08-30 Advanced Telecommunication Research Institute International Robot system and space formation recognizing device used in the same
JP2013061715A (en) * 2011-09-12 2013-04-04 Nec Corp Person monitoring system, robot, person monitoring method and robot control program
JP2016139343A (en) * 2015-01-28 2016-08-04 シャープ株式会社 Crime prevention system
JP2017016359A (en) * 2015-06-30 2017-01-19 セコム株式会社 Autonomous Mobile Robot
JP2018144118A (en) * 2017-03-01 2018-09-20 株式会社国際電気通信基礎技術研究所 Guide robot

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006051559A (en) * 2004-08-10 2006-02-23 Riyuukoku Univ Leg module and leg type robot using it
US20090234499A1 (en) * 2008-03-13 2009-09-17 Battelle Energy Alliance, Llc System and method for seamless task-directed autonomy for robots
JP2012161851A (en) * 2011-02-03 2012-08-30 Advanced Telecommunication Research Institute International Robot system and space formation recognizing device used in the same
JP2013061715A (en) * 2011-09-12 2013-04-04 Nec Corp Person monitoring system, robot, person monitoring method and robot control program
JP2016139343A (en) * 2015-01-28 2016-08-04 シャープ株式会社 Crime prevention system
JP2017016359A (en) * 2015-06-30 2017-01-19 セコム株式会社 Autonomous Mobile Robot
JP2018144118A (en) * 2017-03-01 2018-09-20 株式会社国際電気通信基礎技術研究所 Guide robot

Also Published As

Publication number Publication date
JP7258438B2 (en) 2023-04-17

Similar Documents

Publication Publication Date Title
JP5366048B2 (en) Information provision system
JP5324286B2 (en) Network robot system, robot control apparatus, robot control method, and robot control program
JP5768273B2 (en) A robot that predicts a pedestrian's trajectory and determines its avoidance behavior
JP5764795B2 (en) Mobile robot, mobile robot learning system, and mobile robot behavior learning method
JP5617562B2 (en) Mobile robot
US11330951B2 (en) Robot cleaner and method of operating the same
US20190184569A1 (en) Robot based on artificial intelligence, and control method thereof
US20180329409A1 (en) Portable mobile robot and operation thereof
JP6919882B2 (en) Person estimation system and estimation program
JP6893630B2 (en) Service provision robot system
US20180329424A1 (en) Portable mobile robot and operation thereof
JP2015066621A (en) Robot control system, robot, output control program and output control method
KR20190105214A (en) Robot cleaner for escaping constrained situation through artificial intelligence and operating method thereof
JP5552710B2 (en) Robot movement control system, robot movement control program, and robot movement control method
JP4793904B2 (en) Communication robot system and communication robot
KR20190094311A (en) Artificial intelligence robot and operating method thereof
JP6142307B2 (en) Attention target estimation system, robot and control program
JP2011000656A (en) Guide robot
JP6713637B2 (en) Service provision robot system
JP7317436B2 (en) ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD
US11986959B2 (en) Information processing device, action decision method and program
JP5732633B2 (en) Communication robot
JP2020004182A (en) Robot, robot control program and robot control method
JP7258438B2 (en) ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD
JP5115886B2 (en) Road guidance robot

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190729

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220519

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230331

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230404

R150 Certificate of patent or registration of utility model

Ref document number: 7258438

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150