JP2020135559A - Autonomous mobile robot - Google Patents

Autonomous mobile robot Download PDF

Info

Publication number
JP2020135559A
JP2020135559A JP2019029811A JP2019029811A JP2020135559A JP 2020135559 A JP2020135559 A JP 2020135559A JP 2019029811 A JP2019029811 A JP 2019029811A JP 2019029811 A JP2019029811 A JP 2019029811A JP 2020135559 A JP2020135559 A JP 2020135559A
Authority
JP
Japan
Prior art keywords
mobile robot
autonomous mobile
mode
sensor
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019029811A
Other languages
Japanese (ja)
Other versions
JP7147624B2 (en
Inventor
薪雄 鈴木
Makio Suzuki
薪雄 鈴木
艶艶 楊
Enen Yo
艶艶 楊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sintokogio Ltd
Original Assignee
Sintokogio Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sintokogio Ltd filed Critical Sintokogio Ltd
Priority to JP2019029811A priority Critical patent/JP7147624B2/en
Publication of JP2020135559A publication Critical patent/JP2020135559A/en
Application granted granted Critical
Publication of JP7147624B2 publication Critical patent/JP7147624B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To realize an autonomous mobile robot for promptly finding an object person who falls down or wanders about in a facility, determining priority and handling an event with a high degree of urgency.SOLUTION: An autonomous mobile robot automatically patrolling a set route comprises a first sensor for detecting user operation of designating a travel mode of the autonomous mobile robot, and a controller for controlling the autonomous mobile robot by referring to an output signal of the first sensor. When the first sensor detects the user operation, the controller executes processing to switch an operation mode of the autonomous mobile robot from an automatic mode in which the autonomous mobile robot is travelled according to a patrol route set independently of the user operation to a manual mode in which the autonomous mobile robot is travelled according to the user operation.SELECTED DRAWING: Figure 1

Description

本発明は、自律移動ロボットに関する。 The present invention relates to an autonomous mobile robot.

医療施設や介護施設などに代表される施設においては、昼間は多くの職員が施設内を行き来しており、施設内で不具合が発生した対象者を職員が迅速に発見することが可能である。一方、夜間は宿直担当職員が一定時間間隔で施設内を定期巡回することにより不具合の発見に努めている。 In facilities such as medical facilities and long-term care facilities, many staff members come and go in the facility during the daytime, and it is possible for the staff members to quickly find the target person who has a problem in the facility. On the other hand, at night, the staff in charge of night duty patrols the facility at regular intervals to try to find problems.

このような状況を補うために、施設内の所定の位置にカメラを設置し、該カメラが撮像した画像(静止画像又は動画像)を職員が待機している居室に転送するシステムが採用されている。 In order to compensate for this situation, a system has been adopted in which a camera is installed at a predetermined position in the facility and the image (still image or moving image) captured by the camera is transferred to the living room where the staff is waiting. There is.

しかしながら、上述したシステムにおいて、カメラの死角に存在する対象者を画像で発見することは困難である。例えば、宿直担当職員の巡回時間間隔が1時間の場合、巡回直後にカメラの死角で転倒したり徘徊している対象者を発見するのは、次の1時間後になってしまう場合がある。 However, in the above-mentioned system, it is difficult to detect the target person in the blind spot of the camera by an image. For example, if the patrol time interval of the staff in charge of night duty is one hour, it may be one hour later to find the subject who has fallen or wandered in the blind spot of the camera immediately after the patrol.

かかる状況を改善すべく、施設内を自動巡回する自律移動ロボットを利用することができる。例えば、自動巡回する自律移動ロボットが、転倒者を発見した場合、職員が当該自律移動ロボットの場所を変更したい場合がある。また変更した場所から、従来通りの巡回移動を継続してもらいたい場合もある。このように自律移動ロボットには、予め定められた巡回経路を走行する自動巡回中であっても、ユーザの要求に応じて走行することが求められる。 In order to improve this situation, an autonomous mobile robot that automatically patrols the facility can be used. For example, when an autonomous mobile robot that automatically patrols finds a fallen person, an employee may want to change the location of the autonomous mobile robot. There are also cases where you want to continue the conventional patrol movement from the changed location. As described above, the autonomous mobile robot is required to travel in response to the user's request even during automatic patrol traveling on a predetermined patrol route.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、自動巡回中であっても、ユーザの要求に応じて走行することが可能な自律移動ロボットを実現することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to realize an autonomous mobile robot capable of traveling in response to a user's request even during automatic patrol. ..

上記の課題を解決するために、本発明の態様1に係る自律移動ロボットは、設定された経路を自動巡回する自律移動ロボットであって、ユーザ操作を検知する第1のセンサと、前記第1のセンサの出力信号を参照して、当該自律移動ロボットを制御するコントローラと、を備え、前記コントローラは、前記第1のセンサが前記ユーザ操作を検知した場合、当該自律移動ロボットの動作モードを、前記ユーザ操作とは独立に設定された巡回経路に従って、当該自律移動ロボットを走行させる自動モードから、前記ユーザ操作に従って、当該自律移動ロボットを走行させる手動モードへと切り替える処理を実行する、構成である。 In order to solve the above problems, the autonomous mobile robot according to the first aspect of the present invention is an autonomous mobile robot that automatically patrols a set route, and includes a first sensor that detects a user operation and the first sensor. A controller that controls the autonomous mobile robot by referring to the output signal of the sensor of the above is provided, and the controller sets the operation mode of the autonomous mobile robot when the first sensor detects the user operation. It is configured to execute a process of switching from an automatic mode in which the autonomous mobile robot is driven according to a patrol route set independently of the user operation to a manual mode in which the autonomous mobile robot is traveled according to the user operation. ..

上記の構成によれば、自動巡回中(自動モードによる走行中)であってもユーザの要求に応じた走行(手動モードによる走行)が可能な自律移動ロボットを実現することができる。 According to the above configuration, it is possible to realize an autonomous mobile robot capable of traveling according to a user's request (traveling in a manual mode) even during automatic patrol (traveling in an automatic mode).

本発明の態様2に係る自律移動ロボットは、上記の態様1において、前記コントローラは、前記手動モードにおいて、前記ユーザが前記自律移動ロボットを前進させる力、及び、前記ユーザが前記自律移動ロボットを回転させる力のうちの少なくとも一つに応じて、前記自律移動ロボットの移動方向および速度のうちの少なくとも一つを決定する、構成としてもよい。 In the second aspect of the present invention, in the first aspect, the controller has a force that allows the user to advance the autonomous mobile robot in the manual mode, and the user rotates the autonomous mobile robot. It may be configured to determine at least one of the moving directions and speeds of the autonomous mobile robot according to at least one of the forces to be made.

上記の構成によれば、ユーザにより加えられた力に応じて手動モードの態様を決定することができる。 According to the above configuration, the mode of the manual mode can be determined according to the force applied by the user.

本発明の態様3に係る自律移動ロボットは、上記の態様1または2において、徘徊者を検知する第2のセンサを更に備え、前記コントローラは、前記自動モードにおいて前記第2のセンサが前記徘徊者を検知した場合、当該自律移動ロボットの動作モードを、前記自動モードから、前記徘徊者を追従する追従モードへと切り替える処理を実行する、構成としてもよい。 The autonomous mobile robot according to the third aspect of the present invention further includes a second sensor for detecting a wandering person in the above aspect 1 or 2, and the controller is such that the second sensor is the wandering person in the automatic mode. When the robot is detected, the operation mode of the autonomous mobile robot may be switched from the automatic mode to the tracking mode for following the wandering person.

上記の構成によれば、自動モードよりも追従モードを優先して実行することが可能な自律移動ロボットを実現することができる。 According to the above configuration, it is possible to realize an autonomous mobile robot capable of executing the follow-up mode with priority over the automatic mode.

本発明の態様4に係る自律移動ロボットは、上記の態様3において、前記コントローラは、前記追従モードにおいて前記第1のセンサが前記ユーザ操作を検知した場合、当該自律移動ロボットの動作モードを、前記追従モードから前記手動モードへと切り替える処理を実行する、構成としてもよい。 In the third aspect of the present invention, the autonomous mobile robot according to the fourth aspect of the present invention sets the operation mode of the autonomous mobile robot to the operation mode of the autonomous mobile robot when the first sensor detects the user operation in the follow-up mode. The configuration may be such that the process of switching from the follow-up mode to the manual mode is executed.

上記の構成によれば、追従モードよりも手動モードを優先して実行することが可能な自律移動ロボットを実現することができる。 According to the above configuration, it is possible to realize an autonomous mobile robot that can execute the manual mode with priority over the follow-up mode.

本発明の態様5に係る自律移動ロボットは、上記の態様1から4のいずれかにおいて、バッテリを更に備え、前記コントローラは、前記バッテリの電圧が低下した場合、前記自律移動ロボットの動作モードを、前記バッテリの電圧に応じて走行速度を制限する低電圧走行モードに切り替える処理を実行する、構成としてもよい。 The autonomous mobile robot according to the fifth aspect of the present invention further includes a battery in any one of the above aspects 1 to 4, and the controller sets the operation mode of the autonomous mobile robot when the voltage of the battery drops. The configuration may be such that the process of switching to the low voltage traveling mode in which the traveling speed is limited according to the voltage of the battery is executed.

上記の構成によれば、バッテリの電圧低下時には、低電圧走行モードを優先して実行することが可能な自律移動ロボットを実現することができる。 According to the above configuration, it is possible to realize an autonomous mobile robot capable of preferentially executing a low-voltage traveling mode when the battery voltage drops.

本発明の態様6に係る自律移動ロボットは、上記の態様1から5の何れか1項において、前記コントローラは、前記第1のセンサの出力信号を取得する少なくとも1つの入力インタフェースと、予め定められたプログラムに従って前記各処理を実行する少なくとも1つのプロセッサと、前記プログラムを格納した少なくとも1つのメモリと、を備えている、構成としてもよい。 In any one of the above aspects 1 to 5, the autonomous mobile robot according to the sixth aspect of the present invention is defined in advance as the controller having at least one input interface for acquiring the output signal of the first sensor. It may be configured to include at least one processor that executes each of the processes according to the program and at least one memory that stores the program.

上記の構成によれば、メモリに格納された情報を参照してプロセッサが処理を実行することにより、優先度を判断し、緊急度の高い事象に対応可能な自律移動ロボットを実現することができる。 According to the above configuration, the processor executes the process by referring to the information stored in the memory, so that the priority can be determined and an autonomous mobile robot capable of responding to a highly urgent event can be realized. ..

本発明の態様7に係る制御方法は、設定された経路を自動巡回する自律移動ロボットを制御する制御方法であって、第1のセンサを用いて当該自律移動ロボットの走行モードを指定するユーザ操作を検知する工程と、前記第1のセンサの出力信号を参照して、当該自律移動ロボットを制御する工程と、を備え、前記制御する工程は、前記第1のセンサが前記ユーザ操作を検知した場合、当該自律移動ロボットの動作モードを、前記ユーザ操作とは独立に設定された巡回経路に従って、当該自律移動ロボットを走行させる自動モードから、前記ユーザ操作に従って、当該自律移動ロボットを走行させる手動モードへと切り替える処理を含む、方法である。 The control method according to the seventh aspect of the present invention is a control method for controlling an autonomous mobile robot that automatically patrols a set route, and is a user operation for designating a traveling mode of the autonomous mobile robot using a first sensor. A step of detecting the above and a step of controlling the autonomous mobile robot with reference to the output signal of the first sensor are provided. In the control step, the first sensor detects the user operation. In this case, the operation mode of the autonomous mobile robot is changed from an automatic mode in which the autonomous mobile robot is driven according to a patrol route set independently of the user operation to a manual mode in which the autonomous mobile robot is driven according to the user operation. It is a method including the process of switching to.

上記の方法によれば、前記自律移動ロボットと同様の効果を奏する。 According to the above method, the same effect as that of the autonomous mobile robot is obtained.

本発明の態様8に係る自律移動ロボットを制御する制御プログラムであって、前記コントローラに前記各処理を実行させることを特徴とする制御プログラムは、上記の態様1〜5の何れか1項において、請求項1〜5の何れか1項に記載の自律移動ロボットを制御する制御プログラムであって、前記コントローラに前記各処理を実行させる構成としてもよい。 The control program for controlling the autonomous mobile robot according to the eighth aspect of the present invention, wherein the controller executes each of the above processes, is the control program according to any one of the above aspects 1 to 5. The control program for controlling the autonomous mobile robot according to any one of claims 1 to 5 may be configured to cause the controller to execute each of the above processes.

上記の構成によれば、前記制御方法と同様の効果を奏する。 According to the above configuration, the same effect as that of the control method is obtained.

本発明によれば、上記の構成によれば、施設内で転倒している対象者や徘徊している対象者を迅速に発見し、優先度を判断し、緊急度の高い事象に対応可能な自律移動ロボットを実現することができるという効果を奏する。 According to the present invention, according to the above configuration, it is possible to quickly find a subject who has fallen or a subject who is wandering in the facility, determine the priority, and respond to a highly urgent event. It has the effect of being able to realize an autonomous mobile robot.

本発明の一実施形態に係る自律移動ロボットが備えている主要な構成を模式的に示す概略図である。It is the schematic which shows typically the main structure which the autonomous mobile robot which concerns on one Embodiment of this invention has. 本発明の一実施形態に係る自律移動ロボットが施設内を見回っている様子を模式的に示す斜視図である。It is a perspective view which shows typically the state that the autonomous mobile robot which concerns on one Embodiment of this invention is looking around the facility. 測域センサにより検知された障害物をマッピングした様子を模式的に示す概略平面図である。It is a schematic plan view which shows typically the state of mapping the obstacle detected by the range sensor. 自動巡回モードと手動モードとを切り替える方法を示すフローチャートである。It is a flowchart which shows the method of switching between an automatic patrol mode and a manual mode. 自動巡回モードと手動モードと人追従モードとを切り替える方法を示すフローチャートである。It is a flowchart which shows the method of switching between an automatic patrol mode, a manual mode, and a person follow-up mode. ブロック地図に基づく目標走行の態様を模式的に示す概略図である。It is a schematic diagram which shows typically the mode of the target running based on a block map. ブロック地図に基づく壁沿走行の態様を模式的に示す概略図である。It is a schematic diagram which shows typically the mode of running along a wall based on a block map. 本発明の一実施形態に係る自律移動ロボットが備えている主要なハードウェア構成を模式的に示す概略図である。It is the schematic which shows typically the main hardware composition provided with the autonomous mobile robot which concerns on one Embodiment of this invention.

〔実施形態1〕
本発明の一実施形態に係る自律移動ロボット10について、図1〜図4ならびに図8を参照して説明する。自律移動ロボット10は、医療施設や介護施設などの職員に代わって施設内の見回りを実施する介護医療用の自律移動ロボットであって、徘徊している施設利用者や、動けない状態になっている施設利用者(すなわちフロア上に倒れている施設利用者)を検出可能な自走式のロボットである。
[Embodiment 1]
The autonomous mobile robot 10 according to the embodiment of the present invention will be described with reference to FIGS. 1 to 4 and 8. The autonomous mobile robot 10 is an autonomous mobile robot for nursing care that performs a tour of the facility on behalf of the staff of a medical facility or a nursing facility, and is a wandering facility user or a state of being unable to move. It is a self-propelled robot that can detect existing facility users (that is, facility users who are lying on the floor).

(自律移動ロボット10の主要構成)
図1は、自律移動ロボット10の主なハードウェア構成を示したブロック図である。図1に示すように、自律移動ロボット10は、少なくともコントローラ11と、力覚センサ12と、測域センサ13と、駆動装置16と、エンコーダ17と、とを備えている。別の好ましい実施形態では、自律移動ロボット10は更に、接触センサ14と、カメラ15と、通信インタフェース18と、停止信号入力インタフェース19とを備えることができる。
(Main configuration of autonomous mobile robot 10)
FIG. 1 is a block diagram showing a main hardware configuration of the autonomous mobile robot 10. As shown in FIG. 1, the autonomous mobile robot 10 includes at least a controller 11, a force sensor 12, a range sensor 13, a drive device 16, and an encoder 17. In another preferred embodiment, the autonomous mobile robot 10 can further include a contact sensor 14, a camera 15, a communication interface 18, and a stop signal input interface 19.

コントローラ11は、主要な構成として経路情報生成部111と、判定部112と、オブジェクト抽出部113と、出力インタフェース114と、位置情報生成部115と、マップ情報入力部116とを有する。図1では、コントローラ11を機能ブロック図を用いて機能的に示しているが、後述する図8では、コントローラ11のハードウェア構成を示す。 The controller 11 has a route information generation unit 111, a determination unit 112, an object extraction unit 113, an output interface 114, a position information generation unit 115, and a map information input unit 116 as main configurations. In FIG. 1, the controller 11 is functionally shown by using a functional block diagram, but in FIG. 8, which will be described later, the hardware configuration of the controller 11 is shown.

マップ情報入力部116は、通信インタフェース18を介して入力することが好ましいが、プロセッサ135にて生成されたマップ情報を入力することも可能である。経路情報生成部111、判定部112、オブジェクト抽出部113、およびマップ情報入力部116は、機能としてプロセッサ135にて実行されることが好ましい。 The map information input unit 116 is preferably input via the communication interface 18, but it is also possible to input the map information generated by the processor 135. It is preferable that the route information generation unit 111, the determination unit 112, the object extraction unit 113, and the map information input unit 116 are executed by the processor 135 as functions.

(自律移動ロボット10の実装態様)
図2は、本発明の一実施形態に係る自律移動ロボット10が施設内を見回っている様子を模式的に示す斜視図である。図2では、自律移動ロボット10が、フロアF上に倒れている施設利用者Pを検知した様子を模式的に示している。
(Implementation mode of autonomous mobile robot 10)
FIG. 2 is a perspective view schematically showing how the autonomous mobile robot 10 according to the embodiment of the present invention is looking around the facility. In Figure 2, the autonomous mobile robot 10 is schematically showing an appearance of detecting a facility users P 0 the fallen on the floor F.

図2に示すように、自律移動ロボット10は、施設のフロアFの上に載置されている。自律移動ロボット10は、駆動機構16を用いて施設内を自走することができる。 As shown in FIG. 2, the autonomous mobile robot 10 is mounted on the floor F of the facility. The autonomous mobile robot 10 can self-propell in the facility by using the drive mechanism 16.

図2において、フロアFの表面に沿った平面をxy平面と定め、フロアFの表面の法線方向のうち当該表面から天頂へ向かう方向をz軸正方向と定める。また、図2に示すように、自律移動ロボット10の前進方向をx軸正方向と定める。また、xy平面に含まれる方向のうち、上述したx軸正方向及びz軸正方向とともに右手系の直交座標系を構成する方向をy軸正方向と定める。 In FIG. 2, the plane along the surface of the floor F is defined as the xy plane, and the direction from the surface to the zenith among the normal directions of the surface of the floor F is defined as the z-axis positive direction. Further, as shown in FIG. 2, the forward direction of the autonomous mobile robot 10 is defined as the x-axis positive direction. Further, among the directions included in the xy plane, the direction forming the right-handed Cartesian coordinate system together with the above-mentioned x-axis positive direction and z-axis positive direction is defined as the y-axis positive direction.

自律移動ロボット10の筐体は、測域センサ13、接触センサ14およびカメラ15を備える。図2では、自律移動ロボット10の筐体正面領域に、カメラ15のみを図示し、それ以外のハードウェアの図示は省略している。また、自律移動ロボット10の筐体の内部構造についても、その図示を省略している。上記筐体正面領域では、例えばカメラ15の隣に赤外線ランプなどを搭載することもできる。 The housing of the autonomous mobile robot 10 includes a range sensor 13, a contact sensor 14, and a camera 15. In FIG. 2, only the camera 15 is shown in the front region of the housing of the autonomous mobile robot 10, and the other hardware is not shown. Further, the illustration of the internal structure of the housing of the autonomous mobile robot 10 is also omitted. In the front area of the housing, for example, an infrared lamp or the like can be mounted next to the camera 15.

測域センサ13およびカメラ15は、自律移動ロボット10の筐体表面の任意の場所に配置可能であるが、自律移動ロボット10の前進方向正面に配置されていることが好ましい。接触センサ14は、自律移動ロボット10の筐体表面の複数の箇所に配置されることが好ましい。 The range sensor 13 and the camera 15 can be arranged at any place on the surface of the housing of the autonomous mobile robot 10, but it is preferable that the range sensor 13 and the camera 15 are arranged in front of the autonomous mobile robot 10 in the forward direction. The contact sensors 14 are preferably arranged at a plurality of locations on the surface of the housing of the autonomous mobile robot 10.

(自動巡回モード)
図1に示すように、コントローラ11は、少なくともマップ情報入力部116と、経路情報生成部111と、出力インタフェース114と、位置情報生成部115とを有する。
(Automatic patrol mode)
As shown in FIG. 1, the controller 11 has at least a map information input unit 116, a route information generation unit 111, an output interface 114, and a position information generation unit 115.

マップ情報入力部116は、後述する施設内のブロック地図情報を取得する。位置情報生成部115は、エンコーダ17を介して自律移動ロボット10の施設内における現在位置情報を生成する。経路情報生成部111は、当該生成された自律移動ロボット10の施設内における現在位置情報と、ブロック地図情報とに基づいて自律移動ロボット10が施設内を巡回移動する大まかな経路情報を生成する。経路情報生成部111は更に、測域センサ13によって検知された障害物情報や、カメラ15によって撮影された画像情報からオブジェクト抽出部113によって抽出されたオブジェクト情報に基づいて、より詳細な経路情報を生成する。 The map information input unit 116 acquires block map information in the facility, which will be described later. The position information generation unit 115 generates the current position information in the facility of the autonomous mobile robot 10 via the encoder 17. The route information generation unit 111 generates rough route information in which the autonomous mobile robot 10 patrolls in the facility based on the current position information in the facility of the generated autonomous mobile robot 10 and the block map information. The route information generation unit 111 further provides more detailed route information based on the obstacle information detected by the range sensor 13 and the object information extracted by the object extraction unit 113 from the image information captured by the camera 15. Generate.

種々の処理はプロセッサ135により実行され、各種の情報、処理を実行するためのアルゴリズムを規定したプログラムはメモリ136に格納されることが好ましい。 It is preferable that various processes are executed by the processor 135, and a program that defines various information and algorithms for executing the processes is stored in the memory 136.

上記のように経路情報生成部111によって生成された経路情報に基づいて、出力インタフェース114は、自動巡回モード(特許請求の範囲の「自動モード」に相当)の移動速度を算出する(後述する図4のS21)。 Based on the route information generated by the route information generation unit 111 as described above, the output interface 114 calculates the movement speed of the automatic patrol mode (corresponding to the "automatic mode" in the claims) (see the figure to be described later). 4 S21).

出力インタフェース114は、当該生成された経路情報に応じた出力情報を駆動装置16に出力する。当該出力情報に基づいて駆動装置16が駆動することにより自律移動ロボット10が巡回移動する。自律移動ロボット10が施設内を巡回移動するための駆動装置16の移動量に基づいて、エンコーダ17は、自律移動ロボット10の走行距離情報と移動方向情報を生成する。エンコーダ17により生成された当該走行距離と移動方向の情報に基づいて、位置情報生成部115は自律移動ロボット10の位置情報を生成する。 The output interface 114 outputs the output information corresponding to the generated route information to the drive device 16. The autonomous mobile robot 10 patrols by driving the drive device 16 based on the output information. The encoder 17 generates mileage information and movement direction information of the autonomous mobile robot 10 based on the amount of movement of the drive device 16 for the autonomous mobile robot 10 to patrol the facility. The position information generation unit 115 generates the position information of the autonomous mobile robot 10 based on the information of the mileage and the movement direction generated by the encoder 17.

(ブロック地図情報)
上述のとおり、マップ情報入力部116は、施設内のブロック地図情報を取得する。本発明においてブロック地図とは、施設内のフロア情報を簡略化してブロック化した地図のことをいう。
(Block map information)
As described above, the map information input unit 116 acquires the block map information in the facility. In the present invention, the block map refers to a map in which floor information in a facility is simplified and blocked.

好ましい実施形態では、医療施設や介護施設などの施設のフロア図から自律移動ロボット10が通ってよい場所を設定する。1つの部屋の前の廊下が1つのブロック(21a、21b、・・・)となるようにブロック分けをする(図6参照)。ここで大きなブロックは1〜2mを目安に分割することが好ましい。各ブロックの中心点22を設定し、自律移動ロボット10が現時点で存在するブロック(図6ではブロック21a)には中心点を設定する必要はない。各ブロックの中心点を目標地点に設定する。図6では、ブロック21aに存在している自律移動ロボット10を出発点として、ブロック21bの中心点22を目標地点として移動する経路を示している。また、ブロック毎に、ブロック沿いの壁24の情報を設定する。 In a preferred embodiment, a place where the autonomous mobile robot 10 can pass is set from a floor diagram of a facility such as a medical facility or a long-term care facility. The corridors in front of one room are divided into blocks (21a, 21b, ...) (See FIG. 6). Here, it is preferable to divide a large block into 1 to 2 m as a guide. It is not necessary to set the center point 22 of each block and set the center point in the block (block 21a in FIG. 6) in which the autonomous mobile robot 10 currently exists. Set the center point of each block as the target point. FIG. 6 shows a route of moving with the autonomous mobile robot 10 existing in the block 21a as a starting point and the center point 22 of the block 21b as a target point. In addition, information on the wall 24 along the block is set for each block.

好ましい実施形態では、当該移動方向情報を組み合わせた移動ブロック経路の生成を人為的に設定することができるが、目標地点(最終ブロックの中心点)を設定することにより最短経路を生成するアルゴリズムによって自動的に移動ブロック経路を設定することもできる。このように生成したブロック地図の情報をマップ情報入力部116に入力する。 In a preferred embodiment, the generation of a movement block route combining the movement direction information can be artificially set, but it is automatically set by an algorithm that generates the shortest path by setting a target point (center point of the final block). It is also possible to set a moving block route. The information of the block map generated in this way is input to the map information input unit 116.

(測域センサによる障害物検知)
自律移動ロボット10は、巡回走行しながら、測域センサ13によって施設内の障害物を検知する。測域センサ13は、上述のとおり自律移動ロボット10の筐体の表面の任意の場所に配置されることができるが、フロアFから高さ35cm程度の水平面を測定できるように配置されることが好ましい。測域センサ13は、例えば、北陽電機株式会社製のUST−10LXのようなレーザ方式の測域センサを採用することができる。
(Obstacle detection by range sensor)
The autonomous mobile robot 10 detects obstacles in the facility by the range sensor 13 while patrolling. As described above, the range sensor 13 can be arranged at an arbitrary position on the surface of the housing of the autonomous mobile robot 10, but it may be arranged so as to measure a horizontal plane having a height of about 35 cm from the floor F. preferable. As the range sensor 13, for example, a laser type range sensor such as UST-10LX manufactured by Hokuyo Electric Co., Ltd. can be adopted.

測域センサ13により施設内の障害物を検知した様子を図3に模式的に示す。図3は、z軸正方向からフロアF面を臨む平面図である。フロアF表面からz軸方向+35cmの高さであって、自律移動ロボット10の筐体に搭載された測域センサ13の位置を原点とし、自律移動ロボット10の前進方向をx軸とし、平面方向にてx軸に直交する方向をy軸とした。図3において、障害物は小さな丸印によって表示されている。図3に示すように、測域センサ13の走査角度を±θ°で示す。好ましい実施形態では、測域センサ13は、±θ=±115度の範囲で障害物を検知する。また、測域センサ13は、0.06m〜10m程度の検出距離であることが好ましい。測域センサ13の走査時間は25msであることが好ましい。測域センサ13の角度分解能は0.25度であることが好ましい。これらの値に限定されることなく、測域センサ13は、任意の検出距離、走査角度、走査時間、角度分解能を有することができる。 FIG. 3 schematically shows a state in which an obstacle in the facility is detected by the range sensor 13. FIG. 3 is a plan view of the floor F surface from the positive direction of the z-axis. The height is +35 cm in the z-axis direction from the surface of the floor F, the origin is the position of the range sensor 13 mounted on the housing of the autonomous mobile robot 10, the forward direction of the autonomous mobile robot 10 is the x-axis, and the plane direction. The direction orthogonal to the x-axis was defined as the y-axis. In FIG. 3, obstacles are indicated by small circles. As shown in FIG. 3, the scanning angle of the range sensor 13 is shown by ± θ °. In a preferred embodiment, the range sensor 13 detects an obstacle in the range of ± θ = ± 115 degrees. Further, the range sensor 13 preferably has a detection distance of about 0.06 m to 10 m. The scanning time of the range sensor 13 is preferably 25 ms. The angular resolution of the range sensor 13 is preferably 0.25 degrees. Without being limited to these values, the range sensor 13 can have any detection distance, scanning angle, scanning time, and angular resolution.

(手動モード)
自律移動ロボット10は、図2に示すように、その上端部が半球状に丸められた略円柱状の形状を有する。半球状に丸められた上端部に力覚センサ12を配置することができる。力覚センサ12に力をより正確に伝えるために、力覚センサ12に接続されたレバー(図示せず)を自律移動ロボット10の上端部に配置することも好ましい。当該上端部に付勢された力を力覚センサ12が感知し、外部から付勢された力を入力信号として判定部112にて判断する。
(Manual mode)
As shown in FIG. 2, the autonomous mobile robot 10 has a substantially columnar shape in which the upper end thereof is rounded into a hemisphere. The force sensor 12 can be arranged at the upper end portion rounded to a hemisphere. In order to transmit the force to the force sensor 12 more accurately, it is also preferable to arrange a lever (not shown) connected to the force sensor 12 at the upper end of the autonomous mobile robot 10. The force sensor 12 senses the force urged to the upper end portion, and the determination unit 112 determines the force urged from the outside as an input signal.

本実施形態では、力覚センサ12は自律移動ロボット10の上端部に配置されているが、配置場所は上端部に限定されず、外部からの力を検知できる場所であれば、自律移動ロボット10の任意の場所に配置することができる。 In the present embodiment, the force sensor 12 is arranged at the upper end portion of the autonomous mobile robot 10, but the arrangement location is not limited to the upper end portion, and the autonomous mobile robot 10 can be located at any place where an external force can be detected. Can be placed anywhere in.

施設の職員は、自律移動ロボット10の上端部に付勢することにより、自律移動ロボット10の移動速度・移動方向を変更することができる。好ましい実施形態では、職員は自律移動ロボット10の脇に立ち、自律移動ロボット10の上端部に配置されている力覚センサ12に対して付勢することができる。この場合、力覚センサ12は、自律移動ロボット10の進行方向に職員など人間の手により付勢される力と、自律移動ロボット10のz軸方向の中心軸周りから職員など人間の手により付勢される回転モーメントとの大きさを入力信号として判定部112にて判定する。 The staff of the facility can change the moving speed and moving direction of the autonomous moving robot 10 by urging the upper end of the autonomous moving robot 10. In a preferred embodiment, the staff can stand beside the autonomous mobile robot 10 and urge the force sensor 12 located at the upper end of the autonomous mobile robot 10. In this case, the force sensor 12 is urged by a human hand such as an employee in the traveling direction of the autonomous mobile robot 10 and by a human hand such as an employee from around the central axis of the autonomous mobile robot 10 in the z-axis direction. The determination unit 112 determines the magnitude of the rotating moment as an input signal.

経路情報生成部111は、判定部112にて判定された入力信号の大きさに基づいて手動モードにおける移動速度を計算し、出力インタフェース114に移動方向情報と移動速度情報を出力する。 The route information generation unit 111 calculates the movement speed in the manual mode based on the magnitude of the input signal determined by the determination unit 112, and outputs the movement direction information and the movement speed information to the output interface 114.

上記のように経路情報生成部111によって生成された経路情報に基づいて、出力インタフェース114は、手動モードの移動速度を算出する(後述する図4のS22)。 Based on the route information generated by the route information generation unit 111 as described above, the output interface 114 calculates the moving speed in the manual mode (S22 in FIG. 4 described later).

自動巡回モードの場合と同様に、出力インタフェース114は、当該生成された経路情報に応じた出力情報を駆動装置16に出力する。自律移動ロボット10の手動モードにおける駆動装置16の移動量に基づいて、エンコーダ17は、自律移動ロボット10の走行距離情報と移動方向情報を生成する。エンコーダ17により生成された当該走行距離と移動方向の情報に基づいて、位置情報生成部115は自律移動ロボット10の位置情報を生成する。 As in the case of the automatic patrol mode, the output interface 114 outputs the output information corresponding to the generated route information to the drive device 16. The encoder 17 generates mileage information and movement direction information of the autonomous mobile robot 10 based on the movement amount of the drive device 16 in the manual mode of the autonomous mobile robot 10. The position information generation unit 115 generates the position information of the autonomous mobile robot 10 based on the information of the mileage and the movement direction generated by the encoder 17.

(自動巡回モードと手動モードとの切り替え)
自律移動ロボット10が、上述した自動巡回モードで所定の目標に向かって自律移動しているときに、手動モードに切り替える態様について以下に説明する。
(Switching between automatic patrol mode and manual mode)
The mode of switching to the manual mode when the autonomous mobile robot 10 is autonomously moving toward a predetermined target in the above-mentioned automatic patrol mode will be described below.

図4は、自動巡回モードと手動モードとを切り替える方法を示すフローチャートである。 FIG. 4 is a flowchart showing a method of switching between the automatic patrol mode and the manual mode.

経路情報生成部111は、マップ情報入力部116を介して入力されたマップ情報と、測域センサ13によって検知された障害物情報と、位置情報生成部115から入力された現在位置情報に基づいて自動巡回モードの巡回経路情報を生成する。当該生成された自動巡回モードの巡回経路に基づいて、経路情報生成部111は、自動巡回モードにおける移動速度を算出する(S21)。現在位置情報から自律移動ロボット10が存しているブロックが判別でき、当該ブロックと巡回経路情報とから目標ブロックが判別できる。自律移動ロボット10が存しているブロックが巡回経路から外れてしまった場合、前回の目標ブロックをそのまま用いることが好ましい。 The route information generation unit 111 is based on the map information input via the map information input unit 116, the obstacle information detected by the range sensor 13, and the current position information input from the position information generation unit 115. Generates patrol route information in automatic patrol mode. Based on the generated patrol route in the automatic patrol mode, the route information generation unit 111 calculates the movement speed in the automatic patrol mode (S21). The block in which the autonomous mobile robot 10 exists can be determined from the current position information, and the target block can be determined from the block and the patrol route information. When the block in which the autonomous mobile robot 10 exists deviates from the patrol path, it is preferable to use the previous target block as it is.

上述のように自律移動ロボット10が、自動巡回モードで所定の目標に向かって自律移動しているときに、一定の周期で、力覚センサ12に付勢される力の大きさに基づいて、経路情報生成部111は、手動モードにおける移動速度を算出する(S22)。 As described above, when the autonomous mobile robot 10 is autonomously moving toward a predetermined target in the automatic patrol mode, it is based on the magnitude of the force urged by the force sensor 12 at regular intervals. The route information generation unit 111 calculates the movement speed in the manual mode (S22).

力覚センサ12に対して、自律移動ロボット10の進行方向に職員の手により付勢される力と、自律移動ロボット10のz軸方向の中心軸周りから職員の手により付勢される回転モーメントとの大きさを入力信号として、判定部112は閾値判断する。当該閾値は事前に任意に設定することができる。当該閾値より大きな入力信号の場合、力覚センサ12は有効であると判断される(S23でYES)。入力信号が閾値より小さい場合、力覚センサ12は有効とは判断されない(S23でNO)。 The force urged by the staff in the direction of travel of the autonomous mobile robot 10 and the rotational moment urged by the staff from around the central axis of the autonomous mobile robot 10 in the z-axis direction with respect to the force sensor 12. The determination unit 112 determines the threshold value using the magnitude of and as an input signal. The threshold value can be arbitrarily set in advance. When the input signal is larger than the threshold value, the force sensor 12 is determined to be effective (YES in S23). If the input signal is smaller than the threshold value, the force sensor 12 is not determined to be valid (NO in S23).

力覚センサ12が有効と判断されない場合(S23でNO)、出力インタフェース114は自動巡回モードにおける移動速度をモータ指令速度として駆動装置16に出力する(S24)。力覚センサ12が有効と判断された場合(S23でYES)、出力インタフェース114は手動モードにおける移動速度をモータ指令速度として駆動装置16に出力する(S25)。 When the force sensor 12 is not determined to be valid (NO in S23), the output interface 114 outputs the moving speed in the automatic patrol mode to the drive device 16 as the motor command speed (S24). When the force sensor 12 is determined to be effective (YES in S23), the output interface 114 outputs the moving speed in the manual mode to the drive device 16 as the motor command speed (S25).

次いで、駆動装置16の移動量に基づいて、エンコーダ17は、自律移動ロボット10の走行距離情報と移動方向情報を生成する。エンコーダ17により生成された当該走行距離と移動方向の情報に基づいて、位置情報生成部115は自律移動ロボット10の位置情報を生成する。上述した一定の周期で当該判断を繰り返し、自律移動ロボット10の現在位置を更新する(S26)。 Next, the encoder 17 generates mileage information and movement direction information of the autonomous mobile robot 10 based on the movement amount of the drive device 16. Based on the mileage and movement direction information generated by the encoder 17, the position information generation unit 115 generates the position information of the autonomous mobile robot 10. The determination is repeated at a fixed cycle described above, and the current position of the autonomous mobile robot 10 is updated (S26).

〔実施形態2〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
Other embodiments of the present invention will be described below. For convenience of explanation, the same reference numerals will be added to the members having the same functions as the members described in the above embodiment, and the description will not be repeated.

(オブジェクト判定)
上述したように、経路情報生成部111は、カメラ15(特許請求の範囲の「第2のセンサ」に相当)によって撮影された画像情報からオブジェクト抽出部113によって抽出されたオブジェクト情報に基づいて、より詳細な経路情報を生成する。
(Object judgment)
As described above, the route information generation unit 111 is based on the object information extracted by the object extraction unit 113 from the image information taken by the camera 15 (corresponding to the “second sensor” in the claims). Generate more detailed route information.

自律移動ロボット10は、巡回走行しながら、カメラ15にて施設内を撮影し、オブジェクト抽出部113は、撮影した画像情報からオブジェクトを抽出する。具体的には、オブジェクト抽出では、画像情報に含まれている被写体を検出する。 The autonomous mobile robot 10 takes a picture of the inside of the facility with the camera 15 while patrolling, and the object extraction unit 113 extracts an object from the taken image information. Specifically, in the object extraction, the subject included in the image information is detected.

オブジェクト抽出部113では、検出された被写体に人間が含まれているか否か判定する。被写体の種類判定処理についての具体的手法は本実施形態を限定するものではなく、例えば以下のような機械学習的手法の何れかまたはそれらの組み合わせを用いることができる。 The object extraction unit 113 determines whether or not the detected subject includes a human being. The specific method for the subject type determination process is not limited to this embodiment, and for example, any of the following machine learning methods or a combination thereof can be used.

・サポートベクターマシン(SVM: Support Vector Machine)
・クラスタリング(Clustering)
・帰納論理プログラミング(ILP: Inductive Logic Programming)
・遺伝的アルゴリズム(GP: Genetic Programming)
・ベイジアンネットワーク(BN: Bayesian Network)
・ニューラルネットワーク(NN: Neural Network)
ニューラルネットワークを用いる場合、入力される画像情報をニューラルネットワークへのインプット用に予め加工して用いるとよい。このような加工には、データの1次元的配列化、または多次元的配列化に加え、例えば、データオーギュメンテーション(Data Augmentation)等の手法を用いることができる。
・ Support Vector Machine (SVM)
・ Clustering
・ Inductive Logic Programming (ILP)
・ Genetic Programming (GP)
・ Bayesian Network (BN)
・ Neural network (NN)
When a neural network is used, the input image information may be processed in advance for input to the neural network. For such processing, in addition to one-dimensional arrangement or multidimensional arrangement of data, for example, a method such as data augmentation can be used.

また、ニューラルネットワークを用いる場合、畳み込み処理を含む畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)を用いてもよいし、再帰的処理を含むリカレントニューラルネットワーク(RNN: Recurrent Neural Network)を用いてもよい。CNNを用いる場合、より具体的には、ニューラルネットワークに含まれる1又は複数の層(レイヤ)として、畳み込み演算を行う畳み込み層を設け、当該層に入力される入力データに対してフィルタ演算(積和演算)を行う構成としてもよい。またフィルタ演算を行う際には、パディング等の処理を併用したり、適宜設定されたストライド幅を採用したりしてもよい。 When a neural network is used, a convolutional neural network (CNN: Convolutional Neural Network) including convolution processing may be used, or a recurrent neural network (RNN: Recurrent Neural Network) including recursive processing may be used. When CNN is used, more specifically, as one or a plurality of layers (layers) included in the neural network, a convolution layer for performing a convolution operation is provided, and a filter operation (product) is performed on the input data input to the layer. It may be configured to perform sum calculation). Further, when performing the filter calculation, a process such as padding may be used together, or an appropriately set stride width may be adopted.

また、ニューラルネットワークとして、数十〜数千層に至る多層型又は超多層型のニューラルネットワークを用いてもよい。 Further, as the neural network, a multi-layer type or super-multi-layer type neural network having several tens to several thousand layers may be used.

また、オブジェクト抽出部113による被写体の種類判定処理に用いられる機械学習は、教師あり学習であってもよいし、教師なし学習であってもよい。 Further, the machine learning used for the subject type determination process by the object extraction unit 113 may be supervised learning or unsupervised learning.

上記被写体の種類判定処理に用いられるプログラムおよび/またはデータは、自律移動ロボット10内の記憶部(図示せず)に格納されることが好ましいが、外部の記憶手段に格納されてもよい。 The program and / or data used for the subject type determination process is preferably stored in a storage unit (not shown) in the autonomous mobile robot 10, but may be stored in an external storage means.

(オブジェクト座標抽出)
上述した被写体の種類判定処理により、画像情報に一人以上の人間が含まれていると判断された場合、オブジェクト抽出部113は、カメラ15に最も近い人間の画像情報中の座標を抽出する。画像情報に人間が含まれていると判断されなかった場合は、引き続きカメラ15による撮影を継続する。画像情報取得の周期は任意に設定することができるが、100ms〜200msのリフレッシュレートで画像情報を取得することが好ましい。
(Object coordinate extraction)
When it is determined by the subject type determination process described above that the image information includes one or more humans, the object extraction unit 113 extracts the coordinates in the image information of the human closest to the camera 15. If it is not determined that the image information includes a human being, the shooting by the camera 15 is continued. The image information acquisition cycle can be set arbitrarily, but it is preferable to acquire the image information at a refresh rate of 100 ms to 200 ms.

(職員識別)
オブジェクト抽出部113にて画像中に人間が存在していると判断された場合、当該人間が施設の職員か否か判断する。施設の職員は所定の信号を発信するビーコンを保持している。
(Staff identification)
When the object extraction unit 113 determines that a human being exists in the image, it determines whether or not the human being is an employee of the facility. Facility staff hold beacons that emit a given signal.

図1に示すように、コントローラ11は通信インタフェース18を制御する。通信インタフェース18は、所定の距離内に存在するビーコン信号を受信する。オブジェクト抽出部113にて画像中に人間が存在していると判断された場合、且つ、ビーコン信号も受信している場合、経路情報生成部111は、当該人間が施設の職員であると判断する。ビーコンは、任意のビーコンであってよく、例えばBLE(Bluetooth Low Energy)ビーコンなどが好ましい。 As shown in FIG. 1, the controller 11 controls the communication interface 18. The communication interface 18 receives a beacon signal existing within a predetermined distance. When the object extraction unit 113 determines that a human being is present in the image and the beacon signal is also received, the route information generation unit 111 determines that the human being is a staff member of the facility. .. The beacon may be any beacon, and for example, a BLE (Bluetooth Low Energy) beacon is preferable.

オブジェクト抽出部113にて画像中に人間が存在していると判断された場合、且つ、ビーコン信号を受信しない場合、当該人間は施設の職員ではなく、施設内を徘徊している通報対象者(特許請求の範囲の「徘徊者」に相当)と判断する。オブジェクト抽出部113にて通報対象者を検出した場合、通信インタフェース18は、職員が携帯する携帯端末と無線通信し、自律移動ロボット10の位置情報を送信することができる。携帯端末は、携帯電話、スマートフォン、タブレット端末など任意の携帯端末であってよい。 When the object extraction unit 113 determines that a human being is present in the image and does not receive the beacon signal, the human being is not a staff member of the facility but a person to be notified who is wandering in the facility ( It is judged to be equivalent to "wanderer" in the scope of claims). When the object extraction unit 113 detects the report target person, the communication interface 18 can wirelessly communicate with the mobile terminal carried by the staff and transmit the position information of the autonomous mobile robot 10. The mobile terminal may be any mobile terminal such as a mobile phone, a smartphone, or a tablet terminal.

オブジェクト抽出部113にて抽出された対象が、施設の職員でない場合、経路情報生成部111は、当該対象者(徘徊者)に対して追従走行するか否か判断して経路情報を生成する。 When the target extracted by the object extraction unit 113 is not a staff member of the facility, the route information generation unit 111 determines whether or not to follow the target person (wandering person) and generates route information.

(追従走行)
自律移動ロボット10が対象者に対して追従走行するか否かの判断は、図4を参照して上述した自動巡回モードと手動モードとの切り替え判断に割り込んで判断される。自律移動ロボット10が対象者に対して追従走行するか否かの判断について以下に説明する。
(Following running)
The determination as to whether or not the autonomous mobile robot 10 follows the target person is determined by interrupting the determination of switching between the automatic patrol mode and the manual mode described above with reference to FIG. The determination of whether or not the autonomous mobile robot 10 follows the target person will be described below.

図5は、自動巡回モードと手動モードとを切り替える方法に加え、自律移動ロボット10が徘徊者に対して追従走行するか否かの判断を示すフローチャートである。 FIG. 5 is a flowchart showing a method of switching between the automatic patrol mode and the manual mode, as well as a determination of whether or not the autonomous mobile robot 10 follows the wandering person.

図4のステップS21と同様に自動巡回モードの巡回経路に基づいて、経路情報生成部111は、自動巡回モードにおける移動速度を算出する(S31)。図4のステップS22と同様に、自動巡回モードで所定の目標に向かって自律移動しているときに、一定の周期で、力覚センサ12に付勢される力の大きさに基づいて、経路情報生成部111は、手動モードにおける移動速度を算出する(S33)。 Similar to step S21 of FIG. 4, the route information generation unit 111 calculates the moving speed in the automatic patrol mode based on the patrol route in the automatic patrol mode (S31). Similar to step S22 of FIG. 4, when autonomously moving toward a predetermined target in the automatic patrol mode, the path is based on the magnitude of the force urged by the force sensor 12 at regular intervals. The information generation unit 111 calculates the moving speed in the manual mode (S33).

上述したように、自律移動ロボット10が自動巡回モードで所定の目標に向かって自律移動しているときに、オブジェクト抽出部113にて通報対象者(徘徊者)を検出した場合、経路情報生成部111は、通報対象者の移動速度に基づいて追従速度を算出する(S32)。 As described above, when the object extraction unit 113 detects a report target person (wandering person) while the autonomous mobile robot 10 is autonomously moving toward a predetermined target in the automatic patrol mode, the route information generation unit 111 calculates the follow-up speed based on the movement speed of the report target person (S32).

図4のステップS23と同様に、力覚センサ12に対して、自律移動ロボット10の進行方向に職員など人間の手により付勢される力と、自律移動ロボット10のz軸方向の中心軸周りから職員など人間の手により付勢される回転モーメントとの大きさを入力信号として、判定部112は閾値判断する。当該閾値は事前に任意に設定することができる。当該閾値より大きな入力信号の場合、力覚センサ12は有効であると判断される(S34でYES)。入力信号が閾値より小さい場合、力覚センサ12は有効とは判断されない(S34でNO)。本実施形態では、自律移動ロボット10の付近に通報対象者が存在していることが想定されるため、自律移動ロボット10に外部から付勢する力を加える人間は、職員に限定されず通報対象者など職員以外の人間も含まれる。 Similar to step S23 of FIG. 4, the force urged by a human hand such as an employee in the traveling direction of the autonomous mobile robot 10 with respect to the force sensor 12, and the circumference of the central axis of the autonomous mobile robot 10 in the z-axis direction. The determination unit 112 determines the threshold value by using the magnitude of the rotational moment urged by a human such as an employee as an input signal. The threshold value can be arbitrarily set in advance. When the input signal is larger than the threshold value, the force sensor 12 is determined to be effective (YES in S34). If the input signal is smaller than the threshold value, the force sensor 12 is not determined to be valid (NO in S34). In the present embodiment, it is assumed that there is a report target person in the vicinity of the autonomous mobile robot 10, so that the person who applies the force to urge the autonomous mobile robot 10 from the outside is not limited to the staff and is the report target. Persons other than staff, such as persons, are also included.

力覚センサ12が有効と判断されない場合(S34でNO)、追従走行するか否かの判断に移行する(S35)。オブジェクト抽出部113にてカメラ15に最も近い人間の画像情報中の座標が抽出され、通信インタフェース18によって職員のビーコン信号の受信が確認できない場合、コントローラ11は、通報対象者に追従走行する人追従モードが有効と判断する(S35でYES)。オブジェクト抽出部113にて人間の座標が抽出されない場合、職員のビーコン信号が受信できた場合、コントローラ11は、人追従モードが無効と判断する(S35でNO)。 If the force sensor 12 is not determined to be effective (NO in S34), the process proceeds to the determination of whether or not to follow the vehicle (S35). When the object extraction unit 113 extracts the coordinates in the image information of the person closest to the camera 15 and the communication interface 18 cannot confirm the reception of the beacon signal of the staff, the controller 11 follows the person to be notified. It is determined that the mode is valid (YES in S35). If the object extraction unit 113 does not extract human coordinates, or if the staff beacon signal can be received, the controller 11 determines that the human tracking mode is invalid (NO in S35).

人追従モードが無効と判断された場合(S35でNO)、出力インタフェース114は自動巡回モードにおける移動速度をモータ指令速度として駆動装置16に出力する(S36)。人追従モードが有効と判断された場合(S35でYES)、出力インタフェース114は人追従モードにおける追従速度をモータ指令速度として駆動装置16に出力する(S37)。力覚センサ12が有効と判断された場合(S34でYES)、出力インタフェース114は手動モードにおける移動速度をモータ指令速度として駆動装置16に出力する(S38)。 When it is determined that the human tracking mode is invalid (NO in S35), the output interface 114 outputs the moving speed in the automatic patrol mode to the drive device 16 as the motor command speed (S36). When it is determined that the human tracking mode is effective (YES in S35), the output interface 114 outputs the tracking speed in the human tracking mode to the drive device 16 as the motor command speed (S37). When the force sensor 12 is determined to be effective (YES in S34), the output interface 114 outputs the moving speed in the manual mode to the drive device 16 as the motor command speed (S38).

駆動装置16の移動量に基づいて、エンコーダ17は、自律移動ロボット10の走行距離情報と移動方向情報を生成する。エンコーダ17により生成された当該走行距離と移動方向の情報に基づいて、位置情報生成部115は自律移動ロボット10の位置情報を生成する。上述した一定の周期で当該判断を繰り返し、自律移動ロボット10の現在位置を更新する(S39)。 Based on the movement amount of the drive device 16, the encoder 17 generates mileage information and movement direction information of the autonomous mobile robot 10. Based on the mileage and movement direction information generated by the encoder 17, the position information generation unit 115 generates the position information of the autonomous mobile robot 10. The determination is repeated at a fixed cycle described above, and the current position of the autonomous mobile robot 10 is updated (S39).

〔実施形態3〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 3]
Other embodiments of the present invention will be described below. For convenience of explanation, the same reference numerals will be added to the members having the same functions as the members described in the above embodiment, and the description will not be repeated.

(回避行動)
上述したように、被写体の種類判定処理により、画像情報に一人以上の人間が含まれていると判断された場合、オブジェクト抽出部113は、カメラ15に最も近い人間の画像情報中の座標を抽出する。一方、測域センサ13は、フロア表面から高さ35cm程度の空間に障害物が存在するか否か検知する。オブジェクト抽出部113によって人間の座標情報が抽出されているにもかかわらず、測域センサ13にて当該座標情報の位置に障害物が検知されない場合、当該抽出された座標情報の位置に転倒者がいると判断される。
(Avoidance behavior)
As described above, when it is determined by the subject type determination process that the image information includes one or more humans, the object extraction unit 113 extracts the coordinates in the image information of the human closest to the camera 15. To do. On the other hand, the range sensor 13 detects whether or not an obstacle exists in a space having a height of about 35 cm from the floor surface. If the range sensor 13 does not detect an obstacle at the position of the coordinate information even though the human coordinate information is extracted by the object extraction unit 113, a faller is at the position of the extracted coordinate information. It is judged that there is.

この場合、通信インタフェース18は職員の携帯端末に自律移動ロボット10の位置情報と画像情報を送信し、転倒者の位置情報と転倒者の様子を通報する。 In this case, the communication interface 18 transmits the position information and the image information of the autonomous mobile robot 10 to the mobile terminal of the staff, and reports the position information of the fallen person and the state of the fallen person.

測域センサ13により検知された障害物情報に加え、オブジェクト抽出部113により抽出された人間の座標情報に基づいて、経路情報生成部111は転倒者を回避する経路情報を生成する。自律移動ロボット10は、転倒者を回避した後、巡回移動を継続することができる。他の好ましい実施形態では、自律移動ロボット10は、職員の指示を受けてから、転倒者を回避し、巡回移動を継続することができる。当該職員の指示は、職員の携帯端末から通信インタフェース18を介して入力することができるが、当該入力態様に限定されない。例えば、ジェスチャーや音声で指示をしてもよく、また、接触センサや力覚センサ12に所定の力を所定の方向に付勢することにより、巡回移動継続の指示を与えることができる。 In addition to the obstacle information detected by the range sensor 13, the route information generation unit 111 generates route information for avoiding a fallen person based on the human coordinate information extracted by the object extraction unit 113. The autonomous mobile robot 10 can continue the patrol movement after avoiding the fallen person. In another preferred embodiment, the autonomous mobile robot 10 can avoid the fallen person and continue the patrol movement after receiving the instruction of the staff. The staff's instructions can be input from the staff's mobile terminal via the communication interface 18, but are not limited to the input mode. For example, an instruction may be given by a gesture or a voice, or an instruction to continue the patrol movement can be given by urging the contact sensor or the force sensor 12 with a predetermined force in a predetermined direction.

巡回移動は、図6に示したブロック地図に基づいてブロック21bの中心点22を目標地点として移動する目標走行により継続することができる。 The patrol movement can be continued by the target travel that moves with the center point 22 of the block 21b as the target point based on the block map shown in FIG.

(壁沿走行)
他の好ましい実施形態では、自律移動ロボット10は、図7に示すような壁沿走行を実行することができる。壁沿走行では、経路情報生成部111は、壁24までの距離を一定に保つように経路情報を生成する。図7では、壁24までの一定の距離を示すライン25を破線にて示している。
(Running along the wall)
In another preferred embodiment, the autonomous mobile robot 10 can perform wall travel as shown in FIG. When traveling along a wall, the route information generation unit 111 generates route information so as to keep the distance to the wall 24 constant. In FIG. 7, the line 25 showing a certain distance to the wall 24 is shown by a broken line.

転倒者など障害物が存在する場合、上述の回避行動を実行し、回避行動以外の巡回移動は壁沿走行とすることができる。目標走行とするか、壁沿走行とするかは、事前に設定選択することができる。 When an obstacle such as a fallen person is present, the above-mentioned avoidance action can be executed, and the patrol movement other than the avoidance action can be carried out along the wall. It is possible to set and select in advance whether to drive as a target or along a wall.

〔実施形態4〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 4]
Other embodiments of the present invention will be described below. For convenience of explanation, the same reference numerals will be added to the members having the same functions as the members described in the above embodiment, and the description will not be repeated.

(電圧監視)
自律移動ロボット10は、電源20を搭載し、駆動装置16によりモータを回転させて自律移動する。電源20のバッテリ電圧が低下すると、自律移動ロボット10は行動不能になる。このような場合、職員は自律移動ロボット10を充電器のある場所まで運ばなければならない状況になる可能性がある。またバッテリが過放電となると、バッテリが故障する原因になる可能性もある。
(Voltage monitoring)
The autonomous mobile robot 10 is equipped with a power supply 20 and autonomously moves by rotating a motor by a drive device 16. When the battery voltage of the power source 20 drops, the autonomous mobile robot 10 becomes inoperable. In such a case, the staff may have to carry the autonomous mobile robot 10 to the place where the charger is located. Also, if the battery is over-discharged, it may cause the battery to fail.

そのため電圧監視部211は、電源20のバッテリ電圧を常時監視する。出力インタフェース114は、電圧監視部211からの電圧情報に基づいて電圧に応じた出力制御をする。好ましい実施形態では、以下のような制御をすることができる。 Therefore, the voltage monitoring unit 211 constantly monitors the battery voltage of the power supply 20. The output interface 114 controls the output according to the voltage based on the voltage information from the voltage monitoring unit 211. In a preferred embodiment, the following control can be performed.

電圧が30V以上の場合、電圧監視部211は、出力部114にバッテリの異常を警告する信号を送信し、出力インタフェース114は駆動装置16を駆動させない。電圧が23V以上30V未満の場合、通常運行させるため、電圧監視部211は、出力インタフェース114の出力情報を制限しない。電圧が22V以上23V未満の場合、出力インタフェース114は、電圧に応じた速度に減じて駆動装置16を制御する。好ましい実施形態では、通常運行の運行速度を100%とすると、22Vの場合は50%の速度とし、23Vの場合は100%の速度となるように、出力インタフェース114は、22V台の電圧については電圧値に比例した速度に制御する(特許請求の範囲の「低電圧走行モード」に相当)。電圧が21V以上22V未満の場合、経路情報生成部111は、自律走行を中断させ、充電器のある場所に移動する経路情報を生成する。電圧が21V未満の場合、出力インタフェース114は壁際に移動させるように駆動装置16を制御し、自律移動ロボット10をシャットダウンさせる。 When the voltage is 30 V or more, the voltage monitoring unit 211 transmits a signal warning the output unit 114 of the abnormality of the battery, and the output interface 114 does not drive the drive device 16. When the voltage is 23 V or more and less than 30 V, the voltage monitoring unit 211 does not limit the output information of the output interface 114 for normal operation. When the voltage is 22 V or more and less than 23 V, the output interface 114 controls the drive device 16 by reducing the speed according to the voltage. In a preferred embodiment, the output interface 114 has a voltage in the 22V range so that the operating speed of normal operation is 100%, the speed is 50% in the case of 22V, and the speed is 100% in the case of 23V. The speed is controlled in proportion to the voltage value (corresponding to the "low voltage driving mode" in the claims). When the voltage is 21 V or more and less than 22 V, the route information generation unit 111 interrupts the autonomous driving and generates route information for moving to a place where the charger is located. When the voltage is less than 21 V, the output interface 114 controls the drive device 16 to move to the wall and shuts down the autonomous mobile robot 10.

(接触センサによる停止行動)
上述したように自律移動ロボット10の筐体の表面には1つ以上の接触センサ14を搭載することができる。自律移動ロボット10の筐体の表面の接触センサ14が反応を検知した場合、停止信号入力インタフェース19は反応情報に基づいて、出力部114に停止信号を出力し、駆動装置16を停止させる。
(Stopping action by contact sensor)
As described above, one or more contact sensors 14 can be mounted on the surface of the housing of the autonomous mobile robot 10. When the contact sensor 14 on the surface of the housing of the autonomous mobile robot 10 detects a reaction, the stop signal input interface 19 outputs a stop signal to the output unit 114 based on the reaction information to stop the drive device 16.

別の好ましい実施形態では、停止信号入力インタフェース19は方向転換させるように駆動装置16を制御することができる。 In another preferred embodiment, the stop signal input interface 19 can control the drive device 16 to turn around.

(コントローラのハードウェア構成)
図8は、本発明の一実施形態に係る自律移動ロボット10が備えている主要なハードウェア構成を模式的に示す概略図である。図8に示すように、自律移動ロボット10は、少なくとも1つのコントローラ130を有する。情報処理の対象によって複数のコントローラ130を備えていてもよい。
(Hardware configuration of controller)
FIG. 8 is a schematic view schematically showing a main hardware configuration included in the autonomous mobile robot 10 according to the embodiment of the present invention. As shown in FIG. 8, the autonomous mobile robot 10 has at least one controller 130. A plurality of controllers 130 may be provided depending on the target of information processing.

例えば、カメラ15に関する情報を処理する第1のコントローラ130aと、力覚センサ12、測域センサ13および通信インタフェース18に関する情報を処理する第2のコントローラ130bと、駆動装置16に関する情報を処理する第3のコントローラ130cとのように複数の制御部に制御を分担させる構成としてもよい。 For example, a first controller 130a that processes information about the camera 15, a second controller 130b that processes information about the force sensor 12, the range sensor 13, and the communication interface 18, and a second controller 130b that processes information about the drive device 16. A configuration may be configured in which control is shared by a plurality of control units, such as the controller 130c of 3.

入力インタフェース133から入力された情報の処理を実施するアルゴリズムを実行するプログラムは、メモリ136に格納される。当該メモリ136に格納されたプログラムをプロセッサ135にて実行することにより、入力された情報を処理することができる。当該処理された情報は出力情報として出力インタフェース114から出力される。出力インタフェース114から出力された情報により、駆動装置16、通信インタフェース18を制御することができる。 The program that executes the algorithm that executes the processing of the information input from the input interface 133 is stored in the memory 136. By executing the program stored in the memory 136 on the processor 135, the input information can be processed. The processed information is output from the output interface 114 as output information. The drive device 16 and the communication interface 18 can be controlled by the information output from the output interface 114.

力覚センサ12は、自律移動ロボット10の走行モードを指定するユーザ操作を検知する。第2のコントローラ130bは、当該力覚センサ12の出力信号を参照して、自律移動ロボット10を制御する。 The force sensor 12 detects a user operation that specifies a traveling mode of the autonomous mobile robot 10. The second controller 130b controls the autonomous mobile robot 10 with reference to the output signal of the force sensor 12.

第2のコントローラ130bは、力覚センサ12が前記ユーザ操作を検知した場合、自律移動ロボット10の動作モードを、前記ユーザ操作とは独立に設定された巡回経路に従って、自律移動ロボット10を走行させる自動モードから、前記ユーザ操作に従って、自律移動ロボット10を走行させる手動モードへと切り替える処理を実行する。手動モードにて走行させるユーザ操作の検知ができなくなった場合、第2のコントローラ130bは、動作モードを手動モードから自動モードに復帰させる処理を実行する。自動モードは、前記ユーザ操作とは独立に設定された巡回経路に従って走行するため、手動モードから自動モードへ復帰する際に、第2のコントローラ130bは、巡回経路に復帰する経路情報を生成する処理を実行する。 When the force sensor 12 detects the user operation, the second controller 130b causes the autonomous mobile robot 10 to travel in the operation mode of the autonomous mobile robot 10 according to a patrol path set independently of the user operation. The process of switching from the automatic mode to the manual mode in which the autonomous mobile robot 10 is driven is executed according to the user operation. When it becomes impossible to detect the user operation of traveling in the manual mode, the second controller 130b executes a process of returning the operation mode from the manual mode to the automatic mode. Since the automatic mode travels according to the patrol route set independently of the user operation, the second controller 130b generates route information for returning to the patrol route when returning from the manual mode to the automatic mode. To execute.

第2のコントローラ130bは、手動モードにおいて、前記ユーザが自律移動ロボット10を前進させる力、及び、前記ユーザが自律移動ロボット10を回転させる力のうちの少なくとも一つに応じて、前記自律移動ロボットの移動方向および速度のうちの少なくとも一つを決定する処理を実行する。 In the manual mode, the second controller 130b responds to at least one of the force by which the user advances the autonomous mobile robot 10 and the force by which the user rotates the autonomous mobile robot 10. The process of determining at least one of the moving direction and the speed of the robot is executed.

測域センサ13は、施設内のフロア上を徘徊する徘徊者を検知することができる。 The range sensor 13 can detect a wandering person wandering on the floor in the facility.

第2のコントローラ130bは、自動モードにおいて第2のコントローラ130bが当該徘徊者を検知した場合、自律移動ロボット10の動作モードを、自動モードから、徘徊者を追従する追従モードへと切り替える処理を実行する。 When the second controller 130b detects the wandering person in the automatic mode, the second controller 130b executes a process of switching the operation mode of the autonomous mobile robot 10 from the automatic mode to the following mode for following the wandering person. To do.

第2のコントローラ130bは、追従モードにおいて力覚センサ12が前記ユーザ操作を検知した場合、自律移動ロボット10の動作モードを、追従モードから手動モードへと切り替える処理を実行する。 The second controller 130b executes a process of switching the operation mode of the autonomous mobile robot 10 from the follow-up mode to the manual mode when the force sensor 12 detects the user operation in the follow-up mode.

自律移動ロボット10は電源20(バッテリ)を備える。 The autonomous mobile robot 10 includes a power supply 20 (battery).

第3のコントローラ130cは、バッテリの電圧が低下した場合、自律移動ロボット10の動作モードを、バッテリの電圧に応じて走行速度を制限する低電圧走行モードに切り替える処理を実行する。また、第3のコントローラ130cは、エンコーダ17、接触センサ14についても制御を行う。 When the battery voltage drops, the third controller 130c executes a process of switching the operation mode of the autonomous mobile robot 10 to a low-voltage traveling mode that limits the traveling speed according to the battery voltage. The third controller 130c also controls the encoder 17 and the contact sensor 14.

〔ソフトウェアによる実現例〕
自律移動ロボット10のコントローラ11は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of realization by software]
The controller 11 of the autonomous mobile robot 10 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by software.

後者の場合、自律移動ロボット10は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the autonomous mobile robot 10 includes a computer that executes instructions of a program that is software that realizes each function. The computer includes, for example, one or more processors and a computer-readable recording medium that stores the program. Then, in the computer, the processor reads the program from the recording medium and executes it, thereby achieving the object of the present invention. As the processor, for example, a CPU (Central Processing Unit) can be used. As the recording medium, a "non-temporary tangible medium", for example, a ROM (Read Only Memory) or the like, a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. Further, a RAM (Random Access Memory) for expanding the above program may be further provided. Further, the program may be supplied to the computer via an arbitrary transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. It should be noted that one aspect of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the above program is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present invention.

10 自律移動ロボット
11 コントローラ
12 力覚センサ
13 測域センサ
14 接触センサ
15 カメラ
16 駆動機構
17 エンコーダ
18 通信インタフェース
19 停止信号入力インタフェース
20 電源(バッテリ)
21a、21b ブロック
22 中心点
24 壁
111 経路情報生成部
112 判定部
113 オブジェクト抽出部
114 出力部、出力インタフェース
115 位置情報生成部
116 マップ情報入力部
130 コントローラ
130a 第1のコントローラ
130b 第2のコントローラ
130c 第3のコントローラ
133 入力インタフェース
135 プロセッサ
136 メモリ
211 電圧監視部
10 Autonomous mobile robot 11 Controller 12 Sense sensor 13 Range sensor 14 Contact sensor 15 Camera 16 Drive mechanism 17 Encoder 18 Communication interface 19 Stop signal input interface 20 Power supply (battery)
21a, 21b Block 22 Center point 24 Wall 111 Route information generation unit 112 Judgment unit 113 Object extraction unit 114 Output unit, output interface 115 Position information generation unit 116 Map information input unit 130 Controller 130a First controller 130b Second controller 130c Third controller 133 Input interface 135 Processor 136 Memory 211 Voltage monitoring unit

Claims (8)

設定された経路を自動巡回する自律移動ロボットであって、
ユーザ操作を検知する第1のセンサと、
前記第1のセンサの出力信号を参照して、当該自律移動ロボットを制御するコントローラと、を備え、
前記コントローラは、
前記第1のセンサが前記ユーザ操作を検知した場合、当該自律移動ロボットの動作モードを、前記ユーザ操作とは独立に設定された巡回経路に従って、当該自律移動ロボットを走行させる自動モードから、前記ユーザ操作に従って、当該自律移動ロボットを走行させる手動モードへと切り替える処理を実行する、
ことを特徴とする自律移動ロボット。
It is an autonomous mobile robot that automatically patrols the set route.
The first sensor that detects user operation and
A controller for controlling the autonomous mobile robot with reference to the output signal of the first sensor is provided.
The controller
When the first sensor detects the user operation, the operation mode of the autonomous mobile robot is changed from the automatic mode in which the autonomous mobile robot travels according to a patrol route set independently of the user operation. According to the operation, the process of switching to the manual mode in which the autonomous mobile robot is driven is executed.
An autonomous mobile robot characterized by this.
前記コントローラは、前記手動モードにおいて、前記ユーザが前記自律移動ロボットを前進させる力、及び、前記ユーザが前記自律移動ロボットを回転させる力のうちの少なくとも一つに応じて、前記自律移動ロボットの移動方向および速度のうちの少なくとも一つを決定する、
ことを特徴とする請求項1に記載の自律移動ロボット。
In the manual mode, the controller moves the autonomous mobile robot according to at least one of a force by which the user advances the autonomous mobile robot and a force by which the user rotates the autonomous mobile robot. Determine at least one of direction and speed,
The autonomous mobile robot according to claim 1, wherein the robot is characterized by the above.
徘徊者を検知する第2のセンサを更に備え、
前記コントローラは、
前記自動モードにおいて前記第2のセンサが前記徘徊者を検知した場合、当該自律移動ロボットの動作モードを、前記自動モードから、前記徘徊者を追従する追従モードへと切り替える処理を実行する、
ることを特徴とする請求項1または2に記載の自律移動ロボット。
Further equipped with a second sensor to detect the wandering,
The controller
When the second sensor detects the wandering person in the automatic mode, a process of switching the operation mode of the autonomous mobile robot from the automatic mode to the following mode for following the wandering person is executed.
The autonomous mobile robot according to claim 1 or 2.
前記コントローラは、前記追従モードにおいて前記第1のセンサが前記ユーザ操作を検知した場合、当該自律移動ロボットの動作モードを、前記追従モードから前記手動モードへと切り替える処理を実行する、
ことを特徴とする請求項3に記載の自律移動ロボット。
When the first sensor detects the user operation in the follow-up mode, the controller executes a process of switching the operation mode of the autonomous mobile robot from the follow-up mode to the manual mode.
The autonomous mobile robot according to claim 3, wherein the autonomous mobile robot is characterized in that.
バッテリを更に備え、
前記コントローラは、前記バッテリの電圧が低下した場合、前記自律移動ロボットの動作モードを、前記バッテリの電圧に応じて走行速度を制限する低電圧走行モードに切り替える処理を実行する、
ことを特徴とする請求項1から4のいずれか1項に記載の自律移動ロボット。
With more batteries
When the voltage of the battery drops, the controller executes a process of switching the operation mode of the autonomous mobile robot to a low-voltage traveling mode that limits the traveling speed according to the voltage of the battery.
The autonomous mobile robot according to any one of claims 1 to 4, wherein the robot is characterized by the above.
前記コントローラは、
前記第1のセンサの出力信号を取得する少なくとも1つの入力インタフェースと、
予め定められたプログラムに従って前記各処理を実行する少なくとも1つのプロセッサと、
前記プログラムを格納した少なくとも1つのメモリと、を備えている、
ことを特徴とする請求項1から5の何れか1項に記載の自律移動ロボット。
The controller
With at least one input interface for acquiring the output signal of the first sensor,
At least one processor that executes each of the above processes according to a predetermined program, and
It comprises at least one memory that stores the program.
The autonomous mobile robot according to any one of claims 1 to 5, wherein the robot is characterized by the above.
設定された経路を自動巡回する自律移動ロボットを制御する制御方法であって、
第1のセンサを用いて当該自律移動ロボットの走行モードを指定するユーザ操作を検知する工程と、
前記第1のセンサの出力信号を参照して、当該自律移動ロボットを制御する工程と、を備え、
前記制御する工程は、
前記第1のセンサが前記ユーザ操作を検知した場合、当該自律移動ロボットの動作モードを、前記ユーザ操作とは独立に設定された巡回経路に従って、当該自律移動ロボットを走行させる自動モードから、前記ユーザ操作に従って、当該自律移動ロボットを走行させる手動モードへと切り替える処理を含む、
ことを特徴とする制御方法。
It is a control method that controls an autonomous mobile robot that automatically patrols a set route.
The process of detecting the user operation that specifies the traveling mode of the autonomous mobile robot using the first sensor, and
A step of controlling the autonomous mobile robot with reference to the output signal of the first sensor is provided.
The control step is
When the first sensor detects the user operation, the operation mode of the autonomous mobile robot is changed from the automatic mode in which the autonomous mobile robot travels according to a patrol route set independently of the user operation. Including the process of switching to the manual mode in which the autonomous mobile robot is driven according to the operation,
A control method characterized by that.
請求項1〜5の何れか1項に記載の自律移動ロボットを制御する制御プログラムであって、前記コントローラに前記各処理を実行させることを特徴とする制御プログラム。 A control program for controlling an autonomous mobile robot according to any one of claims 1 to 5, wherein the controller executes each of the above processes.
JP2019029811A 2019-02-21 2019-02-21 autonomous mobile robot Active JP7147624B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019029811A JP7147624B2 (en) 2019-02-21 2019-02-21 autonomous mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019029811A JP7147624B2 (en) 2019-02-21 2019-02-21 autonomous mobile robot

Publications (2)

Publication Number Publication Date
JP2020135559A true JP2020135559A (en) 2020-08-31
JP7147624B2 JP7147624B2 (en) 2022-10-05

Family

ID=72278727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019029811A Active JP7147624B2 (en) 2019-02-21 2019-02-21 autonomous mobile robot

Country Status (1)

Country Link
JP (1) JP7147624B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113870524A (en) * 2021-09-18 2021-12-31 深圳Tcl数字技术有限公司 Monitoring method, monitoring device and storage medium
JP7505399B2 (en) 2020-12-24 2024-06-25 トヨタ自動車株式会社 ROBOT CONTROL SYSTEM, ROBOT CONTROL METHOD, AND PROGRAM

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002036152A (en) * 2000-07-26 2002-02-05 Matsushita Electric Works Ltd Autonomous moving robot
JP2005288628A (en) * 2004-03-31 2005-10-20 Matsushita Electric Works Ltd Moving robot system
JP2012078950A (en) * 2010-09-30 2012-04-19 Sogo Keibi Hosho Co Ltd Monitoring system with autonomous mobile body, monitoring device, autonomous mobile body, monitoring method and monitoring program
JP2018120421A (en) * 2017-01-25 2018-08-02 シャープ株式会社 Travel device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002036152A (en) * 2000-07-26 2002-02-05 Matsushita Electric Works Ltd Autonomous moving robot
JP2005288628A (en) * 2004-03-31 2005-10-20 Matsushita Electric Works Ltd Moving robot system
JP2012078950A (en) * 2010-09-30 2012-04-19 Sogo Keibi Hosho Co Ltd Monitoring system with autonomous mobile body, monitoring device, autonomous mobile body, monitoring method and monitoring program
JP2018120421A (en) * 2017-01-25 2018-08-02 シャープ株式会社 Travel device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7505399B2 (en) 2020-12-24 2024-06-25 トヨタ自動車株式会社 ROBOT CONTROL SYSTEM, ROBOT CONTROL METHOD, AND PROGRAM
CN113870524A (en) * 2021-09-18 2021-12-31 深圳Tcl数字技术有限公司 Monitoring method, monitoring device and storage medium

Also Published As

Publication number Publication date
JP7147624B2 (en) 2022-10-05

Similar Documents

Publication Publication Date Title
EP3525992B1 (en) Mobile robot and robotic system comprising a server and the robot
JP4425170B2 (en) Mobile robot and mobile robot monitoring system
US20220347836A1 (en) Intelligent track and navigation for sensor carrier
CN110858098A (en) Self-driven mobile robot using human-robot interaction
JP2006285548A (en) Mobile robot and remote control system
JP2021527889A (en) Control method of autonomous mobile robot and autonomous mobile robot
CN111949027B (en) Self-adaptive robot navigation method and device
JP7147624B2 (en) autonomous mobile robot
US20180275666A1 (en) Autonomous mobile apparatus returning to charger to be charged, autonomous moving method, and non-transitory computer-readable storage medium
US11635759B2 (en) Method of moving robot in administrator mode and robot of implementing method
JP2011224679A (en) Reaction robot, reaction control method, and reaction control program
US11353880B2 (en) Autonomous moving body and control program for autonomous moving body
JP5552710B2 (en) Robot movement control system, robot movement control program, and robot movement control method
JP7120071B2 (en) autonomous mobile robot
JP2020135561A (en) Autonomous mobile robot
WO2022116628A1 (en) Obstacle avoidance control system, method, storage medium, computer program product, and mobile device
US11964402B2 (en) Robot control system, robot control method, and control program
US20220194737A1 (en) Autonomous mobile system, autonomous mobile method, and autonomous mobile program
US20220203551A1 (en) Luggage transport system, luggage transport method, and storage medium
JP7272221B2 (en) Information processing equipment, robots, and information processing systems
JP7188232B2 (en) autonomous mobile robot
JP7360792B2 (en) Mobile object, learning device, and learning device manufacturing method
CN117232516B (en) Mobile home equipment, navigation method, device and medium thereof
US20220366365A1 (en) Logistics system, logistics robot, and logistics robot control method
US20220366356A1 (en) Logistics system and logistics robot control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220905

R150 Certificate of patent or registration of utility model

Ref document number: 7147624

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150