JP5896931B2 - Robot with parent-child function - Google Patents

Robot with parent-child function Download PDF

Info

Publication number
JP5896931B2
JP5896931B2 JP2013013188A JP2013013188A JP5896931B2 JP 5896931 B2 JP5896931 B2 JP 5896931B2 JP 2013013188 A JP2013013188 A JP 2013013188A JP 2013013188 A JP2013013188 A JP 2013013188A JP 5896931 B2 JP5896931 B2 JP 5896931B2
Authority
JP
Japan
Prior art keywords
unit
parent
robot
child
investigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013013188A
Other languages
Japanese (ja)
Other versions
JP2014144493A (en
Inventor
陽輔 小川
陽輔 小川
一彦 真庭
一彦 真庭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Power Solutions Co Ltd
Original Assignee
Hitachi Power Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Power Solutions Co Ltd filed Critical Hitachi Power Solutions Co Ltd
Priority to JP2013013188A priority Critical patent/JP5896931B2/en
Publication of JP2014144493A publication Critical patent/JP2014144493A/en
Application granted granted Critical
Publication of JP5896931B2 publication Critical patent/JP5896931B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、人のかわりに施設に入って調査などを行うロボットに関する。   The present invention relates to a robot that enters a facility instead of a person and conducts an investigation or the like.

原子力発電所の高線量区域に設置された設備、例えば、高線量タンクなどは、放射線量が非常に高く、容易に作業者が立ち入ることができない。これら高線量区域に設置された設備の健全性確認および保全管理のため、カメラを搭載したロボットが用いられる場合がある。従来、このようなロボットの多くは、GPS(Global Positioning System)を使用して位置情報を取得していた。   Equipment installed in a high-dose area of a nuclear power plant, such as a high-dose tank, has a very high radiation dose and cannot be easily accessed by an operator. A robot equipped with a camera may be used to check the soundness and maintenance of facilities installed in these high-dose areas. Conventionally, many of such robots have acquired position information using GPS (Global Positioning System).

特許文献1の要約の課題には、「正確な地図データがない場合であってもGPS信号による移動体の位置決めを正確に行うことができる新規なGPS信号による移動***置決め方法および移動***置決定装置ならびに移動***置決定プログラムの提供。」と記載され、解決手段には、「人工衛星から発信されるGPS信号を連続的に受信し、受信したGPS信号に基づいて所定時間ごとに前記移動体の位置を算定し、算定された所定時間ごとの移動体の算定位置を記憶し、記憶された移動体の算定位置同士の広がり具合に基づいて前記移動体の停止または移動を判断し、移動体が移動したと判断したときに前記移動体の位置を決定する。これによって、正確な地図データや専用のセンサがなくともGPS信号による移動体の位置決めを正確に行うことができる。」と記載されている。   The subject of the summary of Patent Document 1 is “a moving body positioning method and a moving body position determination by a new GPS signal that can accurately perform positioning of the moving body by a GPS signal even when there is no accurate map data. Device and a moving body position determination program, "the solution means" continuously receiving GPS signals transmitted from artificial satellites, and said moving bodies at predetermined intervals based on the received GPS signals. The calculated position of the moving body for each predetermined time is stored, the stop or movement of the moving body is determined based on the spread of the calculated positions of the stored moving bodies, and the moving body The position of the moving object is determined when it is determined that the vehicle has moved, so that the positioning of the moving object can be accurately performed by GPS signals without accurate map data or a dedicated sensor. Ukoto has been described as can be. ".

特開2012−177681号公報JP 2012-177681 A

特許文献1に記載の発明は、屋外ではGPS衛星からの信号が受信可能なので、ロボットの位置情報の取得に有効な場合がある。しかし、GPSの位置検出精度は数mであり、ロボットの目的によっては、位置情報の精度が不足する場合がある。更に屋内では、上部が天井などで遮られている。そのため、ロボットは、GPS衛星からの信号を受信できず、位置情報を取得できないという問題がある。
そこで、本発明は、屋内に於いても位置情報の特定を可能とする親子機能搭載ロボットを提供することを課題とする。
Since the invention described in Patent Document 1 can receive signals from GPS satellites outdoors, it may be effective in acquiring position information of the robot. However, the position detection accuracy of GPS is several meters, and the accuracy of the position information may be insufficient depending on the purpose of the robot. Furthermore, indoors, the upper part is blocked by a ceiling or the like. Therefore, there is a problem that the robot cannot receive signals from GPS satellites and cannot acquire position information.
Accordingly, an object of the present invention is to provide a robot with a parent-child function that can specify position information even indoors.

前記した課題を解決するため、請求項1に記載の発明では、他のロボットとの間で情報を送受信する通信部と、自身が親機と子機のいずれとして動作するかを決定する親機決定部と、画像を撮影するステレオカメラ(撮影部)と、この画像に基づいて子機である他のロボットの位置を特定する子機位置特定部と、自身を駆動する駆動部とを備え、前記親機決定部は、子機と親機との間の距離が閾値を超えたならば、子機と親機とを入れ替えることを特徴とする親子機能搭載ロボットとした。
その他の手段については、発明を実施するための形態のなかで説明する。
In order to solve the above-described problem, in the invention according to claim 1, a communication unit that transmits / receives information to / from another robot, and a parent device that determines whether the device operates as a parent device or a child device A determination unit, a stereo camera (imaging unit) that captures an image, a slave unit position specifying unit that specifies the position of another robot that is a slave unit based on this image, and a drive unit that drives itself; The parent device determination unit is a robot with a parent-child function, wherein the child device and the parent device are switched when the distance between the child device and the parent device exceeds a threshold value.
Other means will be described in the embodiment for carrying out the invention.

本発明によれば、屋内に於いても位置情報の特定を可能とする親子機能搭載ロボットを提供することができる。   According to the present invention, it is possible to provide a parent-child function-equipped robot that can specify position information even indoors.

第1の実施形態に於ける調査ロボットを示す概略の構成図である。It is a schematic block diagram which shows the investigation robot in 1st Embodiment. 第1の実施形態に於ける調査ロボットの外観と動作を示す図である。It is a figure which shows the external appearance and operation | movement of the investigation robot in 1st Embodiment. 第1の実施形態に於ける親機および子機による位置特定方法を示す図である。It is a figure which shows the position specific method by the main | base station and a subunit | mobile_unit in 1st Embodiment. 第1の実施形態に於ける調査ロボットのマッピング処理を示すフローチャートである。It is a flowchart which shows the mapping process of the investigation robot in 1st Embodiment. 第2の実施形態に於ける調査ロボットのマニュアル操作処理を示すフローチャートである。It is a flowchart which shows the manual operation process of the investigation robot in 2nd Embodiment. 第3の実施形態に於ける調査ロボットの作業助勢機構を示す図である。It is a figure which shows the work assistance mechanism of the investigation robot in 3rd Embodiment.

以降、本発明を実施するための形態を、各図を参照して詳細に説明する。
(第1の実施形態)
図1は、第1の実施形態に於ける調査ロボット1−1,1−2などを示す概略の構成図である。
調査ロボット1−1,1−2(親子機能搭載ロボット)は、例えばネットワーク(有線ケーブルや無線通信路など)によって操作装置2と接続されて、相互に通信可能である。調査ロボット1−1,1−2は、例えば原子力発電所の高線量タンクの調査や保全管理を行うものであり、いずれか1台のロボットが親機として動作し、この親機以外のロボットが子機として動作する。調査ロボット1−1,1−2は、原則として自律的に動作するが、後記する第2の実施形態のように、操作装置2によってユーザがマニュアルで操作してもよい。以下、調査ロボット1−1,1−2を特に区別しないときには、単に調査ロボット1と記載する。
調査ロボット1は、マップ処理部11と、記憶部12と、ステレオカメラ13(撮像部)と、慣性計測部14と、駆動部15と、親機決定部16と、通信部17とを備えている。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.
(First embodiment)
FIG. 1 is a schematic configuration diagram showing survey robots 1-1, 1-2, and the like in the first embodiment.
The investigation robots 1-1 and 1-2 (parent / child function-equipped robots) are connected to the operation device 2 through, for example, a network (wired cable, wireless communication path, etc.) and can communicate with each other. The investigation robots 1-1 and 1-2 perform, for example, investigation and maintenance management of a high-dose tank of a nuclear power plant, and any one of the robots operates as a parent machine, and a robot other than this parent machine Operates as a slave unit. The investigation robots 1-1 and 1-2 operate autonomously in principle, but may be manually operated by the user using the operation device 2 as in a second embodiment described later. Hereinafter, when the survey robots 1-1 and 1-2 are not particularly distinguished, they are simply referred to as the survey robot 1.
The investigation robot 1 includes a map processing unit 11, a storage unit 12, a stereo camera 13 (imaging unit), an inertia measurement unit 14, a drive unit 15, a parent device determination unit 16, and a communication unit 17. Yes.

マップ処理部11は、子機の位置を特定して、作業場所のマップを作成するものである。マップ処理部11は、三次元処理部111と、子機位置特定部112と、マップ作成部113と、自機位置特定部114とを備えている。
三次元処理部111は、ステレオカメラ13で撮影したステレオ画像を三次元処理するものである。
子機位置特定部112は、三次元処理部111によって三次元処理された画像に基づいて、子機を認識し、この子機の自機に対する相対位置を特定するものである。これにより、子機位置特定部112は、特定した子機の位置精度を向上可能である。更に、子機位置特定部112は、例えば建屋内の経度、緯度、および高度が既知である任意点を認識し、校正する機能を有している。これにより、特定した子機の地理座標を認識可能である。
マップ作成部113は、三次元処理された画像と自機の位置とに基づいて、調査対象である作業領域(例えば、建屋内)のマップを作成するものである。マップ作成部113は、作成したマップを記憶部12に格納する。
自機位置特定部114は、慣性計測部14が測定した慣性情報、および、駆動部15の図示しないエンコーダから取得した移動距離によって、自機の位置を特定するものである。しかし、これに限られず、自機位置特定部114は更に、建屋内の経度、緯度、および高度が既知である任意点を認識して、特定した自機の位置を校正してもよい。
ステレオカメラ13(撮像部)は、ステレオ画像を撮影するものであり、左右2つの光学系および撮像素子を備えている。ステレオカメラ13が撮影した画像は、マップ処理部11によって処理されると共に、操作装置2のマップ表示部24に表示される。
慣性計測部14は、IMU(Inertial Measurement Unit)と呼ばれており、XYZからなる3軸の角速度および加速度を検出するものである。慣性計測部14は、3軸のジャイロおよび3方向の加速度計を備えている。
駆動部15は、この調査ロボット1を駆動して、その位置を移動するものである。駆動部15は、例えば、電動機が図示しない前後左右の起動輪を駆動し、左側前後の起動輪で左無限軌道を駆動し、右側前後の起動輪で右無限軌道を駆動するものである。駆動部15は、図示しないエンコーダを備え、このエンコーダによって移動距離を検知して、マップ処理部11に出力する。
親機決定部16は、このロボット自身が親機と子機のいずれとして動作するかを決定するものである。親機決定部16は、子機と親機との間の距離が閾値を超えたか、または、ステレオカメラ13による撮影ができなくなる位置に子機が到達すると見込んだならば、親機と子機とを切り替える。
通信部17は、例えばネットワークインタフェースであり、操作装置2や他の調査ロボット1との間で、情報を送受信するものである。
記憶部12は、例えばフラッシュメモリであり、マップ121と経路122とを格納している。
マップ121は、マップ処理部11が作成した作業場所の地図や、予め用意された建屋内の地図などである。経路122は、マップ121に於いて、各調査ロボット1−1,1−2(親機・子機)が移動した経路である。経路122は、各調査ロボット1の各時間に於ける位置が格納されている。子機位置特定部112は、経路122に、子機の経路を記録する。自機位置特定部114は、経路122に、自機の経路を記録する。
The map processing unit 11 identifies the position of the slave unit and creates a work place map. The map processing unit 11 includes a three-dimensional processing unit 111, a slave unit position specifying unit 112, a map creating unit 113, and a local unit position specifying unit 114.
The three-dimensional processing unit 111 performs a three-dimensional process on a stereo image captured by the stereo camera 13.
The slave unit specifying unit 112 recognizes the slave unit based on the image three-dimensionally processed by the three-dimensional processing unit 111, and specifies the relative position of the slave unit with respect to its own unit. Thereby, the subunit | mobile_unit position specific | specification part 112 can improve the position accuracy of the identified subunit | mobile_unit. Furthermore, the slave unit specifying unit 112 has a function of recognizing and calibrating an arbitrary point whose longitude, latitude, and altitude are known, for example. Thereby, it is possible to recognize the geographical coordinates of the specified slave unit.
The map creation unit 113 creates a map of a work area (for example, a building) that is an investigation target based on the three-dimensionally processed image and the position of the own device. The map creation unit 113 stores the created map in the storage unit 12.
The own device position specifying unit 114 specifies the position of the own device based on the inertia information measured by the inertia measuring unit 14 and the movement distance acquired from an encoder (not shown) of the driving unit 15. However, the present invention is not limited to this, and the own device position specifying unit 114 may further recognize the arbitrary point whose longitude, latitude, and altitude are known in the building and calibrate the specified position of the own device.
The stereo camera 13 (image capturing unit) captures a stereo image and includes two left and right optical systems and an image sensor. An image captured by the stereo camera 13 is processed by the map processing unit 11 and displayed on the map display unit 24 of the controller device 2.
The inertial measurement unit 14 is called an IMU (Inertial Measurement Unit), and detects a triaxial angular velocity and acceleration composed of XYZ. The inertia measuring unit 14 includes a three-axis gyro and a three-direction accelerometer.
The drive part 15 drives this investigation robot 1, and moves the position. In the drive unit 15, for example, the electric motor drives front and rear, left and right starter wheels (not shown), the left front and rear starter wheels drive the left endless track, and the right front and rear starter wheels drive the right endless track. The drive unit 15 includes an encoder (not shown), detects the movement distance by this encoder, and outputs the detected distance to the map processing unit 11.
The parent device determination unit 16 determines whether the robot itself operates as a parent device or a child device. If the distance between the child device and the parent device exceeds the threshold or if it is predicted that the child device will reach a position where photographing by the stereo camera 13 cannot be performed, the parent device determining unit 16 And switch.
The communication unit 17 is a network interface, for example, and transmits / receives information to / from the controller device 2 and other investigation robots 1.
The storage unit 12 is a flash memory, for example, and stores a map 121 and a path 122.
The map 121 is a map of a work place created by the map processing unit 11 or a map of a building prepared in advance. A route 122 is a route on which each of the survey robots 1-1 and 1-2 (master device / slave device) moves on the map 121. The path 122 stores the position of each research robot 1 at each time. The slave unit position specifying unit 112 records the route of the slave unit in the route 122. The own device position specifying unit 114 records the route of the own device in the route 122.

操作装置2は、ネットワークケーブルで接続されている調査ロボット1−1,1−2をマニュアルで操作するものである。操作装置2は、操作部21と、駆動指令部22と、通信部23と、マップ表示部24とを備えている。
操作部21は、例えば、これら調査ロボット1の駆動を指令するボタン(不図示)や、いずれの調査ロボット1が親機として動作するかを指令するボタン(不図示)などを含んでいる。操作部21は、入力された操作情報を、駆動指令部22に出力する。
駆動指令部22は、入力された操作情報を、調査ロボット1の駆動指令などに変換するものである。
通信部23は、調査ロボット1−1,1−2に駆動指令を送信し、これら調査ロボット1−1,1−2からマップ、経路、撮影画像などを受信するものである。
マップ表示部24は、例えば、液晶ディスプレイなどであり、通信部23が各調査ロボット1から受信したマップを表示するものである。
The operation device 2 manually operates the investigation robots 1-1 and 1-2 connected by a network cable. The controller device 2 includes an operation unit 21, a drive command unit 22, a communication unit 23, and a map display unit 24.
The operation unit 21 includes, for example, a button (not shown) for instructing driving of the investigation robot 1 and a button (not shown) for instructing which investigation robot 1 operates as a parent machine. The operation unit 21 outputs the input operation information to the drive command unit 22.
The drive command unit 22 converts the input operation information into a drive command for the investigation robot 1 or the like.
The communication unit 23 transmits drive commands to the survey robots 1-1 and 1-2, and receives maps, routes, captured images, and the like from the survey robots 1-1 and 1-2.
The map display unit 24 is, for example, a liquid crystal display or the like, and displays a map received by the communication unit 23 from each investigation robot 1.

図2は、第1の実施形態に於ける調査ロボット1の外観と動作を示す図である。
図2に於いて、調査ロボット1−1は、親機として動作し、停止したままの状態で、子機である調査ロボット1−2を俯瞰的に撮影している。調査ロボット1−1は、駆動部15を停止させ、パンティルト機構132を制御してステレオカメラ13を前方に向け、撮影領域131−1に調査ロボット1−2が入るようにしている。これにより、調査ロボット1は、子機である調査ロボット1−2の作業環境を俯瞰的に知ることにより、その操作性を向上させ、その位置を決定することができる。
調査ロボット1−2は、子機として動作し、駆動部15で移動しながら、パンティルト機構132を制御してステレオカメラ13を上方向に向け、撮影領域131−2に高線量タンク3の底部が入るようにしている。これにより、調査ロボット1−2は、高線量タンク3の底部を撮影し、目視点検を行えるようにしている。
子機である調査ロボット1−2は、駆動部15からのエンコーダ情報(移動距離情報)と、慣性計測部14からの慣性情報とによって、自身の位置を特定している。これにより、子機である調査ロボット1−2は、親機である調査ロボット1−1のマッピング処理で特定した位置を慣性情報で特定した位置で補間し、リアルタイムで自身の位置を特定することができる。
FIG. 2 is a diagram showing the appearance and operation of the investigation robot 1 in the first embodiment.
In FIG. 2, the investigation robot 1-1 operates as a parent machine and photographs the investigation robot 1-2 as a child machine from a bird's-eye view while remaining stopped. The investigation robot 1-1 stops the drive unit 15 and controls the pan tilt mechanism 132 so that the stereo camera 13 faces forward so that the investigation robot 1-2 enters the imaging region 131-1. Thereby, the survey robot 1 can improve the operability and determine the position thereof by knowing the work environment of the survey robot 1-2 that is the child machine from a bird's-eye view.
The investigation robot 1-2 operates as a slave unit and moves by the drive unit 15 while controlling the pan tilt mechanism 132 so that the stereo camera 13 is directed upward and the bottom of the high-dose tank 3 is placed in the imaging region 131-2. To enter. Thereby, the investigation robot 1-2 images the bottom of the high-dose tank 3 so that visual inspection can be performed.
The investigation robot 1-2 as a slave unit specifies its own position based on the encoder information (movement distance information) from the drive unit 15 and the inertia information from the inertia measurement unit 14. Thereby, the investigation robot 1-2 as the slave unit interpolates the position specified by the mapping process of the investigation robot 1-1 as the master unit at the position specified by the inertia information, and specifies its own position in real time. Can do.

パンティルト機構132(伸縮・首振り機構)は、ステレオカメラ13をパンニングし、ティルトするものである。パンティルト機構132は、上下方向や左右方向などのように、調査ロボット1の前方以外を撮影するときに用いられる。これにより、ステレオカメラ13は、例えば高線量タンク3の外側底部のような、前方以外のステレオ画像を撮影可能である。パンティルト機構132は、例えば、オペレータが操作装置2の操作部21を操作することによって制御される。
パンティルト機構132は更に、ステレオカメラ13の前に障害物が存在しているとき、この障害物を回避した画像を撮影するために、パンやティルトを行ってもよい。
なお、図2では、子機として動作しているのは、1台の調査ロボット1−2である。しかし、これに限られず、2台以上の調査ロボット1が、子機として動作してもよい。
The pan tilt mechanism 132 (extension / retraction / swing mechanism) pans and tilts the stereo camera 13. The pan tilt mechanism 132 is used when photographing other than the front of the investigation robot 1 such as in the vertical direction and the horizontal direction. Thereby, the stereo camera 13 can photograph a stereo image other than the front, such as the outer bottom portion of the high-dose tank 3. The pan tilt mechanism 132 is controlled, for example, when the operator operates the operation unit 21 of the operation device 2.
Further, when there is an obstacle in front of the stereo camera 13, the pan tilt mechanism 132 may perform panning or tilting in order to capture an image that avoids the obstacle.
In FIG. 2, it is the single survey robot 1-2 that operates as a slave. However, the present invention is not limited to this, and two or more investigation robots 1 may operate as slave units.

図3(a)〜(d)は、第1の実施形態に於ける親機および子機による位置特定方法を示す平面図である。図3(a)〜(d)は、同一の建屋内を平面図で示している。この建屋内は、斜線で示されたパーティションで区切られ、網目で示された什器類が設置されている。
ここでは、2台の調査ロボット1−1,1−2が遠隔地に移動して計測を行う場合を示している。調査ロボット1−1,1−2は、順次親子関係を入れ替えながら相互の位置関係を把握している。
FIGS. 3A to 3D are plan views showing a position specifying method by the master unit and the slave unit in the first embodiment. 3A to 3D are plan views showing the same building. This building is divided by partitions indicated by diagonal lines, and fixtures indicated by meshes are installed.
Here, a case where two survey robots 1-1 and 1-2 move to a remote place and perform measurement is shown. The investigation robots 1-1 and 1-2 grasp the mutual positional relationship while sequentially switching the parent-child relationship.

図3(a)は、調査ロボット1−1が親機として初期位置に停止し、調査ロボット1−2が移動した場合を示している。
親機である調査ロボット1−1は、平面図左下の入口近傍の位置P0に停止している。この位置P0は、ユーザにとって既知であり、かつ、調査ロボット1−1,1−2にとっての初期位置である。ユーザは、調査ロボット1−1,1−2に、この既知の位置P0を入力して、それぞれの位置特定の動作を開始する。調査ロボット1−1は、子機である調査ロボット1−2を撮影領域131−1に捕捉して、画像処理によって調査ロボット1−2の位置を特定する。
子機である調査ロボット1−2は、最初に自身の位置情報を親機から受信し、その後に自身を移動させながら、慣性計測部14の慣性情報とエンコーダ情報で自身の位置情報を補間することにより、リアルタイムで自身の位置情報を特定する。
子機である調査ロボット1−2は、調査ロボット1−1の前方右側の位置P1に達すると、親機である調査ロボット1−1と通信して、自身の位置P1を取得する。調査ロボット1−2は、撮影領域131−2を撮影して操作装置2に送信している。
子機である調査ロボット1−2は、親機である調査ロボット1−1から所定距離だけ離れたことを検知したので、自身を親機に設定すると共に、調査ロボット1−1が子機として動作するように指示する。親機である調査ロボット1−1は、子機である調査ロボット1−2の位置を特定して、特定した位置を当該子機に送信する。これにより、子機と親機とが入れ替わって、相互の位置関係を把握できるようになる。
更に、親機である調査ロボット1−1は、子機である調査ロボット1−2が撮影領域131−1から外れそうになったときに、子機である調査ロボット1−2に親機として動作するように指示し、自身を子機に設定してもよい。
FIG. 3A shows a case where the investigation robot 1-1 stops at the initial position as a parent machine and the investigation robot 1-2 moves.
The investigation robot 1-1, which is the parent machine, is stopped at a position P0 near the entrance at the lower left of the plan view. This position P0 is known to the user and is an initial position for the survey robots 1-1 and 1-2. The user inputs the known position P0 to the investigation robots 1-1 and 1-2, and starts the operation of specifying each position. The investigation robot 1-1 captures the investigation robot 1-2, which is a slave unit, in the imaging region 131-1, and specifies the position of the investigation robot 1-2 by image processing.
The investigation robot 1-2 as a slave unit first receives its own position information from the parent unit, and then interpolates its own position information with the inertia information and encoder information of the inertia measuring unit 14 while moving itself. Thus, the position information of itself is specified in real time.
When the investigation robot 1-2 that is the slave unit reaches the position P1 on the right side in front of the investigation robot 1-1, the investigation robot 1-2 communicates with the investigation robot 1-1 that is the parent unit, and acquires its own position P1. The investigation robot 1-2 images the imaging region 131-2 and transmits it to the controller device 2.
Since the investigation robot 1-2 which is the slave unit has detected that it has been separated from the survey robot 1-1 which is the master unit by a predetermined distance, it sets itself as the master unit and the survey robot 1-1 serves as the slave unit. Instruct it to work. The investigation robot 1-1 that is the parent device identifies the position of the investigation robot 1-2 that is the child device, and transmits the identified position to the child device. As a result, the slave unit and the master unit are interchanged so that the mutual positional relationship can be grasped.
Further, when the investigation robot 1-1 as a slave unit is likely to be detached from the imaging region 131-1, the investigation robot 1-1 as the master unit is used as a master unit for the survey robot 1-2 as a slave unit. It may be instructed to operate and set itself as a slave unit.

図3(b)は、調査ロボット1−2が親機として停止し、調査ロボット1−1が所定距離だけ離れた場合を示している。
親機である調査ロボット1−2は、平面図左下の位置P1に停止している。調査ロボット1−2は、子機である調査ロボット1−1を撮影領域131−2に捕捉して、画像処理によって調査ロボット1−2の位置を特定する。
子機である調査ロボット1−1は、調査ロボット1−2の前方に、図の右側を向いて位置P2停止し、撮影領域131−2を撮影して操作装置2に送信している。子機である調査ロボット1−1は、親機である調査ロボット1−2から所定距離だけ離れたことを検知したので、自身を親機に設定すると共に、調査ロボット1−2が子機として動作するように指示する。親機である調査ロボット1−2は、子機である調査ロボット1−1の位置を特定して、特定した位置を当該子機に送信する。これにより、子機と親機とが入れ替わって、相互の位置関係を把握できるようになる。
FIG. 3B shows a case where the investigation robot 1-2 stops as a parent machine and the investigation robot 1-1 is separated by a predetermined distance.
The investigation robot 1-2 which is the parent machine is stopped at a position P1 at the lower left of the plan view. The investigation robot 1-2 captures the investigation robot 1-1 as a slave unit in the imaging region 131-2 and specifies the position of the investigation robot 1-2 by image processing.
The investigation robot 1-1 as a slave unit stops at the position P2 in front of the investigation robot 1-2 and faces the right side of the drawing, and photographs the imaging region 131-2 and transmits it to the controller device 2. Since the investigation robot 1-1 which is the slave unit has detected that it has been separated from the investigation robot 1-2 which is the master unit by a predetermined distance, it sets itself as the master unit and the survey robot 1-2 serves as the slave unit. Instruct it to work. The investigation robot 1-2 that is the parent device identifies the position of the investigation robot 1-1 that is the child device, and transmits the identified position to the child device. As a result, the slave unit and the master unit are interchanged so that the mutual positional relationship can be grasped.

図3(c)は、調査ロボット1−1が親機として停止し、調査ロボット1−2が所定距離だけ離れた場合を示している。
親機である調査ロボット1−1は、図の右側を向いて位置P2停止し、撮影領域131−1を撮影して操作装置2に送信している。
子機である調査ロボット1−2は、調査ロボット1−1の前方に、図の下側を向いて位置P3に停止し、撮影領域131−2を撮影して操作装置2に送信している。子機である調査ロボット1−2は、親機である調査ロボット1−1から所定距離だけ離れたことを検知したので、自身を親機に設定すると共に、調査ロボット1−1が子機として動作するように指示する。親機である調査ロボット1−1は、子機である調査ロボット1−2の位置を特定し、特定した位置を当該子機に送信する。これにより、子機と親機とが入れ替わって、相互の位置関係を把握できるようになる。
FIG. 3C shows a case where the investigation robot 1-1 stops as a parent machine and the investigation robot 1-2 is separated by a predetermined distance.
The investigation robot 1-1, which is the parent machine, turns to the right side of the figure and stops at the position P2, images the imaging region 131-1, and transmits it to the controller device 2.
The investigation robot 1-2, which is a slave unit, faces the lower side of the figure in front of the investigation robot 1-1, stops at the position P3, images the imaging region 131-2, and transmits it to the controller device 2. . Since the investigation robot 1-2 which is the slave unit has detected that it has been separated from the survey robot 1-1 which is the master unit by a predetermined distance, it sets itself as the master unit and the survey robot 1-1 serves as the slave unit. Instruct it to work. The investigation robot 1-1 that is the parent device identifies the position of the investigation robot 1-2 that is the child device, and transmits the identified position to the child device. As a result, the slave unit and the master unit are interchanged so that the mutual positional relationship can be grasped.

図3(d)は、調査ロボット1−2が再び親機として停止し、調査ロボット1−1が所定距離だけ離れた場合を示している。
親機である調査ロボット1−2は、図の下側を向いて位置P3に停止し、撮影領域131−1を撮影して操作装置2に送信している。
子機である調査ロボット1−2は、調査ロボット1−2の前方に、図の左側を向いて位置P4に停止し、撮影領域131−2を撮影して操作装置2に送信している。子機である調査ロボット1−2は、親機である調査ロボット1−1から所定距離だけ離れたことを検知したので、自身を親機に設定すると共に、調査ロボット1−1が子機として動作するように指示する。親機である調査ロボット1−2は、子機である調査ロボット1−1の位置を特定し、特定した位置を当該子機に送信する。これにより、子機と親機とが入れ替わって、相互の位置関係を把握できるようになる。
このように、2台の調査ロボット1−1,1−2は、親機と子機とを交互に切替えて動作することにより、GPS衛星の信号が到達しない場所であっても、相互の位置関係を把握して、自機の位置を特定することができる。
FIG. 3D shows a case where the investigation robot 1-2 stops again as a parent machine and the investigation robot 1-1 is separated by a predetermined distance.
The investigation robot 1-2, which is the parent device, faces downward in the figure and stops at the position P3. The photographing region 131-1 is photographed and transmitted to the controller device 2.
The investigation robot 1-2 that is a slave unit faces the left side of the drawing in front of the investigation robot 1-2, stops at the position P4, images the imaging region 131-2, and transmits it to the controller device 2. Since the investigation robot 1-2 which is the slave unit has detected that it has been separated from the survey robot 1-1 which is the master unit by a predetermined distance, it sets itself as the master unit and the survey robot 1-1 serves as the slave unit. Instruct it to work. The investigation robot 1-2 that is a parent device identifies the position of the investigation robot 1-1 that is a child device, and transmits the identified position to the child device. As a result, the slave unit and the master unit are interchanged so that the mutual positional relationship can be grasped.
In this way, the two investigation robots 1-1 and 1-2 operate by alternately switching between the parent device and the child device, so that even if the GPS satellite signal does not reach the mutual position, By grasping the relationship, the position of the aircraft can be identified.

図4は、第1の実施形態に於ける調査ロボット1のマッピング処理を示すフローチャートである。
調査ロボット1−1,1−2は、例えば、操作装置2から保全管理の実行が指示された際に、図4のマッピング処理を開始する。
ステップS10に於いて、調査ロボット1の親機決定部16は、他の調査ロボット1との間で、いずれが親機となるかを決定する。ここで、最初の親機の決定は、例えば、現在の調査ロボット1−1,1−2の各位置を判断することにより行われる。しかし、これに限られず、電源投入順番、乱数、自身の絶対位置を検出したか否かなどによって、最初の親機を決定してもよい。
ステップS11に於いて、調査ロボット1の親機決定部16は、自身は親機であるか否かを判断する。親機決定部16は、当該判断条件が成立したならば(Yes)、ステップS12の処理を行い、当該判断条件が成立しなかったならば(No)、ステップS30の処理を行う。
FIG. 4 is a flowchart showing the mapping process of the investigation robot 1 in the first embodiment.
The investigation robots 1-1 and 1-2, for example, start the mapping process of FIG.
In step S <b> 10, the parent device determination unit 16 of the investigation robot 1 determines which one of the investigation robots 1 is to be the parent device. Here, the determination of the first parent device is performed by, for example, determining each position of the current investigation robots 1-1 and 1-2. However, the present invention is not limited to this, and the first parent device may be determined based on the power-on sequence, random numbers, whether or not its absolute position is detected, and the like.
In step S11, the base unit determination unit 16 of the investigation robot 1 determines whether or not the base unit determination unit 16 itself is a base unit. If the determination condition is satisfied (Yes), base unit determination unit 16 performs the process of step S12, and if the determination condition is not satisfied (No), performs the process of step S30.

以下のステップS12,S13の処理は、親機としての初期処理を示している。
ステップS12に於いて、調査ロボット1のマップ処理部11は、自機が特定している各ロボットの位置情報を、他の調査ロボット1に送信する。
ステップS13に於いて、調査ロボット1のマップ処理部11は、自機の駆動部15を停止することにより、その場に停止する。
以下のステップS14〜S23の処理は、親機としての定常的な処理を示している。
ステップS14に於いて、調査ロボット1のマップ処理部11は、子機である他の調査ロボット1から、慣性による位置情報を受信する。
ステップS15に於いて、調査ロボット1のマップ処理部11は、ステレオカメラ13によって撮影したステレオ画像を、外部である操作装置2に送信する。操作装置2は、このステレオ画像を、マップ表示部24に表示する。
ステップS16に於いて、調査ロボット1のマップ処理部11は、ステレオ画像を三次元処理して、各被写体の位置を特定する。
ステップS17に於いて、調査ロボット1のマップ処理部11は、三次元処理したステレオ画像に基づいて、子機である他の調査ロボット1を画像認識して、その位置を特定する。
The following steps S12 and S13 indicate initial processing as a master unit.
In step S <b> 12, the map processing unit 11 of the investigation robot 1 transmits the position information of each robot specified by the own machine to the other investigation robots 1.
In step S13, the map processing unit 11 of the investigation robot 1 stops on the spot by stopping the driving unit 15 of the own machine.
The following processes in steps S14 to S23 indicate a steady process as the master unit.
In step S14, the map processing unit 11 of the survey robot 1 receives position information based on inertia from another survey robot 1 that is a slave unit.
In step S15, the map processing unit 11 of the research robot 1 transmits a stereo image captured by the stereo camera 13 to the operation device 2 that is external. The controller device 2 displays this stereo image on the map display unit 24.
In step S16, the map processing unit 11 of the investigation robot 1 performs a three-dimensional process on the stereo image to identify the position of each subject.
In step S <b> 17, the map processing unit 11 of the survey robot 1 recognizes an image of another survey robot 1 that is a slave unit based on the three-dimensionally processed stereo image, and specifies its position.

ステップS18に於いて、調査ロボット1のマップ処理部11は、子機の故障診断を行う。マップ処理部11は、画像によって特定した子機位置と、慣性によって特定した子機位置とが所定値以上に乖離していたならば、子機である他の調査ロボット1が故障していると判断し、操作装置2に警告情報を送信する。操作装置2は、警告を表示するか、または警告音を出力する。
ステップS19に於いて、調査ロボット1のマップ処理部11は、三次元処理したステレオ画像に基づいて、作業場所のマップを作成する。マップ処理部11は、作成したマップ情報を、記憶部12のマップ121に格納する。
ステップS20に於いて、調査ロボット1の親機決定部16は、外部から子機への切替指示を受信したか否かを判断する。親機決定部16は、当該判断条件が成立したならば(Yes)、ステップS21の処理を行い、当該判断条件が成立しなかったならば(No)、ステップS14の処理に戻る。
ステップS21に於いて、調査ロボット1のマップ処理部11は、ステレオ画像を三次元処理して、各被写体の位置を特定する。
ステップS22に於いて、調査ロボット1のマップ処理部11は、三次元処理したステレオ画像に基づいて、子機である他の調査ロボット1を画像認識して、その位置を特定する。
ステップS23に於いて、調査ロボット1の親機決定部16は、記憶部12の作業場所のマップ121と、特定した各子機の位置とを、子機である他の調査ロボット1に送信する。ステップS23の処理が終了すると、子機としての定常的な処理であるステップS31以降の処理を行う。このように、親機は、子機としての動作に切替わる直前に、子機の位置を特定して、特定した位置を当該子機に送信している。
In step S18, the map processing unit 11 of the investigation robot 1 performs failure diagnosis of the slave unit. If the slave unit position specified by the image and the slave unit position specified by the inertia deviate by a predetermined value or more, the map processing unit 11 indicates that another investigation robot 1 that is a slave unit has failed. Judgment is made and warning information is transmitted to the controller device 2. The controller device 2 displays a warning or outputs a warning sound.
In step S19, the map processing unit 11 of the research robot 1 creates a work place map based on the three-dimensionally processed stereo image. The map processing unit 11 stores the created map information in the map 121 of the storage unit 12.
In step S20, the parent device determination unit 16 of the investigation robot 1 determines whether or not an instruction to switch from the outside to the child device has been received. If the determination condition is satisfied (Yes), base unit determination unit 16 performs the process of step S21, and if the determination condition is not satisfied (No), returns to the process of step S14.
In step S21, the map processing unit 11 of the research robot 1 performs a three-dimensional process on the stereo image to identify the position of each subject.
In step S22, the map processing unit 11 of the research robot 1 recognizes an image of the other research robot 1 that is a slave unit based on the three-dimensionally processed stereo image, and specifies its position.
In step S23, the base unit determination unit 16 of the survey robot 1 transmits the work place map 121 of the storage unit 12 and the position of each identified slave unit to the other survey robots 1 that are slave units. . When the process of step S23 is completed, the process after step S31, which is a steady process as a slave unit, is performed. Thus, the master unit specifies the position of the slave unit and transmits the specified position to the slave unit immediately before switching to the operation as the slave unit.

ステップS30に於いて、調査ロボット1のマップ処理部11は、親機である他の調査ロボット1から、各ロボットの位置情報を受信する。これは、子機としての初期処理である。
以下のステップS31〜S39の処理は、子機としての定常的な処理を示している。
ステップS31に於いて、調査ロボット1のマップ処理部11は、自機を駆動部15によって駆動させる。ここでマップ処理部11は、自律制御によって自身を移動させる。
ステップS32に於いて、調査ロボット1のマップ処理部11は、ステレオカメラ13によって撮影したステレオ画像を、外部である操作装置2に送信する。操作装置2は、このステレオ画像を、マップ表示部24に表示する。
ステップS33に於いて、調査ロボット1のマップ処理部11は、慣性計測部14が測定した慣性情報、および、駆動部15の図示しないエンコーダから取得した移動距離によって、自機の位置を特定する。ステレオ画像による位置計測は、処理時間が比較的長い。それに対して、慣性情報とエンコーダ情報に基づく位置計測は、処理時間が短く、ほぼリアルタイムで計測できる。そのため、ステレオ画像で計測した位置を、慣性情報とエンコーダ情報で計測した位置で補間することにより、正確な位置情報をリアルタイムで取得することができる。
In step S30, the map processing unit 11 of the investigation robot 1 receives the position information of each robot from the other investigation robot 1 that is the parent device. This is an initial process as a slave unit.
The processes in steps S31 to S39 below indicate a steady process as a slave unit.
In step S <b> 31, the map processing unit 11 of the investigation robot 1 drives the own machine by the driving unit 15. Here, the map processing unit 11 moves itself by autonomous control.
In step S <b> 32, the map processing unit 11 of the investigation robot 1 transmits a stereo image captured by the stereo camera 13 to the external operation device 2. The controller device 2 displays this stereo image on the map display unit 24.
In step S <b> 33, the map processing unit 11 of the investigation robot 1 specifies the position of the own device based on the inertia information measured by the inertia measuring unit 14 and the movement distance acquired from the encoder (not shown) of the driving unit 15. The position measurement using a stereo image takes a relatively long processing time. On the other hand, position measurement based on inertia information and encoder information has a short processing time and can be measured almost in real time. Therefore, accurate position information can be acquired in real time by interpolating the position measured by the stereo image with the position measured by the inertia information and the encoder information.

ステップS34に於いて、調査ロボット1のマップ処理部11は、慣性情報などで特定した自機の位置情報を、親機である他の調査ロボット1に送信する。
ステップS35に於いて、子機である調査ロボット1のマップ処理部11は、親機からの距離を算出する。親機からの距離は、ステップS30で受信した自機の位置情報を、慣性情報などで補間して現在の自機の位置情報を算出し、親機の位置情報と比較して算出する。
ステップS36に於いて、調査ロボット1の親機決定部16は、親機が撮影画像によって自身の位置を特定可能か否かを判断する。具体的にいうと、親機決定部16は、親機からの距離が閾値を超えているか否かと、自身が親機の備えるステレオカメラ13の撮影領域から外れそうになっているか否かを判断する。この閾値は、例えば、画像処理による位置特定精度が充分に高い距離の上限値である。親機決定部16は、当該判断条件が成立したならば(Yes)、ステップS37の処理を行い、当該判断条件が成立しなかったならば(No)、ステップS31の処理に戻る。
ステップS37に於いて、調査ロボット1の親機決定部16は、自機の駆動部15を停止することにより、その場に停止する。
ステップS38に於いて、調査ロボット1の親機決定部16は、親機である他の調査ロボット1に、子機への切替指示(命令)を送信する。このように、子機は、自機を停止したのちに、子機への切替指示を親機に送信して、親機に子機の位置を特定させているので、画像処理による子機の位置特定精度を向上させることができる。
ステップS39に於いて、調査ロボット1の親機決定部16は、親機から、作業場所のマップ121と、各子機の位置とを受信する。ステップS39の処理が終了すると、親機としての定常的な処理であるステップS14以降の処理を行う。以降、親機と子機との間で、これらの処理を順次繰り返す。
In step S34, the map processing unit 11 of the investigation robot 1 transmits the position information of the own machine specified by the inertia information or the like to the other investigation robot 1 that is the parent machine.
In step S <b> 35, the map processing unit 11 of the investigation robot 1 that is a child device calculates a distance from the parent device. The distance from the parent device is calculated by interpolating the position information of the own device received in step S30 with inertia information or the like to calculate the current position information of the own device and comparing it with the position information of the parent device.
In step S36, the base unit determination unit 16 of the investigation robot 1 determines whether or not the base unit can identify its own position based on the captured image. More specifically, the base unit determination unit 16 determines whether or not the distance from the base unit exceeds a threshold value and whether or not the base unit itself is likely to be out of the shooting area of the stereo camera 13 included in the base unit. To do. This threshold is, for example, an upper limit value of a distance with sufficiently high position specifying accuracy by image processing. If the determination condition is satisfied (Yes), base unit determination unit 16 performs the process of step S37, and if the determination condition is not satisfied (No), returns to the process of step S31.
In step S37, the base unit determination unit 16 of the investigation robot 1 stops on the spot by stopping the drive unit 15 of its own unit.
In step S38, the parent device determination unit 16 of the investigation robot 1 transmits a switching instruction (command) to the child device to the other investigation robot 1 that is the parent device. As described above, since the slave unit stops its own unit and transmits a switching instruction to the slave unit to the master unit, the master unit identifies the position of the slave unit. Positioning accuracy can be improved.
In step S39, the parent device determination unit 16 of the investigation robot 1 receives the work place map 121 and the position of each child device from the parent device. When the process of step S39 is completed, the process after step S14, which is a steady process as a base unit, is performed. Thereafter, these processes are sequentially repeated between the parent device and the child device.

(第1の実施形態の効果)
以上説明した第1の実施形態では、次の(A)〜(F)のような効果がある。
(Effects of the first embodiment)
The first embodiment described above has the following effects (A) to (F).

(A) 調査ロボット1は、親機と子機との組合せで動作する。子機である調査ロボット1は、親機から所定距離(閾値)だけ離れたときに自身を停止して、親機と子機とを入れ替えている。この閾値は、例えば、画像処理による位置特定精度が充分に高い距離の上限値である。これにより、親機である調査ロボット1は、子機の位置を撮影画像によって精度よく特定できるので、屋内の環境などでGPS衛星からの信号が受信できない場合や、GPS受信装置を備えていない場合や、多数の障害物のために慣性情報やエンコーダ情報によって正しく位置を特定できない場合であっても、自身の調査ロボット1の位置を正確に特定することができる。 (A) The investigation robot 1 operates in a combination of a parent machine and a child machine. The investigation robot 1, which is a child device, stops itself when it is separated from the parent device by a predetermined distance (threshold), and replaces the parent device and the child device. This threshold is, for example, an upper limit value of a distance with sufficiently high position specifying accuracy by image processing. As a result, the investigation robot 1 that is the parent device can accurately identify the position of the child device from the captured image, and therefore, when the signal from the GPS satellite cannot be received in an indoor environment or the like, or when the GPS receiver is not provided. Even if the position cannot be correctly specified by inertia information or encoder information due to a large number of obstacles, the position of the own investigation robot 1 can be accurately specified.

(B) 調査ロボット1−1,1−2は、子機と親機との役割を交互に変えて、相互に子機と親機の位置情報を送受信して共有している。これにより、画像処理による位置特定精度が充分に高い範囲に制限されることなく、調査ロボット1−1,1−2は、作業場所の奥まで移動することができる。 (B) The investigation robots 1-1 and 1-2 alternately change the roles of the slave unit and the master unit, and mutually transmit and receive the location information of the slave unit and the master unit. Thereby, the investigation robots 1-1 and 1-2 can move to the back of the work place without being limited to a range in which the position specifying accuracy by image processing is sufficiently high.

(C) 調査ロボット1−1,1−2は、それぞれステレオカメラ13を備え、撮影したステレオ画像に基づいてマップ121を作成している。これにより、建屋内の状況が不明な場合であっても、調査ロボット1による調査や作業などを行うことができる。 (C) Each of the survey robots 1-1 and 1-2 includes a stereo camera 13 and creates a map 121 based on the captured stereo image. Thereby, even if the state of the building is unknown, the investigation or work by the investigation robot 1 can be performed.

(D) 親機である調査ロボット1は、子機である他の調査ロボット1を常に撮影して、操作装置2のマップ表示部24に表示している。これにより、ユーザは、操作装置2に表示された撮影画像によって、子機である調査ロボット1を鳥瞰して、その動作状況を把握することができる。 (D) The investigation robot 1 that is a parent device always photographs other investigation robots 1 that are child devices and displays them on the map display unit 24 of the operation device 2. Thereby, the user can grasp the operation status by bird's-eye view of the investigation robot 1 which is the slave unit by using the captured image displayed on the operation device 2.

(E) 自機位置特定部114は、ステレオ画像で計測した位置を、慣性情報とエンコーダ情報で計測した位置で補間している。これにより、子機の位置情報をリアルタイムで取得することができる。なお、瓦礫が床に落ちている場所などでは、エンコーダによる位置情報は不正確となる。しかし、画像で計測した位置は、瓦礫などによる影響を受けることがない。 (E) The own device position specifying unit 114 interpolates the position measured by the stereo image at the position measured by the inertia information and the encoder information. Thereby, the position information of the slave unit can be acquired in real time. In addition, the position information by an encoder becomes inaccurate in the place where the debris has fallen on the floor. However, the position measured by the image is not affected by rubble or the like.

(F) 親機のマップ処理部11は、自機のステレオ画像で計測した位置を、子機の慣性情報とエンコーダ情報で計測した位置とを比較して、これらの位置が乖離していたときには、子機が故障していると判断して、ユーザに警告している。これにより、床が平坦な場所に於いて、ユーザは、子機(調査ロボット1)の故障をいち早く検知することができる。 (F) When the map processing unit 11 of the master unit compares the position measured with the stereo image of the master unit with the inertia information of the slave unit and the position measured with the encoder information, The user is warned that it is determined that the slave unit is out of order. Thereby, in a place where the floor is flat, the user can quickly detect a failure of the slave (investigation robot 1).

(第2の実施形態)
図5(a),(b)は、第2の実施形態に於ける調査ロボット1のマニュアル操作処理を示すフローチャートである。図4に示す第1の実施形態のフローチャートと同一の要素には同一の符号を付与している。
図5(a)は、調査ロボット1が親機として動作するように指示されたときのフローチャートである。
処理が開始したのち、ステップS12〜S16の処理は、図4に示す第1の実施形態の処理と同様である。調査ロボット1は、ステップS16の処理が終了すると、ステップS16Aの処理を行う。
ステップS16Aに於いて、調査ロボット1のマップ処理部11は、子機である他の調査ロボット1がステレオ画像に認識されたか否かを判断する。マップ処理部11は、当該判断条件が成立したならば(Yes)、ステップS17の処理を行い、当該判断条件が成立しなかったならば(No)、ステップS17Aの処理を行う。
ステップS17Aに於いて、調査ロボット1のマップ処理部11は、ユーザに警告する。具体的にいうと、マップ処理部11は、ユーザに警告する旨の指令(命令)を、操作装置2に送信する。操作装置2は、通信部23を介してこの指令を受信し、マップ表示部24に警告を表示するか、または、図示しないスピーカを介して警告音を出力する。
ステップS17〜S20の処理は、図4に示す第1の実施形態の処理と同様である。ステップS20の判断条件が成立したならば(Yes)、図5(a)の処理を終了する。
(Second Embodiment)
FIGS. 5A and 5B are flowcharts showing the manual operation processing of the investigation robot 1 in the second embodiment. The same elements as those in the flowchart of the first embodiment shown in FIG.
FIG. 5A is a flowchart when the investigation robot 1 is instructed to operate as a parent device.
After the processing starts, the processing in steps S12 to S16 is the same as the processing in the first embodiment shown in FIG. When the process of step S16 ends, the investigation robot 1 performs the process of step S16A.
In step S <b> 16 </ b> A, the map processing unit 11 of the investigation robot 1 determines whether or not another investigation robot 1 that is a child device has been recognized as a stereo image. The map processing unit 11 performs the process of step S17 if the determination condition is satisfied (Yes), and performs the process of step S17A if the determination condition is not satisfied (No).
In step S17A, the map processing unit 11 of the research robot 1 warns the user. Specifically, the map processing unit 11 transmits a command (command) to warn the user to the controller device 2. The controller device 2 receives this command via the communication unit 23 and displays a warning on the map display unit 24 or outputs a warning sound via a speaker (not shown).
The processing in steps S17 to S20 is the same as the processing in the first embodiment shown in FIG. If the determination condition of step S20 is satisfied (Yes), the process of FIG.

図5(b)は、調査ロボット1が子機として動作するように指示されたときのフローチャートである。
処理が開始したのち、ステップS30の処理は、図4に示す第1の実施形態の処理と同様である。
ステップS30Aに於いて、調査ロボット1の親機決定部16は、通信部17によって、操作装置2から操作情報を受信する。調査ロボット1は、自律制御を停止し、この操作情報によって動作する。
ステップS31〜S34の処理は、図4に示す第1の実施形態の処理と同様である。
ステップS34Aに於いて、調査ロボット1の親機決定部16は、通信部17によって、操作装置2から親機としての動作指示(命令)を受信したか否かを判断する。親機決定部16は、当該判断条件が成立しなかったならば(No)、ステップS30Aの処理に戻り、当該判断条件が成立したならば(Yes)、図5(b)の処理を終了する。
FIG. 5B is a flowchart when the survey robot 1 is instructed to operate as a slave unit.
After the process starts, the process of step S30 is the same as the process of the first embodiment shown in FIG.
In step S <b> 30 </ b> A, the parent device determination unit 16 of the investigation robot 1 receives operation information from the operation device 2 through the communication unit 17. The investigation robot 1 stops autonomous control and operates according to this operation information.
The processing in steps S31 to S34 is the same as the processing in the first embodiment shown in FIG.
In step S <b> 34 </ b> A, the base unit determination unit 16 of the investigation robot 1 determines whether the communication unit 17 has received an operation instruction (command) as a base unit from the controller device 2. If the determination condition is not satisfied (No), base unit determination unit 16 returns to the process of step S30A, and if the determination condition is satisfied (Yes), ends the process of FIG. .

(第2の実施形態の効果)
以上説明した第2の実施形態では、次の(G),(H)のような効果がある。
(Effect of 2nd Embodiment)
The second embodiment described above has the following effects (G) and (H).

(G) 親機である調査ロボット1は、子機である他の調査ロボット1を常に撮影して、操作装置2のマップ表示部24に表示している。これにより、ユーザは、操作装置2に表示された撮影画像によって、子機である調査ロボット1を鳥瞰して操縦できる。 (G) The investigation robot 1 that is a parent device always photographs other investigation robots 1 that are child devices and displays them on the map display unit 24 of the operation device 2. As a result, the user can steer the research robot 1 as a slave device from a bird's-eye view using the captured image displayed on the operation device 2.

(H) 調査ロボット1は、撮影した画像に子機である他の調査ロボット1が認識されなくなったならば、ユーザに警告している。これにより、ユーザは、マニュアル操作により、誤って親機の撮影境域から子機が逸脱した場合を検知し、子機を親機の撮影領域に戻すことができる。 (H) The investigation robot 1 warns the user if another investigation robot 1 that is a slave unit is no longer recognized in the captured image. Accordingly, the user can detect a case where the slave unit has deviated from the photographing region of the parent device by manual operation and return the child device to the photographing region of the parent device.

(第3の実施形態)
図6は、第3の実施形態に於ける調査ロボット1の作業助勢機構を示す図である。
調査ロボット1−1,1−2は、それぞれクレーン部18(作業助勢機構)を備えている。図6に於いて、調査ロボット1−1は、クレーン部18によって調査ロボット1−2を吊り上げている。これにより、調査ロボット1−1は、各ロボット単体では越えることができない障害物を越えられるので、活動範囲を拡大することができる。
更に調査ロボット1−1は、親機として動作し、クレーン部18によって調査ロボット1−2を吊り上げて移動させたのち、その位置を特定して調査ロボット1−2に送信する。このように、子機を吊り上げて移動させ、子機のエンコーダ情報が正しく取得できない状況であっても、親機が撮影した画像によって子機の位置を特定して、特定した位置を当該子機に送信可能である。
(Third embodiment)
FIG. 6 is a diagram showing a work assisting mechanism of the investigation robot 1 in the third embodiment.
Each of the investigation robots 1-1 and 1-2 includes a crane unit 18 (work assisting mechanism). In FIG. 6, the investigation robot 1-1 lifts the investigation robot 1-2 by the crane unit 18. Thereby, since the investigation robot 1-1 can overcome the obstacle that cannot be exceeded by each robot alone, the range of activity can be expanded.
Further, the investigation robot 1-1 operates as a master unit, lifts and moves the investigation robot 1-2 by the crane unit 18, specifies its position, and transmits it to the investigation robot 1-2. As described above, even when the slave unit is lifted and moved so that the encoder information of the slave unit cannot be acquired correctly, the location of the slave unit is specified by the image taken by the master unit, and the specified position is determined as the slave unit. Can be sent to.

(第3の実施形態の効果)
以上説明した第3の実施形態では、次の(I),(J)のような効果がある。
(Effect of the third embodiment)
The third embodiment described above has the following effects (I) and (J).

(I) クレーン部18(作業助勢機構)を備えた2台以上のロボットが協調することにより、1台の単独動作では超えることが困難な障害物であっても、その障害物を超えることができる。 (I) When two or more robots equipped with the crane unit 18 (work assist mechanism) cooperate, even an obstacle that is difficult to exceed by a single operation may exceed the obstacle. it can.

(J) 親機がクレーン部18(作業助勢機構)で障害物を越えるときには、越えたあとの子機の位置を画像によって特定し、この位置情報を子機に送信している。これにより、子機である調査ロボット1は、エンコーダ情報が正しく取得できない場合であっても、障害物を超えたあとの位置を正しく把握できる。 (J) When the parent machine crosses an obstacle at the crane unit 18 (work assist mechanism), the position of the child machine after the obstacle is specified by an image, and this position information is transmitted to the child machine. Thereby, even if it is a case where the encoder information cannot be acquired correctly, the investigation robot 1 which is a child device can correctly grasp the position after the obstacle is exceeded.

(変形例)
本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば上記した実施形態は、本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることも可能である。
上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路などのハードウェアで実現してもよい。上記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈して実行することにより、ソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリ、ハードディスク、SSD(Solid State Drive)などの記録装置、または、フラッシュメモリカード、DVD(Digital Versatile Disk)などの記録媒体に置くことができる。
各実施形態に於いて、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には、殆ど全ての構成が相互に接続されていると考えてもよい。
本発明の変形例として、例えば、次の(a)〜(h)のようなものがある。
(Modification)
The present invention is not limited to the embodiments described above, and includes various modifications. For example, the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to the one having all the configurations described. A part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Moreover, it is also possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
A part or all of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware such as an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by a processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files for realizing each function may be stored in a recording device such as a memory, a hard disk, or an SSD (Solid State Drive), or a recording medium such as a flash memory card or a DVD (Digital Versatile Disk). it can.
In each embodiment, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
Examples of modifications of the present invention include the following (a) to (h).

(a) 本発明のロボットは、プラント、発電所、工場のタンク・塔槽などの設備の調査を行うものに限られず、設備の保全修理などを行うものや、原子力プラントや化学プラントなどの除染を行うもの、プラントや発電所や工場の清掃を行うもの、商業施設の災害時に適用するものなどであってもよく、ロボットの目的や用途によっては限定されない。 (A) The robot according to the present invention is not limited to those that investigate equipment such as plants, power plants, and factory tanks / towers. It may be one that performs dyeing, one that cleans a plant, power plant or factory, one that is applied in the event of a disaster in a commercial facility, and is not limited by the purpose or use of the robot.

(b) 調査ロボット1−1,1−2および操作装置2の間は、ネットワークケーブル(有線ケーブル)で接続されている。しかし、これに限られず、調査ロボット1−1,1−2および操作装置2は、無線電波によって相互に情報を送受信するように構成してもよい。更に、調査ロボット1−1,1−2のうち一方が、操作装置2との間で電波を介して情報を送受信できなくなったときに、他方のロボットが操作装置2からの電波を中継して、一方のロボットとの間で情報を送受信するように構成してもよい。 (B) The survey robots 1-1 and 1-2 and the controller device 2 are connected by a network cable (wired cable). However, the present invention is not limited to this, and the survey robots 1-1 and 1-2 and the controller device 2 may be configured to transmit and receive information to and from each other by radio waves. Further, when one of the investigation robots 1-1 and 1-2 cannot transmit / receive information to / from the controller device 2 via radio waves, the other robot relays the radio waves from the controller device 2 Alternatively, information may be transmitted / received to / from one robot.

(c) 第1の実施形態では、親機である調査ロボット1が、子機である他の調査ロボット1の故障を判断している。しかし、これに限られず、子機である調査ロボット1が、親機である調査ロボット1から、画像による自機の位置情報を取得し、慣性情報による自機の位置情報と比較して、自身の故障を判断してもよい。 (C) In 1st Embodiment, the investigation robot 1 which is a main | base station determines the failure of the other investigation robot 1 which is a subunit | mobile_unit. However, the present invention is not limited to this, and the investigation robot 1 that is a child device acquires the position information of the own device based on the image from the investigation robot 1 that is the parent device, and compares it with the position information of the own device based on the inertia information. It may be determined that there is a failure.

(d) 親機のマップ処理部11は、自身が撮影したステレオ画像および慣性計測部14による自身の撮影姿勢情報、子機のステレオ画像および慣性計測部14による子機の撮影姿勢情報に基づいて、両ステレオ画像を三次元的に統合して、マップ121を作成してもよい。これにより、親機自身が撮影したステレオ画像のみで三次元処理するよりも、広い範囲のマップ121を高精度に作成できる。 (D) The map processing unit 11 of the master unit is based on the stereo image captured by itself and the shooting orientation information of the slave unit by the inertial measurement unit 14, the stereo image of the slave unit, and the shooting orientation information of the slave unit by the inertial measurement unit 14. The map 121 may be created by three-dimensionally integrating both stereo images. As a result, it is possible to create a map 121 in a wider range with higher accuracy than when three-dimensional processing is performed only with a stereo image captured by the parent device itself.

(e) 親機と子機との入れ替え回数が所定値を超えたならば、親機または子機は、建屋内に設けられた定点を撮影して位置情報を校正するようにしてもよい。これにより、親機と子機との入れ替えに伴う位置情報の累積誤差をキャンセルし、正しい位置情報を得ることができる。 (E) If the number of replacements between the parent device and the child device exceeds a predetermined value, the parent device or the child device may calibrate the position information by photographing a fixed point provided in the building. Accordingly, it is possible to cancel the accumulated error of the position information accompanying the replacement of the parent device and the child device, and obtain correct position information.

(f) 各調査ロボット1は、外部筐体などの視認可能な場所に、マーカを貼り付け、このマーカを認識することで子機を認識するように構成してもよい。これにより、調査ロボット1に放射能の付着を防止するフィルムなどを装着した場合でも、そのマーカ部分が露呈しているならば、問題なく調査ロボット1を画像認識可能である。また、このマーカを、例えばバーコードやQRコード(登録商標)などに代表されるコードとして、各調査ロボット1の識別情報を当該コードに含ませるようにしてもよい。これにより、子機が2台以上である場合であっても、画像によって各子機を識別することができる。 (F) Each investigation robot 1 may be configured to recognize a slave by attaching a marker to a visually recognizable location such as an external housing and recognizing the marker. As a result, even when a film or the like for preventing the adhesion of radioactivity is attached to the investigation robot 1, if the marker portion is exposed, the investigation robot 1 can be recognized without any problem. Further, the marker may be used as a code represented by, for example, a barcode or a QR code (registered trademark), and the identification information of each investigation robot 1 may be included in the code. Thereby, even if there are two or more child devices, each child device can be identified by the image.

(g) 子機である調査ロボット1は、親機から所定距離だけ離れたか、または、自身が親機のステレオカメラ13で撮影ができなくなる位置に到達すると見込んだならば、自身を親機に切り替えると共に、親機を子機に切り替えて動作させている。しかし、これに限られず、親機である調査ロボット1は、自身のステレオカメラ13の撮影領域から子機が外れた場合や、子機が所定距離だけ離れた場合を検知したならば、当該子機を親機に切り替えて動作させると共に、自身を子機に切り替えてもよい。 (G) If the investigation robot 1 that is a slave unit is a predetermined distance away from the master unit or if it is predicted that it will reach a position where it cannot be photographed by the stereo camera 13 of the master unit, the survey robot 1 In addition to switching, the master unit is switched to the slave unit. However, the present invention is not limited to this, and the investigation robot 1 that is the parent device detects that the child device has moved out of the shooting area of its own stereo camera 13 or has detected that the child device has been separated by a predetermined distance. While switching the machine to the parent machine, the machine may be switched to the child machine.

(h) 調査ロボットの形態はラジコンヘリ等の飛行物体でもよい。通常調査用にラジコンへリを飛行させた場合、撮影時の正確な位置や高度等の情報を把握することは困難だが、親子機能を搭載することで、これらの情報の正確な把握が可能となる。 (H) The form of the investigation robot may be a flying object such as a radio controlled helicopter. It is difficult to grasp information such as the exact position and altitude at the time of shooting when flying a radio control for a normal survey, but it is possible to accurately grasp this information by installing a parent-child function. Become.

1,1−1,1−2 調査ロボット (親子機能搭載ロボット)
11 マップ処理部
111 三次元処理部
112 子機位置特定部
113 マップ作成部
114 自機位置特定部
12 記憶部
121 マップ
122 経路
13 ステレオカメラ (撮影部)
131−1,131−2 撮影領域
132 パンティルト機構 (伸縮・首振り機構)
14 慣性計測部
15 駆動部
16 親機決定部
17 通信部
18 クレーン部 (作業助勢機構)
2 操作装置
21 操作部
22 駆動指令部
23 通信部
24 マップ表示部
3 高線量タンク
1,1-1,1-2 Investigation robot (Robot with parent-child function)
11 Map processing unit 111 Three-dimensional processing unit 112 Slave unit specifying unit 113 Map creating unit 114 Host unit specifying unit 12 Storage unit 121 Map 122 Route 13 Stereo camera (shooting unit)
131-1, 131-2 Shooting Area 132 Pan Tilt Mechanism (Extension / Shrink Mechanism)
14 Inertial measurement unit 15 Drive unit 16 Base unit determination unit 17 Communication unit 18 Crane unit (work assist mechanism)
2 Operation device 21 Operation unit 22 Drive command unit 23 Communication unit 24 Map display unit 3 High dose tank

Claims (10)

他のロボットとの間で情報を送受信する通信部と、
自身が親機と子機のいずれとして動作するかを決定する親機決定部と、
画像を撮影する撮影部と、
前記画像に基づいて子機である他のロボットの位置を特定する子機位置特定部と、
自身を駆動する駆動部と、
を備え、
前記親機決定部は、子機と親機との間の距離が閾値を超えたか、または、前記撮影部による撮影ができなくなる位置に子機が到達すると見込んだならば、子機と親機とを入れ替える、
ことを特徴とする親子機能搭載ロボット。
A communication unit that transmits and receives information to and from other robots;
A parent device determination unit that determines whether the device operates as a parent device or a child device;
A shooting section for shooting images;
A handset position specifying unit for specifying the position of another robot that is a handset based on the image;
A drive unit for driving itself;
With
If the distance between the child device and the parent device exceeds a threshold or if the child device is expected to reach a position where photographing by the photographing unit cannot be performed, the parent device determination unit And swap,
A robot with a parent-child function.
前記駆動部は、自身が子機として動作する際には自身を駆動し、自身が親機として動作する際には自身を停止させる、
ことを特徴とする請求項1に記載の親子機能搭載ロボット。
The drive unit drives itself when operating as a slave unit, and stops itself when operating as a master unit.
The parent-child function-equipped robot according to claim 1.
前記子機位置特定部は、特定した他のロボットの位置情報を、前記通信部によって当該他のロボットに送信する、
ことを特徴とする請求項1に記載の親子機能搭載ロボット。
The slave unit position specifying unit transmits position information of the specified other robot to the other robot by the communication unit.
The parent-child function-equipped robot according to claim 1.
前記画像に基づいて調査対象のマップを作成するマップ作成処理部、
を更に備えることを特徴とする請求項1に記載の親子機能搭載ロボット。
A map creation processing unit for creating a map to be investigated based on the image;
The parent-child function-equipped robot according to claim 1, further comprising:
慣性情報に基づいて自身の位置を特定する自機位置特定部を更に備える、
ことを特徴とする請求項4に記載の親子機能搭載ロボット。
A self-machine location identifying unit that identifies the location of the aircraft based on the inertia information;
The parent-child function-equipped robot according to claim 4.
子機が備える前記自機位置特定部によって特定された当該子機の位置と、親機が備える前記子機位置特定部によって特定された当該子機の位置とが、所定値以上に乖離していたならば、ユーザに警告する、
ことを特徴とする請求項5に記載の親子機能搭載ロボット。
The position of the child device specified by the own device position specifying unit provided in the child device and the position of the child device specified by the child device position specifying unit provided in the parent device are different from each other by a predetermined value or more. If so, warn the user,
The parent-child function-equipped robot according to claim 5.
前記子機位置特定部は、前記画像に子機である他のロボットが認識されないならば、ユーザに警告する、
ことを特徴とする請求項1に記載の親子機能搭載ロボット。
The slave unit position specifying unit warns the user if another robot that is a slave unit is not recognized in the image,
The parent-child function-equipped robot according to claim 1.
前記撮影部は、ステレオカメラである、
ことを特徴とする請求項1に記載の親子機能搭載ロボット。
The photographing unit is a stereo camera.
The parent-child function-equipped robot according to claim 1.
前記撮影部によって撮影可能なマーカを更に備え、
前記子機位置特定部は、前記マーカを認識することによって前記画像から他のロボットを認識して、その位置を特定する、
ことを特徴とする請求項1に記載の親子機能搭載ロボット。
A marker that can be photographed by the photographing unit;
The handset position specifying unit recognizes another robot from the image by recognizing the marker, and specifies its position.
The parent-child function-equipped robot according to claim 1.
他のロボットと協調して作業する作業助勢部を更に備える、
ことを特徴とする請求項1に記載の親子機能搭載ロボット。
It further includes a work assistance unit that works in cooperation with other robots.
The parent-child function-equipped robot according to claim 1.
JP2013013188A 2013-01-28 2013-01-28 Robot with parent-child function Active JP5896931B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013013188A JP5896931B2 (en) 2013-01-28 2013-01-28 Robot with parent-child function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013013188A JP5896931B2 (en) 2013-01-28 2013-01-28 Robot with parent-child function

Publications (2)

Publication Number Publication Date
JP2014144493A JP2014144493A (en) 2014-08-14
JP5896931B2 true JP5896931B2 (en) 2016-03-30

Family

ID=51425185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013013188A Active JP5896931B2 (en) 2013-01-28 2013-01-28 Robot with parent-child function

Country Status (1)

Country Link
JP (1) JP5896931B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4079467A4 (en) * 2019-12-20 2024-01-03 LG Electronics Inc. Mobile robot and control method therefor

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108602189B (en) 2015-10-28 2022-01-25 巴伊兰大学 Robot collaboration system
JP6475191B2 (en) * 2016-05-26 2019-02-27 ベステラ株式会社 Patrol work robot and alarm system using patrol work robot
JP6931994B2 (en) * 2016-12-22 2021-09-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Autonomous mobile body, mobile control method and mobile control program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06119354A (en) * 1992-10-05 1994-04-28 Ricoh Co Ltd Sales supporting device
JP2002254374A (en) * 2001-02-28 2002-09-10 Toshiba Corp Robot system
JP2003159683A (en) * 2001-11-21 2003-06-03 Ricoh Co Ltd Dual-arm robot and method for controlling the same
US20090062974A1 (en) * 2007-09-03 2009-03-05 Junichi Tamamoto Autonomous Mobile Robot System

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4079467A4 (en) * 2019-12-20 2024-01-03 LG Electronics Inc. Mobile robot and control method therefor

Also Published As

Publication number Publication date
JP2014144493A (en) 2014-08-14

Similar Documents

Publication Publication Date Title
JP6795073B2 (en) Information processing equipment, information processing methods and information processing programs
JP6828774B2 (en) Information processing equipment, information processing methods and computer programs
EP3206768B1 (en) Inspection vehicle control device, control method, and computer program
JP6693765B2 (en) Flight object tracking method and flight object guidance system
KR101220527B1 (en) Sensor system, and system and method for preparing environment map using the same
JP6302660B2 (en) Information acquisition system, unmanned air vehicle control device
EP3594112B1 (en) Control system for a flying object, control device therefor, and marker thereof
JP5896931B2 (en) Robot with parent-child function
JP6001914B2 (en) Target position specifying device, target position specifying system, and target position specifying method
JP2019075075A (en) System and program for setting flight plan route of unmanned aircraft
WO2020088399A1 (en) Information processing device, flight control method, and flight control system
JP7014261B2 (en) Control method and control device
JP2018174002A (en) Mobile body
JP2023070120A (en) Autonomous flight control method, autonomous flight control apparatus and autonomous flight control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150406

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160218

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160301

R150 Certificate of patent or registration of utility model

Ref document number: 5896931

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250