JP6978566B2 - Controls, programs, and control methods - Google Patents

Controls, programs, and control methods Download PDF

Info

Publication number
JP6978566B2
JP6978566B2 JP2020147747A JP2020147747A JP6978566B2 JP 6978566 B2 JP6978566 B2 JP 6978566B2 JP 2020147747 A JP2020147747 A JP 2020147747A JP 2020147747 A JP2020147747 A JP 2020147747A JP 6978566 B2 JP6978566 B2 JP 6978566B2
Authority
JP
Japan
Prior art keywords
movement
unit
information
control device
drone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020147747A
Other languages
Japanese (ja)
Other versions
JP2020201984A (en
Inventor
智士 水溜
裕樹 田門
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017060472A external-priority patent/JP6760876B2/en
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2020147747A priority Critical patent/JP6978566B2/en
Publication of JP2020201984A publication Critical patent/JP2020201984A/en
Application granted granted Critical
Publication of JP6978566B2 publication Critical patent/JP6978566B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、制御装置、プログラム、及び制御方法に関する。 The present invention relates to a control device, a program, and a control method.

従来、無人飛行体(例えば、ドローン)がGPS(Global Positioning System)などの全地球航法衛星システム(Global Navigation Satellite System(s):以下、GNSS)を利用した測位方法によって自律飛行し、送電線の点検箇所まで飛行することにより、送電線の近傍から撮像した画像を用いて送電線を点検する技術が知られている(例えば、特許文献1)。 Conventionally, an unmanned vehicle (for example, a drone) autonomously flies by a positioning method using a global navigation satellite system (Global Positioning System (s): GNSS) such as GPS (Global Positioning System), and a transmission line is connected. A technique for inspecting a transmission line by flying to an inspection point and using an image taken from the vicinity of the transmission line is known (for example, Patent Document 1).

特開2001−39397号公報Japanese Unexamined Patent Publication No. 2001-39397

しかしながら、従来の技術では、例えば、GNSS等の測位方法の使用ができる場所に設置される対象物を撮像するように無人飛行体を制御することが可能であっても、GNSS等の測位方法の使用が困難な場所に設置される対象物を撮像するように無人飛行体を制御することまでは困難である場合があった。
本発明は、上記問題に鑑みて為されたものであり、移動体を制御する仕組みを提供することを目的とする。
However, in the conventional technique, for example, even if it is possible to control an unmanned vehicle so as to image an object installed in a place where a positioning method such as GNSS can be used, the positioning method such as GNSS can be used. It was sometimes difficult to control an unmanned aircraft to image an object installed in a difficult place to use.
The present invention has been made in view of the above problems, and an object of the present invention is to provide a mechanism for controlling a moving body.

(1)本発明の一態様は、実空間の三次元空間情報を記憶する記憶部と、物体までの距離を測定する測距部と、前記三次元空間情報と、前記三次元空間情報に対応付けられた移動経路と、前記測距部が測定する前記実空間内の物体との前記距離とに基づいて移動を制御する移動制御部と、前記移動制御部が、前記移動経路とは異なる経路に変更する場合に、経路の変更が行われるタイミングで当該変更をサーバ装置に通知する送信部と、を備える移動体の制御装置である。 (1) One aspect of the present invention corresponds to a storage unit that stores three-dimensional space information in real space, a distance measuring unit that measures a distance to an object, the three-dimensional space information, and the three-dimensional space information. A movement control unit that controls movement based on the attached movement route and the distance between the distance measuring unit and the object in the real space, and a route in which the movement control unit is different from the movement route. This is a mobile control device including a transmission unit that notifies the server device of the change at the timing when the route is changed.

(2)本発明の一態様は、上記(1)に記載の制御装置において、前記実空間を撮像する撮像部と、前記移動体が移動した移動軌跡を取得する移動軌跡取得部とを更に備え、前記記憶部には、前記移動軌跡取得部が取得する前記移動軌跡と、当該移動軌跡を取得した時刻とを対応付けて記憶する。 (2) In one aspect of the present invention, in the control device according to (1) above, the control device further includes an image pickup unit that images the real space and a movement locus acquisition unit that acquires the movement locus of the moving body. In the storage unit, the movement locus acquired by the movement locus acquisition unit and the time when the movement locus is acquired are stored in association with each other.

(3)本発明の一態様は、上記(1)又は(2)に記載の制御装置は、前記移動軌跡と、当該移動軌跡を取得した時刻とを対応付けて、サーバ装置に送信する送信部を更に備える。 (3) In one aspect of the present invention, the control device according to (1) or (2) above associates the movement locus with the time when the movement locus is acquired and transmits the transmission unit to the server device. Further prepare.

(4)本発明の一態様は、上記(1)から(3)に記載の制御装置において、前記測距部は、前記移動経路上、又は前記移動経路の周辺に物体があるか否かを検知し、前記移動制御部は、前記測距部の測定結果に基づいて、前記三次元空間情報に対応付けられた前記移動経路を変更して移動させる。 (4) One aspect of the present invention is the control device according to the above (1) to (3), wherein the distance measuring unit determines whether or not there is an object on or around the movement path. Upon detection, the movement control unit changes and moves the movement path associated with the three-dimensional spatial information based on the measurement result of the distance measuring unit.

(5)本発明の一態様は、上記(1)から(4)に記載の制御装置において、前記移動制御部は、サーバ装置から受信する情報であって、前記移動体の移動時刻を指示する指示情報に基づいて、前記移動体の移動を制御する。 (5) In one aspect of the present invention, in the control device according to (1) to (4) above, the movement control unit is information received from the server device and indicates the movement time of the moving body. The movement of the moving body is controlled based on the instruction information.

(6)本発明の一態様は、上記(2)から(5)に記載の制御装置において、前記撮像部は、前記実空間のうち、前記三次元空間情報に対応付けられた位置を撮像する。 (6) In one aspect of the present invention, in the control device according to (2) to (5) above, the image pickup unit captures a position in the real space associated with the three-dimensional space information. ..

(7)本発明の一態様は、上記(1)から(6)に記載の制御装置において、前記移動体とは、無人飛行体である。 (7) In one aspect of the present invention, in the control device according to (1) to (6) above, the moving body is an unmanned flying object.

(8)本発明の一態様は、実空間の三次元空間情報を記憶する記憶部を備えるコンピュータに、物体までの距離を測定する測距ステップと、前記三次元空間情報と、前記三次元空間情報に対応付けられた移動経路と、前記測距ステップが測定する前記実空間内の物体との前記距離とに基づいて移動を制御する移動制御ステップと、前記移動制御ステップにおいて前記移動経路とは異なる経路に変更する場合に、経路の変更が行われるタイミングで当該変更をサーバ装置に通知する送信ステップと、を実行させるためのプログラムである。 (8) One aspect of the present invention is a distance measuring step for measuring a distance to an object, a three-dimensional space information, and the three-dimensional space in a computer provided with a storage unit for storing three-dimensional space information in real space. The movement control step that controls the movement based on the movement path associated with the information and the distance between the object in the real space measured by the distance measuring step, and the movement path in the movement control step are This is a program for executing a transmission step of notifying the server device of the change at the timing when the route is changed when the route is changed to a different route.

(9)本発明の一態様は、物体までの距離を測定する測距手順と、実空間の三次元空間情報と、前記三次元空間情報に対応付けられた移動経路と、前記測距手順が測定する前記実空間内の物体との前記距離とに基づいて移動を制御する移動制御手順と、前記移動制御手順において前記移動経路とは異なる経路に変更する場合に、経路の変更が行われるタイミングで当該変更をサーバ装置に通知する送信手順と、を備える制御方法である。 (9) One aspect of the present invention is a distance measuring procedure for measuring a distance to an object, three-dimensional space information in real space, a movement path associated with the three-dimensional space information, and the distance measuring procedure. A movement control procedure that controls movement based on the distance to an object in the real space to be measured, and a timing at which the route is changed when changing to a route different from the movement route in the movement control procedure. It is a control method including a transmission procedure for notifying the server device of the change.

本発明によれば、移動体を制御する仕組みを提供することができる。 According to the present invention, it is possible to provide a mechanism for controlling a moving body.

第1実施形態に係る制御装置の概要を示す図である。It is a figure which shows the outline of the control device which concerns on 1st Embodiment. 第1実施形態に係るドローンの移動経路の一例を示す第1の図である。It is the first figure which shows an example of the movement route of the drone which concerns on 1st Embodiment. 第1実施形態に係るドローンの移動経路の一例を示す第2の図である。It is a 2nd figure which shows an example of the movement route of the drone which concerns on 1st Embodiment. 第1実施形態に係る制御装置の構成の一例を示す図である。It is a figure which shows an example of the structure of the control device which concerns on 1st Embodiment. 第1実施形態に係る制御装置の動作の一例を示す流れ図である。It is a flow chart which shows an example of the operation of the control device which concerns on 1st Embodiment. 第1実施形態に係る制御装置の動作の一例を示す流れ図である。It is a flow chart which shows an example of the operation of the control device which concerns on 1st Embodiment. 第2実施形態に係る制御装置の一例を示す図である。It is a figure which shows an example of the control device which concerns on 2nd Embodiment.

[第1実施形態]
以下、図を参照して本発明の実施形態について説明する。
[First Embodiment]
Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<制御装置の概要>
図1は、第1実施形態に係る制御装置10の概要を示す図である。
図1に示す通り、制御装置10は、移動体に搭載され、当該移動体の移動を制御する。
移動体とは、例えば、飛行体や、自動車等である。本実施形態の一例では、移動体が無人飛行体(以下、ドローンD)である場合について説明する。ドローンDは、制御装置10の制御に基づいて、自律飛行する。制御装置10は、ドローンDの飛行を制御し、ドローンDが飛行する建物内部の空間(以下、実空間)の情報を取得する。
<Overview of control device>
FIG. 1 is a diagram showing an outline of the control device 10 according to the first embodiment.
As shown in FIG. 1, the control device 10 is mounted on a moving body and controls the movement of the moving body.
The moving body is, for example, a flying body, an automobile, or the like. In an example of this embodiment, a case where the moving body is an unmanned aerial vehicle (hereinafter, drone D) will be described. The drone D autonomously flies under the control of the control device 10. The control device 10 controls the flight of the drone D, and acquires information on the space inside the building (hereinafter, the real space) in which the drone D flies.

制御装置10は、測定装置110と、制御部120とを備える。測定装置110は、撮像部101と、測距部102とを備える。撮像部101は、実空間内を撮像し、画像(以下、画像IM)を生成する。測距部102は、制御装置10(ドローンD)から、実空間内に設置される物体や、実空間を構成する物体(以下、物体OB)までの距離(以下、距離DT)を測定する。実空間を構成する物体とは、例えば、壁、天井、及び床等である。測距部102とは、例えば、ステレオカメラや赤外線センサである。
制御装置10は、画像IM、及び距離DTに基づいてドローンDの移動を制御し、ドローンDを移動させる。ドローンDが移動する実空間とは、例えば、監視対象の設備等が設置される空間である。この場合、物体OBには、監視対象の設備が含まれる。
The control device 10 includes a measuring device 110 and a control unit 120. The measuring device 110 includes an imaging unit 101 and a distance measuring unit 102. The image pickup unit 101 takes an image in the real space and generates an image (hereinafter referred to as an image IM). The distance measuring unit 102 measures the distance (hereinafter, distance DT) from the control device 10 (drone D) to an object installed in the real space or an object constituting the real space (hereinafter, object OB). The objects constituting the real space are, for example, walls, ceilings, floors, and the like. The ranging unit 102 is, for example, a stereo camera or an infrared sensor.
The control device 10 controls the movement of the drone D based on the image IM and the distance DT, and moves the drone D. The real space in which the drone D moves is, for example, a space in which equipment to be monitored or the like is installed. In this case, the object OB includes equipment to be monitored.

<実空間内の移動について>
以下、図を参照して、実空間におけるドローンDの移動について説明する。
図2は、第1実施形態に係るドローンDの移動経路の一例を示す第1の図である。
制御装置10は、予め定められた移動経路を示す情報(以下、移動経路情報RT)に基づいて、ドローンDを制御し、ドローンDに実空間内を移動させる。移動経路情報RTとは、予め定められた経路であって、実空間の三次元空間情報SPに対応付けられた移動経路である。
三次元空間情報SPとは、例えば、実空間に存在する物体OBの特徴点の点群と、当該特徴点を撮影した実空間における相対位置や撮影の向きとが対応付けられた情報である。
本実施形態の一例では、実空間における相対位置が、XYZ直交座標系によって示される。移動経路は、三次元空間情報SPに基づく実空間の座標によって示される。
<About movement in real space>
Hereinafter, the movement of the drone D in the real space will be described with reference to the figure.
FIG. 2 is a first diagram showing an example of a movement route of the drone D according to the first embodiment.
The control device 10 controls the drone D based on the information indicating the predetermined movement route (hereinafter referred to as the movement route information RT), and causes the drone D to move in the real space. The movement route information RT is a predetermined route, and is a movement route associated with the three-dimensional space information SP in the real space.
The three-dimensional space information SP is, for example, information in which a point cloud of a feature point of an object OB existing in the real space is associated with a relative position and a shooting direction in the real space where the feature point is photographed.
In one example of this embodiment, the relative position in real space is indicated by the XYZ Cartesian coordinate system. The movement path is indicated by the coordinates in the real space based on the three-dimensional space information SP.

移動経路情報RTとは、例えば、移動経路を所定の距離毎の座標によって示す情報であってもよく、実空間内のある位置の座標を示す情報であってもよい。移動経路情報RTが実空間のある位置の座標を示す情報である場合、制御装置10は、当該座標、又は当該座標の近傍を通過するようにドローンDを制御する。 The movement route information RT may be, for example, information indicating the movement route by coordinates for each predetermined distance, or information indicating the coordinates of a certain position in the real space. When the movement route information RT is information indicating the coordinates of a certain position in the real space, the control device 10 controls the drone D so as to pass through the coordinates or the vicinity of the coordinates.

図2に示す通り、本実施形態の一例では、移動経路情報RTが示す移動経路が、実空間内に設置される物体OB1と、物体OB2との周囲をドローンDが移動する移動経路である。より具体的には、移動経路情報RTが示す移動経路は、実空間のある位置(図示する一例では、位置P0)から移動を開始し、実空間の角に応じた位置(図示する一例では、位置P1、位置P2、及び位置P3)において方向転換し、物体OB1、及び物体OB2を中心として実空間を一周したのち、位置P0において移動を終了する移動経路である。この場合、ドローンDが移動した軌跡(以下、移動軌跡TJ)と、移動経路情報RTが示す移動経路とは合致する。 As shown in FIG. 2, in an example of the present embodiment, the movement path indicated by the movement route information RT is a movement path in which the drone D moves around the object OB1 installed in the real space and the object OB2. More specifically, the movement path indicated by the movement route information RT starts moving from a certain position in the real space (position P0 in the illustrated example), and starts moving from a position corresponding to the angle of the real space (in the illustrated example, the position P0). It is a movement path that changes direction at the position P1, the position P2, and the position P3), goes around the real space around the object OB1 and the object OB2, and then ends the movement at the position P0. In this case, the locus that the drone D has moved (hereinafter referred to as the movement locus TJ) matches the movement route indicated by the movement route information RT.

以下、図を参照して、実空間におけるドローンDの移動の移動経路の変化について説明する。
図3は、第1実施形態に係るドローンDの移動経路の一例を示す第2の図である。
ここで、実空間には、新たな監視対象の設備が配置される場合がある。図3に示す実空間には、図2に示す実空間に対して物体OB3が新たに設置されている。
この場合、制御装置10が、移動経路情報RTに基づいてドローンDの移動を制御すると、位置P2付近において物体OB3と、ドローンDとが接触する。このため、制御装置10は、三次元空間情報SPと、距離DTとに基づいて、ドローンDの移動経路を変更する。制御装置10は、例えば、位置P21において方向転換し、物体OB3の側面に沿うように移動し、かつ位置P31において方向転換し、位置P0に戻るように移動する。この場合、ドローンDの移動軌跡TJは、移動経路情報RTが示す移動経路から変更された位置(図示する移動経路情報RT23の位置、移動軌跡TJ23の位置)である。
Hereinafter, changes in the movement path of the movement of the drone D in the real space will be described with reference to the figure.
FIG. 3 is a second diagram showing an example of the movement route of the drone D according to the first embodiment.
Here, in the real space, new equipment to be monitored may be arranged. In the real space shown in FIG. 3, the object OB3 is newly installed in the real space shown in FIG.
In this case, when the control device 10 controls the movement of the drone D based on the movement route information RT, the object OB3 and the drone D come into contact with each other in the vicinity of the position P2. Therefore, the control device 10 changes the movement path of the drone D based on the three-dimensional spatial information SP and the distance DT. The control device 10 changes direction at position P21 and moves along the side surface of the object OB3, and changes direction at position P31 and moves back to position P0. In this case, the movement locus TJ of the drone D is a position changed from the movement route indicated by the movement route information RT (the position of the movement route information RT23 shown in the figure, the position of the movement locus TJ23).

制御装置10は、ドローンDに上述したような移動をさせ、実空間に関する情報(例えば、三次元空間情報SP、及び移動軌跡TJ)を取得する装置である。
以下、制御装置10の具体的な構成について説明する。
The control device 10 is a device that causes the drone D to move as described above and acquires information about the real space (for example, the three-dimensional space information SP and the movement locus TJ).
Hereinafter, a specific configuration of the control device 10 will be described.

<制御装置の構成>
以下、図4を参照して制御装置10の構成について説明する。
図4は、第1実施形態に係る制御装置10の構成の一例を示す図である。
制御装置10は、測定装置110と、制御部120と、記憶部500と備える。
記憶部500には、三次元空間情報SPと、移動経路情報RTとが記憶される。
<Control device configuration>
Hereinafter, the configuration of the control device 10 will be described with reference to FIG.
FIG. 4 is a diagram showing an example of the configuration of the control device 10 according to the first embodiment.
The control device 10 includes a measuring device 110, a control unit 120, and a storage unit 500.
The storage unit 500 stores the three-dimensional spatial information SP and the movement route information RT.

<測定装置について>
測定装置110は、撮像部101と、測距部102と、特徴点検出部103と、相対位置検出部104と、位置特定部105をその機能部として備える。
撮像部101は、ドローンDの移動に伴い、実空間内を撮像し、画像IMを生成する。撮像部101は、例えば、常時、又は所定の時間間隔において実空間を撮影し、画像IMを生成する。
なお、撮像部101は、制御装置10の制御に基づいて、実空間内の所定の位置において画像IMを生成する構成であってもよい。この場合、所定の位置は、三次元空間情報SPに対応付けられた位置であって、三次元空間情報SPの座標によって示される位置である。なお、所定の位置は、移動経路情報RTによって示される座標でも良い。撮像部101は、例えば、三次元空間情報SPの座標によって示される位置P0〜位置P3の各位置において物体OBを撮像し、画像IMを生成する。
測距部102は、距離DTを測定し、制御部120に供給する。測距部102は、例えば、常時、又は所定の時間間隔に置いて距離DTを測定する。
<About measuring equipment>
The measuring device 110 includes an imaging unit 101, a distance measuring unit 102, a feature point detecting unit 103, a relative position detecting unit 104, and a position specifying unit 105 as its functional units.
The image pickup unit 101 takes an image in the real space as the drone D moves, and generates an image IM. The image pickup unit 101 captures a real space at all times or at a predetermined time interval, for example, and generates an image IM.
The image pickup unit 101 may be configured to generate an image IM at a predetermined position in the real space based on the control of the control device 10. In this case, the predetermined position is the position associated with the three-dimensional space information SP and is the position indicated by the coordinates of the three-dimensional space information SP. The predetermined position may be the coordinates indicated by the movement route information RT. The image pickup unit 101, for example, takes an image of the object OB at each position of the position P0 to the position P3 indicated by the coordinates of the three-dimensional spatial information SP, and generates an image IM.
The distance measuring unit 102 measures the distance DT and supplies it to the control unit 120. The distance measuring unit 102 measures the distance DT, for example, at all times or at predetermined time intervals.

特徴点検出部103は、実空間を撮像部101が撮像して得られた画像IMに基づき、当該画像IMに撮像される物体OBの特徴点を検出する。特徴点を点群として表した画像でも良い。
相対位置検出部104は、特徴点検出部103が検出した特徴点と、特徴点を撮像した際の制御装置10(ドローンD)の位置と、向きとを複数記憶し、制御装置10の位置から特定可能な周辺三次元空間情報ASPを生成する。相対位置検出部104は、生成した周辺三次元空間情報ASPを制御部120に供給する。特徴点を撮像した位置は、実空間を模した仮想的な三次元空間の座標(x、y、z)で表される。
The feature point detection unit 103 detects the feature points of the object OB imaged by the image IM based on the image IM obtained by imaging the real space by the image pickup unit 101. An image showing feature points as a point cloud may be used.
The relative position detection unit 104 stores a plurality of feature points detected by the feature point detection unit 103, the position and orientation of the control device 10 (drone D) when the feature points are imaged, and from the position of the control device 10. Generates identifiable peripheral three-dimensional spatial information ASP. The relative position detection unit 104 supplies the generated peripheral three-dimensional spatial information ASP to the control unit 120. The position where the feature point is imaged is represented by the coordinates (x, y, z) of a virtual three-dimensional space that imitates the real space.

位置特定部105は、三次元空間情報SPに基づいて、制御装置10(ドローンD)の現在位置(以下、現在位置CP)を特定する。具体的には、位置特定部105は、特徴点検出部103が画像IMに基づいて検出する特徴点と、三次元空間情報SPが示す特徴点とのマッチングを行い、三次元空間情報SPが示す実空間の座標のうち、制御装置10(ドローンD)がどの位置(座標)にいるかを特定する。これにより、位置特定部105は、制御装置10の現在位置CPを特定した後は、制御装置10が移動しても、加速度センサ、ジャイロセンサ、及び地磁気センサの検出結果に基づいて、三次元空間情報SP上の座標を特定可能である。位置特定部105は、現在位置CPを示す情報を制御部120に供給する。
なお、位置特定部105は、撮像部101が撮像して得られた画像IMに基づいて、エリアラーニングにより、モーショントラッキングでのずれの累積を補正してもよい。
The position specifying unit 105 specifies the current position (hereinafter referred to as the current position CP) of the control device 10 (drone D) based on the three-dimensional space information SP. Specifically, the position specifying unit 105 matches the feature points detected by the feature point detecting unit 103 based on the image IM with the feature points indicated by the three-dimensional spatial information SP, and the three-dimensional spatial information SP indicates. Among the coordinates in the real space, the position (coordinates) of the control device 10 (drone D) is specified. As a result, after the position specifying unit 105 identifies the current position CP of the control device 10, even if the control device 10 moves, the position specifying unit 105 is in a three-dimensional space based on the detection results of the acceleration sensor, the gyro sensor, and the geomagnetic sensor. The coordinates on the information SP can be specified. The position specifying unit 105 supplies information indicating the current position CP to the control unit 120.
The position specifying unit 105 may correct the accumulation of deviations in motion tracking by area learning based on the image IM obtained by the image pickup unit 101.

<制御部について>
制御部120は、CPU(Central Processing Unit)を備えており、移動軌跡取得部201と、送信部202と、移動制御部203と、三次元空間情報取得部204と、情報更新部205とをその機能部として備える。
移動軌跡取得部201は、測定装置110から現在位置CPを常時、又は所定の時間間隔において取得する。移動軌跡取得部201は、ドローンDの移動開始から移動終了までに取得した現在位置CPを移動軌跡TJとして送信部202に供給する。
<About the control unit>
The control unit 120 includes a CPU (Central Processing Unit), and includes a movement locus acquisition unit 201, a transmission unit 202, a movement control unit 203, a three-dimensional space information acquisition unit 204, and an information update unit 205. Provided as a functional unit.
The movement locus acquisition unit 201 acquires the current position CP from the measuring device 110 at all times or at a predetermined time interval. The movement locus acquisition unit 201 supplies the current position CP acquired from the start to the end of the movement of the drone D to the transmission unit 202 as the movement locus TJ.

移動制御部203は、現在位置CPと、三次元空間情報SPと、移動経路情報RTと、距離DTと、加速度センサと、ジャイロセンサと、地磁気センサに基づいて、ドローンDの移動を制御する。具体的には、移動制御部203は、ドローンDの飛行開始時に現在位置CPを取得する。移動制御部203は、現在位置CPが示す位置(座標)から三次元空間情報SPにおける移動経路情報RTの位置(座標)を移動するように、加速度センサ、ジャイロセンサ、及び地磁気センサの検出結果に基づいて、ドローンDの移動を制御する。
また、移動制御部203は、距離DTが、ドローンD(制御装置10)から物体OBまでの距離が所定の距離となるようにドローンDの移動を制御する。移動制御部203は、例えば、距離DTがドローンDと、物体OBまでの距離が所定の距離より短い(近い)距離であることを示す場合、ドローンDが物体OBから離れるように制御する。
The movement control unit 203 controls the movement of the drone D based on the current position CP, the three-dimensional space information SP, the movement route information RT, the distance DT, the acceleration sensor, the gyro sensor, and the geomagnetic sensor. Specifically, the movement control unit 203 acquires the current position CP at the start of flight of the drone D. The movement control unit 203 uses the detection results of the acceleration sensor, the gyro sensor, and the geomagnetic sensor to move the position (coordinates) of the movement path information RT in the three-dimensional space information SP from the position (coordinates) indicated by the current position CP. Based on this, the movement of the drone D is controlled.
Further, the movement control unit 203 controls the movement of the drone D so that the distance DT makes the distance from the drone D (control device 10) to the object OB a predetermined distance. The movement control unit 203 controls the drone D to move away from the object OB, for example, when the distance DT indicates that the distance to the drone D and the object OB is shorter (closer) than a predetermined distance.

三次元空間情報取得部204は、測定装置110から常時、又は所定の時間間隔において周辺三次元空間情報ASPを取得する。三次元空間情報取得部204は、ドローンDの移動開始から移動終了までに取得した周辺三次元空間情報ASPに基づいて、三次元空間情報SPを生成する。また、三次元空間情報取得部204は、生成した三次元空間情報SPを情報更新部205に供給する。
情報更新部205は、記憶部500に記憶される三次元空間情報SPを、三次元空間情報取得部204から取得した三次元空間情報SPに更新する。
The three-dimensional space information acquisition unit 204 acquires the peripheral three-dimensional space information ASP from the measuring device 110 at all times or at a predetermined time interval. The three-dimensional space information acquisition unit 204 generates a three-dimensional space information SP based on the peripheral three-dimensional space information ASP acquired from the start to the end of the movement of the drone D. Further, the three-dimensional space information acquisition unit 204 supplies the generated three-dimensional space information SP to the information update unit 205.
The information updating unit 205 updates the three-dimensional space information SP stored in the storage unit 500 to the three-dimensional space information SP acquired from the three-dimensional space information acquisition unit 204.

送信部202は、移動軌跡TJを示す情報と、当該移動軌跡TJによってドローンDが移動した実空間の三次元空間情報SPと、当該移動軌跡TJを取得した日時とを対応付けて、サーバ装置に送信する。具体的には、送信部202は、移動軌跡取得部201が取得する移動軌跡TJと、三次元空間情報取得部204が生成する三次元空間情報SPと、移動軌跡TJを取得した日時とを対応付けてサーバ装置に送信する。サーバ装置とは、実空間を監視する監視者が使用する装置である。監視者は、サーバ装置、又はサーバ装置と情報の送受信可能な端末装置を用いて、サーバ装置が受信する情報(この一例では、移動軌跡TJ)を参照する。 The transmission unit 202 associates the information indicating the movement locus TJ with the three-dimensional space information SP in the real space in which the drone D has moved by the movement locus TJ, and the date and time when the movement locus TJ is acquired, and causes the server device. Send. Specifically, the transmission unit 202 corresponds to the movement locus TJ acquired by the movement locus acquisition unit 201, the three-dimensional space information SP generated by the three-dimensional space information acquisition unit 204, and the date and time when the movement locus TJ is acquired. Attach and send to the server device. A server device is a device used by a monitor who monitors a real space. The observer refers to the information received by the server device (in this example, the movement locus TJ) by using the server device or the terminal device capable of transmitting and receiving information to and from the server device.

なお、上述では、情報更新部205が周辺三次元空間情報ASPに基づいて、記憶部500に記憶される三次元空間情報SPを更新する場合について説明したが、これに限られない。情報更新部205は、周辺三次元空間情報ASPに基づいて生成した三次元空間情報SPと、生成した日時とを対応付けて記憶部500に記憶させる構成であってもよい。 In the above description, the case where the information updating unit 205 updates the three-dimensional space information SP stored in the storage unit 500 based on the peripheral three-dimensional space information ASP has been described, but the present invention is not limited to this. The information updating unit 205 may be configured to store the three-dimensional space information SP generated based on the peripheral three-dimensional space information ASP in the storage unit 500 in association with the generated date and time.

<制御部の動作について:移動開始時の動作>
以下、図5を参照して制御装置10の移動開始時の動作の詳細について説明する。
図5は、第1実施形態に係る制御装置10の動作の一例を示す第1の流れ図である。
移動制御部203は、ドローンDの移動を開始させる際、ドローンDの移動開始位置(この一例では、位置P0)において、ドローンDを旋回させる(ステップS10)。撮像部101は、ドローンDが旋回している(ステップS10)間、画像IMを取得する(ステップS20)。位置特定部105は、特徴点検出部103が画像IMに基づいて検出する特徴点と、三次元空間情報SPが示す特徴点とのマッチングを行い、三次元空間情報SPが示す実空間の座標のうち、制御装置10(ドローンD)の現在位置CPを特定する(ステップS30)。
<Operation of control unit: Operation at the start of movement>
Hereinafter, the details of the operation of the control device 10 at the start of movement will be described with reference to FIG.
FIG. 5 is a first flow chart showing an example of the operation of the control device 10 according to the first embodiment.
When the movement control unit 203 starts the movement of the drone D, the movement control unit 203 turns the drone D at the movement start position of the drone D (position P0 in this example) (step S10). The image pickup unit 101 acquires an image IM (step S20) while the drone D is turning (step S10). The position specifying unit 105 matches the feature points detected by the feature point detection unit 103 based on the image IM with the feature points indicated by the three-dimensional space information SP, and coordinates the coordinates of the real space indicated by the three-dimensional space information SP. Among them, the current position CP of the control device 10 (drone D) is specified (step S30).

<制御部の動作について:移動中の動作>
以下、図6を参照して制御装置10の移動中の動作の詳細について説明する。
図6は、第1実施形態に係る制御装置10の動作の一例を示す流れ図である。
図6に示す制御装置10の動作は、図5に示す制御装置10の移動開始時の動作によって、制御装置10(ドローンD)の現在位置CPが特定された後の動作である。
ドローンDが移動経路情報RTに基づいて移動を開始してから終了するまでの間(図示するステップS115〜ステップS140の間)、三次元空間情報取得部204は、測定装置110から周辺三次元空間情報ASPを取得し、位置特定部105は、現在位置CPを取得する(ステップS110)。
移動制御部203は、現在位置CPと、三次元空間情報SPと、移動経路情報RTと、距離DTと、加速度センサと、ジャイロセンサと、と地磁気センサに基づいて、ドローンDの移動を制御する(ステップS115)。具体的には、移動制御部203は、図5に示す移動開始時の動作によって特定された現在位置CPが示す位置(座標)から三次元空間情報SPにおける移動経路情報RTの位置(座標)を移動するように、加速度センサ、ジャイロセンサ、及び地磁気センサの検出結果に基づいて、ドローンDの移動を制御する。
<Operation of control unit: Operation during movement>
Hereinafter, the details of the operation of the control device 10 during movement will be described with reference to FIG.
FIG. 6 is a flow chart showing an example of the operation of the control device 10 according to the first embodiment.
The operation of the control device 10 shown in FIG. 6 is an operation after the current position CP of the control device 10 (drone D) is specified by the operation at the start of movement of the control device 10 shown in FIG.
During the period from the start to the end of the movement of the drone D based on the movement route information RT (between steps S115 to S140 in the figure), the three-dimensional space information acquisition unit 204 moves from the measuring device 110 to the peripheral three-dimensional space. The information ASP is acquired, and the position specifying unit 105 acquires the current position CP (step S110).
The movement control unit 203 controls the movement of the drone D based on the current position CP, the three-dimensional space information SP, the movement path information RT, the distance DT, the acceleration sensor, the gyro sensor, and the geomagnetic sensor. (Step S115). Specifically, the movement control unit 203 obtains the position (coordinates) of the movement route information RT in the three-dimensional space information SP from the position (coordinates) indicated by the current position CP specified by the operation at the start of movement shown in FIG. The movement of the drone D is controlled based on the detection results of the accelerometer, the gyro sensor, and the geomagnetic sensor so as to move.

次に、移動制御部203は、測定装置110から距離DTを取得する(ステップS120)。移動制御部203は、移動経路情報RTに基づいてドローンDの移動を制御しつつ、取得した距離DTと、所定の距離とを比較する(ステップS130)。移動制御部203は、距離DTが、ドローンDと、物体OBとが所定の距離より離れていることを示す場合(ステップS130;NO)、移動経路情報RTが示す移動距離に基づいてドローンDを移動(飛行)させる(ステップS115)。また、移動制御部203は、距離DTが、ドローンDと、物体OBとが所定の距離より近いことを示す場合(ステップS130;YES)、移動経路情報RTが示す移動経路を変更し、ドローンDを移動(飛行)させる(ステップS140)。具体的には、移動制御部203は、距離DTが、ドローンDと、物体OBとが所定の距離より近いことを示す場合、物体OBから離れるように移動経路を変更し、ドローンDを移動させる。 Next, the movement control unit 203 acquires the distance DT from the measuring device 110 (step S120). The movement control unit 203 compares the acquired distance DT with a predetermined distance while controlling the movement of the drone D based on the movement route information RT (step S130). When the distance DT indicates that the drone D and the object OB are farther than a predetermined distance (step S130; NO), the movement control unit 203 sets the drone D based on the movement distance indicated by the movement route information RT. Move (fly) (step S115). Further, when the distance DT indicates that the drone D and the object OB are closer than a predetermined distance (step S130; YES), the movement control unit 203 changes the movement route indicated by the movement route information RT, and the drone D changes. Is moved (flying) (step S140). Specifically, when the distance DT indicates that the drone D and the object OB are closer than a predetermined distance, the movement control unit 203 changes the movement route so as to be away from the object OB and moves the drone D. ..

三次元空間情報取得部204は、ドローンDの移動開始から移動終了までに取得した周辺三次元空間情報ASPに基づいて、三次元空間情報SPを生成する(ステップS145)。情報更新部205は、三次元空間情報取得部204が生成した三次元空間情報SPを取得し、記憶部500に記憶される三次元空間情報SPを更新する(ステップS150)。送信部202は、移動軌跡取得部201が取得した移動軌跡TJと、三次元空間情報取得部204が生成した三次元空間情報SPと、当該移動軌跡TJを取得した日時とを対応付けて、サーバ装置に送信する(ステップS160)。 The three-dimensional space information acquisition unit 204 generates a three-dimensional space information SP based on the peripheral three-dimensional space information ASP acquired from the start to the end of the movement of the drone D (step S145). The information update unit 205 acquires the three-dimensional space information SP generated by the three-dimensional space information acquisition unit 204, and updates the three-dimensional space information SP stored in the storage unit 500 (step S150). The transmission unit 202 associates the movement locus TJ acquired by the movement locus acquisition unit 201 with the three-dimensional space information SP generated by the three-dimensional space information acquisition unit 204 with the date and time when the movement locus TJ is acquired, and the server. It is transmitted to the device (step S160).

なお、上述では、移動制御部203は、距離DTが、ドローンDと、物体OBとが所定の距離より近いことを示す場合、物体OBから離れるように移動経路を変更し、ドローンDを移動させる場合について説明したがこれに限られない。移動制御部203は、距離DTが、ドローンDと、物体OBとが所定の距離より近いことを示す場合、又は移動経路を変更した場合に移動経路情報RTに示された移動経路に戻れないと判断し、ドローンDが移動を開始した位置まで、ドローンDを移動させる(戻らせる)制御を行ってもよい。 In the above description, when the distance DT indicates that the drone D and the object OB are closer than a predetermined distance, the movement control unit 203 changes the movement route so as to be away from the object OB and moves the drone D. The case has been described, but it is not limited to this. The movement control unit 203 cannot return to the movement route indicated in the movement route information RT when the distance DT indicates that the drone D and the object OB are closer than a predetermined distance, or when the movement route is changed. It may be determined that the drone D may be controlled to move (return) to the position where the drone D has started to move.

<第1実施形態のまとめ>
以上説明したように、本実施形態の制御装置10は、測定装置110と、制御部120とを備え、制御部120は、三次元空間情報SPに基づいて、移動体(本実施形態の一例では、ドローンD)の移動を制御する。
ここで、ドローンDの移動を制御する場合、GPS(Global Positioning System)などの全地球航法衛星システム(Global Navigation Satellite System(s):以下、GNSS)を利用した方法によってドローンD(制御装置10)の位置を検出する方法が一般的であった。この点、ドローンDが屋内等においてGNSSの電波を受信が困難である場合、ドローンDの位置を検出することができず、ドローンDの移動を制御することが困難である場合があった。
<Summary of the first embodiment>
As described above, the control device 10 of the present embodiment includes the measuring device 110 and the control unit 120, and the control unit 120 is a moving body (in an example of the present embodiment) based on the three-dimensional spatial information SP. , Drone D) controls the movement.
Here, when controlling the movement of the drone D, the drone D (control device 10) is controlled by a method using a global navigation satellite system (s) such as GPS (Global Positioning System) (hereinafter referred to as GNSS). The method of detecting the position of was common. In this respect, when it is difficult for the drone D to receive the GNSS radio wave indoors or the like, the position of the drone D cannot be detected, and it may be difficult to control the movement of the drone D.

本実施形態の制御装置10は、ドローンDが移動する実空間内の三次元空間情報SPに基づいて、屋内におけるドローンDの位置を検出する。これにより、本実施形態の制御装置10は、実空間におけるドローンDの制御し、屋内を移動するドローンDの移動を制御することができる。 The control device 10 of the present embodiment detects the position of the drone D indoors based on the three-dimensional space information SP in the real space in which the drone D moves. Thereby, the control device 10 of the present embodiment can control the drone D in the real space and control the movement of the drone D moving indoors.

また、本実施形態の制御装置10は、ドローンDが移動することに伴って、測定する周辺三次元空間情報ASPに基づいて、三次元空間情報SPを生成し、生成した三次元空間情報SPに記憶部500の三次元空間情報SPを更新する。
上述したように、ドローンDが移動する実空間には、監視者の監視対象の設備等が設置される場合がある。ここで、実空間の三次元空間情報SPは、監視対象の設備の新設、及び撤去に応じて更新されることが好ましい。
本実施形態の制御装置10によれば、ドローンDの移動により、実空間の三次元空間情報SPの取得、及び更新が自動化されるため、監視者等が実空間を計測し、三次元空間情報SPを更新する手間を低減することができる。
Further, the control device 10 of the present embodiment generates a three-dimensional space information SP based on the peripheral three-dimensional space information ASP to be measured as the drone D moves, and the generated three-dimensional space information SP is used. The three-dimensional spatial information SP of the storage unit 500 is updated.
As described above, in the real space where the drone D moves, equipment or the like to be monitored by the observer may be installed. Here, it is preferable that the three-dimensional space information SP in the real space is updated according to the new installation and removal of the equipment to be monitored.
According to the control device 10 of the present embodiment, the movement of the drone D automates the acquisition and updating of the three-dimensional space information SP in the real space, so that the observer or the like measures the real space and the three-dimensional space information. The trouble of updating the SP can be reduced.

また、本実施形態の制御装置10は、取得した移動軌跡TJと、当該移動軌跡TJを取得した日時とを対応付けて記憶部500に記憶する。ここで、移動経路情報RTが示す移動経路上に物体OBが設置されることに伴い、ドローンDの移動が困難である場合がある。本実施形態の制御装置10は、制御部120が記憶部500に記憶される移動軌跡TJのうち、最新の日付が対応付けられた移動軌跡TJに基づいてドローンDを移動させることにより、最新の実空間の状態に基づいてドローンDを移動させることができる。
制御装置10は、例えば、移動軌跡取得部201が取得した移動軌跡TJが、記憶部500に記憶される移動軌跡TJから変化したことを示す場合、取得した移動軌跡TJに移動経路情報RTの移動経路を更新する移動経路更新部を備えていてもよい。
Further, the control device 10 of the present embodiment stores the acquired movement locus TJ and the date and time when the movement locus TJ is acquired in the storage unit 500 in association with each other. Here, it may be difficult for the drone D to move due to the installation of the object OB on the movement path indicated by the movement route information RT. The control device 10 of the present embodiment is the latest by moving the drone D based on the movement locus TJ to which the latest date is associated among the movement loci TJ stored in the storage unit 500 by the control unit 120. The drone D can be moved based on the state of the real space.
For example, when the control device 10 indicates that the movement locus TJ acquired by the movement locus acquisition unit 201 has changed from the movement locus TJ stored in the storage unit 500, the control device 10 moves the movement route information RT to the acquired movement locus TJ. A movement route update unit for updating the route may be provided.

また、本実施形態の制御装置10は、移動軌跡TJを取得し、取得した移動軌跡TJと取得した日時とを対応付けてサーバ装置に移動軌跡TJを示す情報を送信する。
本実施形態の制御装置10によれば、サーバ装置が受信する移動軌跡TJを監視者が確認することができる。また、監視者は、異なる時間に取得された移動軌跡TJを確認することにより、実空間に新たな物体OBが設置されたことを確認することができる。具体的には、監視者は、2つの移動軌跡TJが、異なる移動経路によって移動したことを示す場合、実空間に新たな物体OBが設置されたこと、又は物体OBが撤去されたことを確認することができる。
Further, the control device 10 of the present embodiment acquires the movement locus TJ, associates the acquired movement locus TJ with the acquired date and time, and transmits information indicating the movement locus TJ to the server device.
According to the control device 10 of the present embodiment, the observer can confirm the movement locus TJ received by the server device. Further, the observer can confirm that the new object OB has been installed in the real space by confirming the movement locus TJ acquired at different times. Specifically, when the observer indicates that the two movement loci TJ have moved by different movement paths, the observer confirms that a new object OB has been installed in the real space or that the object OB has been removed. can do.

また、本実施形態の制御装置10は、移動制御部203は、距離DTが、ドローンDと物体OBとが所定の距離より近いことを示す場合、移動経路情報RTの移動経路に基づいてドローンDを移動させ、距離DTが、ドローンDと物体OBとが所定の距離より離れていることを示す場合、移動経路情報RTの移動経路に基づいてドローンDを移動させる。
換言すると、本実施形態の制御装置10において、測距部102は、ドローンDが移動する移動経路上、又は移動経路の周辺に物体OBがあるか否かを検知し、移動制御部203は、測距部102の測定結果に基づいて、移動経路情報RTの移動経路を変更してドローンDを移動させる。
本実施形態の制御装置10によれば、移動経路上、又は移動経路の周辺に物体OBが存在する場合、ドローンDが物体OBに衝突しないように当該ドローンDの移動を制御することができる。
Further, in the control device 10 of the present embodiment, when the movement control unit 203 indicates that the distance DT is closer than the predetermined distance between the drone D and the object OB, the movement control unit 203 is based on the movement path of the movement route information RT. When the distance DT indicates that the drone D and the object OB are separated from each other by a predetermined distance, the drone D is moved based on the movement path of the movement route information RT.
In other words, in the control device 10 of the present embodiment, the ranging unit 102 detects whether or not there is an object OB on or around the movement path on which the drone D moves, and the movement control unit 203 determines whether or not there is an object OB. Based on the measurement result of the distance measuring unit 102, the movement route of the movement route information RT is changed to move the drone D.
According to the control device 10 of the present embodiment, when the object OB exists on the movement path or around the movement path, the movement of the drone D can be controlled so that the drone D does not collide with the object OB.

また、本実施形態の制御装置10は、撮像部101が実空間のうち、三次元空間情報SPに対応付けられた位置において画像IMを撮像する。
本実施形態の制御装置10によれば、予め定められた位置において実空間を撮像させ、撮像された画像IMを監視者等が確認することができる。予め定められた位置が、例えば、物体OBのインジケータランプや表示を確認可能な位置である場合、監視者は、画像IMに基づいて物体OBの状態を詳細に把握することができる。
Further, in the control device 10 of the present embodiment, the image pickup unit 101 takes an image IM at a position in the real space associated with the three-dimensional space information SP.
According to the control device 10 of the present embodiment, the real space is imaged at a predetermined position, and the image IM captured can be confirmed by the observer or the like. When the predetermined position is, for example, a position where the indicator lamp or the display of the object OB can be confirmed, the observer can grasp the state of the object OB in detail based on the image IM.

なお、制御装置10は、実空間の特徴点を検出するための画像を生成する撮像部(以下、実空間撮像部)と、実空間を撮像し画像IMを生成する撮像部(以下、特徴点撮像部)とを備える構成であってもよい。実空間撮像部は、例えば、特徴点撮像部よりも高解像度の画像(画像IM)を生成することができる撮像部である。したがって、制御装置10によれば、監視者は、高解像度の画像IMに基づいて、より詳細に物体OBの状態を把握することができる。
また、監視者は、実空間の特徴点を検出するための画像を生成しつつ、所望の方向や所望の位置から物体OBを撮像したい場合がある。ここで、実空間撮像部と、特徴点撮像部とが別体である場合、制御装置10は、実空間撮像部の方向や画角を制御することにより、所望の方向や所望の位置から物体OBを撮像しつつ、かつ特徴点を検出するための画像を生成することができる。この場合、実空間撮像部は、三次元空間情報SPの座標によって示された位置、及び方向であって、物体OBを撮像する所定の位置、及び所定の方向において実空間を撮像し、画像IMを生成する構成であってもよい。
The control device 10 includes an imaging unit (hereinafter, real space imaging unit) that generates an image for detecting feature points in real space, and an imaging unit (hereinafter, feature points) that images real space and generates an image IM. It may be configured to include an image pickup unit). The real space image pickup unit is, for example, an image pickup unit capable of generating an image (image IM) having a higher resolution than the feature point image pickup unit. Therefore, according to the control device 10, the observer can grasp the state of the object OB in more detail based on the high-resolution image IM.
Further, the observer may want to image the object OB from a desired direction or a desired position while generating an image for detecting a feature point in the real space. Here, when the real space imaging unit and the feature point imaging unit are separate bodies, the control device 10 controls the direction and angle of view of the real space imaging unit to obtain an object from a desired direction or a desired position. It is possible to generate an image for detecting a feature point while capturing an image of an OB. In this case, the real space imaging unit captures the real space at a predetermined position and direction for imaging the object OB at the position and direction indicated by the coordinates of the three-dimensional space information SP, and images IM. May be configured to generate.

[第2実施形態]
以下、図を参照して本発明の第2実施形態について説明する。
第1実施形態では、ドローンDの移動を制御する構成について説明した。
第2実施形態では、ドローンDを移動に関する指示に基づいて、ドローンDの移動を制御する場合について説明する。
なお、上述した実施形態と同様の構成については、同一の符号を付して説明を省略する。
[Second Embodiment]
Hereinafter, a second embodiment of the present invention will be described with reference to the drawings.
In the first embodiment, the configuration for controlling the movement of the drone D has been described.
In the second embodiment, a case where the movement of the drone D is controlled based on the instruction regarding the movement of the drone D will be described.
The same components as those in the above-described embodiment are designated by the same reference numerals and the description thereof will be omitted.

図7は、第2実施形態に係る制御装置11の一例を示す図である。
図7に示す通り、本実施形態の制御装置11は、測定装置110と、制御部121とを備える。制御部121は、CPUを備えており、移動軌跡取得部201と、送信部202と、移動制御部203と、三次元空間情報取得部204と、情報更新部205と、受信部206とをその機能部として備える。
受信部206は、サーバ装置から指示情報DCを受信する。指示情報DCとは、ドローンDの移動開始時刻を指示する情報である。受信部206は、受信した指示情報DCを移動制御部203に供給する。
移動制御部203は、指示情報DCに基づいて、ドローンDの移動を制御する。具体的には、移動制御部203は、指示情報DCが示す時刻にドローンDの移動を開始させる。
以降の構成については、上述した実施形態と同様であるため、説明を省略する。
FIG. 7 is a diagram showing an example of the control device 11 according to the second embodiment.
As shown in FIG. 7, the control device 11 of the present embodiment includes a measuring device 110 and a control unit 121. The control unit 121 includes a CPU, and includes a movement locus acquisition unit 201, a transmission unit 202, a movement control unit 203, a three-dimensional spatial information acquisition unit 204, an information update unit 205, and a reception unit 206. Provided as a functional unit.
The receiving unit 206 receives the instruction information DC from the server device. The instruction information DC is information that indicates the movement start time of the drone D. The receiving unit 206 supplies the received instruction information DC to the mobile control unit 203.
The movement control unit 203 controls the movement of the drone D based on the instruction information DC. Specifically, the movement control unit 203 starts the movement of the drone D at the time indicated by the instruction information DC.
Since the following configurations are the same as those in the above-described embodiment, the description thereof will be omitted.

なお、移動制御部203は、指示情報DCに基づいて、ドローンDの移動を開始させる構成に変えて、指示情報DCが示す時刻に予め定められた位置に移動するようにドローンDを制御する構成であってもよい。予め定められた位置とは、例えば、撮像部101が物体OBを撮像することが予め定められた位置であって、三次元空間情報SPに対応付けられた位置である。 The movement control unit 203 changes the configuration to start the movement of the drone D based on the instruction information DC, and controls the drone D so as to move to a predetermined position at the time indicated by the instruction information DC. May be. The predetermined position is, for example, a position in which the imaging unit 101 images the object OB in advance, and is a position associated with the three-dimensional spatial information SP.

<第2実施形態のまとめ>
以上説明したように、本実施形態の制御装置11は、受信部206がサーバ装置から受信した指示情報DCに基づいて、移動体(本実施形態の一例では、ドローンD)の移動を制御する。
ここで、監視者は、所望の時刻における実空間の状態、及び物体OBの状態を把握したい場合がある。具体的には、監視者は、日中と、夜間とにおいて、実空間の状態、及び物体OBの状態を把握したい場合がある。また、監視者は、1か月毎に実空間の三次元空間情報SPを更新したいと考える場合がある。
本実施形態の制御装置11によれば、指示情報DCが示す時刻においてドローンDを移動し、実空間の状態、及び物体OBの状態を取得することができる。
<Summary of the second embodiment>
As described above, the control device 11 of the present embodiment controls the movement of the moving body (drone D in the example of the present embodiment) based on the instruction information DC received from the server device by the receiving unit 206.
Here, the observer may want to grasp the state of the real space and the state of the object OB at a desired time. Specifically, the observer may want to grasp the state of the real space and the state of the object OB during the daytime and at nighttime. In addition, the observer may want to update the three-dimensional spatial information SP in the real space every month.
According to the control device 11 of the present embodiment, the drone D can be moved at the time indicated by the instruction information DC, and the state of the real space and the state of the object OB can be acquired.

なお、上述では、移動体がドローンDである場合について説明したが、これに限られない。例えば、移動体は、運転者の操縦を必要としない自動運転車であってもよい。また、移動体には、搭乗者が搭乗していてもよい。この場合、制御装置10は、搭乗者に代わって、移動体の移動を制御してもよく、搭乗者が移動体の移動を制御する支援を行ってもよい。 In the above description, the case where the moving body is the drone D has been described, but the present invention is not limited to this. For example, the moving body may be an autonomous vehicle that does not require driver control. Further, a passenger may be on board the moving body. In this case, the control device 10 may control the movement of the moving body on behalf of the passenger, or may assist the passenger in controlling the movement of the moving body.

なお、記憶部500には、予め三次元空間情報SPが記憶される場合について説明したが、これに限られない。制御装置10は、例えば、三次元空間情報SPが存在しない実空間を移動体の操縦者の操縦に基づいて、当該移動体を移動させ、三次元空間情報SPを生成する構成を有していていもよい。 The case where the three-dimensional spatial information SP is stored in the storage unit 500 has been described in advance, but the present invention is not limited to this. The control device 10 has, for example, a configuration in which the moving body is moved based on the control of the operator of the moving body in a real space where the three-dimensional space information SP does not exist, and the three-dimensional space information SP is generated. May be good.

また、送信部202は、画像IM、又は画像IMに基づいて実空間の特徴点が検出された画像(以下、特徴点画像)をサーバ装置に送信する構成であってもよい。この場合、サーバ装置から、画像IMの送信、又は特徴点画像の送信を指示し、送信部202は、当該指示に基づいて、画像IM、又は特徴点画像を送信する構成であってもよい。
また、送信部202は、移動経路情報RTから移動経路が変更された場合、当該変更が行われたタイミングで、当該変更を通知する情報をサーバ装置に送信する構成であってもよい。これにより、監視者は、移動経路情報RTの移動経路が変更されたことを把握することができる。
また、移動制御部203は、移動経路が変更された場合、当該変更された位置(上述した一例の場合、位置P2)においてドローンDを旋回させる構成であってもよい。この場合、撮像部101は、ドローンDが旋回することに伴って、実空間を撮像し、画像IMを生成する。また、送信部202は、撮像部101が生成した画像IMであって、移動経路が変更された位置における画像IMをサーバ装置に送信する。これにより、監視者は、移動経路が変更された位置の周囲の状態を確認することができる。
Further, the transmission unit 202 may be configured to transmit an image IM or an image in which a feature point in the real space is detected based on the image IM (hereinafter referred to as a feature point image) to the server device. In this case, the server device may instruct the transmission of the image IM or the feature point image, and the transmission unit 202 may transmit the image IM or the feature point image based on the instruction.
Further, the transmission unit 202 may be configured to transmit information for notifying the change to the server device at the timing when the movement route is changed from the movement route information RT. As a result, the observer can grasp that the movement route of the movement route information RT has been changed.
Further, the movement control unit 203 may be configured to turn the drone D at the changed position (position P2 in the case of the above-mentioned example) when the movement route is changed. In this case, the image pickup unit 101 takes an image of the real space as the drone D turns, and generates an image IM. Further, the transmission unit 202 transmits the image IM generated by the image pickup unit 101 to the server device at the position where the movement path is changed. This allows the observer to check the state around the position where the movement route has been changed.

なお、上記の各実施形態における制御装置10、及び制御装置11が備える各部は、専用のハードウェアにより実現されるものであってもよく、また、メモリおよびマイクロプロセッサにより実現させるものであってもよい。 It should be noted that each part included in the control device 10 and the control device 11 in each of the above embodiments may be realized by dedicated hardware, or may be realized by a memory and a microprocessor. good.

なお、制御装置10、及び制御装置11が備える各部は、メモリおよびCPU(中央演算装置)により構成され、制御装置10、及び制御装置11が備える各部の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。 Each part of the control device 10 and the control device 11 is composed of a memory and a CPU (central processing unit), and a program for realizing the functions of the control device 10 and each part of the control device 11 is loaded into the memory. The function may be realized by executing the function.

また、制御装置10、及び制御装置11が備える各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。 Further, a program for realizing the functions of the control device 10 and the control device 11 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read by the computer system and executed. It may be processed by this. The term "computer system" as used herein includes hardware such as an OS and peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気
ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
Further, the "computer system" includes the homepage providing environment (or display environment) if the WWW system is used.
Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, and a storage device such as a hard disk built in a computer system. Further, a "computer-readable recording medium" is a communication line for transmitting a program via a network such as the Internet or a communication line such as a telephone line, and dynamically holds the program for a short period of time. In that case, it also includes those that hold the program for a certain period of time, such as the volatile memory inside the computer system that is the server or client. Further, the above-mentioned program may be for realizing a part of the above-mentioned functions, and may be further realized for realizing the above-mentioned functions in combination with a program already recorded in the computer system.

以上、本発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。上述した各実施形態に記載の構成を組み合わせてもよい。 Although the embodiment of the present invention has been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment and may be appropriately modified without departing from the spirit of the present invention. can. The configurations described in each of the above-described embodiments may be combined.

10、11…制御装置、110…測定装置、120、121…制御部、101…撮像部、102…測距部、103…特徴点検出部、104…相対位置検出部、105…位置特定部、201…移動軌跡取得部、202…送信部、203…移動制御部、204…三次元空間情報取得部、205…情報更新部、206…受信部、500…記憶部、ASP…周辺三次元空間情報、D…ドローン、DT…距離、IM…画像、SP…三次元空間情報、RT、RT23…移動経路情報、TJ、TJ23…移動軌跡、DC…指示情報、OB、OB1、OB2、OB3…物体、CP…現在位置 10, 11 ... Control device, 110 ... Measuring device, 120, 121 ... Control unit, 101 ... Imaging unit, 102 ... Distance measuring unit, 103 ... Feature point detection unit, 104 ... Relative position detection unit, 105 ... Position identification unit, 201 ... movement locus acquisition unit, 202 ... transmission unit, 203 ... movement control unit, 204 ... three-dimensional space information acquisition unit, 205 ... information update unit, 206 ... reception unit, 500 ... storage unit, ASP ... peripheral three-dimensional space information , D ... Drone, DT ... Distance, IM ... Image, SP ... Three-dimensional space information, RT, RT23 ... Movement route information, TJ, TJ23 ... Movement trajectory, DC ... Instruction information, OB, OB1, OB2, OB3 ... Object, CP ... Current position

Claims (9)

実空間の三次元空間情報を記憶する記憶部と、
物体までの距離を測定する測距部と、
前記三次元空間情報と、前記三次元空間情報に対応付けられた移動経路と、前記測距部が測定する前記実空間内の物体との前記距離とに基づいて移動を制御する移動制御部と、
前記移動制御部が、前記移動経路とは異なる経路に変更する場合に、経路の変更が行われるタイミングで当該変更をサーバ装置に通知する送信部と、
を備える移動体の制御装置。
A storage unit that stores 3D spatial information in real space,
A ranging unit that measures the distance to an object,
A movement control unit that controls movement based on the three-dimensional space information, a movement path associated with the three-dimensional space information, and the distance between the distance measuring unit and the object in the real space. ,
When the movement control unit changes to a route different from the movement route, a transmission unit that notifies the server device of the change at the timing when the route change is performed, and a transmission unit.
A mobile control device.
前記実空間を撮像する撮像部と、
前記移動体が移動した移動軌跡を取得する移動軌跡取得部と、
を更に備え、
前記記憶部には、
前記移動軌跡取得部が取得する前記移動軌跡と、当該移動軌跡を取得した時刻とを対応付けて記憶する
請求項1に記載の制御装置。
An imaging unit that images the real space, and
A movement locus acquisition unit that acquires a movement locus in which the moving body has moved, and a movement locus acquisition unit.
Further prepare
In the storage unit
The control device according to claim 1, wherein the movement locus acquired by the movement locus acquisition unit and the time when the movement locus is acquired are stored in association with each other.
前記移動軌跡と、当該移動軌跡を取得した時刻とを対応付けて、サーバ装置に送信する送信部
を更に備える請求項2に記載の制御装置。
The control device according to claim 2, further comprising a transmission unit that associates the movement locus with the time at which the movement locus was acquired and transmits the movement locus to the server device.
前記測距部は、
前記移動経路上、又は前記移動経路の周辺に物体があるか否かを検知し、
前記移動制御部は、
前記測距部の測定結果に基づいて、前記三次元空間情報に対応付けられた前記移動経路を変更して移動させる、
請求項1から請求項3のいずれか一項に記載の制御装置。
The ranging unit
Detects whether or not there is an object on or around the movement path,
The movement control unit
Based on the measurement result of the distance measuring unit, the movement path associated with the three-dimensional spatial information is changed and moved.
The control device according to any one of claims 1 to 3.
前記移動制御部は、
サーバ装置から受信する情報であって、前記移動体の移動時刻を指示する指示情報に基
づいて、前記移動体の移動を制御する
請求項1から請求項4のいずれか一項に記載の制御装置。
The movement control unit
The control device according to any one of claims 1 to 4, which is information received from the server device and controls the movement of the moving body based on the instruction information indicating the moving time of the moving body. ..
前記撮像部は、
前記実空間のうち、前記三次元空間情報に対応付けられた位置を撮像する
請求項2、又は請求項2に従属する請求項3から請求項5のいずれか一項に記載の制御装置。
The image pickup unit is
The control device according to claim 2, wherein the position associated with the three-dimensional spatial information in the real space is imaged, or any one of claims 3 to 5 subordinate to claim 2.
前記移動体とは、無人飛行体である
請求項1から請求項6のいずれか一項に記載の制御装置。
The control device according to any one of claims 1 to 6, wherein the moving body is an unmanned flying object.
実空間の三次元空間情報を記憶する記憶部を備えるコンピュータに、
物体までの距離を測定する測距ステップと、
前記三次元空間情報と、前記三次元空間情報に対応付けられた移動経路と、前記測距ステップが測定する前記実空間内の物体との前記距離とに基づいて移動を制御する移動制御ステップと、
前記移動制御ステップにおいて前記移動経路とは異なる経路に変更する場合に、経路の変更が行われるタイミングで当該変更をサーバ装置に通知する送信ステップと、
を実行させるためのプログラム。
For computers equipped with a storage unit that stores three-dimensional spatial information in real space
A distance measurement step that measures the distance to an object,
A movement control step that controls movement based on the three-dimensional space information, a movement path associated with the three-dimensional space information, and the distance between the object in the real space measured by the distance measuring step. ,
When changing to a route different from the movement route in the movement control step, a transmission step for notifying the server device of the change at the timing when the route change is performed, and a transmission step.
A program to execute.
物体までの距離を測定する測距手順と、
実空間の三次元空間情報と、前記三次元空間情報に対応付けられた移動経路と、前記測距手順が測定する前記実空間内の物体との前記距離とに基づいて移動を制御する移動制御手順と、
前記移動制御手順において前記移動経路とは異なる経路に変更する場合に、経路の変更が行われるタイミングで当該変更をサーバ装置に通知する送信手順と、
を備える制御方法。
Distance measurement procedure to measure the distance to an object,
Movement control that controls movement based on the three-dimensional space information in the real space, the movement path associated with the three-dimensional space information, and the distance between the object in the real space measured by the distance measuring procedure. Procedure and
When changing to a route different from the movement route in the movement control procedure, a transmission procedure for notifying the server device of the change at the timing when the route change is performed, and a transmission procedure.
A control method that comprises.
JP2020147747A 2017-03-27 2020-09-02 Controls, programs, and control methods Active JP6978566B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020147747A JP6978566B2 (en) 2017-03-27 2020-09-02 Controls, programs, and control methods

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017060472A JP6760876B2 (en) 2017-03-27 2017-03-27 Control devices, programs, and control methods
JP2020147747A JP6978566B2 (en) 2017-03-27 2020-09-02 Controls, programs, and control methods

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017060472A Division JP6760876B2 (en) 2017-03-27 2017-03-27 Control devices, programs, and control methods

Publications (2)

Publication Number Publication Date
JP2020201984A JP2020201984A (en) 2020-12-17
JP6978566B2 true JP6978566B2 (en) 2021-12-08

Family

ID=73744303

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020147747A Active JP6978566B2 (en) 2017-03-27 2020-09-02 Controls, programs, and control methods

Country Status (1)

Country Link
JP (1) JP6978566B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7333565B1 (en) * 2022-08-08 2023-08-25 学校法人 芝浦工業大学 Aircraft and method of controlling the aircraft

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5919186B2 (en) * 2012-12-25 2016-05-18 日立建機株式会社 Map creation support system
JP2016110272A (en) * 2014-12-03 2016-06-20 シャープ株式会社 Autonomous travel device management server and autonomous travel device

Also Published As

Publication number Publication date
JP2020201984A (en) 2020-12-17

Similar Documents

Publication Publication Date Title
JP6250228B2 (en) Image photographing system for shape measurement of structure, remote control device, on-board control device, program and recording medium
JP6210522B2 (en) Unmanned aircraft flight control method, flight data processing method, unmanned aircraft, and server
JP6430073B2 (en) Attitude estimation apparatus, attitude estimation method, and observation system
JPWO2018158927A1 (en) Three-dimensional shape estimation method, flying object, mobile platform, program, and recording medium
CN106325305B (en) Camera for ground positioning or navigation, aircraft and navigation method and system thereof
WO2018120351A1 (en) Method and device for positioning unmanned aerial vehicle
JP6289750B1 (en) Mobile object, mobile object control method, mobile object control system, and mobile object control program
JP2007240506A (en) Three-dimensional shape and 3-dimensional topography measuring method
US11122209B2 (en) Three-dimensional shape estimation method, three-dimensional shape estimation system, flying object, program and recording medium
JP6001914B2 (en) Target position specifying device, target position specifying system, and target position specifying method
WO2021250914A1 (en) Information processing device, movement device, information processing system, method, and program
JP6740170B2 (en) Mobile body control system, program, and control method
JP6978566B2 (en) Controls, programs, and control methods
JP6760876B2 (en) Control devices, programs, and control methods
JP6482856B2 (en) Monitoring system
CN113795803B (en) Flight assisting method, device, chip, system and medium for unmanned aerial vehicle
JP2019191888A (en) Unmanned flying object, unmanned flying method and unmanned flying program
KR101954748B1 (en) System and method for extracting target coordinate
KR101911353B1 (en) Autonomic flight method when gnss signal loss and unmanned aerial vehicle for the same
JP7067897B2 (en) Information processing equipment, flight control instruction method, program, and recording medium
JP2003316259A (en) Photography image processing method and system thereof
GB2522328A (en) Payload delivery
JP6684012B1 (en) Information processing apparatus and information processing method
JP2023042741A (en) Target tracking apparatus and target tracking program
KR102181809B1 (en) Apparatus and method for checking facility

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200902

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211111

R150 Certificate of patent or registration of utility model

Ref document number: 6978566

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150