JP7441608B2 - Destination setting device, destination setting method, destination setting program, and robot - Google Patents

Destination setting device, destination setting method, destination setting program, and robot Download PDF

Info

Publication number
JP7441608B2
JP7441608B2 JP2019054594A JP2019054594A JP7441608B2 JP 7441608 B2 JP7441608 B2 JP 7441608B2 JP 2019054594 A JP2019054594 A JP 2019054594A JP 2019054594 A JP2019054594 A JP 2019054594A JP 7441608 B2 JP7441608 B2 JP 7441608B2
Authority
JP
Japan
Prior art keywords
concealment
degree
destination
photographing
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019054594A
Other languages
Japanese (ja)
Other versions
JP2020154966A (en
Inventor
晴之 天本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2019054594A priority Critical patent/JP7441608B2/en
Publication of JP2020154966A publication Critical patent/JP2020154966A/en
Application granted granted Critical
Publication of JP7441608B2 publication Critical patent/JP7441608B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、カメラを有するドローン等である制御体を移動させる移動先を設定する移動先設定装置、移動先設定方法、移動先設定プログラム、及び移動先を設定し当該移動先に移動して撮影対象を撮影するロボットに関する。 The present invention provides a destination setting device, a destination setting method, a destination setting program for setting a destination to which a controlled object such as a drone having a camera is to be moved, and a destination setting device, a destination setting method, and a destination setting program for setting a destination and moving to the destination to take pictures. Concerning robots that photograph objects.

防犯などの目的で、カメラを搭載したドローン等により侵入者等を撮影させる技術が研究・開発されている。 BACKGROUND ART For crime prevention and other purposes, technology is being researched and developed to allow camera-equipped drones to take pictures of intruders.

例えば、自律移動ロボットにおいて、撮影機能を備えた自律移動ロボットの経路探索手段が、侵入者等の位置である目標対象物位置、飛行空間の障害物の構造等を表した空間情報を参照して、目標対象物位置の周囲に設定した複数の移動候補位置のうち目標対象物位置への直線上に障害物が無い移動候補位置を移動目標位置に設定し、移動目標位置への経路を設定する技術が開示されている(特許文献1)。すなわち、撮影対象の現在位置に基づいて、障害物によるオクルージョンを生じさせずに撮影対象を撮影可能な位置を自律移動ロボットの移動先に設定していた。 For example, in an autonomous mobile robot, the route search means of the autonomous mobile robot equipped with a photographing function refers to spatial information representing the position of a target object, such as the position of an intruder, the structure of obstacles in the flight space, etc. , among the multiple movement candidate positions set around the target object position, a movement candidate position with no obstacles on a straight line to the target object position is set as the movement target position, and a route to the movement target position is set. A technique has been disclosed (Patent Document 1). That is, based on the current position of the object to be photographed, a position where the object can be photographed without causing occlusion due to obstacles is set as the destination of the autonomous mobile robot.

特開2017-016359号公報Japanese Patent Application Publication No. 2017-016359

しかしながら、従来技術によって決定した移動先では、追尾を開始した途端に、撮影対象の近傍に存在する断続的な障害物(連なった樹木、連なった電柱、並んで駐車中の車両等)によってオクルージョンが発生することがある。そのため、そのオクルージョンにより撮影対象を撮影できない期間が生じたり、そのオクルージョンを回避するための方向転換によって制御体ないし自律移動ロボットの機体が不安定になる期間が生じたりする問題があった。 However, at the destination determined using conventional technology, as soon as tracking begins, occlusion occurs due to intermittent obstacles (such as a row of trees, a row of utility poles, and vehicles parked side by side) that exist near the shooting target. may occur. Therefore, there are problems in that there is a period during which the subject cannot be photographed due to the occlusion, and a period in which the control body or the autonomous mobile robot becomes unstable due to a direction change to avoid the occlusion.

図7は、監視空間を真上から見た模式図である。図7は、現時刻をtとしてそれぞれ時刻t-2,t-1,t,t+1における侵入者の位置である撮影対象位置900~903、それぞれ侵入者の移動方向に沿って連なって配置されている樹木910~916、現ロボット位置920、ロボットの移動先930,931を示している。また、現ロボット位置920から移動先930への経路940、移動先930から移動先931への経路941、移動先931から先の経路942を示している。なお、図7では、経路940~942の矢印は図示の都合上その一部が欠けて示されているが本来連続して繋がっている。 FIG. 7 is a schematic diagram of the monitoring space viewed from directly above. FIG. 7 shows photographing target positions 900 to 903, which are the positions of the intruder at times t-2, t-1, t, and t+1, respectively, with the current time t being arranged in succession along the direction of movement of the intruder. It shows trees 910 to 916, the current robot position 920, and robot movement destinations 930 and 931. Also shown are a route 940 from the current robot position 920 to the destination 930, a route 941 from the destination 930 to the destination 931, and a path 942 from the destination 931. Note that in FIG. 7, the arrows of routes 940 to 942 are shown with a part cut off for convenience of illustration, but they are originally connected continuously.

撮影対象位置902、903の周囲に示された点線の円は、撮影対象位置902、903のそれぞれを中心とする予め設定された離間距離を示す。点線の円周上に示した各点は、ロボットの移動先の候補地点を示す。移動先930、931は、複数の候補地点から選択される。 The dotted circles shown around the imaging target positions 902 and 903 indicate preset distances centered on the imaging target positions 902 and 903, respectively. Each point shown on the dotted line circumference represents a candidate location for the robot to move to. The destinations 930 and 931 are selected from a plurality of candidate points.

従来技術では、現在時刻tにおける撮影対象位置902に対するオクルージョンが生じる候補位置以外の中からロボットの待機位置に最も近い候補位置が移動先930に選ばれる。続く時刻t+1に侵入者は図面左側の撮影対象位置903に移動し、その後も左へ移動し続ける。このとき、ドローンは、侵入者を追尾して当該移動先930から左へ向かい、経路941,942を移動する。この追尾中、樹木914~916によって断続的にオクルージョンが生じ、侵入者の写っていない画像が断続的に撮影されることになる。 In the conventional technology, the candidate position closest to the standby position of the robot is selected as the movement destination 930 from among the candidate positions where occlusion occurs with respect to the imaging target position 902 at the current time t. At the subsequent time t+1, the intruder moves to the photographing target position 903 on the left side of the drawing, and continues to move to the left thereafter. At this time, the drone tracks the intruder, heads to the left from the destination 930, and moves along routes 941 and 942. During this tracking, occlusion occurs intermittently due to the trees 914 to 916, and images that do not include the intruder are intermittently captured.

本発明は、上記問題を鑑みてなされたものであり、撮影対象の周囲に断続的な障害物が存在しても撮影対象を撮影できない期間や機体が不安定になる期間を生じにくい移動先を設定する移動先設定装置、移動先設定方法、移動先設定プログラム、当該移動先に制御体を移動させて撮影させる撮影システム、及び当該移動先に移動して撮影するロボットを提供することを目的とする。 The present invention has been made in view of the above-mentioned problems, and it is possible to find a destination where it is unlikely to cause a period in which the object cannot be photographed or a period in which the aircraft becomes unstable even if there are intermittent obstacles around the object. The purpose of the present invention is to provide a destination setting device for setting a destination, a method for setting a destination, a program for setting a destination, a photographing system for moving a control body to the destination to take a picture, and a robot for moving to the destination and taking a picture. do.

本発明の1つの態様は、撮影手段及び移動手段を有する制御体を、障害物が存在する空間において移動する撮影対象を前記撮影手段により撮影させるために、前記移動手段により移動させる移動先を設定する移動先設定装置であって、前記撮影対象の位置である撮影対象位置を複数の時点について取得する対象位置取得手段と、前記空間における前記障害物の領域を記憶している空間情報記憶手段と、前記複数の時点のそれぞれにおいて、前記撮影対象位置を中心とする複数の方向に、前記撮影対象位置から所定距離以上離間させて前記移動先の候補となる候補地点を設定する候補地点設定手段と、前記複数の時点における前記候補地点と前記障害物の領域と前記撮影対象位置とを参照して、前記候補地点に移動した前記制御体が撮影した場合に前記撮影対象が前記障害物によって隠蔽される可能性の高さを表す隠蔽度を前記複数の時点それぞれについて前記方向毎に算出し、同一の方向について算出した各時点の前記隠蔽度を統合して前記方向毎の統合隠蔽度を算出する隠蔽度算出手段と、前記統合隠蔽度が所定の基準を下回る方向の前記候補地点のうち最新の時点における前記候補地点から前記移動先を決定する移動先決定手段と、
を備えたことを特徴とする移動先設定装置である。
One aspect of the present invention is to set a destination to which a control body having a photographing means and a moving means is moved by the moving means in order to cause the photographing means to photograph a moving subject in a space where an obstacle exists. A destination setting device for setting a destination, comprising: object position acquisition means for acquiring a photographing target position, which is a position of the photographing target, at a plurality of time points; and a spatial information storage means for storing an area of the obstacle in the space. , candidate point setting means for setting candidate points as candidates for the movement destination at each of the plurality of time points, in a plurality of directions centered on the photographing target position, and spaced apart from the photographing target position by a predetermined distance or more; , with reference to the candidate point, the area of the obstacle, and the photographing target position at the plurality of points in time, and determining whether the photographing target is hidden by the obstacle when the control body that has moved to the candidate point photographs. A degree of concealment representing a high possibility of the occurrence of a change in the degree of concealment is calculated for each of the directions at each of the plurality of time points, and the degree of concealment at each time point calculated for the same direction is integrated to calculate an integrated degree of concealment for each direction. and destination determining means for determining the destination from the candidate point at the latest point in time among the candidate points in a direction where the integrated concealment degree is lower than a predetermined standard;
This is a destination setting device characterized by comprising:

また、前記隠蔽度算出手段は、前記方向毎の前記統合隠蔽度を、当該方向の近傍の方向における前記隠蔽度が高いほど高くなるように補正することが好適である。 Further, it is preferable that the concealment degree calculating means corrects the integrated concealment degree for each direction so that the higher the concealment degree in a direction near the direction is, the higher the integrated concealment degree is.

本発明の別の態様は、撮影手段及び移動手段を有する制御体を、障害物が存在する空間において移動する撮影対象を前記撮影手段により撮影させるために、前記移動手段により移動させる移動先を設定する移動先設定方法であって、コンピュータを用いて、前記撮影対象の位置である撮影対象位置を複数の時点について取得する対象位置取得ステップと、前記空間における前記障害物の領域を記憶している空間情報記憶ステップと、前記複数の時点のそれぞれにおいて、前記撮影対象位置を中心とする複数の方向に、前記撮影対象位置から所定距離以上離間させて前記移動先の候補となる候補地点を設定する候補地点設定ステップと、前記複数の時点における前記候補地点と前記障害物の領域と前記撮影対象位置とを参照して、前記候補地点に移動した前記制御体が撮影した場合に前記撮影対象が前記障害物によって隠蔽される可能性の高さを表す隠蔽度を前記複数の時点それぞれについて前記方向毎に算出し、同一の方向について算出した各時点の前記隠蔽度を統合して前記方向毎の統合隠蔽度を算出する隠蔽度算出ステップと、前記統合隠蔽度が所定の基準を下回る方向の前記候補地点のうち最新の時点における前記候補地点から前記移動先を決定する移動先決定ステップと、を行うことを特徴とする移動先設定方法である。 Another aspect of the present invention is to set a destination to which a control body having a photographing means and a moving means is moved by the moving means in order to cause the photographing means to photograph a moving subject in a space where an obstacle exists. A method for setting a destination, comprising: using a computer, acquiring a photographing target position, which is a position of the photographing target, for a plurality of time points; and storing an area of the obstacle in the space. In the spatial information storage step, at each of the plurality of time points, candidate points are set as candidates for the movement destination in a plurality of directions centered on the photographing target position and spaced apart from the photographing target position by a predetermined distance or more. a candidate point setting step, and with reference to the candidate point, the obstacle area, and the photographing target position at the plurality of points in time, when the control body that has moved to the candidate point photographs, the photographing target is The degree of concealment representing the high possibility of being concealed by an obstacle is calculated for each direction at each of the plurality of time points, and the degree of concealment for each time point calculated for the same direction is integrated to calculate the degree of concealment for each direction. a concealment degree calculation step of calculating an integrated concealment degree; and a movement destination determination step of determining the movement destination from the candidate point at the latest point in time among the candidate points in a direction in which the integrated concealment degree is lower than a predetermined standard. This is a method for setting a destination.

本発明の別の態様は、撮影手段及び移動手段を有する制御体を、障害物が存在する空間において移動する撮影対象を前記撮影手段により撮影させるために、前記移動手段により移動させる移動先を設定する移動先設定プログラムであって、コンピュータを、前記撮影対象の位置である撮影対象位置を複数の時点について取得する対象位置取得手段と、前記空間における前記障害物の領域を記憶している空間情報記憶手段と、前記複数の時点のそれぞれにおいて、前記撮影対象位置を中心とする複数の方向に、前記撮影対象位置から所定距離以上離間させて前記移動先の候補となる候補地点を設定する候補地点設定手段と、前記複数の時点における前記候補地点と前記障害物の領域と前記撮影対象位置とを参照して、前記候補地点に移動した前記制御体が撮影した場合に前記撮影対象が前記障害物によって隠蔽される可能性の高さを表す隠蔽度を前記複数の時点それぞれについて前記方向毎に算出し、同一の方向について算出した各時点の前記隠蔽度を統合して前記方向毎の統合隠蔽度を算出する隠蔽度算出手段と、前記統合隠蔽度が所定の基準を下回る方向の前記候補地点のうち最新の時点における前記候補地点から前記移動先を決定する移動先決定手段と、として機能させることを特徴とする移動先設定プログラムである。 Another aspect of the present invention is to set a destination to which a control body having a photographing means and a moving means is moved by the moving means in order to cause the photographing means to photograph a moving subject in a space where an obstacle exists. A destination setting program for setting a destination, the computer comprising: object position acquisition means for acquiring a photographing target position, which is a position of the photographing target, at a plurality of time points; and spatial information storing an area of the obstacle in the space. a storage means; and candidate points for setting candidate points as candidates for the movement destination at each of the plurality of time points in a plurality of directions centering on the photographing target position and spaced apart from the photographing target position by a predetermined distance or more. a setting means, referring to the candidate point, the area of the obstacle, and the photographing target position at the plurality of points in time, and determining whether the photographing target is the obstacle when the control body that has moved to the candidate point photographs the candidate point; The concealment degree representing the high possibility of being concealed is calculated for each direction at each of the plurality of time points, and the concealment degrees at each time point calculated for the same direction are integrated to obtain integrated concealment for each direction. and a destination determining device that determines the destination from the candidate point at the latest point in time among the candidate points in the direction in which the integrated degree of concealment falls below a predetermined standard. This is a destination setting program characterized by the following.

本発明の別の態様は、障害物が存在する空間において移動する撮影対象を撮影するための撮影手段及び移動手段を有する自律移動が可能なロボットであって、前記撮影対象の位置である撮影対象位置を複数の時点について取得する対象位置取得手段と、前記空間における前記障害物の領域を記憶している空間情報記憶手段と、前記複数の時点のそれぞれにおいて、前記撮影対象位置を中心とする複数の方向に、前記撮影対象位置から所定距離以上離間させて移動先の候補となる候補地点を設定する候補地点設定手段と、前記複数の時点における前記候補地点と前記障害物の領域と前記撮影対象位置とを参照して、前記候補地点に移動した前記ロボットが撮影した場合に前記撮影対象が前記障害物によって隠蔽される可能性の高さを表す隠蔽度を前記複数の時点それぞれについて前記方向毎に算出し、同一の方向について算出した各時点の前記隠蔽度を統合して前記方向毎の統合隠蔽度を算出する隠蔽度算出手段と、前記統合隠蔽度が所定の基準を下回る方向の前記候補地点のうち最新の時点における前記候補地点から前記移動先を決定する移動先決定手段と、を備えたことを特徴とするロボットである。
Another aspect of the present invention is a robot capable of autonomous movement having a photographing means and a moving means for photographing a moving subject in a space where obstacles exist, the photographing subject being at the position of the subject. object position acquisition means for acquiring positions at a plurality of time points; spatial information storage means for storing the area of the obstacle in the space; candidate point setting means for setting a candidate point as a movement destination at a distance of a predetermined distance or more from the photographing target position in the direction of the object; and the candidate point, the area of the obstacle, and the photographing target at the plurality of points in time. The degree of concealment representing the probability that the object to be photographed will be hidden by the obstacle when photographed by the robot that has moved to the candidate point is calculated for each of the directions at each of the plurality of points in time. concealment degree calculating means for calculating an integrated concealment degree for each direction by integrating the concealment degrees calculated at each point in time in the same direction; The robot is characterized by comprising a destination determining means for determining the destination from among the candidate points at the latest point in time.

本発明によれば、撮影対象の近傍に断続的な障害物が存在しても、撮影対象を撮影できない期間や機体が不安定になる期間を生じにくくすることができる。 According to the present invention, even if there are intermittent obstacles in the vicinity of the object to be photographed, it is possible to prevent a period in which the object cannot be photographed or a period in which the aircraft becomes unstable to occur.

本発明の実施の形態における撮影システムの構成を示す図である。1 is a diagram showing the configuration of a photographing system in an embodiment of the present invention. 本発明の実施の形態における自律移動ロボットの構成を示す機能ブロック図である。FIG. 1 is a functional block diagram showing the configuration of an autonomous mobile robot according to an embodiment of the present invention. 本発明の実施の形態における移動先設定処理を説明するための図である。It is a figure for explaining movement destination setting processing in an embodiment of the present invention. 本発明の実施の形態における方向別の隠蔽度Sの補正処理を説明するための図である。FIG. 6 is a diagram for explaining correction processing of the degree of concealment S for each direction in the embodiment of the present invention. 本発明の実施の形態における移動先設定方法を示すフローチャートである。It is a flowchart which shows the movement destination setting method in embodiment of this invention. 本発明の実施の形態における移動先設定方法を示すフローチャートである。It is a flowchart which shows the movement destination setting method in embodiment of this invention. 従来技術における課題を説明するための図である。FIG. 2 is a diagram for explaining problems in the conventional technology.

以下、図面に基づいて、本発明の好適な実施の形態について説明する。 Hereinafter, preferred embodiments of the present invention will be described based on the drawings.

図1は、本発明の実施の形態における撮影システム1の一実施の形態を示す概略構成図である。撮影システム1は、障害物が存在する所定の空間(監視空間)を移動する撮影対象を撮影するシステムである。撮影システム1は、撮影手段及び移動手段を有して、当該撮影手段及び当該移動手段を制御する制御体(ロボット等)を含み、撮影対象の近傍に移動先を設定し、制御体を移動手段によって当該移動先に移動させ、制御体の撮影手段によって撮影対象を撮影する。撮影システム1は上記移動先を設定する移動先設定装置を含む。 FIG. 1 is a schematic configuration diagram showing an embodiment of a photographing system 1 according to an embodiment of the present invention. The photographing system 1 is a system for photographing a subject moving in a predetermined space (monitoring space) where obstacles exist. The photographing system 1 has a photographing means and a moving means, and includes a control body (such as a robot) that controls the photographing means and the moving means, sets a destination near the photographing target, and controls the control body as the moving means. The object is moved to the destination, and the object is photographed by the photographing means of the control body. The photographing system 1 includes a destination setting device that sets the destination.

撮影システム1は、監視空間に侵入物(人間や車両等)が侵入したことを検出した場合、カメラを搭載した自律移動ロボット6が、侵入物の近傍に移動先を設定し、当該移動先に移動して侵入物を撮影する。監視空間は、例えば、複数の建物と植林とを含んだ施設の敷地であり、自律移動ロボット6を移動させて監視する範囲として予め定められる。 When the imaging system 1 detects that an intruder (human, vehicle, etc.) has entered the monitoring space, the autonomous mobile robot 6 equipped with a camera sets a destination near the intruder and moves to the destination. Move and photograph the intruder. The monitoring space is, for example, the site of a facility including a plurality of buildings and afforestation, and is predetermined as a range within which the autonomous mobile robot 6 is to be moved and monitored.

撮影システム1は、侵入物センサ2、監視センタ装置4、管理装置5及び自律移動ロボット6を有している。本実施の形態の説明に用いない構成については省略する。侵入物センサ2と管理装置5の間は所定の閉域網を介して通信可能であり、侵入物センサ2及び管理装置5はそれぞれ当該各閉域網に有線接続又は無線接続される。管理装置5と自律移動ロボット6の間は所定の閉域網を介して通信可能であり、管理装置5及び自律移動ロボット6はそれぞれ当該各閉域網に無線接続される。上記各閉域網のプロトコルは、全て共通でも、一部共通でも、それぞれ異なっていてもよい。 The photographing system 1 includes an intruder sensor 2, a monitoring center device 4, a management device 5, and an autonomous mobile robot 6. Configurations that are not used in the description of this embodiment will be omitted. Communication is possible between the intruder sensor 2 and the management device 5 via a predetermined closed network, and the intruder sensor 2 and the management device 5 are each connected by wire or wirelessly to each of the closed networks. Communication is possible between the management device 5 and the autonomous mobile robot 6 via a predetermined closed network, and the management device 5 and the autonomous mobile robot 6 are each wirelessly connected to each of the closed networks. The protocols of each of the above closed networks may be all common, some may be common, or each may be different.

監視センタ装置4と管理装置5の間は所定の広域網を介して通信可能であり、監視センタ装置4及び管理装置5はそれぞれ当該広域網に有線接続又は無線接続される。広域網はインターネット、携帯電話網等である。 Communication is possible between the monitoring center device 4 and the management device 5 via a predetermined wide area network, and the monitoring center device 4 and the management device 5 are each connected by wire or wirelessly to the wide area network. Wide area networks include the Internet, mobile phone networks, etc.

侵入物センサ2は、監視空間内の1又は複数の所定位置に設置されて、監視空間に現れた侵入物を所定時間間隔で検出する。侵入物センサ2は、侵入物を検出するための不図示のセンサ部と、管理装置5と通信するための不図示の通信部を備える。センサ部は、例えばレーザセンサ、マイクロ波センサ、赤外線センサ、超音波センサなどを用いることができる。侵入物センサ2は、侵入物を検出するたびにその侵入物の位置(侵入物位置)を侵入物センサ2の識別符号とともに管理装置5に送信する。 The intruder sensor 2 is installed at one or more predetermined positions within the monitoring space, and detects an intruder appearing in the monitoring space at predetermined time intervals. The intruder sensor 2 includes a sensor section (not shown) for detecting an intruder, and a communication section (not shown) for communicating with the management device 5. For example, a laser sensor, a microwave sensor, an infrared sensor, an ultrasonic sensor, etc. can be used as the sensor section. Each time the intruder sensor 2 detects an intruder, it transmits the position of the intruder (intruder position) along with the identification code of the intruder sensor 2 to the management device 5.

監視センタ装置4は、監視空間から離れた遠隔地の監視センタに設置され、遠隔地から監視空間を監視する。監視センタ装置4は、サーバコンピュータ及び監視員端末を有している。サーバコンピュータと監視員端末はLAN等の閉域網で接続される。監視センタ装置4は、自律移動ロボット6等に対する監視員の指示を管理装置5に送信する。また、監視センタ装置4は、自律移動ロボット6が生成した情報等を管理装置5から受信して表示することにより監視員に伝達する。当該指示は、例えば、自律移動ロボット6が待機所から移動先まで移動した後に待機所まで帰還することを指示するための帰還指示である。サーバコンピュータは管理装置5及び監視員端末と通信するための不図示の通信部を備える。監視員端末は、サーバコンピュータと通信するための不図示の通信部、監視員から指示を受け付けるためのキーボードやマウス等である不図示の入力部、情報を表示するための液晶ディスプレイ等である不図示の表示部を備える。 The monitoring center device 4 is installed at a monitoring center in a remote location away from the monitoring space, and monitors the monitoring space from the remote location. The monitoring center device 4 includes a server computer and a monitor terminal. The server computer and the monitor terminal are connected through a closed network such as a LAN. The monitoring center device 4 transmits a supervisor's instructions for the autonomous mobile robot 6 and the like to the management device 5. Further, the monitoring center device 4 receives information generated by the autonomous mobile robot 6 from the management device 5, and displays the information to transmit it to the monitoring staff. The instruction is, for example, a return instruction for instructing the autonomous mobile robot 6 to return to the waiting area after moving from the waiting area to the destination. The server computer includes a communication unit (not shown) for communicating with the management device 5 and the monitor terminal. The monitor terminal includes a communication section (not shown) for communicating with the server computer, an input section (not shown) such as a keyboard and mouse for receiving instructions from the monitor, and a liquid crystal display (not shown) for displaying information. It is equipped with the illustrated display section.

管理装置5は、監視空間内の所定位置に設置され、制御装置(コントローラ)として機能する。例えば、管理装置5は、侵入物センサ2から侵入物位置を受信し、受信した各情報を自律移動ロボット6に送信する。また、監視センタ装置4から指示を受信して当該指示を自律移動ロボット6に送信するとともに、自律移動ロボット6から受信した情報を監視センタ装置4に送信する。管理装置5は、侵入物センサ2、監視センタ装置4及び自律移動ロボット6と通信するための不図示の通信部を備える。 The management device 5 is installed at a predetermined position within the monitoring space and functions as a control device (controller). For example, the management device 5 receives the position of an intruder from the intruder sensor 2, and transmits each piece of received information to the autonomous mobile robot 6. Further, it receives an instruction from the monitoring center device 4 and transmits the instruction to the autonomous mobile robot 6, and also transmits information received from the autonomous mobile robot 6 to the monitoring center device 4. The management device 5 includes a communication unit (not shown) for communicating with the intruder sensor 2, the monitoring center device 4, and the autonomous mobile robot 6.

管理装置5は、受信する侵入物位置が侵入物センサ2のローカル座標系の値である場合は当該値を監視空間のグローバル座標系の値に変換する座標変換手段を備えてもよい。その場合の座標変換手段は、グローバル座標系における各侵入物センサ2の設置条件を予め記憶する不図示の記憶部と、変換を行う不図示の演算部によって実現される。 The management device 5 may include coordinate conversion means for converting the received intruding object position into a value in the global coordinate system of the monitoring space when the received intruding object position is a value in the local coordinate system of the intruding object sensor 2. The coordinate conversion means in this case is realized by a storage section (not shown) that stores in advance the installation conditions of each intruder sensor 2 in the global coordinate system, and a calculation section (not shown) that performs the conversion.

なお、ローカル座標系は、侵入物センサ2や自律移動ロボット6等の各構成が個々に侵入物等の物体の位置を特定するための座標系である。これに対して、グローバル座標系は、撮影システム1において侵入物等の物体の位置を特定するための座標系である。例えば、自律移動ロボット6からしてみれば侵入物が正面にいると認識しても、自律移動ロボット6の向きによって正面が示す方向が特定できない。上記座標変換手段は、自律移動ロボット6のローカル座標系における座標値を、この座標値及び検出されている自律移動ロボット6の向きを考慮してグローバル座標系における座標値に変換する。 Note that the local coordinate system is a coordinate system for each component such as the intruder sensor 2 and the autonomous mobile robot 6 to individually specify the position of an object such as an intruder. On the other hand, the global coordinate system is a coordinate system for specifying the position of an object such as an intruder in the imaging system 1. For example, even if the autonomous mobile robot 6 recognizes that an intruder is in front of it, the direction indicated by the front cannot be determined depending on the orientation of the autonomous mobile robot 6. The coordinate conversion means converts the coordinate values of the autonomous mobile robot 6 in the local coordinate system into coordinate values in the global coordinate system, taking into account the coordinate values and the detected orientation of the autonomous mobile robot 6.

自律移動ロボット6は、ロボットであり、本発明における制御体に相当する。例えば、自律移動ロボット6は、クワッドロータを有するドローンである。自律移動ロボット6は、侵入物位置や帰還指示を受信すると適宜移動先を定めて、障害物を回避しながら当該移動先まで移動する。平時は監視空間内に設置された待機所にて待機し、侵入物センサ2が侵入物を検出すると侵入物位置の近傍まで自律移動して撮影を行う。また、移動中に監視センタ装置4又は管理装置5からの帰還指示を受信すると、待機所まで自律移動して待機状態に戻る。 The autonomous mobile robot 6 is a robot and corresponds to a control body in the present invention. For example, the autonomous mobile robot 6 is a drone with a quadrotor. When the autonomous mobile robot 6 receives the location of the intruder and the return instruction, it determines a destination as appropriate and moves to the destination while avoiding obstacles. During normal times, it waits in a waiting area installed in the monitoring space, and when the intruder sensor 2 detects an intruder, it autonomously moves to the vicinity of the intruder's position and takes pictures. Further, if a return instruction is received from the monitoring center device 4 or the management device 5 while moving, the device autonomously moves to the waiting area and returns to the waiting state.

ここで、「追従移動」というのは算出された経路に沿って移動することをいう。「追尾」というのは対象(撮影対象)の移動に応じて移動先(経路の終端)を更新しながら追従移動することをいう。「自律移動」というのは自身で判断して移動することをいう。例えば、自律移動ロボット6は侵入物位置や帰還指示を受信すると、その後は管理装置5等外部からの指示や制御を受けなくても自律移動する。また、自律移動ロボット6は、移動先や経路を自機で定め、経路に沿って移動している途中で風の影響を受けて経路から外れた場合には経路まで戻って移動を継続するよう移動制御を行いながら移動する。この移動は「追従移動」であり「自律移動」でもある。そして、自律移動ロボット6は、新たな侵入物位置を受信するたびに移動先を更新ながら移動する。この移動は「追尾」であり「自律移動」でもある。 Here, "following movement" means moving along the calculated route. "Tracking" refers to moving while updating the destination (the end of the route) according to the movement of the object (photographing object). “Autonomous movement” refers to the ability to move based on one's own decisions. For example, when the autonomous mobile robot 6 receives the location of an intruder or a return instruction, it thereafter moves autonomously without receiving instructions or control from an external device such as the management device 5. Furthermore, the autonomous mobile robot 6 determines its own destination and route, and if it deviates from the route due to the influence of wind while moving along the route, it will return to the route and continue moving. Move while controlling movement. This movement is both "following movement" and "autonomous movement." Then, the autonomous mobile robot 6 moves while updating the destination every time it receives the position of a new intruder. This movement is both "tracking" and "autonomous movement."

図2は、本実施の形態における自律移動ロボット6の概略構成図である。本実施の形態における自律移動ロボット6は、通信部60、ロボット位置・姿勢センサ61、障害物センサ62、カメラ63、記憶部65、モータ66等が制御線にて制御部64に接続されるとともに、モータ66とロータ67とが制御線にて接続されて構成される。 FIG. 2 is a schematic configuration diagram of the autonomous mobile robot 6 in this embodiment. In the autonomous mobile robot 6 in this embodiment, a communication unit 60, a robot position/orientation sensor 61, an obstacle sensor 62, a camera 63, a storage unit 65, a motor 66, etc. are connected to a control unit 64 via a control line. , a motor 66 and a rotor 67 are connected by a control line.

通信部60は、管理装置5との間で通信するための通信モジュールである。通信部60は、侵入物センサ2が検出した侵入物位置を受信して制御部64に出力する。また、通信部60は、監視センタ装置4又は管理装置5からの指示を受信して制御部64に出力する。また、通信部60は、ロボット位置・姿勢センサ61によって取得された情報、カメラ63によって撮影された画像等の情報を制御部64から受信して管理装置5に送信する。 The communication unit 60 is a communication module for communicating with the management device 5. The communication unit 60 receives the position of the intruder detected by the intruder sensor 2 and outputs it to the control unit 64 . The communication unit 60 also receives instructions from the monitoring center device 4 or the management device 5 and outputs them to the control unit 64. Further, the communication unit 60 receives information such as information acquired by the robot position/posture sensor 61 and images taken by the camera 63 from the control unit 64 and transmits it to the management device 5.

ロボット位置・姿勢センサ61は、自律移動ロボット6の現在位置(現ロボット位置)及び姿勢(現ロボット姿勢)を取得するためのセンサである。例えば、ロボット位置・姿勢センサ61は、GNSS(Global Navigation Satellite System)等の航法衛星(人工衛星)から送信される電波(航法信号)を受信する受信機、方位を計測する電子コンパス及び角速度を計測するジャイロセンサで実現される。受信機は、複数の航法衛星から送信される航法信号を受信して制御部64に出力するとともに、電子コンパス及びジャイロセンサによる計測信号を制御部64に出力する。なお、現ロボット位置を取得するために受信機に代えてレーザスキャナ及び気圧センサを用いるなど、他の既知のセンサを用いてもよい。 The robot position and posture sensor 61 is a sensor for acquiring the current position (current robot position) and posture (current robot posture) of the autonomous mobile robot 6. For example, the robot position/orientation sensor 61 includes a receiver that receives radio waves (navigation signals) transmitted from a navigation satellite (artificial satellite) such as a GNSS (Global Navigation Satellite System), an electronic compass that measures the direction, and an angular velocity. This is realized using a gyro sensor. The receiver receives navigation signals transmitted from a plurality of navigation satellites and outputs them to the control unit 64, and also outputs measurement signals from the electronic compass and the gyro sensor to the control unit 64. Note that other known sensors may be used instead of the receiver to obtain the current robot position, such as a laser scanner and a barometric pressure sensor.

障害物センサ62は、自律移動ロボット6の周囲に存在する障害物を検出するためのセンサである。障害物センサ62は、例えば、マイクロ波センサ、レーザセンサ、超音波センサ等とすることができる。マイクロ波センサで実現する場合、障害物センサ62は、自律移動ロボット6の周囲にマイクロ波を送信して障害物からの反射波を受信し、反射波信号を制御部64に出力する。 The obstacle sensor 62 is a sensor for detecting obstacles existing around the autonomous mobile robot 6. The obstacle sensor 62 can be, for example, a microwave sensor, a laser sensor, an ultrasonic sensor, or the like. When implemented using a microwave sensor, the obstacle sensor 62 transmits microwaves around the autonomous mobile robot 6, receives reflected waves from the obstacles, and outputs a reflected wave signal to the control unit 64.

カメラ63は、自律移動ロボット6の周囲を所定時間間隔で撮影して画像を制御部64に出力する撮影手段である。 The camera 63 is a photographing means that photographs the surroundings of the autonomous mobile robot 6 at predetermined time intervals and outputs the images to the control unit 64.

制御部64は、CPU等を備えたコンピュータにより実現される。制御部64は、記憶部65からプログラムやデータを読み出し、プログラムに従って、対象位置取得手段640、ロボット位置・姿勢取得手段641、経路算出手段642、障害物領域算出手段643及び移動制御手段644等として機能する。経路算出手段642には、候補地点設定手段642a、隠蔽度算出手段642b及び経路探索手段642cが含まれる。 The control unit 64 is realized by a computer including a CPU and the like. The control unit 64 reads programs and data from the storage unit 65, and operates the target position acquisition means 640, robot position/attitude acquisition means 641, route calculation means 642, obstacle area calculation means 643, movement control means 644, etc. according to the programs. Function. The route calculation means 642 includes a candidate point setting means 642a, a concealment degree calculation means 642b, and a route search means 642c.

記憶部65は、ROM(Read Only Memory)、RAM(Random Access Memory)等の情報記憶装置により実現される。記憶部65は、各種プログラムや各種データを記憶し、制御部64との間でこれらの情報を入出力する。記憶部65は、空間情報記憶手段650、位置・姿勢情報記憶手段651及び経路記憶手段653等として機能する。 The storage unit 65 is realized by an information storage device such as a ROM (Read Only Memory) or a RAM (Random Access Memory). The storage unit 65 stores various programs and various data, and inputs and outputs this information to and from the control unit 64. The storage unit 65 functions as a spatial information storage unit 650, a position/orientation information storage unit 651, a route storage unit 653, and the like.

更に、自律移動ロボット6には、4つのロータ67と、その回転軸がそれぞれ対応するロータ67に連結された4つのモータ66からなる4つのユニットが搭載される。各モータ66は、制御部64に接続されて制御部64から回転速度が指示される。4つのロータ67が独立して回転することにより自律移動ロボット6に任意方向の加速度を発生させる。ロータ67及びロータ67は自律移動ロボット6の移動手段である。 Further, the autonomous mobile robot 6 is equipped with four units consisting of four rotors 67 and four motors 66 whose rotational axes are respectively connected to the corresponding rotors 67. Each motor 66 is connected to the control section 64 and receives a rotation speed instruction from the control section 64 . The four rotors 67 rotate independently to generate acceleration in any direction in the autonomous mobile robot 6. The rotor 67 and the rotor 67 are moving means of the autonomous mobile robot 6.

空間情報記憶手段650は、監視空間の3次元構造等を表した空間情報を記憶する。空間情報は、撮影システム1の管理者等によって予め設定され、少なくとも監視空間において自律移動ロボット6の移動の障害及び自律移動ロボット6による撮影の障害となり得る障害物の位置を含む。障害物は、例えば建物や樹木等である。具体的には、監視空間を例えば自律移動ロボット6よりも小さく予め定められた立方体である複数のボクセルに区分し、各ボクセルを、監視空間のグローバル座標系における当該ボクセルの位置(三次元座標)と、当該ボクセルが表す領域に移動の障害となる障害物が含まれるか否かを区別するための符号(移動障害属性)と、及び当該ボクセルの領域が撮影の障害となる度合いを表す数値(撮影障害属性)とを含むボクセル情報により管理する。 Spatial information storage means 650 stores spatial information representing the three-dimensional structure of the monitored space. The spatial information is set in advance by the administrator of the photographing system 1, and includes at least the positions of obstacles that may impede the movement of the autonomous mobile robot 6 and impede photographing by the autonomous mobile robot 6 in the monitoring space. Obstacles include, for example, buildings and trees. Specifically, the monitoring space is divided into a plurality of predetermined cubic voxels that are smaller than, for example, the autonomous mobile robot 6, and each voxel is defined by the position (three-dimensional coordinates) of the voxel in the global coordinate system of the monitoring space. , a code for distinguishing whether or not the area represented by the voxel includes an obstacle that obstructs movement (movement obstruction attribute), and a numerical value ( Management is performed using voxel information including (imaging obstacle attributes).

例えば、障害物を含むボクセルの移動障害属性は1、障害物を含まないボクセルの移動障害属性は0とすることができる。また、例えば、障害物を含まないボクセルの撮影障害属性は0、一般的な壁や屋根等の遮光性を有する障害物を含むボクセルの撮影障害属性は100とし、ガラス窓、ネット、フェンス等の透光性を有する障害物を含むボクセルにはその撮影の障害となる程度を表す0~100の間の撮影障害属性が付与される。 For example, the movement obstacle attribute of a voxel that includes an obstacle can be set to 1, and the movement obstacle attribute of a voxel that does not include an obstacle can be set to 0. For example, the shooting obstacle attribute of voxels that do not include obstacles is 0, the shooting obstacle attribute of voxels that include obstacles with light-blocking properties such as ordinary walls and roofs is set to 100, and the shooting obstacle attribute of voxels that do not include obstacles is set to 100. A voxel that includes a translucent obstacle is assigned a photographing obstruction attribute between 0 and 100, which indicates the extent to which the obstruction interferes with photographing.

また、空間情報記憶手段650は、緯度・経度・高度を監視空間のグローバル座標系の位置に変換する変換規則、方位をグローバル座標系の方向に変換する変換規則を記憶する。例えば、グローバル座標系の原点の緯度・経度・高度、グローバル座標系のX軸・Y軸に対応する方位、グローバル座標系の単位長さに対応する緯度・経度・高度の変位量を記憶する。 The spatial information storage unit 650 also stores conversion rules for converting latitude, longitude, and altitude into positions in the global coordinate system of the monitoring space, and conversion rules for converting orientations into directions in the global coordinate system. For example, the latitude, longitude, and altitude of the origin of the global coordinate system, directions corresponding to the X-axis and Y-axis of the global coordinate system, and displacement amounts of latitude, longitude, and altitude corresponding to unit length of the global coordinate system are stored.

位置・姿勢情報記憶手段651は、侵入物位置に基づく撮影対象の位置(撮影対象位置)の情報を記憶する。位置・姿勢情報記憶手段651は、例えば、撮影対象位置を予め定められた回数(例えば3回)だけ循環記憶する。また、現ロボット位置及び現ロボット姿勢を循環記憶する。 The position/orientation information storage unit 651 stores information on the position of the photographing target (photographing target position) based on the position of the intruder. The position/orientation information storage unit 651, for example, cyclically stores the photographing target position a predetermined number of times (for example, three times). Also, the current robot position and current robot posture are stored in circulation.

経路記憶手段653は、監視空間において自律移動ロボット6が移動する予定である経路を記憶する。当該経路の終端は自律移動ロボット6の移動先である。すなわち、経路記憶手段653は、経路の一部として移動先を記憶する手段でもある。 The route storage means 653 stores a route along which the autonomous mobile robot 6 is scheduled to move in the monitoring space. The end of the route is the destination of the autonomous mobile robot 6. In other words, the route storage means 653 is also means for storing the destination as part of the route.

対象位置取得手段640は、通信部60が侵入物位置を受信するたびに当該侵入物位置に基づく撮影対象の位置(撮影対象位置)を位置・姿勢情報記憶手段651に追加記憶させる。具体的には、対象位置取得手段640は、侵入物位置に予め設定されたオフセット値を加算して撮影対象位置を算出する。例えば、侵入物が人の場合は撮影対象をその顔とすることができ、侵入物が車両の場合は撮影対象をそのナンバープレートとすることが好適である。そして、例えば、侵入物センサ2が検出する侵入物位置が侵入物の接地位置である場合、対象位置取得手段640は、侵入物が人であれば侵入物位置に高さ150cmを加算し、侵入物が車両であれば侵入物位置に高さ50cmを加算する。 The object position acquisition unit 640 causes the position/posture information storage unit 651 to additionally store the position of the photographing target (photographing target position) based on the position of the intruder every time the communication unit 60 receives the position of the intruder. Specifically, the target position acquisition means 640 calculates the photographing target position by adding a preset offset value to the intruder position. For example, if the intruder is a person, the object to be photographed can be the person's face, and if the intruder is a vehicle, it is preferable to use the license plate of the object to be photographed. For example, when the intruder position detected by the intruder sensor 2 is the ground position of the intruder, the target position acquisition means 640 adds a height of 150 cm to the intruder position if the intruder is a person, and If the object is a vehicle, add a height of 50 cm to the intruder position.

また、対象位置取得手段640は、位置・姿勢情報記憶手段651から複数時点の撮影対象位置を読み出して経路算出手段642に出力する。具体的には、最新の撮影対象位置を時刻tの位置とすると、時刻t-2,t-1,tの3時点の撮影対象位置を経路算出手段642に出力する。 Further, the target position acquisition means 640 reads out photographing target positions at a plurality of time points from the position/orientation information storage means 651 and outputs them to the route calculation means 642. Specifically, assuming that the latest photographing target position is the position at time t, the photographing target positions at three times t-2, t-1, and t are output to the route calculating means 642.

ロボット位置・姿勢取得手段641は、ロボット位置・姿勢センサ61の出力から監視空間における現ロボット位置及び現ロボット姿勢を算出し、位置・姿勢情報記憶手段651に記憶させる。例えば、ロボット位置・姿勢センサ61が航法信号を出力する場合、ロボット位置・姿勢取得手段641は、航法信号を解析して当該航法信号から緯度・経度・高度を抽出し、空間情報記憶手段650に記憶されている変換規則を用いて緯度・経度・高度を監視空間のグローバル座標系の位置に変換する。また、例えば、ロボット位置・姿勢センサ61が電子コンパス及びジャイロセンサの計測信号を出力する場合、ロボット位置・姿勢取得手段641は、計測信号を解析して当該計測信号から方位及びロボット位置・姿勢センサ61のローカル座標系における姿勢変化量を抽出するとともに、位置・姿勢情報記憶手段651からグローバル座標系での値である現ロボット姿勢(この時点では一時点過去の姿勢)を読み出す。方位は、電子コンパスの計測信号をグローバル座標系における方位へ変換し、他のセンサから算出される方位と融合させて算出させてもよい。そして、ロボット位置・姿勢取得手段641は、予め設定された自律移動ロボット6の主軸方向に対するロボット位置・姿勢センサ61の主軸方向の相対方向を用いて姿勢変化量を自律移動ロボット6のローカル座標系に変換し、変換した姿勢変化量を加えて現ロボット姿勢を更新する。 The robot position/orientation acquisition means 641 calculates the current robot position and current robot orientation in the monitoring space from the output of the robot position/orientation sensor 61, and stores them in the position/orientation information storage means 651. For example, when the robot position/orientation sensor 61 outputs a navigation signal, the robot position/orientation acquisition means 641 analyzes the navigation signal, extracts latitude, longitude, and altitude from the navigation signal, and stores the information in the spatial information storage means 650. The latitude, longitude, and altitude are converted to a position in the global coordinate system of the monitoring space using the stored conversion rules. Further, for example, when the robot position/orientation sensor 61 outputs measurement signals of an electronic compass and a gyro sensor, the robot position/orientation acquisition means 641 analyzes the measurement signals and determines the orientation and robot position/orientation sensor from the measurement signals. At the same time, the amount of change in posture in the local coordinate system 61 is extracted, and the current robot posture (at this point, the posture past one point), which is a value in the global coordinate system, is read out from the position/posture information storage means 651. The direction may be calculated by converting the measurement signal of the electronic compass into the direction in the global coordinate system and fusing it with the direction calculated from other sensors. Then, the robot position/attitude acquisition means 641 calculates the amount of change in attitude using the relative direction of the main axis direction of the robot position/attitude sensor 61 with respect to the preset main axis direction of the autonomous mobile robot 6 in the local coordinate system of the autonomous mobile robot 6. The current robot posture is updated by adding the converted posture change amount.

経路算出手段642は、撮影対象位置が更新されると、対象位置取得手段640から撮影対象位置を取得し、撮影対象位置の近傍を移動先とする経路を算出して、算出した経路を経路記憶手段653に記憶させる。算出される経路は、自律移動ロボット6が移動する経路である。経路算出手段642は、位置・姿勢情報記憶手段651から現ロボット位置を読み出し、現ロボット位置から移動先までの経路を算出する。また、対象位置取得手段640から入力される撮影対象位置は現時点の撮影対象位置を含む複数時点の撮影対象位置である。経路算出手段642は、空間情報記憶手段650から空間情報を読み出し、複数時点の撮影対象位置と障害物の位置関係からオクルージョンの影響を受けにくい撮影方向の移動先を設定して、経路を算出する。 When the photographing target position is updated, the route calculating means 642 acquires the photographing target position from the target position acquiring means 640, calculates a route whose destination is near the photographing target position, and stores the calculated route in the route memory. It is stored in the means 653. The calculated route is the route along which the autonomous mobile robot 6 moves. The route calculation means 642 reads the current robot position from the position/orientation information storage means 651 and calculates the route from the current robot position to the movement destination. Further, the photographing target positions inputted from the target position acquisition means 640 are photographing target positions at a plurality of points in time including the current photographing target position. The route calculation means 642 reads spatial information from the spatial information storage means 650, sets a destination in the photographing direction that is less affected by occlusion based on the positional relationship between the photographing target position and obstacles at a plurality of points in time, and calculates a route. .

経路を算出するために、経路算出手段642は、候補地点設定手段642a、隠蔽度算出手段642b及び経路探索手段642cを備える。以下、図3を参照しながらこれらの手段について説明する。 In order to calculate a route, the route calculation means 642 includes a candidate point setting means 642a, a concealment degree calculation means 642b, and a route search means 642c. These means will be explained below with reference to FIG.

図3は、監視空間を真上から見た模式図である。図3は、現時刻をtとしてそれぞれ時刻t-2,t-1,t,t+1における侵入者の位置である撮影対象位置100~103、それぞれ侵入者の移動方向に沿って連なって配置されている樹木110~116、現ロボット位置150、自律移動ロボット6の移動先140,141を示している。 FIG. 3 is a schematic diagram of the monitoring space viewed from directly above. FIG. 3 shows photographing target positions 100 to 103, which are the positions of the intruder at times t-2, t-1, t, and t+1, respectively, with the current time t, and are arranged in series along the direction of movement of the intruder. The trees 110 to 116 currently located, the current robot position 150, and the movement destinations 140 and 141 of the autonomous mobile robot 6 are shown.

また、現ロボット位置150から移動先140への経路160、移動先140から移動先141への経路161、移動先141から先の経路162を示している。なお、図3では、経路160~162の矢印は図示の都合上その一部が欠けて示されているが本来連続して繋がっている。 Also shown are a route 160 from the current robot position 150 to the destination 140, a route 161 from the destination 140 to the destination 141, and a route 162 from the destination 141. Note that in FIG. 3, the arrows of the routes 160 to 162 are shown partially cut off for convenience of illustration, but they are originally connected continuously.

撮影対象位置100~103の周囲に示された点線の円は、撮影対象位置100~103のそれぞれを中心とする予め設定された離間距離を示す。点線の円周上に示した各点は、自律移動ロボット6の移動先の候補地点を示す。移動先140,141は、複数の候補地点から選択される。各候補地点から延びる矢印は、当該候補地点から撮影対象位置100~103へ向かう視線を示す。各視線において実線の視線はオクルージョン無し、点線の視線はオクルージョン有りを示している。なお、候補地点120~126は、図3に示した複数の候補地点の一部を示している。また、網掛け領域130は、移動先として選択すべきではないとされた候補地点群を示している。 The dotted circles shown around the photographing target positions 100 to 103 indicate preset distances centered on each of the photographing target positions 100 to 103. Each point shown on the dotted-line circumference represents a candidate location for the autonomous mobile robot 6 to move to. The destinations 140 and 141 are selected from a plurality of candidate points. An arrow extending from each candidate point indicates a line of sight from the candidate point toward the photographing target positions 100 to 103. In each line of sight, a line of sight with a solid line indicates no occlusion, and a line of sight with a dotted line indicates with occlusion. Note that candidate points 120 to 126 indicate some of the plurality of candidate points shown in FIG. Furthermore, a shaded area 130 indicates a group of candidate points that should not be selected as a destination.

本実施の形態では、候補地点設定手段642aは、複数時点t-2,t-1,tの撮影対象位置100~102の各々の周囲に複数の候補地点を設定し、撮影対象位置100~102と候補地点の組み合わせを隠蔽度算出手段642bに出力する。 In this embodiment, the candidate point setting means 642a sets a plurality of candidate points around each of the photographing target positions 100 to 102 at multiple time points t-2, t-1, and t, and and the candidate point combination are output to the concealment degree calculation means 642b.

具体的には、まず、候補地点設定手段642aは、撮影対象位置100~102のそれぞれを中心とする予め設定された離間距離(例えば3m)を半径とした円状の位置で、かつ、予め設定された離間高度(例えば3m)の領域に、予め定めた角度間隔で複数個ずつ候補地点を設定する。ちなみに、離間距離及び離間高度は追従移動中の自律移動ロボット6と撮影対象の維持すべき位置関係として適宜定められるものである。本実施形態では、例えば、侵入者から攻撃を受けないようにするために維持すべき位置関係として定められている。 Specifically, first, the candidate point setting means 642a selects a circular position with a radius of a preset distance (for example, 3 m) centered on each of the shooting target positions 100 to 102, and A plurality of candidate points are set at predetermined angular intervals in the area of the separated altitude (for example, 3 m). Incidentally, the separation distance and separation altitude are appropriately determined as the positional relationship that should be maintained between the autonomous mobile robot 6 and the object to be photographed during the following movement. In this embodiment, for example, the positional relationship is defined as a positional relationship that should be maintained in order to avoid being attacked by an intruder.

また、候補地点の角度間隔は、例えば水平面で5°として各撮影対象位置100~102に対して72個ずつの候補地点とすることができる。ただし、図3では、図示のスペースの都合上、各撮影対象位置100~102に対して角度間隔22.5°で候補地点を16個ずつ設定した例を示している。候補地点設定手段642aは、各候補地点に、監視空間のグローバル座標系における座標と方向を付与する。候補地点の方向は、設定の元となった撮影対象位置から当該候補地点に向かう方向とする。 Further, the angular interval of the candidate points may be, for example, 5° on the horizontal plane, and 72 candidate points can be provided for each of the photographing target positions 100 to 102. However, in FIG. 3, due to space limitations, an example is shown in which 16 candidate points are set at angular intervals of 22.5 degrees for each of the photographing target positions 100 to 102. The candidate point setting means 642a assigns coordinates and directions in the global coordinate system of the monitoring space to each candidate point. The direction of the candidate point is the direction from the shooting target position that is the source of the setting to the candidate point.

なお、離間距離及び離間高度はそれぞれある程度の幅を持たせた設定としてもよい。離間高度のみに幅を持たせた場合、候補地点は球の一部をなす曲面上に設置されることとなる。また、離間距離及び離間高度の両方に幅を持たせた場合、候補地点は円柱の一部をなす曲面上などに設置することができる。それらの場合、候補地点の角度間隔は水平面で5°、鉛直面で5°等に設定されることなり、候補地点の方向は二次元の角度パラメータで表される。 Note that the separation distance and separation height may each be set to have a certain range. If only the separation height has a width, the candidate point will be placed on a curved surface that forms part of the sphere. Further, when both the separation distance and the separation height have a width, the candidate points can be placed on a curved surface that forms a part of a cylinder. In those cases, the angular interval between candidate points is set to 5 degrees in the horizontal plane, 5 degrees in the vertical plane, etc., and the direction of the candidate points is expressed by a two-dimensional angular parameter.

以上のように、候補地点設定手段642aは、複数時点の撮影対象位置それぞれについて、当該時点の撮影対象位置を中心とする複数の方向に、当該時点の撮影対象位置から所定距離以上離間させて移動先の候補地点を設定する。 As described above, the candidate point setting means 642a moves each of the photographing target positions at a plurality of time points in a plurality of directions centering on the photographing target position at the time point at least a predetermined distance away from the photographing target position at the time point. Set the destination candidate point.

隠蔽度算出手段642bは、方向毎に当該方向の候補地点での隠蔽度を算出し、算出した隠蔽度を経路探索手段642cに出力する。ここで、ある地点での隠蔽度は、撮影手段であるカメラ63を当該地点から対応する撮影対象位置100~102のいずれかに位置する撮影対象に向けた場合に撮影対象が障害物によって隠蔽される可能性の高さを表す指標、であると定義する。 The degree of concealment calculating means 642b calculates the degree of concealment at the candidate point in each direction, and outputs the calculated degree of concealment to the route searching means 642c. Here, the degree of concealment at a certain point refers to the extent to which the object to be photographed is hidden by an obstacle when the camera 63, which is a photographing means, is directed from the point to the object to be photographed located at one of the corresponding object positions 100 to 102. It is defined as an index that expresses the high possibility that

具体的には、隠蔽度算出手段642bは、候補地点設定手段642aから入力された撮影対象位置100~102、各撮影対象位置100~102に対応する候補地点の情報及び空間情報記憶手段650に予め記憶された空間情報を参照し、各時刻t-2,t-1,tの撮影対象位置100~102と当該時刻t-2,t-1,tの各候補地点とを結ぶ線分を導出する。次に、隠蔽度算出手段642bは、各候補地点についての線分が通過するボクセルを特定し、特定したボクセルに付与されている撮影障害属性のうちの最大値を、当該候補地点についての隠蔽度として算出する。図3の例では、候補地点120,121,122,123,124,125,126での隠蔽度が100、それ以外の隠蔽度が0と算出される。 Specifically, the concealment degree calculation means 642b stores the photographing target positions 100 to 102 inputted from the candidate point setting means 642a, candidate point information corresponding to each photographing target position 100 to 102, and the spatial information storage means 650 in advance. Referring to the stored spatial information, derive line segments connecting the shooting target positions 100 to 102 at each time t-2, t-1, t and each candidate point at the relevant time t-2, t-1, t. do. Next, the concealment degree calculation means 642b specifies the voxel through which the line segment for each candidate point passes, and calculates the maximum value of the photographing obstacle attributes assigned to the identified voxel as the concealment degree for the candidate point. Calculated as In the example of FIG. 3, the degree of concealment at candidate points 120, 121, 122, 123, 124, 125, and 126 is calculated as 100, and the degree of concealment at other points is calculated as 0.

なお、隠蔽度として最大値に代えて平均値を用いてもよい。最大値を用いて全方向の隠蔽度が同値となった場合、平均値が小さな方向を優先して選択することで、より優良な撮影方向となり得る。 Note that an average value may be used as the degree of concealment instead of the maximum value. When the degree of concealment in all directions becomes the same value using the maximum value, preferentially selecting a direction with a smaller average value can result in a better photographing direction.

そして、隠蔽度算出手段642bは、処理対象としている各時刻t-2,t-1,t,の撮影対象位置100~102に亘って方向毎に隠蔽度の最大値を求めて方向別の隠蔽度とする。図3の例では、網掛け領域130で示した方向の隠蔽度が100、それ以外の方向の隠蔽度が0と算出される。なお、最大値の選択に変えて、総和の算出としてもよいし、平均値の算出としてもよい。 Then, the concealment degree calculation means 642b calculates the maximum value of the concealment degree for each direction over the shooting target positions 100 to 102 at each time t-2, t-1, and t, which are the processing targets, and calculates the maximum value of the concealment degree for each direction. degree. In the example of FIG. 3, the concealment degree in the direction indicated by the shaded area 130 is calculated as 100, and the concealment degree in other directions is calculated as 0. Note that instead of selecting the maximum value, a total sum or an average value may be calculated.

ここで、障害物が撮影対象の近傍に断続的に存在していても撮影対象の移動速度が小さい場合や障害物の配置間隔が長い場合、サンプル不足によってオクルージョンが生じ得る方向の隠蔽度が十分に高く算出されないことがある。これを防止するために、隠蔽度算出手段642bが隠蔽度の補正を行うものとすることができる。 Even if obstacles exist intermittently near the subject, if the moving speed of the subject is slow or the distance between obstacles is long, the degree of concealment in the direction where occlusion may occur due to lack of samples is sufficient. may not be calculated as high. In order to prevent this, the degree of concealment calculation means 642b may correct the degree of concealment.

具体的には、隠蔽度算出手段642bは、方向毎の隠蔽度を、当該方向の近傍の方向における隠蔽度が高いほど高く補正する。隠蔽度算出手段642bは、各候補地点iの方向をθとしその隠蔽度をSとすると、方向θ毎に、平均値が当該方向θであり最大高さがSであり予め定めた分散σθ を有する正規分布N(θ)を導出し、当該方向θ以外の方向θの隠蔽度SにN(θ)を加算する。ただし加算後の隠蔽度が最大値100を超える場合は100に補正する。 Specifically, the concealment degree calculating means 642b corrects the concealment degree for each direction to be higher as the concealment degree in a direction near the direction is higher. The degree of concealment calculation means 642b calculates in advance that if the direction of each candidate point i is θ i and its degree of concealment is S i , then for each direction θ i , the average value is the direction θ i and the maximum height is S i . A normal distribution N(θ i ) having a predetermined variance σ θ 2 is derived, and N(θ i ) is added to the degree of concealment S k in a direction θ k other than the direction θ i . However, if the degree of concealment after addition exceeds the maximum value of 100, it is corrected to 100.

図4は、図3の例で算出された方向θ毎の隠蔽度Sに対する補正例を示す模式図である。ただし、図4では、180°方向から315°方向のみを例示している。 FIG. 4 is a schematic diagram showing an example of correction for the concealment degree S for each direction θ calculated in the example of FIG. However, in FIG. 4, only the 180° direction to the 315° direction is illustrated.

上述したように、補正前の隠蔽度Sは、180°から247.5°方向で100、270°方向から315°方向で0である(図4のグラフ200)。隠蔽度算出手段642bは、方向θ毎に補正前の隠蔽度Sを平均値とした正規分布を導出し、当該正規分布における値を近傍の方向θの補正前の隠蔽度Sに加算して補正後の隠蔽度Sを算出する(図4のグラフ201)。例えば、方向θが180°について、180°を平均値とし高さが100の正規分布を導出し、当該正規分布における202.5°での値を202.5°の隠蔽度Sに加算し、当該正規分布における225°での値を225°の隠蔽度Sに加算し、・・・というように180°以外の隠蔽度Sに加算する。ここでは、正規分布の分散を、平均値から45°離れた方向で高さがほぼ0になるよう調整している。同様に、隠蔽度算出手段642bは、方向θが202.5°について、202.5°を平均値とし高さが100の正規分布を導出し、当該正規分布における225°での値を225°の隠蔽度Sに加算し、当該正規分布における247.5°での値を247.5°の隠蔽度Sに加算し、・・・というように202.5°以外の隠蔽度Sに加算する。さらに、隠蔽度算出手段642bは、同様の処理を他の方向についても行い、高さが100を超えた隠蔽度Sを100に修正する。図3の例では、補正前に0であった270°方向の隠蔽度が20を下回らなくなり、270°方向が優良撮影方向として検出されなくなる。 As described above, the concealment degree S before correction is 100 in the direction from 180° to 247.5°, and 0 in the direction from 270° to 315° (graph 200 in FIG. 4). The degree of concealment calculation means 642b derives a normal distribution with the degree of concealment S before correction as the average value for each direction θ, and adds the value in the normal distribution to the degree of concealment S before correction in the neighboring direction θ to perform correction. The subsequent concealment degree S is calculated (graph 201 in FIG. 4). For example, when the direction θ is 180°, a normal distribution with an average value of 180° and a height of 100 is derived, and the value at 202.5° in the normal distribution is added to the concealment degree S at 202.5°, The value at 225° in the normal distribution is added to the concealment degree S at 225°, and so on, and so on to the concealment degree S at other than 180°. Here, the variance of the normal distribution is adjusted so that the height is approximately 0 in a direction 45 degrees away from the average value. Similarly, when the direction θ is 202.5°, the concealment degree calculation means 642b derives a normal distribution with an average value of 202.5° and a height of 100, and calculates the value at 225° in the normal distribution to 225°. The value at 247.5° in the normal distribution is added to the concealment degree S at 247.5°, and so on, and so on is added to the concealment degree S other than 202.5°. . Further, the concealment degree calculation means 642b performs similar processing in other directions, and corrects the concealment degree S whose height exceeds 100 to 100. In the example of FIG. 3, the degree of concealment in the 270° direction, which was 0 before correction, no longer falls below 20, and the 270° direction is no longer detected as a good photographing direction.

なお、正規分布関数に代えて他の分布関数やステップ関数を用いるなど、方向が離れるほど加算値が小さくなる他の関数を適宜用いて補正を実現してもよい。 Note that the correction may be realized by appropriately using other functions such as using other distribution functions or step functions instead of the normal distribution function, or other functions in which the added value becomes smaller as the direction is further apart.

以上のように、隠蔽度算出手段642bは、候補地点と障害物の領域と撮影対象位置とを参照して、複数の時点それぞれの候補地点に移動した制御体が撮影した場合に当該時点の撮影対象が障害物によって隠蔽される可能性の高さを方向毎に統合して、方向毎の隠蔽度Sを算出する。また、好適には、隠蔽度算出手段642bは、方向毎の隠蔽度Sを、当該方向の近傍の方向における隠蔽度Sが高いほど高く補正する。 As described above, the concealment degree calculation means 642b refers to the candidate point, the area of the obstacle, and the photographing target position, and when the control body moves to each of the candidate points at a plurality of time points takes a photograph, The degree of concealment S for each direction is calculated by integrating the probability that the object will be hidden by an obstacle for each direction. Preferably, the concealment degree calculating means 642b corrects the concealment degree S for each direction to be higher as the concealment degree S in a direction near the direction is higher.

経路探索手段642cは、現ロボット位置150を始端とし、最新時点の候補地点のうち隠蔽度Sが予め定めた基準を下回る方向に設定された候補地点を終端とする経路の中で、障害物を回避しての移動距離が最短と推定される経路を算出する。上記最新時点は、対象位置取得手段640から入力された複数時点の撮影対象位置における最新時点であり、本実施形態においては現時刻tとなる。 The route search means 642c searches for obstacles in a route that starts from the current robot position 150 and ends at a candidate point set in a direction where the degree of concealment S is lower than a predetermined standard among the candidate points at the latest point in time. Calculate the route that is estimated to have the shortest avoidance distance. The latest time point is the latest time point in the photographing target position at a plurality of time points inputted from the target position acquisition means 640, and in this embodiment is the current time t.

具体的には、経路探索手段642cは、まず、現時点についての候補地点の中から経路の終端すなわち移動先を決定する。そのために、経路探索手段642cは、隠蔽度算出手段642bから入力された各方向の隠蔽度Sを予め定めた基準(閾値)と比較して、基準未満の隠蔽度Sが算出された方向を優良撮影方向として検出する。例えば、基準は20とすることができ、図3の例では網掛け領域130で示した方向以外が優良撮影方向となる。 Specifically, the route search means 642c first determines the end of the route, that is, the destination, from among the candidate points for the current time. To this end, the route search means 642c compares the degree of concealment S in each direction inputted from the degree of concealment calculation means 642b with a predetermined standard (threshold value), and selects directions for which the degree of concealment S is calculated as less than the standard. Detected as the shooting direction. For example, the standard may be 20, and in the example of FIG. 3, directions other than the shaded area 130 are good shooting directions.

優良撮影方向が検出されると、経路探索手段642cは、現時点の各候補地点のうちの空間情報における移動障害属性が1であるボクセルに含まれず、且つ優良撮影方向に設定された候補地点Pそれぞれに対して数式(1)~(5)を用いて評価値Vを算出する。
When a good photographing direction is detected, the route search means 642c selects a candidate point P i that is not included in a voxel whose movement obstacle attribute is 1 in the spatial information among the current candidate points and is set as a good photographic direction. An evaluation value V i is calculated for each using formulas (1) to (5).

ここで、rは現ロボット位置、Pは優良撮影方向の候補地点、Sは候補地点Pの方向についての隠蔽度である。また、NはPの総数である。α,β,σ,σは、r―P間の距離や隠蔽度Sに応じて減衰する値を調整するためのパラメータであり、事前の実験等を通じて調整された値を予め設定しておく。Aはr―P間の距離に関する評価値であり、LはAを正規化した評価値である。AやLはr―P間の距離が遠いほど低く、近いほど高い値となる。また、Aはr―P間の距離に関する評価値であり、LはAを正規化した評価値である。BやОは隠蔽度Sが高いほど低く、低いほど高い値となる。VはLとОの両方の特性を有する。 Here, r is the current robot position, P i is a candidate point in a good photographing direction, and S is a degree of concealment in the direction of the candidate point P i . Moreover, N p is the total number of P i . α, β, σ L and σ S are parameters for adjusting the values that attenuate according to the distance between r and P i and the degree of concealment S, and the values adjusted through prior experiments etc. are set in advance. I'll keep it. A i is an evaluation value regarding the distance between r and P i , and L i is an evaluation value obtained by normalizing A i . The longer the distance between r and P i , the lower the value of A i and L i , and the closer the distance between r and P i, the higher the value. Further, A i is an evaluation value regarding the distance between r and P i , and L i is an evaluation value obtained by normalizing A i . The higher the concealment degree S, the lower the value of B i and O i , and the lower the concealment degree S, the higher the value. V i has characteristics of both L i and O i .

そして、経路探索手段642cは、評価値Vが最大の候補地点を移動先に決定する。ただし評価値Vの算出対象外となった候補地点は移動先決定の対象外とする。図3の例では移動先140に決定される。 The route search means 642c then determines the candidate point with the highest evaluation value V i as the destination. However, candidate points that are not subject to the calculation of the evaluation value V i are excluded from the destination determination. In the example of FIG. 3, the destination 140 is determined.

一方、優良撮影方向が検出されない場合、すなわち優良撮影方向が存在しない場合には、経路探索手段642cは、r―P間の距離のみに基づいて移動先を決定する。すなわち、経路探索手段642cは、現時点における候補地点のうちの空間情報における移動障害属性が1であるボクセルに含まれない候補地点のそれぞれについて、上記数式(2)の評価値Lを算出し、評価値Lが最大の候補地点を移動先に決定する。 On the other hand, if a good photographing direction is not detected, that is, if a good photographing direction does not exist, the route searching means 642c determines the destination based only on the distance between r and Pi . That is, the route search means 642c calculates the evaluation value L i of the above formula (2) for each of the candidate points at the present time that are not included in the voxels whose movement obstacle attribute is 1 in the spatial information, The candidate point with the largest evaluation value L i is determined as the destination.

移動先を決定した経路探索手段642cは、空間情報において移動障害属性が0であるボクセルからなる空間に、例えばA*経路探索法を適用して現ロボット位置から当該移動先に至る経路を算出する。 Having determined the movement destination, the route search means 642c calculates a route from the current robot position to the movement destination by applying, for example, the A* route search method to a space consisting of voxels whose movement obstacle attribute is 0 in the spatial information. .

A*経路探索法を適用する場合、経路探索手段642cは、各ボクセルの中心位置をノードとし、移動先に対応するボクセルのノード(以下「スタートノード」という)から現ロボット位置に対応するボクセルのノード(以下「ゴールノード」という)に至る総コスト値が最も小さくなる経路を探索する。より具体的に説明すると、経路探索手段642cは、まずスタートノードを注目ノードに設定し、その注目ノードに隣接する1又は複数のノードを評価ノードとして設定する。評価ノードを設定する際、ボクセルの属性を参照し、移動障害属性が付与されているボクセル及び当該ボクセルに隣接するボクセルに対応するノードを除外し、障害物に衝突する経路が生成されないようにする。そして、各評価ノードに至る総コスト値を求め、その中から最小の総コスト値となる評価ノードを次の注目ノードとして選出する。次の注目ノードを選出すると、経路探索手段642cは、その注目ノードに隣接する1又は複数のノードであってそれまでに評価ノードとして設定されておらず、且つ移動障害属性が付与されていないボクセルに対応するノードであり、且つ移動障害属性が付与されたボクセルに隣接していないボクセルに対応するノードを評価ノードとする。そして、経路探索手段642cは、各評価ノードに至る総コスト値を求め、その中から最小の総コスト値となる評価ノードを次の注目ノードとして選出する。以上の処理をゴールノードが注目ノードとして選出されるまで繰り返し行う。 When applying the A* route search method, the route search means 642c uses the center position of each voxel as a node, and searches from the node of the voxel corresponding to the movement destination (hereinafter referred to as "start node") to the voxel corresponding to the current robot position. A route with the lowest total cost to a node (hereinafter referred to as "goal node") is searched. More specifically, the route search means 642c first sets the start node as the node of interest, and sets one or more nodes adjacent to the node of interest as evaluation nodes. When setting evaluation nodes, refer to voxel attributes and exclude nodes corresponding to voxels that have movement obstacle attributes and voxels adjacent to the voxels to avoid generating paths that collide with obstacles. . Then, the total cost value leading to each evaluation node is determined, and the evaluation node with the minimum total cost value is selected as the next node of interest. When the next node of interest is selected, the route search means 642c selects voxels that are one or more nodes adjacent to the node of interest that have not been set as evaluation nodes and have not been assigned a movement obstacle attribute. A node that corresponds to a voxel that is not adjacent to a voxel to which a movement obstacle attribute is attached is defined as an evaluation node. Then, the route search means 642c obtains the total cost value leading to each evaluation node, and selects the evaluation node with the minimum total cost value from among them as the next node of interest. The above process is repeated until the goal node is selected as the node of interest.

なお、経路の探索方法は、A*経路探索法に限定されるものでなく、ダイクストラ法等
の他の経路探索方法を適用してもよい。
Note that the route search method is not limited to the A* route search method, and other route search methods such as Dijkstra's method may be applied.

障害物領域算出手段643は、障害物センサ62の出力から、自律移動ロボット6の周囲の障害物領域を算出し、移動制御手段644に出力する。この障害物領域は、基本的に、空間情報記憶手段650に記憶されていない動的な障害物に関する情報である。例えば、障害物センサ62が反射波信号を出力する場合、障害物領域算出手段643は、障害物領域算出手段643は反射波信号を解析して障害物センサ62から障害物までの距離(障害物距離)及び障害物センサ62の主軸方向に対する障害物の存在方向(障害物方向)を算出する。さらに、障害物領域算出手段643は、位置・姿勢情報記憶手段651からグローバル座標系での値である現在位置及び現在姿勢を読み出す。そして、障害物領域算出手段643は、現在位置、現在姿勢及びローカル座標系の値として予め設定された自律移動ロボット6の主軸方向に対する障害物センサ62の主軸方向の相対方向を用いて、障害物センサ62のローカル座標系での値である障害物距離及び障害物方向をグローバル座標系における障害物領域の情報に変換する。 Obstacle area calculation means 643 calculates an obstacle area around autonomous mobile robot 6 from the output of obstacle sensor 62 and outputs it to movement control means 644 . This obstacle area is basically information regarding a dynamic obstacle that is not stored in the spatial information storage means 650. For example, when the obstacle sensor 62 outputs a reflected wave signal, the obstacle area calculation means 643 analyzes the reflected wave signal and calculates the distance from the obstacle sensor 62 to the obstacle (the distance from the obstacle sensor 62 to the obstacle). distance) and the direction in which the obstacle exists (obstruction direction) with respect to the main axis direction of the obstacle sensor 62. Further, the obstacle area calculation means 643 reads the current position and current orientation, which are values in the global coordinate system, from the position/orientation information storage means 651. Then, the obstacle area calculation means 643 uses the current position, current posture, and the relative direction of the main axis direction of the obstacle sensor 62 with respect to the main axis direction of the autonomous mobile robot 6, which is set in advance as the value of the local coordinate system, to detect the obstacle. The obstacle distance and obstacle direction, which are values in the local coordinate system of the sensor 62, are converted into information on the obstacle area in the global coordinate system.

移動制御手段644は、経路記憶手段653に記憶されている経路、及びロボット位置・姿勢取得手段641に記憶されている現ロボット位置であって逐次更新される現ロボット位置を参照し、経路に自律移動ロボット6を追従移動させる。すなわち、移動制御手段644は、現ロボット位置と経路を比較して現ロボット位置よりも移動先に近く現ロボット位置から所定距離以内である経路上の近傍点を設定して、予め定めた加速度制限値以下の加速度で近傍点に移動するために要する4つのモータ66の回転速度を導出し、各モータ66に導出した回転速度を指示する、という制御を経路の終端に到達するまで逐次的に繰り返す。上記所定距離には障害物センサ62の有効距離以下の距離が予め設定される。 The movement control means 644 refers to the route stored in the route storage means 653 and the current robot position stored in the robot position/attitude acquisition means 641, which is updated sequentially, and autonomously follows the route. The mobile robot 6 is moved to follow. That is, the movement control means 644 compares the current robot position and the route, sets a nearby point on the route that is closer to the destination than the current robot position and is within a predetermined distance from the current robot position, and sets a predetermined acceleration limit. The control of deriving the rotational speeds of the four motors 66 required to move to a nearby point with an acceleration equal to or less than the value and instructing each motor 66 of the derived rotational speed is repeated sequentially until the end of the path is reached. . The predetermined distance is set in advance to be less than or equal to the effective distance of the obstacle sensor 62.

追従移動は、空間情報記憶手段650に記憶されていない動的な障害物の回避を含む。すなわち、移動制御手段644は、障害物領域算出手段643から入力される障害物領域の情報及び空間情報記憶手段650に記憶されている空間情報をも参照し、障害物領域算出手段643から障害物領域の情報が入力された場合に、上述した経路上の近傍点への移動を一時的に中止し、現ロボット位置からの距離が上記所定距離以下、且つ当該障害物領域を含まず、且つ移動障害属性が付与されていないボクセルを抽出して当該ボクセルの中心点への移動を行う。そして、障害物領域の情報が入力されなくなると、上述した経路上の近傍点への移動を再開する。 The following movement includes dynamic obstacle avoidance that is not stored in the spatial information storage means 650. That is, the movement control means 644 also refers to the information on the obstacle area input from the obstacle area calculation means 643 and the spatial information stored in the spatial information storage means 650, and calculates the obstacle area from the obstacle area calculation means 643. When area information is input, the movement to the nearby point on the route described above is temporarily stopped, and the distance from the current robot position is less than or equal to the predetermined distance, and does not include the obstacle area, and the robot moves. A voxel to which no obstacle attribute has been assigned is extracted and moved to the center point of the voxel. Then, when the information on the obstacle area is no longer input, the movement to the nearby point on the route described above is resumed.

以下、図5及び図6のフローチャートを参照して、撮影システム1における移動先設定方法について説明する。位置・姿勢情報記憶手段651に記憶されている撮影対象位置が更新されると、制御部64は、経路算出手段642として動作し、図5及び図6のフローチャートの処理を開始する。 Hereinafter, a method for setting a destination in the photographing system 1 will be described with reference to the flowcharts of FIGS. 5 and 6. When the photographing target position stored in the position/orientation information storage means 651 is updated, the control section 64 operates as the route calculation means 642 and starts the processing of the flowcharts in FIGS. 5 and 6.

まず、経路算出手段642は、位置・姿勢情報記憶手段651に記憶されている現ロボット位置を取得する(ステップS1)。また、経路算出手段642は、位置・姿勢情報記憶手段651から複数時点の撮影対象位置を読み出す(ステップS2)。 First, the route calculation means 642 acquires the current robot position stored in the position/orientation information storage means 651 (step S1). Further, the route calculation means 642 reads out the shooting target positions at a plurality of points in time from the position/orientation information storage means 651 (step S2).

経路算出手段642の候補地点設定手段642aは、各時点の撮影対象位置を順次注目位置に設定して、撮影対象位置毎に候補地点を設定する。すなわち、候補地点設定手段642aは、各撮影対象位置を注目位置に順次設定し(ステップS3)、注目位置の周囲に所定の離間距離、離間高度及び角度間隔で複数方向の候補地点を設定する(ステップS4)。候補地点設定手段642aは、各候補地点の座標と方向を注目位置の座標とともに経路算出手段642の隠蔽度算出手段642bに入力する。 The candidate point setting unit 642a of the route calculation unit 642 sequentially sets the photographing target position at each point in time as a position of interest, and sets a candidate point for each photographing target position. That is, the candidate point setting means 642a sequentially sets each photographic target position as a position of interest (step S3), and sets candidate points in a plurality of directions around the position of interest at predetermined separation distances, separation altitudes, and angular intervals ( Step S4). The candidate point setting means 642a inputs the coordinates and direction of each candidate point together with the coordinates of the position of interest to the concealment degree calculation means 642b of the route calculation means 642.

経路算出手段642の隠蔽度算出手段642bは、設定された各候補地点を順次注目地点に設定し(ステップS5)、候補地点毎に隠蔽度Sを設定する(ステップS6)。すなわち、隠蔽度算出手段642bは、まず、空間情報記憶手段650から空間情報を読み出すとともに、注目地点と注目位置とを結ぶ線分を導出し、空間情報から線分が通過するボクセルの撮影障害属性を抽出する。そして、隠蔽度算出手段642bは、抽出した撮影障害属性の最大値を注目地点の隠蔽度Sとして算出する。算出された隠蔽度Sは、注目地点の方向と対応付けて記憶部65に一時記憶される。隠蔽度算出手段642bは、全ての候補地点に対して隠蔽度Sを算出する処理を終えたか確認する(ステップS7)。未処理の候補地点がある場合、ステップS5に処理を戻して次の候補地点に対する処理を続ける。全ての候補地点に対する処理を終えた場合、候補位置に対するループ処理を終わらせてステップS8に処理を進める。 The concealment degree calculation means 642b of the route calculation means 642 sequentially sets each set candidate point as a point of interest (step S5), and sets the concealment degree S for each candidate point (step S6). That is, the concealment degree calculation means 642b first reads spatial information from the spatial information storage means 650, derives a line segment connecting the point of interest and the position of interest, and determines the imaging obstruction attribute of the voxel through which the line segment passes from the spatial information. Extract. Then, the concealment degree calculation means 642b calculates the maximum value of the extracted photographic obstruction attributes as the concealment degree S of the point of interest. The calculated concealment degree S is temporarily stored in the storage unit 65 in association with the direction of the point of interest. The degree of concealment calculation means 642b checks whether the process of calculating the degree of concealment S for all candidate points has been completed (step S7). If there is an unprocessed candidate point, the process returns to step S5 to continue processing the next candidate point. When the processing for all candidate points has been completed, the loop processing for the candidate positions is ended and the process proceeds to step S8.

候補地点設定手段642aは、全ての時点の撮影対象位置に対して候補地点の設定及び隠蔽度Sの設定の処理を終えたか否かを確認する(ステップS8)。未処理の撮影対象位置がある場合、ステップS3に処理を戻して次の撮影対象位置に対する処理を続ける。全ての撮影対象位置に対する処理を終えた場合、撮影対象位置に対するループ処理を終わらせてステップS9に処理を進める。 The candidate point setting unit 642a checks whether the process of setting candidate points and setting the degree of concealment S for the photographing target positions at all points in time has been completed (step S8). If there is an unprocessed position to be photographed, the process returns to step S3 to continue processing for the next position to be photographed. When the processing for all photographic target positions is completed, the loop processing for the photographic target positions is ended and the process proceeds to step S9.

隠蔽度算出手段642bは、一時記憶させていた候補地点毎の隠蔽度Sから方向毎に最大値を選択して方向別の隠蔽度Sを求める(ステップS9)。さらに、隠蔽度算出手段642bは、各方向を中心とし当該方向の隠蔽度をその中心の高さとする正規分布を他の方向の隠蔽度に加算することで方向別の隠蔽度を補正する(ステップS10)。補正後の隠蔽度Sは経路算出手段642に出力される。なお、ステップS6で一時記憶させた情報は消去してもよい。また、最も古い時点の情報だけを消去し、残りを次回のステップS6での処理で再利用してもよい。 The concealment degree calculating means 642b selects the maximum value for each direction from the temporarily stored concealment degrees S for each candidate point, and calculates the concealment degree S for each direction (step S9). Further, the concealment degree calculating means 642b corrects the concealment degree for each direction by adding a normal distribution centered on each direction and having the concealment degree in that direction as the height of the center to the concealment degree in other directions (step S10). The corrected concealment degree S is output to the route calculation means 642. Note that the information temporarily stored in step S6 may be deleted. Alternatively, only the information at the oldest point in time may be deleted and the remaining information may be reused in the next step S6.

経路算出手段642は、方向別の隠蔽度Sを最新時点の候補位置及び現ロボット位置とともに与えて経路探索を実行する。まず、経路算出手段642の経路探索手段642cは、方向別の隠蔽度Sを基準と比較して、隠蔽度が基準を下回る優良撮影方向を検出する(ステップS11)。次に、経路探索手段642cは、最新時点の候補地点の中から移動可能且つ優良撮影方向であるものを抽出する(ステップS12)。候補地点が移動可能であるかは空間情報から当該候補地点を含むボクセルの移動障害属性を抽出して判定する。 The route calculation means 642 executes a route search by providing the concealment degree S for each direction together with the latest candidate position and the current robot position. First, the route search unit 642c of the route calculation unit 642 compares the degree of concealment S for each direction with a reference, and detects a good photographing direction in which the degree of concealment is lower than the reference (step S11). Next, the route search means 642c extracts a movable point and a good photographing direction from among the candidate points at the latest point in time (step S12). Whether a candidate point is movable is determined by extracting the movement obstacle attribute of the voxel including the candidate point from the spatial information.

続いて、経路探索手段642cは、ステップS12において優該当する候補地点が抽出されたか否かを確認する(ステップS13)。該当する候補地点が抽出された場合、経路探索手段642cは、抽出した候補地点毎の座標と当該候補地点の方向の隠蔽度を上記数式(1)~(5)に代入して評価値Vを算出する(ステップS14)。 Subsequently, the route search means 642c confirms whether or not a suitable candidate point has been extracted in step S12 (step S13). When the corresponding candidate point is extracted, the route search means 642c calculates the evaluation value V by substituting the coordinates of each extracted candidate point and the degree of concealment in the direction of the candidate point into the above formulas (1) to (5). Calculate (step S14).

該当する候補地点が抽出されなかった場合(すなわち、優良撮影方向が検出されなかった場合、または優良撮影方向の候補地点がいずれも移動不能であった場合)、経路探索手段642cは、最新時点の候補地点の中から移動可能である候補地点を抽出する(ステップS15)。経路探索手段642cは、移動可能である候補地点が抽出されたか否かを確認する(ステップS16)。移動可能である候補地点が抽出された場合、抽出された候補地点毎の座標を上記数式(2)に代入して評価値Lを算出する(ステップS17)。抽出されなかった場合、経路の算出を保留してステップS1に処理を戻す。なお、処理を戻す際、一時的に離間距離を一定値だけ増加させる変更を行ってもよい。 If a corresponding candidate point is not extracted (that is, if a good photographic direction is not detected, or if any of the candidate points of a good photographic direction are immovable), the route search means 642c uses the latest point. A movable candidate point is extracted from among the candidate points (step S15). The route search means 642c confirms whether a candidate point to which movement is possible has been extracted (step S16). If a movable candidate point is extracted, the evaluation value L is calculated by substituting the coordinates of each extracted candidate point into the above formula (2) (step S17). If not extracted, route calculation is suspended and the process returns to step S1. Note that when returning the process, the separation distance may be temporarily increased by a certain value.

なお、ステップS13及びステップS15で得られた候補地点が移動可能であるか否かの判定結果は次回のステップS13及びステップS15の処理で再利用するために記憶部65に一時記憶させてもよい。 Note that the determination result of whether or not the candidate point obtained in step S13 and step S15 is movable may be temporarily stored in the storage unit 65 in order to be reused in the next process of step S13 and step S15. .

経路探索手段642cは、ステップS14又はステップS17で算出された評価値の中から最大値を検索し、最大値が算出された候補地点を移動先に決定する(ステップS18)。そして、経路探索手段642cは、空間情報記憶手段650から空間情報を読み出し、空間情報と現ロボット位置と決定した移動先とを基に、現ロボット位置から移動先への経路を探索し、探索結果として得られた経路を経路記憶手段653に記憶させる(ステップS19)。こうして経路が更新されると、移動制御手段644は、自律移動ロボット6を当該経路に追従移動させる。 The route search means 642c searches for the maximum value from among the evaluation values calculated in step S14 or step S17, and determines the candidate point for which the maximum value has been calculated as the destination (step S18). Then, the route search means 642c reads the spatial information from the spatial information storage means 650, searches for a route from the current robot position to the movement destination based on the spatial information, the current robot position, and the determined movement destination, and searches for a route from the current robot position to the movement destination. The route obtained as follows is stored in the route storage means 653 (step S19). When the route is updated in this way, the movement control means 644 moves the autonomous mobile robot 6 to follow the route.

[変形例]
以下、上記説明した実施の形態の変形例について説明する。
[Modified example]
Modifications of the embodiment described above will be described below.

上記実施形態においては、侵入物センサ2が実際に検出した侵入物位置に基づく撮影対象位置(時刻t-2,t-1,tにおける撮影対象位置)のみを用いて優良撮影方向を求める例を示した。別の実施形態においては、サンプル不足を防止するために、対象位置取得手段640が撮影対象位置を内挿または/及び外挿してもよい。例えば、対象位置取得手段640は、時刻t-2,t-1,tにおける撮影対象位置から時刻t-2とt-1の間の撮影対象位置及び時刻t-1とtの間の撮影対象位置を線形補間することにより撮影対象位置を内挿することができる。また例えば対象位置取得手段640は、時刻t-2,t-1,tにおける撮影対象位置から時刻t+1の撮影対象位置を線形予測することにより撮影対象位置を外挿することができる。 In the above-mentioned embodiment, an example is described in which the best photographing direction is determined using only the photographing target positions based on the position of the intruding object actually detected by the intruding object sensor 2 (the photographing target positions at times t-2, t-1, and t). Indicated. In another embodiment, the object position acquisition means 640 may interpolate and/or extrapolate the imaging object position in order to prevent sample shortage. For example, the object position acquisition means 640 acquires the object positions from the object positions at times t-2, t-1, and t to the object positions between times t-2 and t-1 and the object positions between times t-1 and t. The photographing target position can be interpolated by linearly interpolating the position. For example, the object position acquisition means 640 can extrapolate the object position by linearly predicting the object position at time t+1 from the object positions at times t-2, t-1, and t.

その場合、候補地点設定手段642a及び隠蔽度算出手段642bは内挿・外挿されたものを含めた撮影対象位置を用いて処理を行う。 In that case, the candidate point setting means 642a and the concealment degree calculation means 642b perform processing using the photographing target positions including interpolated and extrapolated positions.

また、上記実施形態及びその変形例においては、空間情報はボクセルの属性として移動障害属性と撮影障害属性が付与される例を示した。別の実施形態においては、これらを分けず、ボクセルの属性として近似的に障害物の有無のみが付与されてもよい。その場合、各手段は、障害物有りの属性を有するボクセルを移動の障害となるボクセルでもあり属性と撮影の障害でもあるボクセルとして処理し、障害物無しの属性を有するボクセルを移動の障害とならないボクセルでもあり属性と撮影の障害とならないボクセルでもあるとして処理すればよい。 Furthermore, in the above embodiment and its modified examples, an example has been shown in which spatial information is given a movement obstacle attribute and a photographing obstacle attribute as voxel attributes. In another embodiment, these may not be separated, and only the presence or absence of an obstacle may be approximately given as an attribute of the voxel. In that case, each means processes a voxel that has an attribute of "obstacle present" as a voxel that is an obstacle to movement and a voxel that is also an obstacle to the attribute and imaging, and a voxel that has an attribute of "no obstacle" that does not become an obstacle to movement. It is sufficient to treat it as a voxel and a voxel that does not interfere with attributes and imaging.

また、上記実施形態及びその変形例においては、移動先決定手段としての機能を含んだ経路探索手段642cが、移動先を1つ決定してから、当該移動先に対する最良の経路を探索する処理例を示した。別の実施形態においては、経路探索手段642cが、優良撮影方向である複数の候補地点のそれぞれを終端とする経路の中から最良の経路を探索し、結果的に最良の経路の終端として移動先を決定する処理とすることもできる。 Further, in the above embodiment and its modified example, the route searching means 642c including the function as a destination determining means determines one destination and then searches for the best route to the destination. showed that. In another embodiment, the route search means 642c searches for the best route from among routes ending at each of a plurality of candidate points that are good photographing directions, and as a result, the end of the best route is set as the destination. It can also be a process of determining.

また、上記実施形態及びその変形例においては、経路算出手段642が複数時点の撮影対象位置に基づいて優良撮影方向を検出する例を示した。別の実施形態において、経路算出手段642は1時点の撮影対象位置に基づいて優良撮影方向を検出してもよい。ただし、その場合、方向別の隠蔽度を補正する処理は必須となる。 Further, in the above embodiment and its modified example, an example was shown in which the route calculation means 642 detects a good photographing direction based on photographing target positions at a plurality of points in time. In another embodiment, the route calculation means 642 may detect the preferred shooting direction based on the shooting target position at one point in time. However, in that case, processing to correct the degree of concealment for each direction is essential.

また、上記実施形態及びその変形例においては、監視空間を空中とする例を示したが、監視空間は陸上、水上又は水中であってもよい。したがって、監視空間を移動する制御体は、飛行する制御体に限らず、例えば、走行する制御体、歩行する制御体又は航行する制御体であってもよい。 Further, in the above embodiment and its modified examples, an example is shown in which the monitoring space is in the air, but the monitoring space may be on land, on water, or underwater. Therefore, the control body that moves in the monitoring space is not limited to a flying control body, but may be a running control body, a walking control body, or a sailing control body, for example.

また、上記実施形態及びその変形例においては、自律移動ロボット6が対象位置取得手段640を備える例を示したが、管理装置5が対象位置取得手段640を備えてもよい。その場合、管理装置5も位置・姿勢情報記憶手段651と同様に侵入物位置を予め定められた回数だけ循環記憶する手段を備える。 Further, in the above embodiment and its modified example, an example was shown in which the autonomous mobile robot 6 includes the target position acquisition means 640, but the management device 5 may also include the target position acquisition means 640. In that case, the management device 5 also includes means for cyclically storing the position of the intruder a predetermined number of times, similar to the position/orientation information storage means 651.

さらには、上記実施形態及びその変形例においては、自律移動ロボット6が備えると例示した経路算出手段642を監視センタ装置4または管理装置5が備えてもよい。その場合、監視センタ装置4または管理装置5も経路算出手段642とともに空間情報記憶手段650を備え、侵入物の位置に代えて経路が自律移動ロボット6に送信される。この構成は通信回線のリアルタイム性が高い場合に有用である。 Furthermore, in the above embodiment and its modified examples, the monitoring center device 4 or the management device 5 may include the route calculation means 642, which is exemplified as being included in the autonomous mobile robot 6. In that case, the monitoring center device 4 or the management device 5 is also provided with a spatial information storage device 650 as well as a path calculation device 642, and the path is sent to the autonomous mobile robot 6 instead of the position of the intruder. This configuration is useful when the real-time nature of the communication line is high.

また、制御体として自律移動するロボットを例示したが、監視センタ装置4または管理装置5から経路追従のための制御信号を受信して移動する制御体とすることもできる。この構成は、制御体から監視センタ装置4または管理装置5に障害物領域の情報を送信するとともに、監視センタ装置4または管理装置5に移動制御手段644を備えさせて当該移動制御手段644から制御体に制御信号を送信するよう変形することで実現できる。 Furthermore, although a robot that autonomously moves is illustrated as the control body, it may also be a control body that moves by receiving a control signal for following a route from the monitoring center device 4 or the management device 5. In this configuration, information on the obstacle area is transmitted from the control body to the monitoring center device 4 or the management device 5, and the monitoring center device 4 or the management device 5 is equipped with a movement control means 644 to control the movement control means 644. This can be achieved by transforming the body to send control signals.

以上に述べたように、撮影システム1は、撮影対象位置の周囲の複数の方向に候補地点を設定して方向ごとの隠蔽度を算出し、隠蔽度が基準を下回る優良撮影方向の候補地点を移動先に設定して撮影対象を追尾する。これによって、撮影対象の近傍に断続的な障害物があっても、当該障害物によって撮影対象を撮影できない期間を生じにくくすることができ、また、当該障害物による隠蔽を回避するための方向転換によって制御体ないしロボットの機体が不安定になる期間を生じにくくすることができる。さらに、撮影システム1は、複数時点の撮影対象位置についての候補地点に関する隠蔽度を方向ごとに統合して優良撮影方向を判定し、または/および、方向ごとの隠蔽度を、当該方向の近傍の方向における隠蔽度が高いほど高くなるように補正して優良撮影方向を判定する。これによって、上記期間を生じにくくする効果を、より高めることができる。 As described above, the photographing system 1 sets candidate points in a plurality of directions around the photographing target position, calculates the degree of concealment for each direction, and selects candidate points in good photographing directions where the degree of concealment is lower than the standard. Set it as a moving destination and track the shooting target. As a result, even if there are intermittent obstacles near the subject, it is possible to prevent periods in which the subject cannot be photographed due to the obstacles, and it is also possible to change direction to avoid being obscured by the obstacles. This makes it possible to prevent a period in which the control body or the robot body becomes unstable. Furthermore, the photographing system 1 determines an excellent photographing direction by integrating the degree of concealment regarding candidate points of the photographing target position at a plurality of points in time for each direction, and/or determines the degree of concealment for each direction for the candidate points in the vicinity of the direction. A better photographing direction is determined by making corrections such that the higher the degree of concealment in a direction, the higher the degree of concealment. Thereby, the effect of making the above-mentioned period less likely to occur can be further enhanced.

1 撮影システム、2 侵入物センサ、4 監視センタ装置、5 管理装置、6 自律移動ロボット、60 通信部、61 ロボット位置・姿勢センサ、62 障害物センサ、63 カメラ、64 制御部、65 記憶部、66 モータ、67 ロータ、100~103 撮影対象位置、110~116 樹木、120~126 候補地点、130 移動先として選択すべきではないとされた領域、140,141 移動先、150 現ロボット位置、160~162 経路、200 補正前の方向別の隠蔽度Sを示すグラフ、201 補正後の方向別の隠蔽度Sを示すグラフ、640 対象位置取得手段、641 ロボット位置・姿勢取得手段、642 経路算出手段、642a 候補地点設定手段、642b 隠蔽度算出手段、642c 経路探索手段、643 障害物領域算出手段、644 移動制御手段、650 空間情報記憶手段、651 位置・姿勢情報記憶手段、653 経路記憶手段、900~903 撮影対象位置、910~916 樹木、920 現ロボット位置、930,931 移動先、940~942 経路。 1 Photographing system, 2 Intruder sensor, 4 Monitoring center device, 5 Management device, 6 Autonomous mobile robot, 60 Communication unit, 61 Robot position/attitude sensor, 62 Obstacle sensor, 63 Camera, 64 Control unit, 65 Storage unit, 66 Motor, 67 Rotor, 100-103 Shooting target position, 110-116 Tree, 120-126 Candidate point, 130 Area that should not be selected as a movement destination, 140, 141 Movement destination, 150 Current robot position, 160 ~162 Route, 200 Graph showing degree of concealment S by direction before correction, 201 Graph showing degree of concealment S by direction after correction, 640 Target position acquisition means, 641 Robot position/posture acquisition means, 642 Route calculation means , 642a Candidate point setting means, 642b Concealment degree calculation means, 642c Route search means, 643 Obstacle area calculation means, 644 Movement control means, 650 Spatial information storage means, 651 Position/posture information storage means, 653 Route storage means, 900 ~903 Shooting target position, 910~916 Tree, 920 Current robot position, 930,931 Movement destination, 940~942 Route.

Claims (5)

撮影手段及び移動手段を有する制御体を、障害物が存在する空間において移動する撮影対象を前記撮影手段により撮影させるために、前記移動手段により移動させる移動先を設定する移動先設定装置であって、
前記撮影対象の位置である撮影対象位置を複数の時点について取得する対象位置取得手段と、
前記空間における前記障害物の領域を記憶している空間情報記憶手段と、
前記複数の時点のそれぞれにおいて、前記撮影対象位置を中心とする複数の方向に、前記撮影対象位置から所定距離以上離間させて前記移動先の候補となる候補地点を設定する候補地点設定手段と、
前記複数の時点における前記候補地点と前記障害物の領域と前記撮影対象位置とを参照して、前記候補地点に移動した前記制御体が撮影した場合に前記撮影対象が前記障害物によって隠蔽される可能性の高さを表す隠蔽度を前記複数の時点それぞれについて前記方向毎に算出し、同一の方向について算出した各時点の前記隠蔽度を統合して前記方向毎の統合隠蔽度を算出する隠蔽度算出手段と、
前記統合隠蔽度が所定の基準を下回る方向の前記候補地点のうち最新の時点における前記候補地点から前記移動先を決定する移動先決定手段と、
を備えたことを特徴とする移動先設定装置。
A destination setting device for setting a destination to which a control body having a photographing means and a moving means is moved by the moving means in order to cause the photographing means to photograph a moving subject in a space where an obstacle exists. ,
object position acquisition means for acquiring a photographing target position, which is a position of the photographing target, at a plurality of time points;
spatial information storage means storing the area of the obstacle in the space;
Candidate point setting means for setting candidate points as candidates for the movement destination at each of the plurality of time points, in a plurality of directions centered on the photographing target position, and spaced apart from the photographing target position by a predetermined distance or more;
With reference to the candidate point, the area of the obstacle, and the photographing target position at the plurality of points in time, when the control body that has moved to the candidate point photographs, the photographing target is hidden by the obstacle. A degree of concealment representing a high possibility is calculated for each direction at each of the plurality of time points, and the degree of concealment calculated for the same direction at each time point is integrated to calculate an integrated degree of concealment for each direction. Concealment degree calculation means,
Movement destination determining means for determining the movement destination from the candidate point at the latest point in time among the candidate points in a direction in which the integrated degree of concealment falls below a predetermined standard;
A moving destination setting device characterized by comprising:
請求項1に記載の移動先設定装置であって、
前記隠蔽度算出手段は、前記方向毎の前記統合隠蔽度を、当該方向の近傍の方向における前記隠蔽度が高いほど高くなるように補正することを特徴とする移動先設定装置。
The destination setting device according to claim 1,
The destination setting device, wherein the concealment degree calculation means corrects the integrated concealment degree for each direction so that the higher the concealment degree in a direction near the direction, the higher the degree of concealment becomes.
撮影手段及び移動手段を有する制御体を、障害物が存在する空間において移動する撮影対象を前記撮影手段により撮影させるために、前記移動手段により移動させる移動先を設定する移動先設定方法であって、
コンピュータを用いて、
前記撮影対象の位置である撮影対象位置を複数の時点について取得する対象位置取得ステップと、
前記空間における前記障害物の領域を記憶している空間情報記憶ステップと、
前記複数の時点のそれぞれにおいて、前記撮影対象位置を中心とする複数の方向に、前記撮影対象位置から所定距離以上離間させて前記移動先の候補となる候補地点を設定する候補地点設定ステップと、
前記複数の時点における前記候補地点と前記障害物の領域と前記撮影対象位置とを参照して、前記候補地点に移動した前記制御体が撮影した場合に前記撮影対象が前記障害物によって隠蔽される可能性の高さを表す隠蔽度を前記複数の時点それぞれについて前記方向毎に算出し、同一の方向について算出した各時点の前記隠蔽度を統合して前記方向毎の統合隠蔽度を算出する隠蔽度算出ステップと、
前記統合隠蔽度が所定の基準を下回る方向の前記候補地点のうち最新の時点における前記候補地点から前記移動先を決定する移動先決定ステップと、
を行うことを特徴とする移動先設定方法。
A movement destination setting method for setting a destination to which a control body having a photographing means and a moving means is moved by the moving means in order to cause the photographing means to photograph a moving subject in a space where an obstacle exists. ,
using a computer,
a target position acquisition step of acquiring a photographing target position, which is a position of the photographing target, at a plurality of time points;
a spatial information storage step of storing an area of the obstacle in the space;
At each of the plurality of time points, a candidate point setting step of setting a candidate point as a candidate for the movement destination at a distance of a predetermined distance or more from the photographing target position in a plurality of directions centered on the photographing target position;
With reference to the candidate point, the area of the obstacle, and the photographing target position at the plurality of time points, when the control body that has moved to the candidate point photographs, the photographing target is hidden by the obstacle. A degree of concealment representing a high possibility is calculated for each direction at each of the plurality of time points, and the degree of concealment calculated for the same direction at each time point is integrated to calculate an integrated degree of concealment for each direction. a concealment degree calculation step;
a movement destination determining step of determining the movement destination from the candidate point at the latest point in time among the candidate points in a direction in which the integrated degree of concealment falls below a predetermined standard;
A method for setting a destination.
撮影手段及び移動手段を有する制御体を、障害物が存在する空間において移動する撮影対象を前記撮影手段により撮影させるために、前記移動手段により移動させる移動先を設定する移動先設定プログラムであって、
コンピュータを、
前記撮影対象の位置である撮影対象位置を複数の時点について取得する対象位置取得手段と、
前記空間における前記障害物の領域を記憶している空間情報記憶手段と、
前記複数の時点のそれぞれにおいて、前記撮影対象位置を中心とする複数の方向に、前記撮影対象位置から所定距離以上離間させて前記移動先の候補となる候補地点を設定する候補地点設定手段と、
前記複数の時点における前記候補地点と前記障害物の領域と前記撮影対象位置とを参照して、前記候補地点に移動した前記制御体が撮影した場合に前記撮影対象が前記障害物によって隠蔽される可能性の高さを表す隠蔽度を前記複数の時点それぞれについて前記方向毎に算出し、同一の方向について算出した各時点の前記隠蔽度を統合して前記方向毎の統合隠蔽度を算出する隠蔽度算出手段と、
前記統合隠蔽度が所定の基準を下回る方向の前記候補地点のうち最新の時点における前記候補地点から前記移動先を決定する移動先決定手段と、
として機能させることを特徴とする移動先設定プログラム。
A destination setting program for setting a destination to which a control body having a photographing means and a moving means is moved by the moving means in order to cause the photographing means to photograph a moving subject in a space where an obstacle exists. ,
computer,
object position acquisition means for acquiring a photographing target position, which is a position of the photographing target, at a plurality of time points;
spatial information storage means storing the area of the obstacle in the space;
Candidate point setting means for setting candidate points as candidates for the movement destination at each of the plurality of time points, in a plurality of directions centered on the photographing target position, and spaced apart from the photographing target position by a predetermined distance or more;
With reference to the candidate point, the area of the obstacle, and the photographing target position at the plurality of points in time, when the control body that has moved to the candidate point photographs, the photographing target is hidden by the obstacle. A degree of concealment representing a high possibility is calculated for each direction at each of the plurality of time points, and the degree of concealment calculated for the same direction at each time point is integrated to calculate an integrated degree of concealment for each direction. Concealment degree calculation means,
Movement destination determining means for determining the movement destination from the candidate point at the latest point in time among the candidate points in a direction in which the integrated degree of concealment falls below a predetermined standard;
A destination setting program that is characterized by functioning as a destination setting program.
障害物が存在する空間において移動する撮影対象を撮影するための撮影手段及び移動手段を有する自律移動が可能なロボットであって、
前記撮影対象の位置である撮影対象位置を複数の時点について取得する対象位置取得手段と、
前記空間における前記障害物の領域を記憶している空間情報記憶手段と、
前記複数の時点のそれぞれにおいて、前記撮影対象位置を中心とする複数の方向に、前記撮影対象位置から所定距離以上離間させて移動先の候補となる候補地点を設定する候補地点設定手段と、
前記複数の時点における前記候補地点と前記障害物の領域と前記撮影対象位置とを参照して、前記候補地点に移動した前記ロボットが撮影した場合に前記撮影対象が前記障害物によって隠蔽される可能性の高さを表す隠蔽度を前記複数の時点それぞれについて前記方向毎に算出し、同一の方向について算出した各時点の前記隠蔽度を統合して前記方向毎の統合隠蔽度を算出する隠蔽度算出手段と、
前記統合隠蔽度が所定の基準を下回る方向の前記候補地点のうち最新の時点における前記候補地点から前記移動先を決定する移動先決定手段と、
を備えたことを特徴とするロボット。
A robot capable of autonomous movement, having a photographing means and a moving means for photographing a moving subject in a space where obstacles exist,
object position acquisition means for acquiring a photographing target position, which is a position of the photographing target, at a plurality of time points;
spatial information storage means storing the area of the obstacle in the space;
Candidate point setting means for setting a candidate point as a movement destination at each of the plurality of time points, in a plurality of directions centered on the photographing target position, and spaced apart from the photographing target position by a predetermined distance or more;
Referring to the candidate point, the area of the obstacle, and the photographing target position at the plurality of points in time, when the robot moves to the candidate point and photographs, the photographing target may be hidden by the obstacle. Concealment in which a degree of concealment representing the degree of concealment is calculated for each direction at each of the plurality of time points, and the degree of concealment at each time point calculated for the same direction is integrated to calculate an integrated degree of concealment for each direction. degree calculation means,
Movement destination determining means for determining the movement destination from the candidate point at the latest point in time among the candidate points in a direction in which the integrated degree of concealment falls below a predetermined standard;
A robot characterized by:
JP2019054594A 2019-03-22 2019-03-22 Destination setting device, destination setting method, destination setting program, and robot Active JP7441608B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019054594A JP7441608B2 (en) 2019-03-22 2019-03-22 Destination setting device, destination setting method, destination setting program, and robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019054594A JP7441608B2 (en) 2019-03-22 2019-03-22 Destination setting device, destination setting method, destination setting program, and robot

Publications (2)

Publication Number Publication Date
JP2020154966A JP2020154966A (en) 2020-09-24
JP7441608B2 true JP7441608B2 (en) 2024-03-01

Family

ID=72559334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019054594A Active JP7441608B2 (en) 2019-03-22 2019-03-22 Destination setting device, destination setting method, destination setting program, and robot

Country Status (1)

Country Link
JP (1) JP7441608B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012108574A (en) 2010-11-15 2012-06-07 Secom Co Ltd Target image determination apparatus
JP2014119901A (en) 2012-12-14 2014-06-30 Secom Co Ltd Autonomous mobile robot
JP2014142828A (en) 2013-01-24 2014-08-07 Secom Co Ltd Autonomous mobile robot
JP2017016359A (en) 2015-06-30 2017-01-19 セコム株式会社 Autonomous Mobile Robot
WO2017043258A1 (en) 2015-09-09 2017-03-16 シャープ株式会社 Calculating device and calculating device control method
JP2018147337A (en) 2017-03-08 2018-09-20 日本電気株式会社 Autonomous Mobile Robot, Autonomous Mobile Robot Control Method and Control Program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5160322B2 (en) * 2008-06-30 2013-03-13 株式会社Ihi Autonomous mobile robot apparatus and control method for autonomous mobile robot apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012108574A (en) 2010-11-15 2012-06-07 Secom Co Ltd Target image determination apparatus
JP2014119901A (en) 2012-12-14 2014-06-30 Secom Co Ltd Autonomous mobile robot
JP2014142828A (en) 2013-01-24 2014-08-07 Secom Co Ltd Autonomous mobile robot
JP2017016359A (en) 2015-06-30 2017-01-19 セコム株式会社 Autonomous Mobile Robot
WO2017043258A1 (en) 2015-09-09 2017-03-16 シャープ株式会社 Calculating device and calculating device control method
JP2018147337A (en) 2017-03-08 2018-09-20 日本電気株式会社 Autonomous Mobile Robot, Autonomous Mobile Robot Control Method and Control Program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
中村 恭之ほか,ステレオスケッチ:ステレオ視覚を持つ移動ロボットの行動獲得 ,日本ロボット学会誌 ,日本,社団法人日本ロボット学会,1997年05月,第15巻第4号,PP.53-61,【ISSN】0289-1824

Also Published As

Publication number Publication date
JP2020154966A (en) 2020-09-24

Similar Documents

Publication Publication Date Title
US20180032042A1 (en) System And Method Of Dynamically Controlling Parameters For Processing Sensor Output Data
JP6029446B2 (en) Autonomous flying robot
JP6664162B2 (en) Autonomous flying robot
JP6195450B2 (en) Autonomous flying robot
JP6599143B2 (en) Autonomous mobile robot
JP5990453B2 (en) Autonomous mobile robot
Nieuwenhuisen et al. Multimodal obstacle detection and collision avoidance for micro aerial vehicles
Chambers et al. Perception for a river mapping robot
JP6527726B2 (en) Autonomous mobile robot
JP2019164415A (en) Flight control system
KR20220129218A (en) Speed control method of unmanned vehicle to awareness the flight situation about an obstacle, and, unmanned vehicle the performed the method
JP6758068B2 (en) Autonomous mobile robot
JP6014484B2 (en) Autonomous mobile robot
JP2014142828A (en) Autonomous mobile robot
EP3248139A1 (en) Cloud feature detection
CN112306078B (en) Method and system for automatically avoiding obstacle wires of unmanned aerial vehicle
JP6530212B2 (en) Autonomous mobile robot
JP6469492B2 (en) Autonomous mobile robot
Chow et al. Toward underground localization: Lidar inertial odometry enabled aerial robot navigation
JP7126366B2 (en) movement control system
WO2019022910A2 (en) System and method of dynamically controlling parameters for processing sensor output data
JP7351609B2 (en) Route searching device and program
JP7441608B2 (en) Destination setting device, destination setting method, destination setting program, and robot
CN112380933A (en) Method and device for identifying target by unmanned aerial vehicle and unmanned aerial vehicle
Kang et al. Development of a peripheral-central vision system for small UAS tracking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240219

R150 Certificate of patent or registration of utility model

Ref document number: 7441608

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150