WO2018179404A1 - 情報処理装置、情報処理方法、および情報処理プログラム - Google Patents

情報処理装置、情報処理方法、および情報処理プログラム Download PDF

Info

Publication number
WO2018179404A1
WO2018179404A1 PCT/JP2017/013775 JP2017013775W WO2018179404A1 WO 2018179404 A1 WO2018179404 A1 WO 2018179404A1 JP 2017013775 W JP2017013775 W JP 2017013775W WO 2018179404 A1 WO2018179404 A1 WO 2018179404A1
Authority
WO
WIPO (PCT)
Prior art keywords
flying object
information processing
area
fall range
ground surface
Prior art date
Application number
PCT/JP2017/013775
Other languages
English (en)
French (fr)
Inventor
哲夫 井下
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2017/013775 priority Critical patent/WO2018179404A1/ja
Priority to JP2019508476A priority patent/JP6791365B2/ja
Priority to US16/497,692 priority patent/US11320269B2/en
Publication of WO2018179404A1 publication Critical patent/WO2018179404A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0017Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
    • G08G5/0021Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located in the aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0052Navigation or guidance aids for a single aircraft for cruising
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • G08G5/0086Surveillance aids for monitoring terrain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U70/00Launching, take-off or landing arrangements

Definitions

  • the present invention relates to an information processing apparatus, an information processing method, and an information processing program.
  • Patent Document 1 discloses a technique for automatically avoiding an obstacle by the unmanned airplane by inputting the coordinates of the obstacle together with the flight route in advance to the unmanned airplane.
  • An object of the present invention is to provide a technique for solving the above-described problems.
  • an apparatus provides: Detecting means for detecting a fallable area on the ground surface based on a flying object image obtained by photographing a ground area spreading downward while the flying object moves; A fall range estimating means for estimating a fall range on the ground surface in the case of falling; Determining means for determining a flight route of the flying body so that the fall range is included in the detected fallable area; Is an information processing apparatus.
  • the method according to the present invention comprises: A detection step for detecting a fallable area on the ground surface based on a flying object image obtained by photographing a ground area extending downward while the flying object moves; A fall range estimation step for estimating a fall range on the ground surface in the case of falling; A determination step of determining a flight route of the flying body so that the fall range is included in the detected fallable area; Is an information processing method.
  • a program provides: A detection step for detecting a fallable area on the ground surface based on a flying object image obtained by photographing a ground area extending downward while the flying object moves; A fall range estimation step for estimating a fall range on the ground surface in the case of falling; A determination step of determining a flight route of the flying body so that the fall range is included in the detected fallable area; Is an information processing program for causing a computer to execute.
  • the flying object since the flight route corresponding to the dropable area is determined, the flying object can be safely flying.
  • the “aircraft” is a so-called drone, which is an aircraft (UAV (Unmanned Aerial Vehicle)) that can be unmanned and can fly by remote control or autonomous control.
  • UAV Unmanned Aerial Vehicle
  • the information processing apparatus 100 is an apparatus for determining a flight route by a flying object.
  • the information processing apparatus 100 includes a dropable area detection unit 101, a fall range estimation unit 102, and a flight route determination unit 103.
  • the droppable area detection unit 101 detects a droppable area on the ground surface based on the flying object image obtained by the flying object 110 photographing the ground area.
  • the fall range estimation unit 102 estimates the fall range on the ground surface when the flying object 110 falls.
  • the flight route determination unit 103 determines the flight route of the flying object 110 so that the detected fallable area includes the fall range.
  • FIG. 2 and 3 are diagrams illustrating an example of a flight route determined by the information processing apparatus according to the present embodiment.
  • the flying object 210 flies from the start position 201 to the target position 202 and develops a route for moving to the goal position 203, the captured image is analyzed and the river 204 and the tree 205 exist.
  • the area to be detected is detected as a droppable area.
  • the fall range on the ground surface when the flying object 110 falls is estimated, and the flight route of the flying object 210 is determined so that the estimated fall range is included in the detected fallable area.
  • the captured image is analyzed to analyze the roof 304 of the house.
  • the area where the tree 205 exists is detected as a fallable area.
  • the roof 304 of the house has a lower dropable level than the river 204, it has a higher dropable level than the road. Therefore, in an emergency, for example, it can move over the sky as a flight route.
  • FIG. 4 is a block diagram showing a configuration of the information processing system 400 according to the present embodiment.
  • the information processing system 400 includes a controller 401 and a flying object 210.
  • the controller 401 is a device having a calculation capability such as a so-called propo or notebook PC, and includes a video acquisition unit 411, a dropable region detection unit 412, a ground surface object database 413, a fall range estimation unit 414, a flying object determination unit 415, an urgency.
  • a determination unit 416 and a flight route determination unit 417 are provided.
  • the controller 401 further includes a display unit 418, an operation unit 419, and a control unit 420.
  • the flying object 210 includes a flight drive unit 421 including a propeller and a motor, a flight control unit 422 that controls the flight drive unit 421, and an imaging unit 423 that captures an image.
  • the video acquisition unit 411 acquires video data captured by the imaging unit 423 of the flying object 210.
  • the fallable area detection unit 412 identifies various objects existing on the ground surface using the video data acquired by the video acquisition unit 411, and further refers to the ground surface object database 413, thereby falling on the ground surface. Detect possible areas.
  • FIG. 5 shows the contents of the ground object database 413.
  • a feature amount in the video is associated with a dropable level. Specifically, for example, sea, rivers, lakes, ponds, and the like are set to a high dropable level because they are considered to cause little damage even if the drone falls. On the other hand, people, bicycles, motorcycles, etc. have the lowest possible fall level.
  • the fall range estimation unit 414 acquires the current position (latitude and longitude altitude) from the flight control unit 422 of the flying object 210, and estimates the falling range of the flying object 210 from the position.
  • the fall range is an area on the ground surface. Usually, the higher the flight altitude, the wider the area.
  • the fall range estimation unit 414 may use information related to the wind at the position of the flying object 210 (wind speed, wind direction, etc.) in addition to the altitude and moving direction and moving speed of the flying object 210.
  • the flying object determination unit 415 receives the model information of the flying object 210 from the flying object 210 and notifies the dropable region detection unit 412 of the model information.
  • the droppable area detection unit 412 performs weighting (addition / subtraction, coefficient multiplication, etc.) on the droppable level according to the weight and size of the flying object 210. For example, when the flying object 210 is less than 1 kilometer and 20 cm square or less, a method of adding 2 to the dropable level is possible. On the other hand, when the flying object 210 is heavy and large, the dropable level is lowered to reduce the flying area.
  • the urgency determination unit 416 determines the urgency of the flight and notifies the flight route determination unit 417.
  • the flight route determination unit 417 determines a flight route according to the determined urgency of the flight, the detected dropable area, and the estimated fall range. For example, a table 600 shown in FIG. 6 is used to determine a flightable area based on urgency and to determine a flight route through the flightable area.
  • the flight route determination unit 417 includes a potential function calculation unit 471.
  • the potential function calculation unit 471 calculates a three-dimensional potential function defined according to the position and type of the object that can be dropped and the height of the flying object from the ground surface. Further, the three-dimensional potential function and a target position potential function defined according to the coordinates of the moving target are superimposed to generate a potential field as shown in FIG. In FIG. 7, the flight route is formulated based on the gradient of the potential field from the start position 201 to the goal position 203. Specifically, in the droppable area, a potential function having a negative Gaussian distribution is set according to the droppable area and the droppable level. Alternatively, the potential field in a region other than the dropable region is set high. In addition, when there is a non-fallable area, a potential function having a positive Gaussian distribution may be set.
  • the fall range estimated by the fall range estimation unit 414 is also incorporated into the potential function. Specifically, if the flight altitude is higher than a certain value, add a factor corresponding to the height to the inherent risk defined for each avoidance object, or multiply it to obtain a higher risk. It is reflected in the potential function. On the other hand, when the flight altitude is higher than a certain value, the intrinsic safety level defined for each dropable object is increased by adding or accumulating a coefficient corresponding to the height, and the safety level for each situation is increased by the potential function. To reflect. The degree of danger and safety may be changed according to the wind direction and the wind force, and the shape of the dropable region may be deformed into an anisotropic shape according to the wind direction.
  • the display unit 418 displays the video imaged by the imaging unit 423. At that time, based on the information from the droppable area detector 412, the droppable area and the non-droppable area may be displayed so as to be distinguishable.
  • the operation unit 419 receives an operation by the user and sends a control instruction to the flight control unit 422 of the flying object 210.
  • control unit 420 controls the flight of the flying object 210 so as to pass through the flight route determined by the flight route determination unit 417.
  • FIG. 8 is a flowchart showing the flow of processing in the controller 401.
  • step S801 information regarding the type of flying object is acquired from the flying object 210.
  • step S803 the urgency of flying the flying object 210 to the target position is determined.
  • step S805 image data captured by the flying object 210 during the flight is acquired.
  • step S807 various objects existing on the ground surface are identified for the video data using a known feature amount analysis technique or the like.
  • the droppable area detection unit 412 detects the droppable area while referring to the ground object database 413.
  • step S811 the fall range is estimated based on the type of the flying object 210, the flight altitude, the flight speed, and the like.
  • step S813 a three-dimensional potential function defined according to the position and type of the fallable object and the height of the flying object from the ground surface is calculated. Further, a potential field is generated by superimposing the three-dimensional potential function and a target position potential function defined according to the coordinates of the moving target. Then, the flight route is formulated based on the gradient of the potential field from the start position to the goal position.
  • the present invention may be applied to a system composed of a plurality of devices, or may be applied to a single device. Furthermore, the present invention can also be applied to a case where an information processing program that implements the functions of the embodiments is supplied directly or remotely to a system or apparatus. Therefore, in order to realize the functions of the present invention on a computer, a program installed on the computer, a medium storing the program, and a WWW (World Wide Web) server that downloads the program are also included in the scope of the present invention. . In particular, at least a non-transitory computer readable medium storing a program for causing a computer to execute the processing steps included in the above-described embodiments is included in the scope of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Astronomy & Astrophysics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Navigation (AREA)

Abstract

落下可能領域に応じた飛行ルートにより、飛行体をより安全に飛行させるため、飛行体が移動しながら下方に広がる地上領域を撮影することにより得られた飛行体映像に基づいて、地表面における落下可能領域を検知する検知手段と、落下した場合の地表面における落下範囲を推定する落下範囲推定手段と、検知された前記落下可能領域に前記落下範囲が含まれるように前記飛行体の飛行ルートを決定する決定手段と、を備えた、情報処理装置。

Description

情報処理装置、情報処理方法、および情報処理プログラム
 本発明は、情報処理装置、情報処理方法、および情報処理プログラムに関する。
 上記技術分野において、特許文献1には、無人飛行機に障害物の座標をあらかじめ飛行ルートと共に入力しておくことで、無人飛行機に障害物を自動的に回避させる技術が開示されている。
特開2003-127994号公報
 しかしながら、上記文献に記載の技術では、飛行体の落下に伴う危険を回避するものではなかった。
 本発明の目的は、上述の課題を解決する技術を提供することにある。
 上記目的を達成するため、本発明に係る装置は、
 飛行体が移動しながら下方に広がる地上領域を撮影することにより得られた飛行体映像に基づいて、地表面における落下可能領域を検知する検知手段と、
 落下した場合の地表面における落下範囲を推定する落下範囲推定手段と、
 検知された前記落下可能領域に前記落下範囲が含まれるように前記飛行体の飛行ルートを決定する決定手段と、
 を備えた情報処理装置である。
 上記目的を達成するため、本発明に係る方法は、
 飛行体が移動しながら下方に広がる地上領域を撮影することにより得られた飛行体映像に基づいて、地表面における落下可能領域を検知する検知ステップと、
 落下した場合の地表面における落下範囲を推定する落下範囲推定ステップと、
 検知された前記落下可能領域に前記落下範囲が含まれるように前記飛行体の飛行ルートを決定する決定ステップと、
 を含む情報処理方法である。
 上記目的を達成するため、本発明に係るプログラムは、
 飛行体が移動しながら下方に広がる地上領域を撮影することにより得られた飛行体映像に基づいて、地表面における落下可能領域を検知する検知ステップと、
 落下した場合の地表面における落下範囲を推定する落下範囲推定ステップと、
 検知された前記落下可能領域に前記落下範囲が含まれるように前記飛行体の飛行ルートを決定する決定ステップと、
 をコンピュータに実行させる情報処理プログラムである。
 本発明によれば、落下可能領域に応じた飛行ルートを決定するので、飛行体を安全に飛行させることができる。
本発明の第1実施形態に係る情報処理装置の構成を示すブロック図である。 本発明の第2実施形態に係る情報処理装置の利用状況を説明する図である。 本発明の第2実施形態に係る情報処理装置の利用状況を説明する図である。 本発明の第2実施形態に係る情報処理装置の構成を示すブロック図である。 本発明の第2実施形態に係る情報処理装置で用いられるテーブルを示す図である。 本発明の第2実施形態に係る情報処理装置で用いられるテーブルを示す図である。 本発明の第2実施形態に係る飛行ルートの決定方法を説明する図である。 本発明の第2実施形態に係る情報処理装置の処理の流れを示すフローチャートである。
 以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素はあくまで例示であり、本発明の技術範囲をそれらのみに限定する趣旨のものではない。なお、下記において「飛行体」とは、いわゆるドローン(Drone)であり、無人で遠隔操作や自律制御によって飛行できる航空機(UAV(Unmanned Aerial Vehicle))である。
 [第1実施形態]
 本発明の第1実施形態としての情報処理装置100について、図1を用いて説明する。情報処理装置100は、飛行体による飛行ルートを決定するための装置である。
 図1に示すように、情報処理装置100は、落下可能領域検知部101と落下範囲推定部102と飛行ルート決定部103とを含む。
 落下可能領域検知部101は、飛行体110が地上領域を撮影することにより得られた飛行体映像に基づいて、地表面における落下可能領域を検知する。
 落下範囲推定部102は、飛行体110が落下した場合の地表面における落下範囲を推定する。
 飛行ルート決定部103は、検知された落下可能領域に落下範囲が含まれるように飛行体110の飛行ルートを決定する。
 以上の構成によれば、落下可能領域に応じた飛行ルートを決定するので、飛行体をより安全に飛行させることができる。
 [第2実施形態]
 次に本発明の第2実施形態に係る情報処理システムについて、図2以降を用いて説明する。図2、図3は、本実施形態に係る情報処理装置によって決定される飛行ルートの一例を示す図である。
 図2において、飛行体210が、スタート位置201から、目的位置202に飛行し、ゴール位置203に移動する際のルートを策定するにあたり、撮像した映像を解析して、川204や木205が存在する領域を、落下可能領域として検知する。
 飛行体110が落下した場合の地表面における落下範囲を推定し、検知された落下可能領域に推定落下範囲が含まれるように飛行体210の飛行ルートを決定する。
 図3も同様に、飛行体210が、スタート位置201から、目的位置202に飛行し、ゴール位置203に移動する際のルートを策定するにあたり、撮像した映像を解析して、家の屋根304や木205が存在する領域を、落下可能領域として検知する。家の屋根304は、川204に比べて、落下可能レベルが低いものの、道路に比べて落下可能レベルが高いため、例えば緊急時には、飛行ルートとして上空を移動可能である。
 図4は、本実施形態に係る情報処理システム400の構成を示すブロック図である。情報処理システム400は、コントローラ401と飛行体210とを含む。
 コントローラ401は、いわゆるプロポやノートPCといった演算能力を備えた装置であり、映像取得部411、落下可能領域検知部412、地表物体データベース413、落下範囲推定部414、飛行体判定部415、緊急性判定部416および飛行ルート決定部417を備えている。また、コントローラ401は、さらに、表示部418、操作部419、制御部420を備えている。一方、飛行体210は、プロペラやモータを含む飛行駆動部421と、飛行駆動部421を制御する飛行制御部422と、映像を撮像する撮像部423とを備えている。
 映像取得部411は、飛行体210の撮像部423で撮像された映像データを取得する。落下可能領域検知部412は、映像取得部411が取得した映像データを用いて、地表面に存在する様々な物体を識別し、さらに、地表物体データベース413を参照することにより、地表面上の落下可能領域を検知する。図5に、地表物体データベース413の内容を示す。物体の種類ごとに、映像中の特徴量と落下可能レベルとが対応付けられている。具体的には、例えば、海・川・湖・池などは、ドローンが落下しても他に与える被害が小さいと考えられるため、落下可能レベルは高く設定されている。一方、人・自転車・バイクなどは、落下可能レベルは最も低く設定されている。
 落下範囲推定部414は、飛行体210の飛行制御部422から現在位置(緯度経度高度)を取得して、その位置からその飛行体210の落下範囲を推定する。落下範囲とは、地表面上の領域であり、通常は、飛行高度が高い程、広い領域となる。落下範囲推定部414は、落下範囲を推定するにあたり、飛行体210の高度および移動方向ならびに移動速度の他、飛行体210の位置における風に関する情報(風速や風向など)を用いてもよい。
 飛行体判定部415は、飛行体210の機種情報を飛行体210から受信し、落下可能領域検知部412に通知する。落下可能領域検知部412は、飛行体210の重さ・大きさに応じて、落下可能レベルに重み付け(加減算、係数倍など)を行なう。例えば、飛行体210が、1キロ未満で20cm四方以下である場合には、落下可能レベルに2を加算する等といった方法が可能である。一方、飛行体210が重くて大きい場合には、落下可能レベルを引き下げ、飛行可能領域を小さくする。
 緊急性判定部416は、飛行の緊急性を判定して、飛行ルート決定部417に通知する。
 飛行ルート決定部417は、判定した飛行の緊急性と、検知した落下可能領域と、推定した落下範囲とに応じて、飛行ルートを決定する。例えば図6に示すテーブル600を用いて、緊急性に基づいた飛行可能領域を決定し、その飛行可能領域を通る飛行ルートを決定する。飛行ルート決定部417は、ポテンシャル関数算出部471を備えている。
 ポテンシャル関数算出部471は、落下可能物体の位置および種類と、飛行体の地表面からの高さと、に応じて定義された3次元ポテンシャル関数を算出する。さらに、その3次元ポテンシャル関数と、移動目標の座標に応じて定義された目標位置ポテンシャル関数とを重ね合わせて図7に示すようなポテンシャル場を生成する。図7において、スタート位置201からゴール位置203に到達するまでのポテンシャル場の勾配に基づいて、飛行ルートを策定する。具体的には、落下可能領域においては、落下可能エリアと落下可能レベルに応じて負のガウス分布となるポテンシャル関数を設定する。あるいは、落下可能領域以外の領域のポテンシャル場を高く設定する。また、落下不可領域が存在する場合は、正のガウス分布となるポテンシャル関数を設定してもよい。
 また、このとき、落下範囲推定部414が推定した落下範囲もポテンシャル関数に組み込む。具体的には、飛行高度が一定値より高い場合には、回避物ごとに定義された固有危険度にその高さに応じた係数を加算または積算して大きくとり、その状況ごとの危険度をポテンシャル関数に反映させる。一方、飛行高度が一定値より高い場合には、落下可能物体ごとに定義された固有安全度にその高さに応じた係数を加算または積算して大きくし、その状況ごとの安全度をポテンシャル関数に反映させる。風向きや風力に応じて、危険度・安全度を変化させてもよく、さらには、落下可能領域の形状についても、風向きに応じて非等方性を有する形状に変形してもよい。
 表示部418は、撮像部423で撮像された映像を表示する。その際、落下可能領域検知部412からの情報に基づいて、落下可能領域と、落下不可領域とを識別可能に表示してもよい。
 操作部419は、ユーザによる操作を受け付けて、飛行体210の飛行制御部422に対して制御指示を送る。
 また、制御部420は、飛行ルート決定部417で決定した飛行ルートを通るように飛行体210を飛行制御する。
 図8は、コントローラ401における処理の流れを示すフローチャートである。まずステップS801で、飛行体210から飛行体の種類に関する情報を取得する。次にステップS803において、飛行体210を目的位置まで飛行させる緊急性を判定する。さらにステップS805において、飛行体210が飛行中に撮像した映像データを取得する。
 次に、ステップS807において、映像データに対し、既知の特徴量分析技術などを用いて、地表に存在する様々な物体を識別する。さらにステップS809において、落下可能領域検知部412が、地表物体データベース413を参照しつつ、落下可能領域を検知する。
 次にステップS811において、飛行体210の種類、飛行高度、および飛行速度などに基づいて、落下範囲を推定する。
 ステップS813においては、落下可能物体の位置および種類と、飛行体の地表面からの高さと、に応じて定義された3次元ポテンシャル関数を算出する。さらに、その3次元ポテンシャル関数と、移動目標の座標に応じて定義された目標位置ポテンシャル関数とを重ね合わせてポテンシャル場を生成する。そして、スタート位置からゴール位置に到達するまでのポテンシャル場の勾配に基づいて、飛行ルートを策定する。
 以上の構成によれば、ポテンシャル関数を利用して、落下可能領域を優先的に通る飛行ルートを決定するので、飛行体をより安全に飛行させることができる。
 [他の実施形態]
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。
 また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する情報処理プログラムが、システムあるいは装置に直接あるいは遠隔から供給される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるWWW(World Wide Web)サーバも、本発明の範疇に含まれる。特に、少なくとも、上述した実施形態に含まれる処理ステップをコンピュータに実行させるプログラムを格納した非一時的コンピュータ可読媒体(non-transitory computer readable medium)は本発明の範疇に含まれる。

Claims (9)

  1.  飛行体が移動しながら下方に広がる地上領域を撮影することにより得られた飛行体映像に基づいて、地表面における落下可能領域を検知する検知手段と、
     落下した場合の地表面における落下範囲を推定する落下範囲推定手段と、
     検知された前記落下可能領域に前記落下範囲が含まれるように前記飛行体の飛行ルートを決定する決定手段と、
     を備えた情報処理装置。
  2.  前記落下範囲推定手段は、前記飛行体の位置、高さおよび移動速度に基づいて、前記飛行体が落下した場合の地表面における落下範囲を推定する請求項1に記載の情報処理装置。
  3.  前記落下範囲推定手段は、さらに、前記飛行体に影響を及ぼす風に関する情報に基づいて、前記落下範囲を推定する請求項1または2に記載の情報処理装置。
  4.  前記検知手段は、地表面における落下可能領域を、落下を許容できる程度に応じて段階的に評価し、
     前記決定手段は、前記飛行体の移動の緊急性に応じて、複数レベルの落下可能領域から、一つのレベルの落下可能領域を選択する請求項1、2または3に記載の情報処理装置。
  5.  前記検知手段は、前記飛行体の種類に応じて、前記落下可能領域を検知する請求項1乃至4のいずれか1項に記載の情報処理装置。
  6.  前記検知手段は、前記飛行体映像に含まれる落下可能物体の種類に応じて落下可能領域を検知する請求項1乃至5のいずれか1項に記載の情報処理装置。
  7.  前記決定手段は、前記落下可能物体の種類と、前記飛行体の地表面からの高さに応じて定義された3次元ポテンシャル関数と、移動目標の座標に応じて定義された目標位置ポテンシャル関数との重ね合わせにより生成されるポテンシャル場の勾配に従って、前記飛行体の飛行ルートを決定する請求項6に記載の情報処理装置。
  8.  飛行体が移動しながら下方に広がる地上領域を撮影することにより得られた飛行体映像に基づいて、地表面における落下可能領域を検知する検知ステップと、
     落下した場合の地表面における落下範囲を推定する落下範囲推定ステップと、
     検知された前記落下可能領域に前記落下範囲が含まれるように前記飛行体の飛行ルートを決定する決定ステップと、
     を含む情報処理方法。
  9.  飛行体が移動しながら下方に広がる地上領域を撮影することにより得られた飛行体映像に基づいて、地表面における落下可能領域を検知する検知ステップと、
     落下した場合の地表面における落下範囲を推定する落下範囲推定ステップと、
     検知された前記落下可能領域に前記落下範囲が含まれるように前記飛行体の飛行ルートを決定する決定ステップと、
     をコンピュータに実行させる情報処理プログラム。
PCT/JP2017/013775 2017-03-31 2017-03-31 情報処理装置、情報処理方法、および情報処理プログラム WO2018179404A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2017/013775 WO2018179404A1 (ja) 2017-03-31 2017-03-31 情報処理装置、情報処理方法、および情報処理プログラム
JP2019508476A JP6791365B2 (ja) 2017-03-31 2017-03-31 情報処理装置、情報処理方法、および情報処理プログラム
US16/497,692 US11320269B2 (en) 2017-03-31 2017-03-31 Information processing apparatus, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/013775 WO2018179404A1 (ja) 2017-03-31 2017-03-31 情報処理装置、情報処理方法、および情報処理プログラム

Publications (1)

Publication Number Publication Date
WO2018179404A1 true WO2018179404A1 (ja) 2018-10-04

Family

ID=63674672

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/013775 WO2018179404A1 (ja) 2017-03-31 2017-03-31 情報処理装置、情報処理方法、および情報処理プログラム

Country Status (3)

Country Link
US (1) US11320269B2 (ja)
JP (1) JP6791365B2 (ja)
WO (1) WO2018179404A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019112006A (ja) * 2017-12-26 2019-07-11 東京電力ホールディングス株式会社 無人飛翔体墜落報知システム、地上局、報知方法、およびプログラム
WO2020085229A1 (ja) * 2018-10-22 2020-04-30 株式会社ナイルワークス 運転経路生成システム、運転経路生成方法、および運転経路生成プログラム、ならびにドローン
JP2021054280A (ja) * 2019-09-30 2021-04-08 株式会社ナイルワークス 運転経路生成システム、運転経路生成方法、運転経路生成プログラム、およびドローン
JP2021086387A (ja) * 2019-11-27 2021-06-03 ソフトバンク株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP2021092874A (ja) * 2019-12-09 2021-06-17 株式会社ゼンリン コンピュータシステムおよびプログラム
US20220107657A1 (en) * 2020-10-02 2022-04-07 Toyota Jidosha Kabushiki Kaisha Controller, system, flying object, and transport method
JP7456537B2 (ja) 2015-08-25 2024-03-27 日本電気株式会社 飛行体制御装置、飛行体制御方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014199548A (ja) * 2013-03-29 2014-10-23 綜合警備保障株式会社 飛行制御システム及び飛行制御方法
JP6051327B1 (ja) * 2016-05-26 2016-12-27 株式会社プロドローン 無人航空機
WO2017033976A1 (ja) * 2015-08-25 2017-03-02 日本電気株式会社 飛行体制御装置、飛行体制御方法、及びコンピュータ読み取り可能な記録媒体

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6260797B1 (en) * 1998-01-13 2001-07-17 Science Applications International Corporation Transformable gun launched aero vehicle
JP2003127994A (ja) 2001-10-24 2003-05-08 Kansai Electric Power Co Inc:The 無人飛行物体の制御システム
US7512462B2 (en) 2004-11-16 2009-03-31 Northrop Grumman Corporation Automatic contingency generator
CN103733234B (zh) * 2011-02-21 2017-05-10 斯特拉特克***有限公司 用于检测飞机场中的外物、碎片或损坏的监视***和方法
FR2985581B1 (fr) * 2012-01-05 2014-11-28 Parrot Procede de pilotage d'un drone a voilure tournante pour operer une prise de vue par une camera embarquee avec minimisation des mouvements perturbateurs
US9645582B2 (en) 2015-06-25 2017-05-09 Bell Helicopter Textron Inc. Landing aircrafts with optimal landing spot selection
US9652990B2 (en) * 2015-06-30 2017-05-16 DreamSpaceWorld Co., LTD. Systems and methods for monitoring unmanned aerial vehicles
US20170158320A1 (en) * 2015-09-20 2017-06-08 Daniel Bosch Unmanned aerial system
KR101607816B1 (ko) * 2015-10-26 2016-03-31 이진우 바람안내부를 구비하는 무인비행기
US10403153B2 (en) * 2016-01-05 2019-09-03 United States Of America As Represented By The Administrator Of Nasa Autonomous emergency flight management system for an unmanned aerial system
TWI682876B (zh) * 2016-05-27 2020-01-21 日商日本電氣股份有限公司 檢查系統、管制裝置以及管制方法
CN110419209A (zh) * 2017-03-31 2019-11-05 日本电气株式会社 信息处理装置、信息处理方法和信息处理程序
WO2019006463A1 (en) * 2017-06-30 2019-01-03 Garvin Kyle AIR VEHICLE IMAGE CAPTURE SYSTEMS
US10698422B2 (en) * 2017-10-04 2020-06-30 Here Global B.V. Link level wind factor computation for efficient drone routing using 3D city map data
JP6968911B2 (ja) * 2018-01-23 2021-11-17 株式会社Nttドコモ 情報処理装置及び情報処理方法
US20190302805A1 (en) * 2018-03-28 2019-10-03 Walmart Apollo, Llc System and method for operating drones under micro-weather conditions
US20200132883A1 (en) * 2018-10-29 2020-04-30 International Business Machines Corporation Micro-weather report capture by unmanned aerial system (uas) deployment
US11217104B2 (en) * 2019-01-22 2022-01-04 Here Global B.V. Airflow modeling for route optimization

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014199548A (ja) * 2013-03-29 2014-10-23 綜合警備保障株式会社 飛行制御システム及び飛行制御方法
WO2017033976A1 (ja) * 2015-08-25 2017-03-02 日本電気株式会社 飛行体制御装置、飛行体制御方法、及びコンピュータ読み取り可能な記録媒体
JP6051327B1 (ja) * 2016-05-26 2016-12-27 株式会社プロドローン 無人航空機

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7456537B2 (ja) 2015-08-25 2024-03-27 日本電気株式会社 飛行体制御装置、飛行体制御方法、及びプログラム
JP2019112006A (ja) * 2017-12-26 2019-07-11 東京電力ホールディングス株式会社 無人飛翔体墜落報知システム、地上局、報知方法、およびプログラム
WO2020085229A1 (ja) * 2018-10-22 2020-04-30 株式会社ナイルワークス 運転経路生成システム、運転経路生成方法、および運転経路生成プログラム、ならびにドローン
CN112912693A (zh) * 2018-10-22 2021-06-04 株式会社尼罗沃克 行驶路径生成***、行驶路径生成方法和行驶路径生成程序以及无人机
JPWO2020085229A1 (ja) * 2018-10-22 2021-09-16 株式会社ナイルワークス 運転経路生成システム、運転経路生成方法、および運転経路生成プログラム、ならびにドローン
JP7008999B2 (ja) 2018-10-22 2022-01-25 株式会社ナイルワークス 運転経路生成システム、運転経路生成方法、および運転経路生成プログラム、ならびにドローン
CN112912693B (zh) * 2018-10-22 2024-03-19 株式会社尼罗沃克 行驶路径生成***、行驶路径生成方法和计算机可读取记录介质以及无人机
JP7285557B2 (ja) 2019-09-30 2023-06-02 株式会社ナイルワークス 運転経路生成システム、運転経路生成方法、運転経路生成プログラム、およびドローン
JP2021054280A (ja) * 2019-09-30 2021-04-08 株式会社ナイルワークス 運転経路生成システム、運転経路生成方法、運転経路生成プログラム、およびドローン
JP2021086387A (ja) * 2019-11-27 2021-06-03 ソフトバンク株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP7098596B2 (ja) 2019-11-27 2022-07-11 ソフトバンク株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP7353951B2 (ja) 2019-12-09 2023-10-02 株式会社ゼンリン コンピュータシステムおよびプログラム
JP2021092874A (ja) * 2019-12-09 2021-06-17 株式会社ゼンリン コンピュータシステムおよびプログラム
JP2022060042A (ja) * 2020-10-02 2022-04-14 トヨタ自動車株式会社 制御装置、システム、飛行体、及び運搬方法
JP7424267B2 (ja) 2020-10-02 2024-01-30 トヨタ自動車株式会社 制御装置、システム、飛行体、及び運搬方法
US20220107657A1 (en) * 2020-10-02 2022-04-07 Toyota Jidosha Kabushiki Kaisha Controller, system, flying object, and transport method
US11983021B2 (en) 2020-10-02 2024-05-14 Toyota Jidosha Kabushiki Kaisha Controller, system, flying object, and transport method

Also Published As

Publication number Publication date
US11320269B2 (en) 2022-05-03
US20200033132A1 (en) 2020-01-30
JPWO2018179404A1 (ja) 2020-05-14
JP6791365B2 (ja) 2020-11-25

Similar Documents

Publication Publication Date Title
WO2018179404A1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
CN109144097B (zh) 障碍物或地面识别及飞行控制方法、装置、设备及介质
US20210065400A1 (en) Selective processing of sensor data
JP2024053085A (ja) 飛行体制御装置、飛行体制御方法、及びプログラム
JP6324649B1 (ja) 検出システム、検出方法、及びプログラム
US20190243356A1 (en) Method for controlling flight of an aircraft, device, and aircraft
US10303943B2 (en) Cloud feature detection
US10565887B2 (en) Flight initiation proximity warning system
EP3238173B1 (en) Method and device for detecting an overhead cable from an aerial vessel
CN112596071A (zh) 无人机自主定位方法、装置及无人机
EP3989034B1 (en) Automatic safe-landing-site selection for unmanned aerial systems
Xu et al. Vision-based autonomous landing of unmanned aerial vehicle on a motional unmanned surface vessel
CN112379681A (zh) 无人机避障飞行方法、装置及无人机
Zsedrovits et al. Visual detection and implementation aspects of a UAV see and avoid system
CN112378397A (zh) 无人机跟踪目标的方法、装置及无人机
US20180012060A1 (en) Detecting and ranging cloud features
CN112380933A (zh) 无人机识别目标的方法、装置及无人机
JP7044147B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
JP6807092B1 (ja) 点検システム及び管理サーバ、プログラム、ヒビ割れ情報提供方法
WO2019067083A1 (en) PROPELLER CONTACT AVOIDANCE IN AN AIR VEHICLE WITHOUT PILOT
US20200307788A1 (en) Systems and methods for automatic water surface and sky detection
KR102351057B1 (ko) 재난 상황 복잡도를 기초로 무인항공기를 제어하기 위한 장치 및 이를 위한 방법
JP7130409B2 (ja) 管制装置
GB2534372A (en) Cloud Feature Detection
JP2021154857A (ja) 操縦支援装置、操縦支援方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17903014

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019508476

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17903014

Country of ref document: EP

Kind code of ref document: A1