JP2016082441A - 制御装置、制御方法及びコンピュータプログラム - Google Patents

制御装置、制御方法及びコンピュータプログラム Download PDF

Info

Publication number
JP2016082441A
JP2016082441A JP2014212953A JP2014212953A JP2016082441A JP 2016082441 A JP2016082441 A JP 2016082441A JP 2014212953 A JP2014212953 A JP 2014212953A JP 2014212953 A JP2014212953 A JP 2014212953A JP 2016082441 A JP2016082441 A JP 2016082441A
Authority
JP
Japan
Prior art keywords
hovering camera
image
information
control terminal
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014212953A
Other languages
English (en)
Other versions
JP6387782B2 (ja
JP2016082441A5 (ja
Inventor
佐部 浩太郎
Kotaro Sabe
浩太郎 佐部
ペーター ドゥール
Duerr Peter
ペーター ドゥール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2014212953A priority Critical patent/JP6387782B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to CN201811272015.8A priority patent/CN109373975B/zh
Priority to CN201911346231.7A priority patent/CN111009156B/zh
Priority to AU2015331965A priority patent/AU2015331965A1/en
Priority to EP15787034.6A priority patent/EP3206768B1/en
Priority to PCT/JP2015/005142 priority patent/WO2016059785A1/en
Priority to EP23190486.3A priority patent/EP4253911A3/en
Priority to US15/505,541 priority patent/US10198003B2/en
Priority to CN201580054839.6A priority patent/CN106796112B/zh
Priority to CA2959471A priority patent/CA2959471A1/en
Publication of JP2016082441A publication Critical patent/JP2016082441A/ja
Publication of JP2016082441A5 publication Critical patent/JP2016082441A5/ja
Priority to AU2018222910A priority patent/AU2018222910B2/en
Application granted granted Critical
Publication of JP6387782B2 publication Critical patent/JP6387782B2/ja
Priority to US16/232,699 priority patent/US11520334B2/en
Priority to US18/056,730 priority patent/US11927960B2/en
Priority to US18/443,346 priority patent/US20240184290A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • G01C11/025Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/221Remote-control arrangements
    • G05D1/222Remote-control arrangements operated by humans
    • G05D1/224Output arrangements on the remote controller, e.g. displays, haptics or speakers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/656Interaction with payloads or external entities
    • G05D1/689Pointing payloads towards fixed or moving targets
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • G08G5/0086Surveillance aids for monitoring terrain
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/04Anti-collision systems
    • G08G5/045Navigation or guidance aids, e.g. determination of anti-collision manoeuvers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Vehicle Cleaning, Maintenance, Repair, Refitting, And Outriggers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】移動体が撮像した画像を用いて、移動体に対して直感的に移動を指示する制御装置を提供する。【解決手段】撮像装置を備えた移動体(ホバリングカメラ)100と、移動体100で撮像された画像と移動体100との合成画像を生成する画像処理部を有する制御装置200から成る。制御装置200は合成画像を表示し、表示した合成画像に対する操作に応じて移動体を移動させるための移動情報を生成して移動体100を制御する。【選択図】図2

Description

本開示は、制御装置、制御方法及びコンピュータプログラムに関する。
無線で操縦できる飛行体にカメラを取り付けて、そのカメラで撮像するという写真の撮像方法に関する技術が開示されている(例えば特許文献1等参照)。飛行体にカメラを取り付けることで、上空からや、三脚が立てられない場所からの写真を撮像することが可能になる。また飛行体にカメラを取り付けて撮像することで、本物の飛行機やヘリコプターを使用した場合よりもコストを抑えることが出来る、安全に撮像が出来る、低空や狭い場所でも撮像が出来る、目標に接近して撮像が出来る等の様々な利点がもたらされる。
特開2006−27448号公報
このようなカメラが備えられた飛行体やロボット等の移動体の操作は、通常は専用のコントローラが必要になる。ここで、移動体が撮像した画像を用いて、その移動体に対する移動指示をユーザから簡単に指定することができれば、移動体の操作に慣れていないユーザであっても、目的の位置に移動させることが容易になると考えられる。
そこで本開示では、移動体が撮像した画像を用いて移動体に対して直感的に移動を指示させることが可能な、新規かつ改良された制御装置、制御方法及びコンピュータプログラムを提案する。
本開示によれば、撮像装置を備えた移動体で撮像された画像から合成画像を生成する画像処理部と、前記画像処理部が生成した前記合成画像に対する操作に応じて前記移動体を移動させるための移動情報を生成する移動情報生成部と、を備える、制御装置が提供される。
また本開示によれば、撮像装置を備えた移動体で撮像された画像から合成画像を生成することと、生成された前記合成画像に対する操作に応じて前記移動体を移動させるための移動情報を生成することと、を含む、制御方法が提供される。
また本開示によれば、コンピュータに、撮像装置を備えた移動体で撮像された画像から合成画像を生成することと、生成された前記合成画像に対する操作に応じて前記移動体を移動させるための移動情報を生成することと、を実行させる、コンピュータプログラムが提供される。
以上説明したように本開示によれば、移動体が撮像した画像を用いて移動体に対して直感的に移動を指示させることが可能な、新規かつ改良された制御装置、制御方法及びコンピュータプログラムが提供される。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態の概要について説明する説明図である。 本開示の一実施形態にかかる点検システム10のシステム構成例を示す説明図である。 本開示の一実施形態にかかるホバリングカメラ100の機能構成例を示す説明図である。 本開示の一実施形態にかかる制御端末200の機能構成例を示す説明図である。 本開示の一実施形態にかかる点検システム10の動作例を示す流れ図である。 制御端末200の表示部210に表示される画面の一例を示す説明図である。 制御端末200の表示部210に表示される画面の一例を示す説明図である。 制御端末200の表示部210に表示される画面の一例を示す説明図である。 ホバリングカメラ100による橋梁1の底面の撮像の様子を概念的に示す説明図である。 本開示の一実施形態にかかる点検システム10におけるホバリングカメラ100の動作を概念的に示す説明図である。 本開示の一実施形態にかかる点検システム10におけるホバリングカメラ100の動作を概念的に示す説明図である。 制御端末200の表示部210に表示される画面の一例を示す説明図である。 橋桁3の底面を点検する場合の概要を示す説明図である。 ホバリングカメラ100が撮像した静止画像をスティッチングして得られた画像20の例を示す説明図である。 本開示の一実施形態に係る情報処理装置300の機能構成例を示す説明図である。 本開示の一実施形態に係る情報処理装置300の動作例を示す流れ図である。 本開示の一実施形態に係る制御端末200の動作例を示す流れ図である。 ホバリングカメラ100に地面の方向を撮像させている様子を示す説明図である。 合成画像を用いて、ホバリングカメラ100の飛行経路をユーザに指定させている様子を示す説明図である。 ホバリングカメラ100に上方の方向(橋梁の裏面)を撮像させている様子を示す説明図である。 合成画像を用いて、ホバリングカメラ100の飛行経路をユーザに指定させている様子を示す説明図である。 制御端末200で合成画像を生成して表示している様子を示す説明図である。 合成画像に対するユーザの入力に基づく、制御端末200の飛行経路の生成処理について説明する説明図である。 合成画像の例を示す説明図である。 合成画像の例を示す説明図である。 本開示の一実施形態に係る制御端末200の動作例を示す流れ図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.本開示の一実施形態
1.1.概要
1.2.システム構成例
1.3.機能構成例
1.4.動作例
1.5.損傷データの生成例
1.5.1 機能構成例
1.5.2 動作例
1.6.合成画像を用いた飛行指示の例
2.まとめ
<1.本開示の一実施形態>
[1.1.概要]
本開示の一実施形態について詳細に説明するにあたり、まずは本開示の一実施形態の概要について説明する。
道路や橋梁、トンネル、ビルディング等の構築物の維持管理には、人間による構築物の状態の確認が欠かせない。通常、このような構築物の目視による確認は、作業員が当該構築物に近づき、腐食やヒビ割れ等の損傷や、ボルト等の連結部材の緩みが構造物に生じていないかどうかを目で確認したり、これら異常の有無の確認のために打音検査したりするのが一般的である。
橋梁、特にコンクリート橋の維持管理のためには、橋桁や橋脚の目視検査や打音検査を行なう作業員のために、例えば橋脚や橋桁の裏面部に足場を組む必要があったり、作業員の安全を確保したり、作業車両を配置したりするために一部又は全部の車線を通行止めにしたりする必要が生じたりしていた。これらの要因により、点検に要するコストだけでなく、通行止めによる道路誘導員の手配に要するコスト、さらには通行止めにより生じうる迂回路の交通渋滞が問題となり得る。
また、河川や海の上に建設されている等の理由で、足場を組むのが容易で無かったり、そもそも足場が組めなかったりする橋梁も存在する。従って、これらの事情を鑑みて、安全で、交通に影響を与えず、かつ低コストの構築物の点検作業が実現可能な技術が望まれる。
そこで本件開示者らは、上記事情を鑑みて、安全で、交通に影響を与えず、かつ低コストの構築物の点検作業が実現可能な技術について検討した。そして本件開示者らは、以下で説明するように、撮像装置を備えた飛行体(以下の説明では、撮像装置を備えた飛行体のことを「ホバリングカメラ」とも称する)を用いて、安全で、交通に影響を与えず、かつ低コストで可能な点検作業が可能な技術を考案するに至った。
図1は、本開示の一実施形態の概要について説明する説明図である。図1には、例えばコンクリートで構築された橋梁1が模式的に示されている。コンクリートで構築された橋梁1を点検する場合、上述したように、従来は作業員がヒビ割れや腐食等の損傷が生じていないかの目視点検を行なうために、橋脚2や橋桁3の裏面部に足場を組む必要があったり、作業員の安全を確保したり、作業車両を配置したりするために一部又は全部の車線を通行止めにしたりする必要が生じたりしていた。
本開示の一実施形態では、橋梁1を点検する場合に、ホバリングカメラ100を用いる。ホバリングカメラ100は、予め設定された飛行情報(本実施形態では、飛行経路及び静止画像の撮像位置の情報を含むものをいう)に従って自動飛行するよう構成された、撮像装置を備える飛行体である。なお静止画像の撮像位置の情報には、例えば撮像処理を実行する位置、撮像する方向、次の撮像処理を実行する位置までの移動時間等が含まれ得る。
例えば橋桁3の裏側(底面)を点検する場合、ホバリングカメラ100を自動飛行させて、ホバリングカメラ100に橋桁3の裏側を撮像させる。ホバリングカメラ100に橋桁3の裏側を撮像させることで、橋桁3の点検のために橋脚2や橋桁3の裏面部に足場を組む必要が無くなったり、車線を通行止めにする頻度が軽減され、または通行止めが不要になったりする。また例えば橋桁3の横側(側面)を点検する場合、ホバリングカメラ100を自動飛行させて、ホバリングカメラ100に橋桁3の横側を撮像させる。従ってホバリングカメラ100を自動飛行させて、ホバリングカメラ100に橋桁3の裏側や横側を撮像させることで、作業員の安全を確保し、交通に影響を与えずに、かつ低コストで橋梁1の点検が可能となる。
ホバリングカメラ100を自動飛行させて橋桁3の裏側を撮像させるためには、ホバリングカメラ100の飛行経路の設定と、橋桁3の裏側の位置における静止画像の撮像位置の情報の設定が必要になる。本開示の一実施形態では、ホバリングカメラ100に設定する飛行情報を、橋梁1の概況に関する情報を用いて効率的に作成することで、橋梁1の効率的な点検を可能にすることを目的とする。
以上、本開示の一実施形態の概要について説明した。続いて、本開示の一実施形態にかかる点検システムの構成例について説明する。
[1.2.システム構成例]
図2は、本開示の一実施形態にかかる点検システム10のシステム構成例を示す説明図である。図2に示した本開示の一実施形態にかかる点検システム10は、構築物、例えば橋梁1の点検を効率的に行なうことを目的としたシステムである。以下、図2を用いて本開示の一実施形態にかかる点検システム10のシステム構成例について説明する。
図2に示したように、本開示の一実施形態にかかる点検システム10は、ホバリングカメラ100と、制御端末200と、情報処理装置300と、無線中継ノード400と、位置推定ノード500と、ベースステーション600と、充電ステーション700と、サーバ装置800と、を含んで構成される。
ホバリングカメラ100は、本開示の撮像装置の一例であり、上述したように撮像装置を備える飛行体である。ホバリングカメラ100は、指定された飛行経路に基づいて自動飛行し、指定された撮像位置において撮像装置で静止画像を撮像することが出来るよう構成された飛行体である。ホバリングカメラ100は、例えば4つのロータにより飛行することが可能であり、各ロータの回転を制御することで、上昇、下降、水平移動しつつ飛行することが出来る。もちろんロータの数は係る例に限定されるものではない。
ホバリングカメラ100に設定される飛行開始位置から飛行終了位置までの飛行経路や撮像位置は、例えばGPS(Global Positioning System;全地球測位システム)の位置情報として設定される。従ってホバリングカメラ100は、GPS衛星からの電波を受信して現在位置を算出するGPS受信機が組み込まれ得る。ホバリングカメラ100に設定される飛行経路は、緯度、経度、高度の全てがGPSの位置情報として設定されていてもよく、緯度、経度のみがGPSの位置情報として設定され、高度については例えば後述のベースステーション600からの相対的な高さとして設定されていてもよい。
制御端末200は、本開示の制御装置の一例であり、ホバリングカメラ100の飛行に関する制御を実行する端末である。制御端末200は、ホバリングカメラ100の飛行に関する制御として、例えばホバリングカメラ100に送る飛行情報の生成、ホバリングカメラ100への離陸指示や、後述のベースステーション600への帰還指示、ホバリングカメラ100が何らかの理由で自動で飛行出来なくなった場合のホバリングカメラ100の操縦等がある。制御端末200によるホバリングカメラ100の飛行情報の生成処理については、後に詳述するが、ここで簡単に一例を説明する。
ホバリングカメラ100の飛行情報を生成する際には、制御端末200は、点検を行う橋梁1の概況に関する情報、例えば点検を行う橋梁1の概況図を読み込み、画面に表示させる。この橋梁1の概況図上の点には、予め詳細なGPS情報が入った地図データ上の点を対応付けておく。この対応付けは最低2組の点で行なわれていることが望ましい。橋梁1の概況図に、予め、詳細なGPS情報が入った地図データ上の点が対応付けられていることで、ホバリングカメラ100の飛行経路がGPSの値として定義される。そして制御端末200は、この橋梁1の概況図に基づいてホバリングカメラ100の飛行経路を生成する。ホバリングカメラ100の飛行経路は、ユーザ(構築物点検の作業員)が分かりやすいよう、概況図上に重ねて表示させる。
制御端末200は、ホバリングカメラ100の飛行情報を生成する際に、橋梁1の構造や、寸法、ホバリングカメラ100に撮像させる橋梁1の部分を考慮してもよい。制御端末200は、ホバリングカメラ100の飛行情報を生成する際に、損傷している可能性が高いと考えられる部分についてはホバリングカメラ100に詳細に撮像させるような飛行情報を生成してもよい。
上述したように、ホバリングカメラ100に設定される飛行経路は、緯度、経度、高度の全てがGPSの位置情報として設定されていてもよいが、橋梁1の概況図に高度データが存在しない場合が考えられる。橋梁1の概況図に高度データが存在しない場合は、ホバリングカメラ100に設定される飛行経路は、緯度、経度のみがGPSの位置情報として設定され、高度については例えばベースステーション600からの相対的な高さとして設定されていてもよい。
制御端末200は、ホバリングカメラ100へ設定する飛行情報を設定する際に、ホバリングカメラ100が橋梁1を撮像する際の、撮像対象面との距離が一定になるような飛行情報を生成することが望ましい。ホバリングカメラ100が橋梁1を撮像する際に、撮像対象面との距離が一定となるような飛行情報を生成することで、制御端末200は、同縮尺の画像をホバリングカメラ100に生成させることが出来る。
制御端末200は、例えばノート型コンピュータやタブレット型の端末等の持ち運び可能な装置であり、ホバリングカメラ100との間で無線により情報の送受信を行なう。制御端末200は、ホバリングカメラ100との間の無線通信を、ホバリングカメラ100との間で直接行っても良いが、構築物、特に橋梁1の点検においては制御端末200の通信可能範囲を超えてホバリングカメラ100が飛行することもあり得るので、点検時に設置される無線中継ノード400を介して行なっても良い。
制御端末200は、ホバリングカメラ100が飛行中に撮像装置で撮像した画像を取得し、必要に応じて表示する。制御端末200は、ホバリングカメラ100が飛行中に撮像装置で撮像している動画像をストリーミングで取得し、表示してもよい。ホバリングカメラ100が飛行中に撮像装置で撮像している動画像をストリーミングで取得し、表示することで、制御端末200は、ホバリングカメラ100がどのような位置を飛行しているのかをユーザに提示することが出来る。
情報処理装置300は、様々な情報を処理する装置であり、例えばパーソナルコンピュータ(PC)やゲーム機等の情報を処理する機能を有する装置であり得る。本実施形態では、情報処理装置300は、特にホバリングカメラ100が撮像した画像を表示して、橋梁1の状態をユーザに確認させる機能を有する装置である。また情報処理装置300は、ホバリングカメラ100が撮像した画像から、橋桁3の絶対的な損傷位置を算出し、後述の損傷データを生成する機能を有する。情報処理装置300は、生成した損傷データを、サーバ装置800へ送信する機能を有していても良い。なお、ホバリングカメラ100が撮像した画像から、橋桁3の絶対的な損傷位置を算出し、後述の損傷データを生成する機能は、制御端末200が有していても良い。
情報処理装置300は、ホバリングカメラ100が撮像した画像を、例えば制御端末200から取得する。ホバリングカメラ100が撮像した画像を情報処理装置300が取得するのは特定のタイミングに限定されないが、例えば、情報処理装置300は、ホバリングカメラ100の一度の飛行が終了したタイミングでホバリングカメラ100が撮像した画像を制御端末200から取得してもよい。
無線中継ノード400は、ホバリングカメラ100と制御端末200との間の無線通信を中継する装置である。上述したように、構築物、特に橋梁1の点検においては、制御端末200の通信可能範囲を超えてホバリングカメラ100が飛行することもあり得る。従って、構築物の点検時に設置される無線中継ノード400を介して、ホバリングカメラ100と制御端末200との間の無線通信が行われ得る。無線中継ノード400の数は1つだけとは限らず、橋梁1の点検範囲によっては複数設置され得る。従って、ホバリングカメラ100と制御端末200との間の無線通信は、複数の無線中継ノード400を介して行われ得る。ホバリングカメラ100は電波の状況に応じて、通信先を制御端末200と無線中継ノード400との間で切り替え得る。
無線中継ノード400は、橋梁1の点検時に、橋面上(歩道上が望ましい)の適切な場所に設置され得る。また無線中継ノード400は、橋桁3の欄干部から吊り下げられるようにして設置されても良い。そして橋梁1の点検前には、所定の方法によって無線中継ノード400が正常に動作することを、例えば制御端末200を用いて確認することが望ましい。
位置推定ノード500は、ホバリングカメラ100に現在位置を推定させるための装置である。上述したように、ホバリングカメラ100の飛行経路は、例えばGPSの位置情報として設定される。この際に、GPS衛星からの電波を遮るものが無い場合は、ホバリングカメラ100は現在位置を極めて高い精度で知ることが出来る。しかし、ホバリングカメラ100は橋桁3の下に潜り込んでしまうことが避けられず、橋桁3によってGPS衛星からの電波が遮られたり、橋梁1による電波の反射等に起因するマルチパスが発生したりしてしまうと、ホバリングカメラ100は現在位置を高い精度で知ることが出来なくなるおそれがある。
そこで本実施形態では、橋桁3の下においてホバリングカメラ100に現在位置を正確に取得させるために位置推定ノード500を設ける。位置推定ノード500としては、例えばAR(Augmented Reality;拡張現実)マーカーを用いてもよく、GPS信号の発信機を用いてもよい。
位置推定ノード500としてARマーカーを用いた場合、ホバリングカメラ100に現在位置を認識させるためには、例えば橋梁1の両端から位置推定ノード500をぶら下げて、ホバリングカメラ100に位置推定ノード500を撮像させる。そして位置推定ノード500を撮像したホバリングカメラ100に、指定した位置推定ノード500の間を飛行させる。ホバリングカメラ100は、位置推定ノード500間の位置を、例えばホバリングカメラ100に備えたセンサ(例えばIMU(Inertial Measurement Unit)センサ)の積算値と、撮像した画像から算出した移動先の位置推定ノード500までの距離とで把握することが可能になる。従ってホバリングカメラ100は位置推定ノード500を撮像することで、橋桁3の下においても現在位置を正確に取得することが出来る。
また位置推定ノード500としてGPS信号の発信機を用いた場合、ホバリングカメラ100に現在位置を認識させるためには、例えば橋梁1の対角や四隅に位置推定ノード500を設置する。ホバリングカメラ100は位置推定ノード500から発したGPS信号を受信することで、橋桁3の下においても現在位置を正確に取得することが出来る。
ベースステーション600は、ホバリングカメラ100の離着陸のために設けられる装置である。ベースステーション600は、GPS受信機を備え、GPS衛星からの電波の受信によって現在位置を算出する。ベースステーション600が算出した現在位置は制御端末200に送られる。ベースステーション600が算出した現在位置が制御端末200に送られることで、制御端末200は、橋梁1の概況図上にベースステーション600の位置を表示することが可能になる。
ベースステーション600は、ホバリングカメラ100の動作確認を行なう機能を有していても良い。ベースステーション600が実行するホバリングカメラ100の動作確認には、例えば通信機能の確認、撮像機能の確認、飛行機能の確認、各種センサのキャリブレーションなどが含まれ得る。なおホバリングカメラ100のセンサのキャリブレーション方法としては、ベースステーション600を用いた方法に限られないことは言うまでもなく、ホバリングカメラ100のセンサのキャリブレーション方法として、例えばキャリブレーション専用の治具にホバリングカメラ100を固定させて、ピッチ方向やロール方向にホバリングカメラ100を回転させてセンサを較正する方法もあり得る。
充電ステーション700は、ホバリングカメラ100に備えられる二次電池への充電を行なう。ホバリングカメラ100はバッテリを動力源としており、飛行や撮像に伴ってバッテリに蓄えられた電力を消費する。充電ステーション700は、ホバリングカメラ100に備えられるバッテリが二次電池であれば、そのバッテリへの充電を行なうことで、ホバリングカメラ100が消費した電力を回復させることができる。充電ステーション700は、ケーブル等をホバリングカメラ100に接続してホバリングカメラ100へ給電することでホバリングカメラ100を充電してもよく、非接触電力伝送方式によってホバリングカメラ100へ給電することでホバリングカメラ100を充電しても良い。
サーバ装置800は、各種データを格納する装置である。本実施形態では、サーバ装置800は、情報処理装置300が生成した損傷データを格納しても良い。
本開示の一実施形態にかかる点検システム10は、図2に示したような構成を有することで、ホバリングカメラ100に橋梁1を撮像させて、橋梁1の画像を取得することが出来る。ホバリングカメラ100に橋梁1を撮像させることで、本開示の一実施形態にかかる点検システム10は、橋脚や橋桁に足場を組む必要が無くなったり、作業員の安全を確保するために一部又は全部の車線を通行止めにする頻度が軽減され、または通行止めが不要になったりすることで、橋梁1の低コストでかつ効率的な点検が可能となる。
本開示の一実施形態にかかる点検システム10のシステム構成例について説明した。続いて、本開示の一実施形態にかかる点検システム10を構成するホバリングカメラ100及び制御端末200の機能構成例について説明する。
[1.3.機能構成例]
まず、本開示の一実施形態にかかるホバリングカメラ100の機能構成例について説明する。図3は、本開示の一実施形態にかかるホバリングカメラ100の機能構成例を示す説明図である。以下、図3を用いて本開示の一実施形態にかかるホバリングカメラ100の機能構成例について説明する。
図3に示したように、本開示の一実施形態に係るホバリングカメラ100は、撮像装置101と、ロータ104a〜104dと、モータ108a〜108dと、制御部110と、通信部120と、センサ部130と、位置情報取得部132と、記憶部140と、バッテリ150と、を含んで構成される。
制御部110は、ホバリングカメラ100の動作を制御する。例えば制御部110は、モータ108a〜108dの回転速度の調整によるロータ104a〜104dの回転速度の調整、撮像装置101による撮像処理、通信部120を介した他の装置(例えば制御端末200)との間の情報の送受信処理、記憶部140に対する情報の記憶や読出しを制御し得る。
本実施形態では、制御部110は、制御端末200から送信された飛行情報に基づいてモータ108a〜108dの回転速度を調整しての飛行および撮像装置101に対する静止画像の撮像処理の実行を制御する。制御部110は、制御端末200から送信された飛行情報に基づいてモータ108a〜108dや撮像装置101を制御することで、制御端末200の要求に基づいた画像を制御端末200に提供することが可能になる。
撮像装置101は、レンズやCCDイメージセンサ、CMOSイメージセンサ等の撮像素子、フラッシュ等で構成されている。ホバリングカメラ100に備えられる撮像装置101は、制御端末200からの制御により静止画像または動画像の撮像を実行する。撮像装置101が撮像する画像は、通信部120から制御端末200へ送信される。また本実施形態では、撮像装置101は、制御端末200から送信された飛行情報に含まれる静止画像の撮像位置の情報に基づいて撮像処理を実行する。撮像装置101の撮像処理によって得られた画像は、記憶部140に記憶されたり、通信部120から制御端末200へ送信されたりし得る。ホバリングカメラ100で橋梁1の底面側を撮像する場合は、太陽光が橋梁1に遮られて明るさが足りないことが考えられるので、ホバリングカメラ100は、橋梁1の底面側の撮像時にフラッシュを発光させるとよい。
撮像装置101は、撮像する方向を、例えば制御部110からの制御によって任意の方向に変更することが出来る。例えばホバリングカメラの水平方向を0度とした時に、上下方向に±90度の範囲で表される撮像方向を撮像可能とすることができる。撮像装置101が、撮像する方向を変更できることで、ホバリングカメラ100は所定の方向の画像を撮像し、制御端末200に撮像画像を提供することが出来る。そして制御部110は、撮像装置101が静止画像を撮像した時点のホバリングカメラ100の位置情報(GPSによる測位や、位置推定ノード500を用いた測位による位置情報が含まれ得る。位置推定ノード500を用いた測位については後述する)、撮像時の機体情報(例えばヨー角、ピッチ角、加速度、角速度)、撮像方向の情報を、その静止画像のメタデータとして関連付ける。関連付けたメタデータの格納方法としては、メタデータを静止画像データの付加情報領域(例えばExifフォーマットの特定の領域)に付加してもよいし、メタデータを画像ファイルと別ファイルに記録するなど別体のデータとしてもよい。
ロータ104a〜104dは、回転により揚力を生じさせることでホバリングカメラ100を飛行させる。ロータ104a〜104dの回転はモータ108a〜108dの回転によりなされる。モータ108a〜108dは、ロータ104a〜104dを回転させる。モータ108a〜108dの回転は制御部110によって制御され得る。
通信部120は、制御端末200との間で無線通信による情報の送受信処理を行う。ホバリングカメラ100は、撮像装置101で撮像されている画像を通信部120から制御端末200へ送信する。またホバリングカメラ100は、飛行に関する指示を制御端末200から通信部120で受信する。
センサ部130は、ホバリングカメラ100の状態を取得する装置群であり、例えば加速度センサ、ジャイロセンサ、超音波センサ、気圧センサ、オプティカルフローセンサ、レーザーレンジファインダー等で構成され得る。センサ部130は、取得したホバリングカメラ100の状態を所定の信号に変換して、必要に応じて制御部110に提供し得る。位置情報取得部132は、例えばGPSやビジョンセンサ等を用いてホバリングカメラ100の現在位置の情報を取得する。位置情報取得部132は、取得したホバリングカメラ100の現在位置の情報を、必要に応じて制御部110に提供し得る。制御部110は、位置情報取得部132が取得したホバリングカメラ100の現在位置の情報を用いて、制御端末200から受信した飛行情報に基づいたホバリングカメラ100の飛行制御を実行する。
またセンサ部130は、飛行時に飛行を妨げる可能性のある障害物を検知する。センサ部130が障害物を検知することで、ホバリングカメラ100はその検知した障害物に関する情報を制御端末200に提供することが出来る。
記憶部140は、様々な情報を記憶する。記憶部140が記憶する情報としては、例えば制御端末200から送信されたホバリングカメラ100の飛行情報、撮像装置101で撮像した画像等があり得る。
バッテリ150は、ホバリングカメラ100を動作させるための電力を蓄える。バッテリ150は、放電のみが可能な一次電池であってもよく、充電も可能な二次電池であってもよいが、バッテリ150が二次電池である場合は、バッテリ150は、例えば図2に示した充電ステーション700から電力の供給を受け得る。
本開示の一実施形態に係るホバリングカメラ100は、図3に示したような構成を有することで、制御端末200から送信された飛行情報に含まれる飛行経路に基づいて自動飛行して、制御端末200から送信された飛行情報に含まれる静止画像の撮像位置の情報に基づいて撮像処理を実行することが出来る。
以上、図3を用いて本開示の一実施形態にかかるホバリングカメラ100の機能構成例について説明した。続いて、本開示の一実施形態にかかる制御端末200の機能構成例について説明する。
図4は、本開示の一実施形態にかかる制御端末200の機能構成例を示す説明図である。以下、図4を用いて本開示の一実施形態にかかる制御端末200の機能構成例について説明する。
図4に示したように、本開示の一実施形態にかかる制御端末200は、表示部210と、通信部220と、制御部230と、記憶部240と、を含んで構成される。
表示部210は、例えば液晶表示装置、有機EL表示装置等の平板表示装置からなる。表示部210は、例えば、撮像装置101が撮像している画像や、ホバリングカメラ100の動作を制御するための情報を表示し得る。表示部210にはタッチパネルが備えられ、ユーザは表示部210を指等で触ることで表示部210に表示される情報に対して直接操作することができる。
通信部220は、ホバリングカメラ100との間で無線通信による情報の送受信を行う。制御端末200は、撮像装置101で撮像されている画像を、ホバリングカメラ100から通信部220で受信する。また制御端末200は、ホバリングカメラ100の飛行に関する指示を通信部220からホバリングカメラ100へ送信する。ホバリングカメラ100の飛行に関する命令は、制御部230で生成され得る。
制御部230は、制御端末200の動作を制御する。例えば制御部230は、表示部210への文字、図形、画像その他の情報の表示処理、通信部220を介した他の装置(例えばホバリングカメラ100)との間の情報の送受信処理を制御し得る。また制御部230は、飛行情報生成部232と、表示制御部234と、を含んで構成される。
飛行情報生成部232は、ホバリングカメラ100に送信する飛行情報を生成する。飛行情報生成部232は、飛行情報の生成に際して、例えば、後述の記憶部240に記憶されている、点検対象の構築物に関する情報を用いる。飛行情報生成部232は、飛行情報を生成すると、ホバリングカメラ100の離陸前に、生成した飛行情報を通信部220から送信させる。
飛行情報生成部232による飛行情報の生成処理については後に詳述するが、飛行情報生成部232による飛行情報の生成処理の一例について簡単に説明する。飛行情報生成部232は、ホバリングカメラ100の飛行情報を生成する際に、点検を行う橋梁1の概況図を読み込む。読み込んだ橋梁1の概況図は、表示制御部234によって表示部210に表示させる。上述したようにこの橋梁1の概況図上の点には、予め、詳細なGPS情報が入った地図データ上の点を対応付けておく。この対応付けは最低2組の点で行なわれていることが望ましい。橋梁1の概況図に、予め、詳細なGPS情報が入った地図データ上の点が対応付けられていることで、ホバリングカメラ100の飛行経路がGPSの値(緯度及び経度の組)として定義される。
そして飛行情報生成部232は、この橋梁1の概況図に基づいてホバリングカメラ100の飛行経路を生成する。飛行情報生成部232は、ホバリングカメラ100の飛行経路を生成する際に、橋梁1の構築方法、幅、径間長等の構造に関する情報、ホバリングカメラ100の飛行可能時間、橋梁1の点検方法等の情報を用いる。コンクリート橋は、補強方法によって鉄筋コンクリート(RC)とPC(プレストレストコンクリート)に分けられ、桁の形状によって、例えばRCT桁橋、PCT桁橋、PC中空床版橋、RC箱桁橋、PC箱桁橋等に分けられる。従って点検対象となる橋梁1の構築方法が分かれば、飛行情報生成部232は、橋梁1の構築方法に適した飛行経路を生成することが出来る。そして、飛行情報生成部232は、ホバリングカメラ100の飛行経路を、橋梁1の概況図上に重ねて表示させる。
飛行情報生成部232は、ホバリングカメラ100の飛行経路を、上述したようにGPSの値(緯度及び経度の組)として定義する。飛行情報生成部232がホバリングカメラ100の飛行経路をGPSの値として定義することで、ホバリングカメラ100は、飛行時にどの位置で撮像処理を実行すべきかを、GPSの値に基づいて判断できる。
表示制御部234は、表示部210への文字、図形、画像その他の情報の表示を制御する。後述の説明で参照する図面において表示部210に表示される文字、図形、記号、画像その他の情報は、表示制御部234によって表示が制御されるものである。例えば、表示制御部234は、飛行情報生成部232がホバリングカメラ100に送信する飛行情報を生成する際に、点検対象の構築物(橋梁1)の概況図や、生成した飛行情報を表示部210へ表示する制御を実行する。
記憶部240は、各種情報を記憶する。記憶部240に記憶される情報としては、例えば点検対象の構築物(橋梁1)に関する情報がある。点検対象の構築物に関する情報には、例えば点検対象の構築物(橋梁1)の概況図、点検対象の構築物の構築方法が含まれ得る。また点検対象の構築物について、損傷が生じやすいと考えられる場所が予め分かっていれば、点検対象の構築物に関する情報には、損傷している可能性が高いと考えられる部分の情報が含まれ得る。
なお制御端末200は、点検対象の構築物(橋梁1)に関する情報を予め記憶部240に記憶しておかなくとも、当該構築物の点検時に、例えば情報処理装置300から受信するようにしてもよい。
本開示の一実施形態に係る制御端末200は、図4に示したような構成を有することで、ホバリングカメラ100に送信する飛行情報を、点検対象の構築物(橋梁1)に関する情報に基づいて生成して、飛行情報に基づいて飛行するホバリングカメラ100で、飛行情報に基づき撮像された画像を取得することが出来る。
以上、図4を用いて本開示の一実施形態にかかる制御端末200の機能構成例について説明した。続いて、本開示の一実施形態にかかる点検システム10の動作例について説明する。
[1.4.動作例]
図5は、本開示の一実施形態にかかる点検システム10の動作例を示す流れ図である。図5に示したのは、ホバリングカメラ100を飛行させて、ホバリングカメラ100に橋梁1を撮像させることで橋梁1を点検する際の、本開示の一実施形態にかかる点検システム10の動作例である。なお、ホバリングカメラ100を用いて橋梁1を点検する際には、橋梁1の適切な位置に無線中継ノード400や位置推定ノード500が予め設置されているものとする。以下、図5を用いて本開示の一実施形態にかかる点検システム10の動作例について説明する。
ホバリングカメラ100の飛行情報を生成する制御端末200は、点検対象の橋梁1の概況図を含んだ、橋梁1に関する情報を読み込み、橋梁1の概況図を表示部210に表示する(ステップS101)。橋梁1に関する情報の読み込みは、例えば飛行情報生成部232が実行し、橋梁1の概況図の表示部210への表示は、例えば表示制御部234が実行する。橋梁1の概況図を表示部210に表示している制御端末200は、ユーザに対して、表示部210に表示している橋梁1の概況図を用いて、点検する橋梁1の領域をユーザに指定させる(ステップS102)。ステップS102のユーザに指定させる処理は例えば飛行情報生成部232が実行する。
例えば橋梁1の一部分を点検対象とする場合は、制御端末200は、表示部210に表示している橋梁1の概況図における点検対象の領域をユーザに指定させる。また例えば橋梁1の全体を点検対象とする場合は、制御端末200は、表示部210に表示している橋梁1の概況図における、橋梁1の全ての部分の領域をユーザに指定させる。
図6は、制御端末200の表示部210に表示される画面の一例を示す説明図である。図6に示したのは、上記ステップS102で、点検する橋梁1の領域をユーザに指定させる際に表示部210に表示される画面の一例である。図6には、点検する橋梁1の領域として橋桁を指定した場合に、表示部210に表示される画面が表示されているものとする。制御端末200は、図示せぬ入力部として例えばタッチパネルを有し、例えばユーザに画面をなぞらせたり、点検対象の径間を選択させたりすることで、橋梁1の領域をユーザに指定させることが出来る。もちろん点検する橋梁1の領域をユーザに指定させる方法は係る例に限定されるものではない。また、ユーザに指定された領域の表示も、図6に示した例に限定されるものではない。
図6には、ベースステーション600の位置を示すマークB1が橋梁1の概況図に重畳されて表示されている様子も示されている。上述したように、ベースステーション600は、GPS受信機を備え、GPS衛星からの電波の受信によって現在位置を算出することが出来る。従って制御端末200は、ベースステーション600が算出した現在位置の情報に基づいて、ベースステーション600の位置を示すマークB1を橋梁1の概況図に重畳させて表示することが出来る。
点検する橋梁1の領域をユーザに指定させると、続いて制御端末200は、橋梁1に関する情報に基づき、ユーザが指定した、点検する領域におけるホバリングカメラ100の飛行情報を生成する(ステップS103)。ステップS103の飛行情報の生成処理は、例えば飛行情報生成部232が実行する。
制御端末200は、上記ステップS103でホバリングカメラ100の飛行情報を生成する際に、橋梁1の構築方法、幅、径間長等の構造に関する情報、ホバリングカメラ100の飛行可能時間、橋梁1の点検方法等の情報を用いる。例えば、橋梁1の構築方法としてT桁が用いられている場合は、制御端末200は、ホバリングカメラ100が橋梁1の底面側で浮上と下降を繰り返すような飛行経路を飛行情報として生成する。また制御端末200は、上記ステップS103でホバリングカメラ100の飛行情報を生成する際に、橋梁1の撮像対象面の情報を用いてもよい。例えば橋梁1の側面を撮像することをユーザが選択した場合は、制御端末200は、橋梁1の側面に沿った飛行経路を飛行情報として生成し、橋梁1の底面を撮像することをユーザが選択した場合は、制御端末200は、橋梁1の底面側を往復するような飛行経路を飛行情報として生成する。
制御端末200が生成する飛行情報の一例を説明する。飛行情報は、例えば撮像処理を実行する位置毎のリストを以下のようなフォーマットで指定してもよい。
ID:(撮像点の相対座標,撮像方向,撮像時の速度,次の撮像点までの移動時間,その他)
撮像点の相対座標は、X軸、Y軸、Z軸の3点で指定する。なお、X軸を緯度方向、Y軸を経度方向、Z軸を高さ方向とする。またその他の情報としては、例えば特殊な撮像を制御する情報が含まれ得る。特殊な撮像を制御する情報には、例えば、同一の位置で複数の撮像方向で撮像するための情報、ブラケット撮像(同一の位置及び撮像方向において異なる露出、シャッタスピード、ISO感度等で撮像することをいう)のためのパラメータに関する情報、撮像時の赤外線の波長の情報が含まれ得る。このフォーマットに従えば、制御端末200が生成する飛行情報は以下の様な値のリストで構成され得る。
0:(0,0,0,0,0,2,1.0)
1:(5,0,0,0,0,2,1.0)
2:(7,0,0,0,0,2,1.0)
3:(9,0,0,0,0,2,1.0)
制御端末200が生成する飛行情報に含まれる撮像点は、例えばベースステーション600の絶対座標や1回目の撮像位置等の任意の位置の絶対座標を基準点とし、その基準点からの相対座標で指定されてもよい。ホバリングカメラ100は、基準点の絶対座標からの相対座標を絶対座標に変換して、飛行時に変換後の座標を参照してもよい。また、制御端末200が生成する飛行情報に含まれる撮像点は、相対座標ではなく絶対座標で指定されてもよい。また、制御端末200が生成する飛行情報に含まれる特殊な撮像を制御する情報には所定の値が格納され得る。例えば、特殊な撮像を制御する情報には、1:複数の撮像方向での撮像、2:ブラケット撮像(シャッタスピードの変化)、3:ブラケット撮像(ISO感度の変化)、・・・などの値が格納され得る。制御端末200は、例えば記憶部240に記憶されている、橋桁3において損傷が生じやすいと考えられる場所については、特殊な撮像を制御する情報を飛行情報に含めてもよい。
制御端末200は、上記ステップS103の飛行情報の生成処理の際には、例えば橋梁1の橋桁3の裏面を、ホバリングカメラ100に等間隔で撮像させるような飛行情報を生成してもよい。従って制御端末200は、ステップS103の飛行情報の生成処理の際に、静止画像の撮像位置が等間隔となるように飛行情報を生成してもよい。
制御端末200は、上記ステップS103でホバリングカメラ100の飛行情報を生成する際に、損傷している可能性が高いと考えられる部分の情報が予め記憶部140に記憶されていれば、その記憶されている情報を読み出して、その部分についてホバリングカメラ100に詳細に撮像させるような飛行情報を生成してもよい。損傷している可能性が高いと考えられる部分をホバリングカメラ100に撮像させる際には、制御端末200は、上述の特殊な撮像を制御する情報を飛行情報に含めてもよい。もちろん損傷している可能性が高いと考えられる部分の情報は、予め記憶部140に記憶されていなくてもよく、その場合は損傷している可能性が高いと考えられる部分の情報をユーザが点検時に入力してもよい。
点検する橋梁1の領域をホバリングカメラ100に飛行させる際に、ホバリングカメラ100の飛行可能時間によっては、一度にその領域をホバリングカメラ100に飛行させることが出来ないことが考えられる。ホバリングカメラ100の飛行可能時間は、予めバッテリ150の容量や、ロータ104a〜dを動かすためのモータ108a〜108dの消費電力、撮像装置101、制御部110、通信部120の消費電力等から求めることが可能である。そして飛行情報を生成する際に、スタート位置(例えばベースステーション600)から最初の撮像地点までの予定移動時間、撮像地点間の予定移動時間、最後の撮像地点からスタート位置に戻るまでの予定移動時間等から、ホバリングカメラ100の一度の点検飛行に要する時間を見積もることも可能である。従って、点検する橋梁1の領域に対する飛行経路をホバリングカメラ100が一度の点検飛行では飛行できない場合は、制御端末200は、生成した飛行経路をいくつかに分割してもよい。
また制御端末200は、上記ステップS103でホバリングカメラ100の飛行情報を生成する際に、複数の飛行経路を生成し、表示部210にその飛行経路を表示してもよい。図7は、制御端末200の表示部210に表示される画面の一例を示す説明図である。図7に示したのは、上記S103でホバリングカメラ100の飛行情報が生成される際に、複数の飛行経路が生成され、表示部210にその飛行経路R1、R2が表示されている状態の一例である。制御端末200は、表示部210に複数の飛行経路を表示して、ユーザに飛行経路を1つ選択させる。制御端末200は、ユーザの飛行経路の選択に基づいて飛行情報を生成する。
上記ステップS103でホバリングカメラ100の飛行情報を生成すると、続いて制御端末200は、生成した飛行情報をホバリングカメラ100に送信し、離陸指示をホバリングカメラ100に送信する(ステップS104)。生成した飛行情報の送信及び離陸指示の送信は、例えば飛行情報生成部232が通信部220を通じて実行する。
図8は、制御端末200の表示部210に表示される画面の一例を示す説明図である。図8に示したのは、ホバリングカメラ100へ離陸指示を送信する際に制御端末200の表示部210に表示される画面の一例である。ユーザは、表示部210に表示される離陸指示ボタン211を触ることで、制御端末200からホバリングカメラ100へ離陸指示を送信させることが出来る。なお制御端末200からホバリングカメラ100へ離陸指示を送信させる際には、その離陸指示の前に上記ステップS103で生成した飛行情報が制御端末200からホバリングカメラ100へ送信されてもよいが、制御端末200からホバリングカメラ100へ離陸指示を送信した後に、上記ステップS103で生成した飛行情報が制御端末200からホバリングカメラ100へ送信されてもよい。
制御端末200から飛行情報及び離陸指示を受信し、ベースステーション600から離陸したホバリングカメラ100は、制御端末200から送られた飛行情報に基づいて飛行して、撮像処理を実行して静止画像を得る(ステップS105)。ホバリングカメラ100は、静止画像を得る撮像処理を実行した際の位置情報や撮像処理時の機体の情報を取得し、静止画像に紐づけておく。撮像処理時の機体の情報には、例えばヨー角、ピッチ角、加速度、角速度の情報が含まれ得る。またホバリングカメラ100は、飛行中に撮像装置101で撮像している動画像を制御端末200にストリーミング送信してもよい。制御端末200は、ホバリングカメラ100が飛行中に撮像装置で撮像している動画像をストリーミングで取得し、表示することで、制御端末200は、ホバリングカメラ100がどのような位置を飛行しているのかをユーザに提示することが出来る。
ホバリングカメラ100は、撮像処理を実行する際には、全ての撮像地点で、撮像対象面(例えば橋桁3の側面や底面)との間の距離を一定に保つことが望ましい。全ての撮像地点で撮像対象面との間の距離を一定に保つことで、ホバリングカメラ100は、同じ大きさで撮像した静止画像を得ることが出来る。
損傷している可能性が高いと考えられる部分がホバリングカメラ100の飛行経路に含まれている場合、ホバリングカメラ100は、その部分については、撮像装置の撮像方向を変化させたり、波長の異なる赤外線を当てたり、シャッタスピードを変化させたりして、複数の静止画像を撮像してもよい。また損傷している可能性が高いと考えられる部分がホバリングカメラ100の飛行経路に含まれている場合、ホバリングカメラ100は、その部分については撮像処理を行なう位置の間隔を他の部分より狭くしてもよい。
図9は、本開示の一実施形態にかかる点検システム10におけるホバリングカメラ100の動作を概念的に示す説明図である。ホバリングカメラ100が飛行情報に基づいて橋梁1の底面側を飛行する場合、ホバリングカメラ100は例えば時刻tの時点で停止して橋梁1の底面を撮像し、撮像後に時刻tで撮像を行なう位置まで飛行し、時刻tの時点で停止して橋梁1の底面を別の位置で撮像し、以後は橋梁1の底面側の撮像のために飛行、停止、撮像を時刻tの時点まで繰り返す。ホバリングカメラ100が飛行、停止、撮像を繰り返すことで橋梁1の底面の画像が得られる。
ホバリングカメラ100は、飛行情報に基づいて飛行する際に、GPS衛星からの電波を障害無く受信出来れば現在位置を正確に把握できる。しかし、橋梁1の下など、GPS衛星からの電波を受信しづらい位置では、ホバリングカメラ100は、現在位置の正確な把握が困難になる。そこで本実施形態では、位置推定ノード500を用いることで、GPS衛星からの電波を受信しづらい位置でもホバリングカメラ100に正確な現在位置を把握させる。
図10は、本開示の一実施形態にかかる点検システム10におけるホバリングカメラ100の動作を概念的に示す説明図である。例えば図10のStartからGoalまでをホバリングカメラ100が飛行するような経路が設定された場合、ホバリングカメラ100は、GPS衛星30からの電波を障害なく受信して測位するGPS測位エリア40と、例えばビジョンセンサを用いて現在位置を推定するセンサ測位エリア50とを行き来することになる。
ホバリングカメラ100は、GPS測位エリア40ではGPS衛星30からの電波を用いて現在位置を把握する。ホバリングカメラ100は、センサ測位エリア50では位置推定ノード500間の位置を、位置推定ノード500がARマーカーであれば、ホバリングカメラ100に備えたセンサ(例えばIMUセンサ)の積算値と、撮像装置101で撮像した画像から算出した移動先の位置推定ノード500までの距離とで現在位置を把握する。位置推定ノード500がGPS信号の発信機であれば、ホバリングカメラ100は、位置推定ノード500から発信される信号を用いて、それぞれ把握する。
このように位置推定ノード500を用いることで、ホバリングカメラ100は、GPS衛星からの電波を受信しづらい位置に移動しても、正確な現在位置を把握することが出来る。
ホバリングカメラ100は、最後の撮像地点での撮像処理を完了すると、自動的にベースステーション600まで飛行して、ベースステーション600に帰還する(ステップS106)。そして制御端末200は、ベースステーション600に帰還したホバリングカメラ100が撮像した画像をホバリングカメラ100から取得する(ステップS107)。なおホバリングカメラ100が撮像した画像の取得は、このようにホバリングカメラ100がベースステーション600に帰還してから取得してもよいが、制御端末200は、ホバリングカメラ100が撮像処理を実行して静止画像を得る度にその静止画像を逐次取得してもよい。
本開示の一実施形態に係る点検システム10は、ホバリングカメラ100及び制御端末200が図5に示したような動作を実行することで、ホバリングカメラ100に送信する飛行情報を、点検対象の構築物(橋梁1)に関する情報に基づいて制御端末200で生成して、飛行情報に基づいて飛行するホバリングカメラ100で飛行情報に基づき画像を撮像し、ホバリングカメラ100が撮像した画像を制御端末200で取得することが出来る。
なお、ホバリングカメラ100が飛行している間、ホバリングカメラ100が撮像する動画像を見て、詳細に撮像したい部分をユーザが見つけたとする。その場合、例えばユーザは制御端末200を操作して、ホバリングカメラ100に対して自動飛行を停止してマニュアル操作に切り替える指示を制御端末200から送出させてもよい。
上述の例では、制御端末200で飛行情報を生成して、生成した飛行情報に基づいてホバリングカメラ100が自動飛行し、撮像処理を実行する処理を示した。しかし、橋梁1の概況図では分からない障害物が飛行経路上に存在することも考えられる。
図11は、本開示の一実施形態にかかる点検システム10におけるホバリングカメラ100の動作を概念的に示す説明図である。図11には、橋桁3の下に樹木4が生えている様子が示されている。この樹木4は、橋梁1の概況図には現れない障害物であり、ホバリングカメラ100の飛行時に初めて存在が明らかになる場合がある。
従って、本実施形態では、制御端末200で生成した飛行情報に基づいてホバリングカメラ100を一度テスト飛行させ、飛行情報に含まれる飛行経路上に障害物がないかどうかを確認するようにしても良い。
制御端末200で生成した飛行情報に基づいてホバリングカメラ100を一度テスト飛行させる際には、ホバリングカメラ100が撮像している動画像を制御端末200でストリーミング受信して、飛行情報に含まれる飛行経路上に障害物がないかどうかを、ユーザがその動画像を見ながら確認するようにしても良く、ホバリングカメラ100のセンサ部130によって障害物を検知させても良い。障害物の詳細な位置は、ホバリングカメラ100の撮像装置101としてステレオカメラを備えておき、ステレオカメラによる撮像で障害物までの距離を把握したり、ホバリングカメラ100の向きによって障害物の方向を特定したりすることで把握することが可能である。なお、ホバリングカメラ100をテスト飛行させている際に、飛行経路上に障害物が存在していれば、ホバリングカメラ100は自動飛行を停止してホバリング状態に移行し、ユーザからの操作を待機してもよく、自動的にベースステーション600に帰還するようにしてもよい。
飛行情報に含まれる飛行経路上に障害物が存在することが分かったら、制御端末200は、障害物の場所を橋梁1の概況図に登録してもよい。障害物の場所はユーザが手入力してもよく、ホバリングカメラ100がセンサ部130によって障害物を検知した場合にはその検知した障害物の場所をホバリングカメラ100から取得して、障害物の場所を橋梁1の概況図に登録してもよい。
図12は、制御端末200の表示部210に表示される画面の一例を示す説明図である。図12に示したのは、ホバリングカメラ100のテスト飛行によって飛行経路上に障害物が存在することが分かった場合の、表示部210に表示される画面の一例である。ホバリングカメラ100のテスト飛行によって飛行経路上に障害物が存在することが分かれば、制御端末200は、障害物の場所を示すマークO1を橋梁1の概況図に重ねて表示させる。
障害物の場所が分かれば、制御端末200は、その障害物の場所を避けるような飛行経路となるように飛行情報を再生成し、ホバリングカメラ100に再生成した飛行情報を送信する。ホバリングカメラ100は、制御端末200が再生成した飛行情報に基づいて飛行することで、障害物(樹木4)を避けて飛行及び撮像処理を行なうことが出来る。
ホバリングカメラ100を飛行させて障害物の場所を把握する方法は係る例に限定されるものではない。例えば、制御端末200が生成した飛行経路の外周を、ホバリングカメラ100に撮像装置101で動画像を撮像させながら単純な経路で飛行させて、橋桁3の下に障害物があるかどうかを確認するようにしてもよい。
[1.5.損傷データの生成例]
ホバリングカメラ100を飛行させて、ホバリングカメラ100に橋梁1を撮像させることで、例えば橋桁3の底面のような作業員が容易に近づけない場所の様子が把握可能となる。ホバリングカメラ100が撮像した静止画像には、例えば、その静止画像を撮像したホバリングカメラ100の位置情報(GPSによる測位や、位置推定ノード500を用いた測位による位置情報が含まれ得る)、撮像時の機体情報(例えばヨー角、ピッチ角、加速度、角速度)、撮像方向の情報が紐付けられる。またホバリングカメラ100が全ての撮像地点で撮像対象面との間の距離を一定に保って撮像することで、画像中の損傷が発生している場所の相対的な位置が分かる。従って、ホバリングカメラ100が撮像した静止画像に、橋桁3の損傷部分が含まれていれば、その損傷部分の絶対的な場所の把握が可能になる。例えば、静止画像の中心を原点として損傷している場所の相対値を算出し、その画像を撮像した際のホバリングカメラ100の位置情報にその相対値を算出することで、損傷部分の位置情報が求められる。なお、損傷部分の位置情報として例えば下記のようなデータを記録することができる。
(1)その静止画像の撮像位置の情報を損傷部分の位置として記録する(相対値(オフセット)を記録しない)。
(2)その静止画像の撮像位置の情報及び損傷部分に対応する相対値(オフセット)を損傷部分の位置として記録する。
(3)基準となる絶対値(例えば後述するように、位置情報の精度が高いと考えられる四隅の静止画像の撮像位置や、位置推定ノード500の座標)及び相対値(オフセット)を損傷部分の位置として記録する。
(4)算出された絶対値(例えば緯度、経度、高度)を損傷部分の位置として記録する。
レンズの焦点距離、イメージセンサのサイズ、撮像対象までの距離等の数値を用いることによって撮像範囲の物理サイズを求める技術が知られている。従って損傷部分の把握の際に、ホバリングカメラ100から撮像対象(例えば橋桁3の裏面や側面)までの距離情報や、撮像装置101の画角情報を用いて、ホバリングカメラ100の撮像範囲の物理サイズが推定されてもよい。撮像画像の中心位置(ホバリングカメラ100が撮像を行った位置)を原点として、その原点からの損傷部分までの物理的な相対位置が推定され、この相対位置に撮像画像の原点の位置座標が足し合わされることで、損傷部分の物理的な位置情報が決定される。なお、これらの距離情報や画角情報は、撮像の際にホバリングカメラ100が有するセンサを介して取得し、画像と関連付けて記録しておいたものを利用してもよいし、予めホバリングカメラ100または撮像装置101に設定された値を用いても良い。また撮像位置情報、距離情報や画角情報以外にも撮像時の機体情報(例えばヨー角、ピッチ角、加速度、角速度)、撮像方向の情報を用いて損傷部分の位置情報を算出してもよい。
ホバリングカメラ100が撮像した静止画像からの損傷部分の検出は、ユーザ自身が目で見て行なっても良いが、画像処理によって例えば情報処理装置300が自動的に行なっても良い。損傷部分の検出を自動化する際には、例えばパターンマッチング処理等の画像処理技術が用いられ得る。
損傷データのデータ構成は、例えば以下のフォーマットで定義される。
(画像ID、損傷ID、損傷部分の位置情報、損傷部分の画像上での座標、損傷種類ID、損傷程度)
損傷種類IDは、例えばヒビ、剥離、漏水、遊離石灰等の損傷の種類にそれぞれ付与されたIDのことをいう。また損傷程度のフィールドには、損傷の最大幅や、画像中の損傷部分の長さ等が記録され得る。ホバリングカメラ100が撮像した静止画像から、ユーザの手入力、または情報処理装置300による自動処理で、本実施形態にかかる点検システム10は、上述したフォーマットに従った損傷データを生成することが出来る。そして、本実施形態にかかる点検システム10が生成した損傷データは、橋梁1に生じた損傷を修復するための工事業者に対する発注処理に用いられ得る。
しかし、ホバリングカメラ100は一度の点検飛行で数多くの静止画像を撮像する。従って、ホバリングカメラ100が点検飛行の際に撮像した静止画像を1枚ずつ確認するのはユーザの負担が大きい。
そこで、ホバリングカメラ100が撮像した静止画像を繋ぎあわせて(スティッチングして)1枚の画像を得る。ホバリングカメラ100が撮像した静止画像をスティッチングすることで、例えば橋桁3の1径間分の底面の様子が1枚の画像として得られることになる。そして、ホバリングカメラ100が撮像した静止画像をスティッチングして得られた橋桁3の1径間分の底面の画像を確認することで、ユーザは橋桁3の底面に損傷があるかどうかを確認することが出来る。なお、静止画像のスティッチング処理は、制御端末200で行われてもよく、情報処理装置300で行われても良い。
図13は、ホバリングカメラ100が撮像した静止画像に基づいて橋桁3の底面を点検する場合の概要を示す説明図である。橋桁3の底面のある一部分(例えば橋桁3の1径間長分)をホバリングカメラ100に撮像させ、ホバリングカメラ100が撮像した静止画像をスティッチングすることで、橋桁3の底面を撮像した1枚の画像20が得られる。なお符号21に示したのは、ホバリングカメラ100の一度の撮像処理で撮像される画像を示している。
ホバリングカメラ100が撮像した静止画像をスティッチングして得られた画像から損傷部分の絶対的な場所を求める際には、スティッチングした画像のうち撮像時の位置情報の精度が相対的に高い位置情報を基準点として選択することができる。基準点としてスティッチングした画像の基になる四隅の静止画像の撮像時の、ホバリングカメラ100の位置情報を用いても良い。スティッチングした画像の基になる四隅の静止画像は一番歪みが少なく、またGPS測位エリアの方が位置情報の誤差が少なくなり、GPS測位エリアとなる、またGPS測位エリアに近い四隅の撮像時の位置情報を基準点として使うのが好ましいと考えられるので、四隅の静止画像に対応するホバリングカメラ100の位置情報から、損傷部分の絶対的な場所を求めることで、その損傷部分の位置を精度よく求めることが可能となる。なお、各位置情報の精度として、例えばGPS位置測位データ中の測位ステータス情報(2D測位中、3D測位中又は測位不能の状態を表す情報や受信衛星数等のデータ)を用いてもよい。
図14は、ホバリングカメラ100が撮像した静止画像をスティッチングして得られた画像20の例を示す説明図である。画像20の基となる四隅の静止画像C1〜C4の中心G1〜G4が、それぞれの静止画像を撮像した際のホバリングカメラ100の位置に対応する。本実施形態では、この四隅の静止画像C1〜C4に対応するホバリングカメラ100の位置情報を用いて、画像20におけるそれぞれの損傷部分の絶対位置を算出する。
スティッチングした画像から損傷データを生成する際には、損傷データのデータ構成は、例えば以下のフォーマットで定義される。すなわち、上述した損傷データから画像IDが削除される。
(損傷ID、損傷部分の位置情報、損傷部分の画像上での座標、損傷種類ID、損傷程度)
なお、スティッチングした画像の画像IDを生成し、スティッチングした画像の画像IDを損傷データに含めても良い。スティッチングした画像から、ユーザの手入力、または情報処理装置300による自動処理で、本実施形態にかかる点検システム10は、上述したフォーマットに従った損傷データを生成することが出来る。
[1.5.1.機能構成例]
図15は、本開示の一実施形態に係る情報処理装置300の機能構成例を示す説明図である。図15に示したのは、ホバリングカメラ100が撮像した静止画像から橋桁3の絶対的な損傷位置を求めて損傷データを生成する機能を有する、本開示の一実施形態に係る情報処理装置300の機能構成例である。以下、図15を用いて本開示の一実施形態に係る情報処理装置300の機能構成例について説明する。
図15に示したように、本開示の一実施形態にかかる情報処理装置300は、表示部310と、通信部320と、制御部330と、記憶部340と、を含んで構成される。
表示部310は、例えば液晶表示装置、有機EL表示装置等の平板表示装置からなる。表示部310は、例えば、ホバリングカメラ100の撮像装置101が撮像した画像や、その撮像装置101が撮像した画像から得られる橋梁1の損傷に関する情報等を表示し得る。
通信部320は、例えば制御端末200との間で無線通信による情報の送受信を行う。情報処理装置300は、ホバリングカメラ100が撮像した画像を、その画像の絶対的な撮像位置の情報と共に、制御端末200から通信部320で受信する。
制御部330は、情報処理装置300の動作を制御する。例えば制御部330は、表示部310への文字、図形、画像その他の情報の表示処理、通信部320を介した他の装置(例えば制御端末200)との間の情報の送受信処理を制御し得る。また制御部330は、撮像位置情報取得部332と、損傷位置算出部334と、画像合成部336と、損傷データ生成部338と、を含んで構成される。
撮像位置情報取得部332は、ホバリングカメラ100が橋梁1を撮像した際にホバリングカメラ100で取得された、その撮像時の撮像位置の情報を取得する。損傷位置算出部334は、ホバリングカメラ100が撮像した画像から橋梁1の損傷部分を、例えばパターンマッチング処理等の画像処理技術を用いて検出し、その損傷部分の絶対的な位置を、撮像位置情報取得部332が取得した撮像位置の情報を用いて算出する。
画像合成部336は、ホバリングカメラ100が撮像した静止画像を繋ぎあわせて1つの画像を生成するスティッチングする画像処理を実行する。画像合成部336は、ホバリングカメラ100が撮像した静止画像をスティッチングする際に、各静止画像の撮像時の撮像位置の情報を用いても良い。
損傷位置算出部334は、損傷位置の算出の際に、画像合成部336でスティッチングした画像の基になる撮像画像における隅の撮像画像(例えば四隅のそれぞれ)の撮像位置の情報を用いてもよい。上述したように、スティッチングした画像の基になる撮像画像における四隅の静止画像は一番歪みが少ないと考えられるので、損傷位置算出部334は、スティッチングした画像の基になる撮像画像における隅の撮像画像の撮像位置の情報を用いることで、より正確な損傷位置を求めることが出来る。
損傷データ生成部338は、損傷位置算出部334が算出した、橋梁1の損傷部分の絶対的な位置を用いて、上述したような損傷データを生成する。損傷データ生成部338は、1枚の静止画像単位で損傷データを生成してもよく、画像合成部336がスティッチングした画像に対して1つの損傷データを生成してもよい。
記憶部340は、各種情報を記憶する。記憶部340に格納される情報には、例えば、ホバリングカメラ100の撮像装置101が撮像した静止画像及びその静止画像を撮像した際のホバリングカメラ100の絶対的な撮像位置の情報、損傷データ生成部338が生成した損傷データの情報が含まれ得る。
本開示の一実施形態に係る情報処理装置300は、図15に示したような構成を有することで、ホバリングカメラ100が撮像した静止画像から損傷データを生成することが可能となり、従って本開示の一実施形態に係る情報処理装置300は、点検対象の構築物である橋梁1の点検結果を効率的に生成することが可能となる。なお上述したように、損傷データは情報処理装置300ではなく、制御端末200が生成してもよい。従って、図15に示した動作は情報処理装置300の制御部330の構成は、制御端末200が有してもよい。また、点検対象の構築物である橋梁1の点検結果は、公の、また私的なデータベースに蓄積し、活用することができる。なお上述したように、損傷データは情報処理装置300ではなく、制御端末200が生成してもよい。従って、図15に示した動作は情報処理装置300の制御部330の構成は、制御端末200が有してもよい。
以上、図15を用いて本開示の一実施形態に係る情報処理装置300の機能構成例について説明した。続いて本開示の一実施形態に係る情報処理装置300の動作例について説明する。
[1.5.2.動作例]
図16は、本開示の一実施形態に係る情報処理装置300の動作例を示す流れ図である。図16に示したのは、ホバリングカメラ100が撮像した静止画像から橋桁3の絶対的な損傷位置を求めて損傷データを生成する際の、本開示の一実施形態に係る情報処理装置300の動作例である。以下、図16を用いて本開示の一実施形態に係る情報処理装置300の動作例について説明する。
情報処理装置300は、まずホバリングカメラ100が橋梁1の周縁を飛行しつつ撮像した、撮像位置の情報が紐付いた画像を取得する(ステップS301)。ステップS301で撮像位置の情報が紐付いた画像を取得すると、続いて情報処理装置300は、その画像から損傷部分を、例えばパターンマッチング処理等の画像処理技術を用いて検出する(ステップS302)。ステップS302の損傷部分の検出処理は、例えば損傷位置算出部334が実行し得る。
上記ステップS302で画像から損傷部分を検出すると、続いて情報処理装置300は、その損傷部分の絶対的な位置の算出を行なう(ステップS303)。ステップS303の算出処理は、例えば損傷位置算出部334が実行し得る。情報処理装置300は、ステップS303での損傷部分の絶対的な位置の算出を、ホバリングカメラ100が撮像した静止画像の撮像位置の情報に基づいて行なう。情報処理装置300は、損傷部分の絶対的な位置の算出の際に、ホバリングカメラ100から撮像対象(例えば橋桁3の裏面や側面)までの距離情報や、撮像装置101の画角情報によって、ホバリングカメラ100の撮像範囲の物理サイズが推定されてもよい。撮像画像の中心からの損傷部分までの物理的な相対位置を推定し、この相対位置に撮像画像の原点としての位置座標を足し合わせることで、情報処理装置300は、損傷部分の物理的な位置情報を決めることができる。そして情報処理装置300は、損傷部分の絶対的な位置を含んだ損傷データの生成を行なう(ステップS304)。ステップS304の損傷データの生成処理は、例えば損傷データ生成部338が実行し得る。
本開示の一実施形態に係る情報処理装置300は、図16に示したような動作を実行することで、ホバリングカメラ100が撮像した静止画像から損傷データを生成することが可能となり、従って本開示の一実施形態に係る情報処理装置300は、点検対象の構築物である橋梁1の点検結果を効率的に生成することが可能となる。なお上述したように、損傷データは情報処理装置300ではなく、制御端末200が生成してもよい。従って、図16に示した動作は制御端末200が実行してもよい。
図17は、本開示の一実施形態に係る制御端末200の動作例を示す流れ図である。図17に示したのは、情報処理装置300が生成した損傷データを用いた、制御端末200による飛行情報の生成処理の一例である。以下、図17を用いて本開示の一実施形態に係る制御端末200の動作例について説明する。
ホバリングカメラ100が撮像した静止画像を制御端末200が表示し、その静止画像上で損傷の場所がユーザによって指定されると(ステップS311)、制御端末200は、その指定された場所の損傷位置を、情報処理装置300が生成した損傷データから取得する(ステップS312)。損傷場所の指定方法は問わないが、例えば静止画像を表示し、制御端末200のタッチパネルを指などで触らせることで損傷場所をユーザに指定させてもよい。
ユーザに指定された場所の損傷位置を損傷データから取得すると、続いて制御端末200は、損傷データから取得した損傷位置へホバリングカメラ100を飛行させて、損傷位置を撮像させる飛行情報を生成する(ステップS313)。ステップS313の処理は、例えば飛行情報生成部232が実行する。制御端末200がこのステップS313で生成する飛行情報は、損傷位置を詳細に確認するためであるので、上述の図5の説明で述べた制御端末200が生成する飛行情報に比べ、撮像位置の間隔を狭めたり、各撮像位置で特殊な撮像を実行したりするようにホバリングカメラ100へ指示するものであってもよい。
上記ステップS313で飛行情報を生成すると、図5のステップS104、S105で示したように、制御端末200は生成した飛行情報をホバリングカメラ100に送信し、ホバリングカメラ100は飛行情報に基づいて飛行および撮像処理を実行する。そして図5のステップS106、S107で示したように、ホバリングカメラ100は、最後の撮像地点での撮像処理を完了すると、自動的にベースステーション600まで飛行して、ベースステーション600に帰還し、制御端末200は、ホバリングカメラ100が撮像した画像をホバリングカメラ100から取得する。
本開示の一実施形態に係る制御端末200は、図17に示したような動作を実行することで、情報処理装置300が生成した損傷データを用いて、橋桁3の損傷部分をホバリングカメラ100に詳細に撮像させるための飛行情報を生成することが出来る。
[1.6.合成画像を用いた飛行指示の例]
ホバリングカメラ100に動画像、または所定の間隔で静止画像を撮像させて制御端末200に送信すると、制御端末200は、ホバリングカメラ100が撮像した動画像を所定のフレームごとに、または所定の間隔で撮像した静止画像をリアルタイムで合成する処理(リアルタイムスティッチング処理)を行なうことが出来る。制御端末200は、合成画像を用いて、ホバリングカメラ100の目標位置をユーザに指定させることが出来る。そして制御端末200は、ユーザが指定した目標位置まで飛行する飛行情報を、ホバリングカメラ100に送信する。
制御端末200は、このように画像を合成して合成画像を表示部210に表示し、合成画像に対して指定された目標位置まで飛行する飛行情報を生成することで、より直感的にユーザにホバリングカメラ100の飛行経路を生成することが出来る。また制御端末200は、ホバリングカメラ100が撮像した動画像または静止画像から合成画像を生成して合成画像を表示部210に表示することで、航空写真を得るのが難しい場合、例えば橋梁の裏側のような場所に対しても、地図や航空写真では得られないような細かい画像情報や現在の状況を使って飛行経路を指定させることが出来るとともに、外部の地図情報等のデータベースへのアクセスを要しない。また制御端末200は、ホバリングカメラ100が撮像した動画像または静止画像から合成画像を生成することで、屋内でのホバリングカメラ100の飛行経路の指定も可能になる。
図18は、ホバリングカメラ100を飛行させている際に、ホバリングカメラ100に地面の方向を撮像させている様子を示す説明図である。そして図19は、ホバリングカメラ100に撮像させた画像を合成するとともに、その合成画像を用いて、ホバリングカメラ100の飛行経路をユーザに指定させている様子を示す説明図である。
図19には、上空から撮像した結果得られる合成画像251に重畳されて、ホバリングカメラ100の現在位置を示す現在位置マーク252が示されている。制御端末200は、合成画像251を生成する際には、例えば後述するように特徴点マッチング等を用いる。
ユーザが例えば図19に示したようにホバリングカメラ100の目標位置253を合成画像251上で指定すると、制御端末200は、現在位置マーク252から目標位置253までホバリングカメラ100を飛行経路254で飛行させるための飛行情報を生成してホバリングカメラ100に送信する。ホバリングカメラ100は、制御端末200から送信された飛行情報に基づいて飛行する。
図20は、ホバリングカメラ100を飛行させている際に、ホバリングカメラ100に上方の方向(橋梁の裏面)を撮像させている様子を示す説明図である。そして図21は、ホバリングカメラ100に撮像させた画像を合成するとともに、その合成画像を用いて、ホバリングカメラ100の飛行経路をユーザに指定させている様子を示す説明図である。
図21には、図19と同様に、橋梁の裏面を撮像した結果得られる合成画像261に重畳されて、ホバリングカメラ100の現在位置を示す現在位置マーク262が示されている。制御端末200は、合成画像261を生成する際には、例えば後述するように特徴点マッチング等を用いる。
ユーザが例えば図21に示したようにホバリングカメラ100の目標位置263を合成画像261上で指定すると、制御端末200は、現在位置マーク262から目標位置263までホバリングカメラ100を飛行経路264で飛行させるための飛行情報を生成してホバリングカメラ100に送信する。ホバリングカメラ100は、制御端末200から送信された飛行情報に基づいて飛行する。
まず、制御端末200による合成画像の生成例を示す。図22は、制御端末200で合成画像を生成して表示部210に表示している様子を示す説明図である。なお、以下で説明する処理は、例えば制御端末200の表示制御部234が実行してもよい。従って、表示制御部234は、本開示の画像処理部の一例として機能し得る。
図22には、例えば時刻t−5〜t−1で撮像された画像群271と、時刻tで撮像された画像272と、を用いて、制御端末200で合成画像を生成して表示している様子が示されている。時刻tで撮像された画像272が制御端末200に送信された場合、制御端末200は、時刻tで撮像された画像272の特徴点と、画像群271の中から時刻t−1で撮像された画像の特徴点との照合を行なう。なお制御端末200は、時刻tで撮像された画像272の特徴点と、既に画像群271を用いて合成した合成画像の特徴点との照合を行なってもよい。
続いて制御端末200は、特徴点の位置誤差が最小となるような回転・並進パラメータ(またはアフィン変換パラメータ)を求める。続いて制御端末200は、新しい画像272を基準に、これまでのスティッチング処理で生成した合成画像を、回転・並進パラメータ(またはアフィン変換パラメータ)を使った変換で合成(αブレンディング)する。制御端末200は、この合成により、合成画像の中心に時刻tで撮像された画像がくるような新たな合成画像を生成することが出来る。そして。制御端末200は、合成画像の中心、すなわち、時刻tで撮像された画像の中心273がホバリングカメラ100の位置となるように合成画像を表示する。
続いて、このように生成された合成画像に対するユーザの入力に基づく、制御端末200の飛行経路の生成処理について説明する。
図23は、合成画像に対するユーザの入力に基づく、制御端末200の飛行経路の生成処理について説明する説明図である。制御端末200が生成した合成画像275に対してユーザが目標位置276を指定すると、ホバリングカメラ100の現在位置から目標位置に対する方向が分かる。合成画像は、ホバリングカメラ100が撮像した画像に基づいて生成されるので、その目標位置に対する方向は現在のホバリングカメラ100からの方向を表している。
なお、目標位置276は、まだホバリングカメラ100によって撮像されていない場所がユーザによって指定されても良い。
例えば撮像画像の上方がホバリングカメラ100の前方、左方向がホバリングカメラ100の左方向であるように、ホバリングカメラ100に下向きに撮像装置が設けられているとする。従って、図23に示した合成画像275に対してユーザが目標位置276を指定すると、目標位置276はホバリングカメラ100の現在位置(すなわち中心273)から見て左後方の方向になる。
従って、制御端末200は、ホバリングカメラ100の現在位置から見て左後方の方向にホバリングカメラ100が飛行するような飛行経路277を決定し、その飛行経路277で水平飛行するような飛行情報を生成し、ホバリングカメラ100に送信する。飛行経路277の決定や飛行情報の生成は例えば飛行情報生成部232が実行してもよい。ホバリングカメラ100は、制御端末200から送信された飛行情報に基づき、左後方に水平飛行する。
そしてホバリングカメラ100の水平飛行の開始に伴い、制御端末200はホバリングカメラ100による新たな撮像画像を得る事が出来る。制御端末200は、ホバリングカメラ100の移動によって得られる新たな撮像画像を用いて合成画像の更新を行なう。制御端末200は、合成画像の更新の際に、画像の向きや位置を更新するだけでなく、目標位置も更新する。画像の向きや位置、目標位置も更新されることで、目標位置は、ユーザに指定された時の位置と一緒に移動する。図24は、ホバリングカメラ100の目標位置276への移動によって得られる新たな撮像画像を用いた更新後の合成画像の例を示す説明図である。図24は、図23と比較すると、中心273の位置は常に同じであり、目標位置276が中心273に近づいている。すなわち、図24は、図23に示したものから、目標位置276が移動していることが分かる。
制御端末200は、ホバリングカメラ100による新たな撮像および合成画像の更新により、目標位置276が中心273に所定の距離以下まで近づくようなフィードバック制御を掛けて飛行情報を生成し、生成した飛行情報をホバリングカメラ100に送信する。
上述の例では、ホバリングカメラ100の回転を伴わずに目標位置へ移動させる方法を示したが、本開示は係る例に限定されない。制御端末200は、目標位置が指定されると、まずホバリングカメラ100を目標位置に向けて回転させる飛行情報を生成し、ホバリングカメラ100を回転させた後に目標位置へ向けて移動させる飛行情報を生成してもよい。ホバリングカメラ100を回転させる場合であっても、制御端末200は、上述したように特徴点マッチングを行なうので、合成画像はホバリングカメラ100の回転に伴って回転させることが出来る。
なお、画像中の移動方向は、ホバリングカメラ100への撮像装置の取り付け方によって異なる。従って、例えばホバリングカメラ100に撮像装置101が上向きに取り付けられていれば、下向きに取り付けられていた場合と移動方向が反転することになる。
ホバリングカメラ100に撮像装置101を横方向に設置することも、もちろん可能である。ホバリングカメラ100に撮像装置101が横方向に設置されている場合、ホバリングカメラ100の移動方向は、上下と回転、または上下と左右の組み合わせになる。図25は、ホバリングカメラ100に撮像装置101が横方向に設置されている場合における合成画像の例を示す説明図である。図25には、ホバリングカメラ100が撮像した画像から生成した合成画像281が示されている。また符号282で囲まれているのは、ホバリングカメラ100が現在の位置から撮像している画像を示している。
上述した説明を踏まえて、本開示の一実施形態に係る制御端末200の動作例について説明する。
図26は、本開示の一実施形態に係る制御端末200の動作例を示す流れ図である。図26に示したのは、ホバリングカメラ100で撮像された画像から合成画像を生成し、その合成画像に基づいて飛行情報を生成してホバリングカメラ100に送出する際の制御端末200の動作例である。
制御端末200は、最初に初期化処理を表示制御部234で行なう(ステップS401)。この初期化処理は、ホバリングカメラ100から最初に送られてきた撮像画像を入力画像とし、その入力画像を最初の合成画像とする処理である。
制御端末200は、続いてホバリングカメラ100で撮像された画像を入力画像として、入力画像及び合成画像の特徴点抽出を表示制御部234で行なう(ステップS402)。特徴点抽出を行なうと、続いて制御端末200は、抽出した特徴点のマッチングを行って、特徴点間の移動量や回転量の算出を表示制御部234で行なう(ステップS403)。
制御端末200は、続いて、上記ステップS403で求めた特徴点間の移動量や回転量に合わせて、表示制御部234で合成画像を変換する(ステップS404)。この変換の際に、目標位置が既に指定されていれば、制御端末200は、表示制御部234で目標位置も合わせて変換する。
制御端末200は、続いて、それまでの合成画像に入力画像を合成して新たな合成画像として、その合成画像の表示処理を表示制御部234で行なう(ステップS405)。
制御端末200は、続いて、合成画像が表示されている表示部210に対するユーザ入力があったかどうかを表示制御部234で判断する(ステップS406)。合成画像が表示されている表示部210に対するユーザ入力とは、例えば表示部210に設けられているタッチパネルに対するユーザ入力である。そして、表示部210に設けられているタッチパネルに対するユーザ入力があった場合は、制御端末200は、ユーザによって入力された画像上の座標位置を、例えば表示制御部234で検出する。合成画像に対するユーザ入力があった場合は(ステップS406、Yes)、制御端末200は、ユーザのタッチ位置を目標位置として登録する処理を表示制御部234で行なう(ステップS407)。合成画像に対するユーザ入力がなかった場合は(ステップS406、No)、制御端末200は、上記ステップS407の処理をスキップする。
制御端末200は、続いて、目標位置が登録されているかどうかを表示制御部234で判断する(ステップS408)。目標位置が登録されていれば(ステップS408、Yes)、制御端末200は、続いて、その目標位置の現在位置からの方向を表示制御部234で求める(ステップS409)。
目標位置の現在位置からの方向を求めると、制御端末200は、続いて、撮像装置101の取り付けに合わせて、画像上での方向からホバリングカメラ100の機体の移動方向に変換する(ステップS410)。そして制御端末200は、その変換後の移動方向へ移動するためのコマンドを飛行情報として飛行情報生成部232で生成し、ホバリングカメラ100へ送出する(ステップS411)。
制御端末200は、ホバリングカメラ100へ飛行情報を送出すると、上記ステップS402の特徴点の抽出処理に戻る。
一方、上記ステップS408の判断の結果、目標位置が登録されていなければ(ステップS408、No)、制御端末200は、上記ステップS409〜S411の処理をスキップして、上記ステップS402の特徴点の抽出処理に戻る。
本開示の一実施形態に係る制御端末200は、上述した処理を実行することで、ホバリングカメラ100が撮像した画像を随時合成して合成画像を生成するとともに、その合成画像に対して指定された位置へ飛行するような飛行情報を生成して、ホバリングカメラ100に送出することが出来る。
なお上述した例では、合成画像に対するタッチ処理に応じてホバリングカメラ100の飛行を制御する飛行情報を制御端末200で生成したが、本開示は係る例に限定されるものではない。
例えば、合成画像に対するピンチイン操作による縮小処理や、ピンチアウト操作による拡大処理、また合成画像に対する回転操作に応じてホバリングカメラ100の飛行を制御する飛行情報を制御端末200で生成してもよい。
すなわち制御端末200は、合成画像に対するピンチイン操作が行われると、ホバリングカメラ100を撮像対象から遠ざけるような飛行情報を生成してもよい。また制御端末200は、合成画像に対するピンチイン操作が行われると、ホバリングカメラ100を撮像対象に近づけるような飛行情報を生成してもよい。また制御端末200は、合成画像に対する回転操作が行われると、ホバリングカメラ100の撮像装置101が撮像対象に向いたまま回転するような飛行情報を生成してもよい。
また、上述した例では、ホバリングカメラ100が撮像した画像に対する合成処理を制御端末200が行って、制御端末200からホバリングカメラ100へ飛行指示を送出していたが、例えば撮像装置を備えるロボットのような移動体全般に対する制御に、本実施形態の技術が適用できることは言うまでもない。
上述した例では、ホバリングカメラ100が撮像した画像に対する合成処理を制御端末200が行って、制御端末200からホバリングカメラ100へ飛行指示を送出していた。この場合、ホバリングカメラ100から制御端末200へは、ホバリングカメラ100が撮像した画像が撮像の度に送信され、制御端末200からホバリングカメラ100へは、制御端末200が生成した飛行情報、すなわち、ホバリングカメラ100にとって移動方向が直接解釈できる情報が、飛行情報の生成及び更新の度に送信される。
しかし、本開示は係る例に限定されない。例えば、ホバリングカメラ100が撮像した画像に対する画像処理によるパラメータの抽出及びホバリングカメラ100の飛行を制御するコマンドの生成をホバリングカメラ100が実行し、制御端末200は、ホバリングカメラ100が撮像した画像に対する合成処理及びユーザからの目標位置の入力のみを受け付けるようにしても良い。この場合、ホバリングカメラ100から制御端末200へは、ホバリングカメラ100が撮像した画像が撮像の度に送信され、制御端末200からホバリングカメラ100へは、ユーザが指定した目標位置の情報が、ユーザの指定の度に送信される。
ホバリングカメラ100が撮像した画像に対する画像処理によるパラメータの抽出及びホバリングカメラ100の飛行を制御するコマンドの生成をホバリングカメラ100が実行することで、フィードバック制御がホバリングカメラ100の中だけで完結する。従って、制御端末200とホバリングカメラ100との間の情報のやり取りに要する通信量の削減や、制御端末200とホバリングカメラ100との間の通信が切断した場合でもホバリングカメラ100を安全に飛行させることが可能になる。
また上述した例では、ホバリングカメラ100で最も新しく撮像された画像が画面の中央部分に来るように合成画像を生成していたが、本開示は係る例に限定されるものではない。すなわち、合成画像の表示位置を固定にして、ホバリングカメラ100で撮像された画像を合成画像に合成するようにしてもよい。合成画像の表示位置を固定にした場合は、目標位置が固定され、ホバリングカメラ100の現在位置が、合成画像の更新とともに移動することになる。また合成画像の表示位置を固定にした場合に、合成画像の更新によって合成画像が画面の端部に達した時は、最も新しく撮像された画像が画面に収まるように合成画像全体をスクロールさせて、現在位置及び目標位置を更新するようにしてもよい。
撮像装置101は、撮像方向が固定されるようにホバリングカメラ100に取り付けられてもよく、例えばモータ等によって撮像方向が変化するようにホバリングカメラ100に取り付けられてもよい。撮像方向が変化するようにホバリングカメラ100に撮像装置101が取り付けられている場合は、その撮像装置101の撮像方向を例えば制御部110で検知して、制御部110が検知した撮像方向に応じて、合成画像の生成処理や、ホバリングカメラ100の移動方向を指定する処理が行われるようにしても良い。
<2.まとめ>
以上説明したように本開示の一実施形態によれば、設定された飛行情報に基づいて自動飛行し、点検対象の構築物を撮像するホバリングカメラ100、及びホバリングカメラ100に撮像させた静止画像に基づいて構築物の損傷状態を確認可能な点検システム10が提供される。
本開示の一実施形態に係る点検システム10は、ホバリングカメラ100に送信する飛行情報を制御端末200で生成する際に、点検対象の構築物に関する情報を用いる。点検対象の構築物に関する情報を用いることで、制御端末200は、ホバリングカメラ100を飛行させて点検対象の構築物を効率よく点検するための飛行情報を生成することが出来る。
また、本開示の一実施形態によれば、ホバリングカメラ100が撮像した画像から合成画像を生成し、その合成画像に対する入力によってホバリングカメラ100を移動させるための飛行情報を生成することが可能な制御端末200が提供される。本開示の一実施形態に係る制御端末200は、ホバリングカメラ100が撮像した画像から合成画像を生成し、その合成画像に対する入力によってホバリングカメラ100を移動させるための飛行情報を生成することで、ユーザに直感的にホバリングカメラ100を操作させることが可能になる。従って本開示の一実施形態に係る制御端末200は、複雑な操作をユーザに強いること無く、ユーザにより容易にホバリングカメラ100を操作させることが可能になる。
なお、上記実施形態では、ホバリングカメラ100が撮像する画像は静止画像であり、その静止画像を用いて橋梁1の損傷状態を点検する場合の点検システム10の例を示したが、本開示は係る例に限定されるものではない。ホバリングカメラ100は、飛行しながら橋梁1を動画像として撮像してもよく、情報処理装置300は、そのホバリングカメラ100が撮像した動画像を用いて損傷データを生成してもよい。ホバリングカメラ100は、動画像の撮像処理の実行時に定期的に位置情報を取得し、動画像の撮像時刻と、位置情報の取得時刻とを紐付けることで、情報処理装置300は、動画像を用いた損傷データの生成が可能になる。
本明細書の各装置が実行する処理における各ステップは、必ずしもシーケンス図またはフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、各装置が実行する処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、各装置に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した各装置の構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供されることが可能である。また、機能ブロック図で示したそれぞれの機能ブロックをハードウェアまたはハードウェア回路で構成することで、一連の処理をハードウェアまたはハードウェア回路で実現することもできる。また上述の説明で用いた機能ブロック図で示したそれぞれの機能ブロックの一部又は全部は、たとえばインターネット等のネットワークを介して接続されるサーバ装置で実現されてもよい。また上述の説明で用いた機能ブロック図で示したそれぞれの機能ブロックの構成は、単独の装置で実現されてもよく、複数の装置が連携するシステムで実現されても良い。複数の装置が連携するシステムには、例えば複数のサーバ装置の組み合わせ、サーバ装置と端末装置との組み合わせ等が含まれ得る。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
撮像装置を備えた移動体で撮像された画像から合成画像を生成する画像処理部と、
前記画像処理部が生成した前記合成画像に対する操作に応じて前記移動体を移動させるための移動情報を生成する移動情報生成部と、
を備える、制御装置。
(2)
前記移動情報生成部は、前記合成画像に対して指定された指定位置に基づく場所へ前記移動体を移動させるための移動情報を生成する、前記(1)に記載の制御装置。
(3)
前記移動情報生成部は、前記移動情報の生成の際に、前記移動体における前記撮像装置の設置状態に基づいて前記移動体の移動方向を決定する、前記(2)に記載の制御装置。
(4)
前記画像処理部は、合成画像の生成の際に、生成前の合成画像における前記指定位置を生成後の合成画像における位置に移動させる、前記(2)または(3)に記載の制御装置。
(5)
前記移動情報生成部は、前記指定位置に基づく場所に正面を向けるよう前記移動体の向きを変化させてから該場所へ前記移動体を移動させるための移動情報を生成する、前記(2)〜(4)のいずれかに記載の制御装置。
(6)
前記移動情報生成部は、前記合成画像に対する拡大処理に基づいて、前記撮像装置の撮像対象に近づくように前記移動体を移動させるための移動情報を生成する、前記(1)〜(5)のいずれかに記載の制御装置。
(7)
前記移動情報生成部は、前記合成画像に対する縮小処理に基づいて、前記撮像装置の撮像対象から遠ざかるように前記移動体を移動させるための移動情報を生成する、前記(1)〜(5)のいずれかに記載の制御装置。
(8)
前記移動情報生成部は、前記合成画像に対する回転処理に基づいて、前記撮像装置が撮像対象を向いたまま回転するように前記移動体を移動させるための移動情報を生成する、前記(1)〜(5)のいずれかに記載の制御装置。
(9)
前記画像処理部は、最も新しく前記移動体で撮像された画像の中心が画面の中心に位置するように合成画像を生成する、前記(1)〜(8)のいずれかに記載の制御装置。
(10)
前記移動体は、飛行装置である、前記(1)〜(9)のいずれかに記載の制御装置。
(11)
撮像装置を備えた移動体で撮像された画像から合成画像を生成することと、
生成された前記合成画像に対する操作に応じて前記移動体を移動させるための移動情報を生成することと、
を含む、制御方法。
(12)
コンピュータに、
撮像装置を備えた移動体で撮像された画像から合成画像を生成することと、
生成された前記合成画像に対する操作に応じて前記移動体を移動させるための移動情報を生成することと、
を実行させる、コンピュータプログラム。
10 点検システム
100 ホバリングカメラ
101 撮像装置
104a〜104d ロータ
108a〜108d モータ
110 制御部
120 通信部
130 センサ部
132 位置情報取得部
140 記憶部
150 バッテリ
200 制御端末
300 情報処理装置
400 無線中継ノード
500 位置推定ノード
600 ベースステーション
700 充電ステーション

Claims (12)

  1. 撮像装置を備えた移動体で撮像された画像から合成画像を生成する画像処理部と、
    前記画像処理部が生成した前記合成画像に対する操作に応じて前記移動体を移動させるための移動情報を生成する移動情報生成部と、
    を備える、制御装置。
  2. 前記移動情報生成部は、前記合成画像に対して指定された指定位置に基づく場所へ前記移動体を移動させるための移動情報を生成する、請求項1に記載の制御装置。
  3. 前記移動情報生成部は、前記移動情報の生成の際に、前記移動体における前記撮像装置の設置状態に基づいて前記移動体の移動方向を決定する、請求項2に記載の制御装置。
  4. 前記画像処理部は、合成画像の生成の際に、生成前の合成画像における前記指定位置を生成後の合成画像における位置に移動させる、請求項2に記載の制御装置。
  5. 前記移動情報生成部は、前記指定位置に基づく場所に正面を向けるよう前記移動体の向きを変化させてから該場所へ前記移動体を移動させるための移動情報を生成する、請求項2に記載の制御装置。
  6. 前記移動情報生成部は、前記合成画像に対する拡大処理に基づいて、前記撮像装置の撮像対象に近づくように前記移動体を移動させるための移動情報を生成する、請求項1に記載の制御装置。
  7. 前記移動情報生成部は、前記合成画像に対する縮小処理に基づいて、前記撮像装置の撮像対象から遠ざかるように前記移動体を移動させるための移動情報を生成する、請求項1に記載の制御装置。
  8. 前記移動情報生成部は、前記合成画像に対する回転処理に基づいて、前記撮像装置が撮像対象を向いたまま回転するように前記移動体を移動させるための移動情報を生成する、請求項1に記載の制御装置。
  9. 前記画像処理部は、最も新しく前記移動体で撮像された画像の中心が画面の中心に位置するように合成画像を生成する、請求項1に記載の制御装置。
  10. 前記移動体は、飛行装置である、請求項1に記載の制御装置。
  11. 撮像装置を備えた移動体で撮像された画像から合成画像を生成することと、
    生成された前記合成画像に対する操作に応じて前記移動体を移動させるための移動情報を生成することと、
    を含む、制御方法。
  12. コンピュータに、
    撮像装置を備えた移動体で撮像された画像から合成画像を生成することと、
    生成された前記合成画像に対する操作に応じて前記移動体を移動させるための移動情報を生成することと、
    を実行させる、コンピュータプログラム。
JP2014212953A 2014-10-17 2014-10-17 制御装置、制御方法及びコンピュータプログラム Active JP6387782B2 (ja)

Priority Applications (14)

Application Number Priority Date Filing Date Title
JP2014212953A JP6387782B2 (ja) 2014-10-17 2014-10-17 制御装置、制御方法及びコンピュータプログラム
CA2959471A CA2959471A1 (en) 2014-10-17 2015-10-09 Control device, control method, and computer program
AU2015331965A AU2015331965A1 (en) 2014-10-17 2015-10-09 Inspection vehicle control device, control method, and computer program
EP15787034.6A EP3206768B1 (en) 2014-10-17 2015-10-09 Inspection vehicle control device, control method, and computer program
PCT/JP2015/005142 WO2016059785A1 (en) 2014-10-17 2015-10-09 Inspection vehicle control device, control method, and computer program
EP23190486.3A EP4253911A3 (en) 2014-10-17 2015-10-09 Inspection vehicle control device, control method, and computer program
US15/505,541 US10198003B2 (en) 2014-10-17 2015-10-09 Control device, control method, and computer program
CN201580054839.6A CN106796112B (zh) 2014-10-17 2015-10-09 检测车辆控制设备、控制方法和计算机程序
CN201811272015.8A CN109373975B (zh) 2014-10-17 2015-10-09 检测车辆控制设备、控制方法
CN201911346231.7A CN111009156B (zh) 2014-10-17 2015-10-09 检测车辆控制设备、控制方法和计算机程序
AU2018222910A AU2018222910B2 (en) 2014-10-17 2018-08-28 Inspection vehicle control device, control method, and computer program
US16/232,699 US11520334B2 (en) 2014-10-17 2018-12-26 Control device, control method, and computer program
US18/056,730 US11927960B2 (en) 2014-10-17 2022-11-18 Control device, control method, and computer program
US18/443,346 US20240184290A1 (en) 2014-10-17 2024-02-16 Control device, control method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014212953A JP6387782B2 (ja) 2014-10-17 2014-10-17 制御装置、制御方法及びコンピュータプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018153028A Division JP2018174002A (ja) 2018-08-16 2018-08-16 移動体

Publications (3)

Publication Number Publication Date
JP2016082441A true JP2016082441A (ja) 2016-05-16
JP2016082441A5 JP2016082441A5 (ja) 2017-03-02
JP6387782B2 JP6387782B2 (ja) 2018-09-12

Family

ID=54360508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014212953A Active JP6387782B2 (ja) 2014-10-17 2014-10-17 制御装置、制御方法及びコンピュータプログラム

Country Status (7)

Country Link
US (4) US10198003B2 (ja)
EP (2) EP3206768B1 (ja)
JP (1) JP6387782B2 (ja)
CN (3) CN111009156B (ja)
AU (2) AU2015331965A1 (ja)
CA (1) CA2959471A1 (ja)
WO (1) WO2016059785A1 (ja)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017047315A1 (ja) * 2015-09-16 2017-03-23 富士フイルム株式会社 健全度判定装置、健全度判定方法および健全度判定プログラム
JP6156605B1 (ja) * 2016-07-20 2017-07-05 中国電力株式会社 無人飛行体、充電システム、及び充電システムの制御方法
JP2017139582A (ja) * 2016-02-02 2017-08-10 キヤノン株式会社 移動制御システム
KR101850617B1 (ko) * 2016-09-26 2018-04-20 부산대학교 산학협력단 케이블 교량의 처짐 모니터링 시스템 및 케이블 교량의 처짐 모니터링 방법
WO2018168406A1 (ja) * 2017-03-16 2018-09-20 富士フイルム株式会社 撮影制御装置、撮影システム、および撮影制御方法
JP2018160196A (ja) * 2017-03-23 2018-10-11 キヤノンマーケティングジャパン株式会社 無人航空機制御システム、無人航空機制御システムの制御方法、およびプログラム
JP2018169995A (ja) * 2017-03-30 2018-11-01 株式会社スカイマティクス ドローンを用いた作業を支援するシステムおよび方法
JPWO2017217185A1 (ja) * 2016-06-14 2019-02-28 富士フイルム株式会社 サーバ装置、画像処理システム及び画像処理方法
JP2019045898A (ja) * 2017-08-29 2019-03-22 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 飛行体制御方法、飛行体、プログラム及び記録媒体
JP2019109775A (ja) * 2017-12-19 2019-07-04 株式会社ダイヘン 移動体、及び治具
WO2019163119A1 (ja) * 2018-02-26 2019-08-29 株式会社オプティム コンピュータシステム、ドローン制御方法及びプログラム
WO2019163118A1 (ja) * 2018-02-26 2019-08-29 株式会社オプティム コンピュータシステム、ドローン制御方法及びプログラム
JP2019191684A (ja) * 2018-04-19 2019-10-31 株式会社Geoソリューションズ 被検査構造体の検査システム
JP2019219874A (ja) * 2018-06-19 2019-12-26 電源開発株式会社 自律移動撮影制御システムおよび自律移動体
JPWO2018198313A1 (ja) * 2017-04-28 2020-04-02 株式会社オプティム 無人飛行体のアクションプラン作成システム、方法及びプログラム
JP2020080089A (ja) * 2018-11-14 2020-05-28 エヌ・ティ・ティ・コムウェア株式会社 情報表示システム、情報表示方法及び情報表示プログラム
WO2020179491A1 (ja) * 2019-03-06 2020-09-10 ソニー株式会社 行動制御装置および行動制御方法、並びにプログラム
JP2020187779A (ja) * 2020-07-16 2020-11-19 Kddi株式会社 飛行装置、飛行制御方法及びプログラム
JP2020535545A (ja) * 2017-10-26 2020-12-03 グアンジョウ エックスエアークラフト テクノロジー カンパニー リミテッド ナビゲーションチャート構成方法、障害物回避方法及び装置、端末、無人航空機
JP2020201850A (ja) * 2019-06-12 2020-12-17 九州旅客鉄道株式会社 飛行体の制御方法
JP2021504866A (ja) * 2017-11-29 2021-02-15 エンジェルスウィング インコーポレイテッドAngelswing Inc. 需要者と供給者とをマッチングさせ、ドローンデータを提供する方法及びその装置
JP2021047205A (ja) * 2020-12-10 2021-03-25 Kddi株式会社 判定装置、判定方法及びプログラム
JP2021059925A (ja) * 2019-10-09 2021-04-15 株式会社エイテック 橋梁検査方法及び橋梁検査システム
JP2021072091A (ja) * 2019-10-30 2021-05-06 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 計算負荷分散方法、計算負荷分散装置、可動物体、データ処理方法、データ処理装置、およびプログラム
JP2021092465A (ja) * 2019-12-11 2021-06-17 株式会社自律制御システム研究所 無人航空機の推定位置を修正するためのシステム、方法、プログラム及びプログラムを記憶した記憶媒体
WO2022014429A1 (ja) * 2020-07-16 2022-01-20 ソニーグループ株式会社 情報処理方法、プログラム、及びシステム
JP2022036109A (ja) * 2020-07-16 2022-03-04 Kddi株式会社 管理装置
WO2023047859A1 (ja) * 2021-09-22 2023-03-30 富士フイルム株式会社 情報処理装置、方法及びプログラム、並びに、画像データ構造
JP7412983B2 (ja) 2019-02-04 2024-01-15 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US12018926B2 (en) 2018-12-13 2024-06-25 Sony Group Corporation Controller and control method

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10518411B2 (en) * 2016-05-13 2019-12-31 General Electric Company Robotic repair or maintenance of an asset
JP6387782B2 (ja) * 2014-10-17 2018-09-12 ソニー株式会社 制御装置、制御方法及びコンピュータプログラム
CN107077140B (zh) 2016-03-28 2018-11-30 深圳市大疆创新科技有限公司 无人飞行器的悬停控制方法、控制***和无人飞行器
JP6715340B2 (ja) * 2016-10-14 2020-07-01 富士フイルム株式会社 撮影計画生成装置、撮影計画生成方法、およびプログラム
DE102017205647A1 (de) * 2017-03-14 2018-09-20 Bitmanagement Software GmbH Verfahren zum bestimmen eines pfades entlang eines objekts, system und verfahren zum automatischen inspizieren eines objekts
CA3051611A1 (en) * 2017-05-26 2018-11-29 Guangzhou Xaircraft Technology Co., Ltd. Method for determining heading of unmanned aerial vehicle and unmanned aerial vehicle
US10565765B2 (en) 2017-09-26 2020-02-18 Ricoh Company, Ltd. Information processing apparatus, system of assessing structural object, method of assessing structural object and storage medium
US10872534B2 (en) * 2017-11-01 2020-12-22 Kespry, Inc. Aerial vehicle inspection path planning
CN108647563A (zh) * 2018-03-27 2018-10-12 阿里巴巴集团控股有限公司 一种车辆定损的方法、装置及设备
TWI682877B (zh) * 2018-06-04 2020-01-21 宏碁股份有限公司 移動裝置控制方法、伺服器裝置及移動裝置控制系統
KR102225112B1 (ko) * 2018-08-30 2021-03-09 한국공항공사 비행체를 이용한 항행안전시설 점검 장치 및 방법
CN109739234B (zh) * 2019-01-02 2022-05-17 中电海康集团有限公司 一种基于gps轨迹数据的车辆实时图像追踪方法
US20220076399A1 (en) * 2019-01-10 2022-03-10 Nec Corporation Photographing guide device
CN109982049B (zh) * 2019-04-04 2020-10-13 郑州和光电子科技有限公司 一种全景融合显控***
WO2021039387A1 (ja) * 2019-08-26 2021-03-04 ソニー株式会社 制御装置、制御方法、無人飛行体、情報処理装置、情報処理方法、およびプログラム
JP7263983B2 (ja) * 2019-08-30 2023-04-25 富士通株式会社 撮影漏れ検出装置、及び、撮影漏れ検出方法
CN111174765B (zh) * 2020-02-24 2021-08-13 北京航天飞行控制中心 基于视觉引导的行星车目标探测控制方法及装置
US20220292633A1 (en) * 2021-03-15 2022-09-15 International Business Machines Corporation Image stitching for high-resolution scans

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001292444A (ja) * 2000-04-10 2001-10-19 Mitsubishi Electric Corp 撮影システム
JP2003532218A (ja) * 2000-05-01 2003-10-28 アイロボット コーポレーション 移動ロボットを遠隔操作するための方法およびシステム
JP2006171224A (ja) * 2004-12-14 2006-06-29 Mitsubishi Electric Corp 撮影映像処理システム
JP2011189929A (ja) * 2010-03-11 2011-09-29 Parrot 無人機、特に回転翼無人機を遠隔制御するための方法および機器
US20120050525A1 (en) * 2010-08-25 2012-03-01 Lakeside Labs Gmbh Apparatus and method for generating an overview image of a plurality of images using a reference plane

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2923634C2 (de) * 1979-06-11 1985-01-17 Siemens AG, 1000 Berlin und 8000 München Leitsystem für den Individualverkehr
JPS57186111A (en) * 1981-05-13 1982-11-16 Nissan Motor Co Ltd Map display device for vehicle
JPS61245015A (ja) * 1985-04-23 1986-10-31 Mitsubishi Electric Corp 方向表示装置
JP2891795B2 (ja) * 1991-04-12 1999-05-17 パイオニア株式会社 車載ナビゲーション装置
JPH0729099A (ja) * 1993-07-13 1995-01-31 Kunimichi Takada 配送用地図表示装置
US6845297B2 (en) * 2000-05-01 2005-01-18 Irobot Corporation Method and system for remote control of mobile robot
JP2003195941A (ja) 2001-12-26 2003-07-11 Matsushita Electric Ind Co Ltd 移動体を移動させるサービスを提供する方法
WO2005033629A2 (en) 2003-09-19 2005-04-14 University Of Miami Multi-camera inspection of underwater structures
JP2005269413A (ja) 2004-03-19 2005-09-29 Chugoku Electric Power Co Inc:The 無人飛行体を利用した空中撮影システム
JP2006027448A (ja) 2004-07-16 2006-02-02 Chugoku Electric Power Co Inc:The 無人飛行体を利用した空撮方法及びその装置
JP2006113858A (ja) 2004-10-15 2006-04-27 Mitsubishi Heavy Ind Ltd 移動体の遠隔操作支援方法及びシステム
JP2006308311A (ja) 2005-04-26 2006-11-09 Xanavi Informatics Corp ナビゲーション装置
JP4222355B2 (ja) * 2005-09-29 2009-02-12 トヨタ自動車株式会社 駐車支援装置および車両と地上機器との間の電力授受方法
JP4306670B2 (ja) * 2005-10-31 2009-08-05 トヨタ自動車株式会社 駐車支援装置
US8581981B2 (en) * 2006-04-28 2013-11-12 Southwest Research Institute Optical imaging system for unmanned aerial vehicle
JP5140887B2 (ja) * 2006-11-07 2013-02-13 株式会社小松製作所 無人車両の誘導走行制御方法および制御装置
US7747364B2 (en) 2006-12-06 2010-06-29 Honeywell International Inc. Methods, apparatus and systems for enhanced synthetic vision and multi-sensor data fusion to improve operational capabilities of unmanned aerial vehicles
US20090281727A1 (en) * 2008-05-06 2009-11-12 Matsushita Electric Industrial Co., Ltd. Car navigation system
US20100286859A1 (en) 2008-11-18 2010-11-11 Honeywell International Inc. Methods for generating a flight plan for an unmanned aerial vehicle based on a predicted camera path
AU2009316987B2 (en) * 2008-11-20 2012-09-06 Bae Systems Plc Unmanned aerial vehicle (UAV)
BRPI1006813A2 (pt) * 2009-01-17 2016-04-12 Boomerang Systems Inc sistema de armazenamento automático e veículo de transporte
JP5402057B2 (ja) 2009-02-16 2014-01-29 トヨタ自動車株式会社 移動ロボット制御システム、経路探索方法、経路探索プログラム
JP5326678B2 (ja) 2009-03-09 2013-10-30 トヨタ自動車株式会社 ナビゲーション装置
JP5326794B2 (ja) 2009-05-15 2013-10-30 トヨタ自動車株式会社 遠隔操作システム及び遠隔操作方法
JP2011065202A (ja) 2009-09-15 2011-03-31 Hitachi Ltd 自律移動装置
CN201575814U (zh) * 2009-12-17 2010-09-08 北京华旗随身数码股份有限公司 可视化车载导航装置
DE202010000176U1 (de) * 2010-02-12 2011-06-30 AL-KO Kober AG, 89359 Fernbedienung
JP2011174799A (ja) 2010-02-24 2011-09-08 Mitsubishi Electric Corp 撮影経路計算装置
US8743199B2 (en) * 2010-03-09 2014-06-03 Physical Optics Corporation Omnidirectional imaging optics with 360°-seamless telescopic resolution
JP5548002B2 (ja) * 2010-03-25 2014-07-16 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法
JP5610870B2 (ja) 2010-06-21 2014-10-22 三菱重工業株式会社 無人走行車両の誘導装置及び無人走行車両の誘導方法
CN101963806B (zh) * 2010-10-15 2012-06-27 农业部南京农业机械化研究所 基于gps导航的无人机施药作业自动控制***及方法
JP5618840B2 (ja) 2011-01-04 2014-11-05 株式会社トプコン 飛行体の飛行制御システム
JP2012179682A (ja) 2011-03-01 2012-09-20 Nec Corp 移動ロボットシステム、移動ロボット制御装置、該制御装置に用いられる移動制御方法及び移動制御プログラム
FR2972364B1 (fr) * 2011-03-08 2014-06-06 Parrot Procede de pilotage suivant un virage curviligne d'un drone a voilure tournante a rotors multiples.
DE102011017564B4 (de) * 2011-04-26 2017-02-16 Airbus Defence and Space GmbH Verfahren und System zum Prüfen einer Oberfläche auf Materialfehler
US20140297066A1 (en) 2011-11-04 2014-10-02 Panasonic Corporation Remote control system
CN102566580A (zh) * 2011-12-27 2012-07-11 中国直升机设计研究所 一种无人直升机飞行航迹规划方法
FR2988618B1 (fr) 2012-03-30 2014-05-09 Parrot Estimateur d'altitude pour drone a voilure tournante a rotors multiples
CN102982515A (zh) * 2012-10-23 2013-03-20 中国电子科技集团公司第二十七研究所 一种无人机图像实时拼接的方法
US9581438B2 (en) 2012-12-31 2017-02-28 General Electric Company Systems and methods for control of a non-destructive testing system
US9215448B2 (en) * 2013-01-31 2015-12-15 Here Global B.V. Stereo panoramic images
US9429425B2 (en) * 2013-03-05 2016-08-30 Here Global B.V. Aerial image collection
US9075415B2 (en) * 2013-03-11 2015-07-07 Airphrame, Inc. Unmanned aerial vehicle and methods for controlling same
US9355368B2 (en) * 2013-03-14 2016-05-31 Toyota Motor Engineering & Manufacturing North America, Inc. Computer-based method and system for providing active and automatic personal assistance using a robotic device/platform
DE102013110580B4 (de) * 2013-09-24 2024-05-23 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Szene und Laserscanner, ausgebildet zur Durchführung des Verfahrens
CN103604427B (zh) * 2013-12-10 2016-10-12 中国航天空气动力技术研究院 对地面移动目标动态定位的无人机***和方法
CN103942273B (zh) * 2014-03-27 2017-03-15 北京空间机电研究所 一种空中快速响应动态监测***及其动态监测方法
US9986154B2 (en) * 2014-05-21 2018-05-29 Here Global B.V. Developing a panoramic image
EP2976687B1 (en) * 2014-05-30 2017-09-06 SZ DJI Technology Co., Ltd. Systems and methods for uav docking
EP3862837B1 (en) 2014-07-30 2023-05-03 SZ DJI Technology Co., Ltd. Systems and methods for target tracking
JP6387782B2 (ja) * 2014-10-17 2018-09-12 ソニー株式会社 制御装置、制御方法及びコンピュータプログラム
US20170221241A1 (en) * 2016-01-28 2017-08-03 8681384 Canada Inc. System, method and apparatus for generating building maps
US9823658B1 (en) * 2016-11-04 2017-11-21 Loveland Innovations, LLC Systems and methods for adaptive property analysis via autonomous vehicles
US20180184073A1 (en) * 2016-12-23 2018-06-28 Red Hen Systems Llc Systems and Methods For Recording Stereo Pairs From Independent Camera Platforms

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001292444A (ja) * 2000-04-10 2001-10-19 Mitsubishi Electric Corp 撮影システム
JP2003532218A (ja) * 2000-05-01 2003-10-28 アイロボット コーポレーション 移動ロボットを遠隔操作するための方法およびシステム
JP2006171224A (ja) * 2004-12-14 2006-06-29 Mitsubishi Electric Corp 撮影映像処理システム
JP2011189929A (ja) * 2010-03-11 2011-09-29 Parrot 無人機、特に回転翼無人機を遠隔制御するための方法および機器
US20120050525A1 (en) * 2010-08-25 2012-03-01 Lakeside Labs Gmbh Apparatus and method for generating an overview image of a plurality of images using a reference plane

Cited By (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11118998B2 (en) 2015-09-16 2021-09-14 Fujifilm Corporation Soundness determination device, soundness determination method, and soundness determination program
WO2017047315A1 (ja) * 2015-09-16 2017-03-23 富士フイルム株式会社 健全度判定装置、健全度判定方法および健全度判定プログラム
JP2017139582A (ja) * 2016-02-02 2017-08-10 キヤノン株式会社 移動制御システム
JP2020038227A (ja) * 2016-06-14 2020-03-12 富士フイルム株式会社 画像処理方法、画像処理装置、及び画像処理プログラム
JP7241139B2 (ja) 2016-06-14 2023-03-16 富士フイルム株式会社 サーバ装置、画像処理方法、及び画像処理システム
JP2022000646A (ja) * 2016-06-14 2022-01-04 富士フイルム株式会社 サーバ装置、画像処理方法、及び画像処理システム
JPWO2017217185A1 (ja) * 2016-06-14 2019-02-28 富士フイルム株式会社 サーバ装置、画像処理システム及び画像処理方法
WO2018016024A1 (ja) * 2016-07-20 2018-01-25 中国電力株式会社 無人飛行体、充電システム、及び充電システムの制御方法
JP6156605B1 (ja) * 2016-07-20 2017-07-05 中国電力株式会社 無人飛行体、充電システム、及び充電システムの制御方法
KR101850617B1 (ko) * 2016-09-26 2018-04-20 부산대학교 산학협력단 케이블 교량의 처짐 모니터링 시스템 및 케이블 교량의 처짐 모니터링 방법
US10951821B2 (en) 2017-03-16 2021-03-16 Fujifilm Corporation Imaging control device, imaging system, and imaging control method
WO2018168406A1 (ja) * 2017-03-16 2018-09-20 富士フイルム株式会社 撮影制御装置、撮影システム、および撮影制御方法
JPWO2018168406A1 (ja) * 2017-03-16 2020-05-14 富士フイルム株式会社 撮影制御装置、撮影システム、および撮影制御方法
JP2018160196A (ja) * 2017-03-23 2018-10-11 キヤノンマーケティングジャパン株式会社 無人航空機制御システム、無人航空機制御システムの制御方法、およびプログラム
JP7129069B2 (ja) 2017-03-30 2022-09-01 株式会社スカイマティクス ドローンを用いた作業を支援するシステムおよび方法
JP2018169995A (ja) * 2017-03-30 2018-11-01 株式会社スカイマティクス ドローンを用いた作業を支援するシステムおよび方法
JP2021051767A (ja) * 2017-03-30 2021-04-01 株式会社スカイマティクス ドローンを用いた作業を支援するシステムおよび方法
US11543836B2 (en) 2017-04-28 2023-01-03 Optim Corporation Unmanned aerial vehicle action plan creation system, method and program
JPWO2018198313A1 (ja) * 2017-04-28 2020-04-02 株式会社オプティム 無人飛行体のアクションプラン作成システム、方法及びプログラム
JP2019045898A (ja) * 2017-08-29 2019-03-22 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 飛行体制御方法、飛行体、プログラム及び記録媒体
JP2020535545A (ja) * 2017-10-26 2020-12-03 グアンジョウ エックスエアークラフト テクノロジー カンパニー リミテッド ナビゲーションチャート構成方法、障害物回避方法及び装置、端末、無人航空機
JP7084571B2 (ja) 2017-11-29 2022-06-15 エンジェルスウィング インコーポレイテッド 需要者と供給者とをマッチングさせ、ドローンデータを提供する方法及びその装置
JP2021504866A (ja) * 2017-11-29 2021-02-15 エンジェルスウィング インコーポレイテッドAngelswing Inc. 需要者と供給者とをマッチングさせ、ドローンデータを提供する方法及びその装置
JP7153442B2 (ja) 2017-12-19 2022-10-14 株式会社ダイヘン 移動体
JP2019109775A (ja) * 2017-12-19 2019-07-04 株式会社ダイヘン 移動体、及び治具
WO2019163118A1 (ja) * 2018-02-26 2019-08-29 株式会社オプティム コンピュータシステム、ドローン制御方法及びプログラム
WO2019163119A1 (ja) * 2018-02-26 2019-08-29 株式会社オプティム コンピュータシステム、ドローン制御方法及びプログラム
JPWO2019163118A1 (ja) * 2018-02-26 2020-12-03 株式会社オプティム コンピュータシステム、ドローン制御方法及びプログラム
US11774969B2 (en) 2018-02-26 2023-10-03 Optim Corporation System and method using image analysis for controlling a flight path of a surface inspection unmanned aerial vehicle
JP2019191684A (ja) * 2018-04-19 2019-10-31 株式会社Geoソリューションズ 被検査構造体の検査システム
JP6989849B2 (ja) 2018-04-19 2022-01-12 株式会社Geoソリューションズ 被検査構造体の検査システム
JP2019219874A (ja) * 2018-06-19 2019-12-26 電源開発株式会社 自律移動撮影制御システムおよび自律移動体
JP7195117B2 (ja) 2018-11-14 2022-12-23 エヌ・ティ・ティ・コムウェア株式会社 情報表示システム、情報表示方法及び情報表示プログラム
JP2020080089A (ja) * 2018-11-14 2020-05-28 エヌ・ティ・ティ・コムウェア株式会社 情報表示システム、情報表示方法及び情報表示プログラム
US12018926B2 (en) 2018-12-13 2024-06-25 Sony Group Corporation Controller and control method
US11928805B2 (en) 2019-02-04 2024-03-12 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium for defect inspection and detection
JP7412983B2 (ja) 2019-02-04 2024-01-15 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
WO2020179491A1 (ja) * 2019-03-06 2020-09-10 ソニー株式会社 行動制御装置および行動制御方法、並びにプログラム
JP2020201850A (ja) * 2019-06-12 2020-12-17 九州旅客鉄道株式会社 飛行体の制御方法
JP2021059925A (ja) * 2019-10-09 2021-04-15 株式会社エイテック 橋梁検査方法及び橋梁検査システム
JP2021072091A (ja) * 2019-10-30 2021-05-06 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 計算負荷分散方法、計算負荷分散装置、可動物体、データ処理方法、データ処理装置、およびプログラム
JP7352908B2 (ja) 2019-12-11 2023-09-29 株式会社Acsl 無人航空機の推定位置を修正するためのシステム、方法、プログラム及びプログラムを記憶した記憶媒体
JP2021092465A (ja) * 2019-12-11 2021-06-17 株式会社自律制御システム研究所 無人航空機の推定位置を修正するためのシステム、方法、プログラム及びプログラムを記憶した記憶媒体
JP2020187779A (ja) * 2020-07-16 2020-11-19 Kddi株式会社 飛行装置、飛行制御方法及びプログラム
JP7047180B2 (ja) 2020-07-16 2022-04-04 Kddi株式会社 管理装置
JP2022036109A (ja) * 2020-07-16 2022-03-04 Kddi株式会社 管理装置
WO2022014429A1 (ja) * 2020-07-16 2022-01-20 ソニーグループ株式会社 情報処理方法、プログラム、及びシステム
JP6994087B2 (ja) 2020-07-16 2022-01-14 Kddi株式会社 飛行装置、飛行制御方法及びプログラム
JP2021047205A (ja) * 2020-12-10 2021-03-25 Kddi株式会社 判定装置、判定方法及びプログラム
WO2023047859A1 (ja) * 2021-09-22 2023-03-30 富士フイルム株式会社 情報処理装置、方法及びプログラム、並びに、画像データ構造

Also Published As

Publication number Publication date
CN106796112A (zh) 2017-05-31
CA2959471A1 (en) 2016-04-21
US20230106526A1 (en) 2023-04-06
JP6387782B2 (ja) 2018-09-12
EP3206768B1 (en) 2023-11-29
EP4253911A3 (en) 2023-12-13
CN109373975A (zh) 2019-02-22
CN111009156B (zh) 2022-06-07
EP4253911A2 (en) 2023-10-04
CN106796112B (zh) 2020-01-21
WO2016059785A1 (en) 2016-04-21
CN111009156A (zh) 2020-04-14
US20190146503A1 (en) 2019-05-16
CN109373975B (zh) 2022-08-30
US20170308088A1 (en) 2017-10-26
US11520334B2 (en) 2022-12-06
EP3206768A1 (en) 2017-08-23
US10198003B2 (en) 2019-02-05
AU2018222910B2 (en) 2019-08-08
AU2015331965A1 (en) 2017-02-09
US20240184290A1 (en) 2024-06-06
AU2018222910A1 (en) 2018-09-13
US11927960B2 (en) 2024-03-12

Similar Documents

Publication Publication Date Title
JP6387782B2 (ja) 制御装置、制御方法及びコンピュータプログラム
JP7310972B2 (ja) 飛行情報制御方法、情報処理装置及びコンピュータプログラム
JP6795073B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2024020389A (ja) 制御方法、制御装置及びプログラム
JP2018174002A (ja) 移動体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180717

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180730

R151 Written notification of patent or utility model registration

Ref document number: 6387782

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151