JP7501535B2 - 情報処理装置、情報処理方法、情報処理プログラム - Google Patents

情報処理装置、情報処理方法、情報処理プログラム Download PDF

Info

Publication number
JP7501535B2
JP7501535B2 JP2021534568A JP2021534568A JP7501535B2 JP 7501535 B2 JP7501535 B2 JP 7501535B2 JP 2021534568 A JP2021534568 A JP 2021534568A JP 2021534568 A JP2021534568 A JP 2021534568A JP 7501535 B2 JP7501535 B2 JP 7501535B2
Authority
JP
Japan
Prior art keywords
composition
information processing
waypoints
moving
semantic map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021534568A
Other languages
English (en)
Other versions
JPWO2021014752A1 (ja
Inventor
政彦 豊吉
航平 漆戸
竜太 佐藤
琢人 元山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2021014752A1 publication Critical patent/JPWO2021014752A1/ja
Application granted granted Critical
Publication of JP7501535B2 publication Critical patent/JP7501535B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3826Terrain data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3885Transmission of map data to client devices; Reception of map data by client devices
    • G01C21/3889Transmission of selected map data, e.g. depending on route
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/0202Control of position or course in two dimensions specially adapted to aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Description

本技術は、情報処理装置、情報処理方法、情報処理プログラムに関する。
従来からカメラによる撮影の技術においては、ユーザが撮影しようとするシーンや被写体などに合わせて最適な構図を提示する技術が提案されている(特許文献1)。
また近年、ドローンなどの自律移動体が普及し、その自律移動体にカメラを搭載して撮影を行う方法も普及しつつある。
特開2011-135527号公報
特許文献1に記載の技術はカメラの位置が固定された通常の撮影におけるものであり、自律移動する自律移動体に搭載されたカメラでの撮影における構図の最適化は未解決の課題である。
本技術はこのような点に鑑みなされたものであり、移動体が自律移動しながら所望の構図で撮影するための移動経路を決定することができる情報処理装置、情報処理方法、情報処理プログラムを提供することを目的とする。
上述した課題を解決するために、第1の技術は、撮像装置を備える移動体が移動しながら撮影する範囲である移動範囲における移動体が備えているセンサによるセンシング結果に基づいて移動範囲のセマンティックマップを作成するマップ作成部と、セマンティックマップ内に存在する形状を抽出する形状抽出部と、予め保持してある構図データまたはユーザの入力に基づいて撮像装置で撮影する画像の構図を設定する構図設定部と、ユーザからの入力に基づいて複数のウェイポイントを設定するウェイポイント設定部と、形状と構図とウェイポイントに基づいて、移動体の移動範囲において、複数のウェイポイントの全てを通過する移動経路を決定する経路決定部とを備える情報処理装置である。
また、第2の技術は、マップ作成部が、撮像装置を備える移動体が移動しながら撮影する範囲である移動範囲における移動体が備えているセンサによるセンシング結果に基づいて移動範囲のセマンティックマップを作成し、形状抽出部が、セマンティックマップ内に存在する形状を抽出し、構図設定部が、予め保持してある構図データまたはユーザの入力に基づいて撮像装置で撮影する画像の構図を設定し、ウェイポイント設定部が、ユーザからの入力に基づいて複数のウェイポイントを設定し、経路決定部が、形状と構図とウェイポイントに基づいて、移動体の移動範囲において、複数のウェイポイントの全てを通過する移動経路を決定する情報処理方法である。
また、第3の技術は、撮像装置を備える移動体が移動しながら撮影する範囲である移動範囲における移動体が備えているセンサによるセンシング結果に基づいて移動範囲のセマンティックマップを作成し、セマンティックマップ内に存在する形状を抽出し、予め保持してある構図データまたはユーザの入力に基づいて撮像装置で撮影する画像の構図を設定し、ユーザからの入力に基づいて複数のウェイポイントを設定し、形状と構図とウェイポイントに基づいて、移動体の移動範囲において、複数のウェイポイントの全てを通過する移動経路を決定する情報処理方法をコンピュータに実行させる情報処理プログラムである。
撮影システム10の構成を示す全体図である。 移動体100の構成を示す外観図である。 移動体100の構成を示すブロック図である。 撮像装置200の構成を示すブロック図である。 端末装置300の構成を示すブロック図である。 情報処理装置400の構成を示すブロック図である。 移動経路決定の全体フローを示すフローチャートである。 セマンティックマップの例を示す図である。 セマンティックマップからの形状抽出の説明図である。 セマンティックマップ作成処理を示すフローチャートである。 マップ作成範囲の設定の説明図である。 移動経路決定処理を示すフローチャートである。 ウェイポイント設定の説明図である。 局所的移動経路決定処理を示すフローチャートである。 移動経路についてのコスト算出処理を示すフローチャートである。 コスト算出の説明図であり、図16Aはセマンティックマップの例であり、図16Bは構図の例である。 コスト算出の説明図であり、セマンティックマップと構図を重ね合わせた状態を示す図である。 ウェイポイント間ごとに構図を設定する変形例の説明図である。
以下、本技術の実施の形態について図面を参照しながら説明する。なお、説明は以下の順序で行う。
<1.実施の形態>
[1-1.撮影システム10の構成]
[1-2.移動体100の構成]
[1-3.撮像装置200の構成]
[1-4.端末装置300および情報処理装置400の構成]
[1-5.情報処理装置400による処理]
[1-5-1.全体処理]
[1-5-2.セマンティックマップ作成処理]
[1-5-3.移動経路決定処理]
<2.変形例>
<1.実施の形態>
[1-1.撮影システム10の構成]
まず図1を参照して撮影システム10の構成について説明する。撮影システム10は、移動体100、撮像装置200、情報処理装置400としての機能を有する端末装置300とから構成されている。
本実施の形態において移動体100はドローンと称される電動小型飛行体(無人航空機)である。撮像装置200はジンバル500を介して移動体100に搭載され、移動体100の自律移動中に予め設定された構図で自律撮影を行って静止画/動画を取得するものである。
端末装置300は地上において撮影システム10を利用するユーザが使用するスマートフォンなどのコンピュータであり、端末装置300において動作する情報処理装置400が撮影における構図の設定や移動体100の移動経路の作成などを行うものである。
移動体100と撮像装置200は有線または無線接続により通信可能となっている。また、端末装置300と移動体100および撮像装置200は無線接続により通信可能となっている。
[1-2.移動体100の構成]
図2および図3を参照して移動体100の構成について説明する。図2Aは移動体100の外観平面図であり、図2Bは移動体100の外観正面図である。中心部としての例えば円筒状または角筒状の胴体部1と、胴体部1の上部に固定された支持軸2a~2fとから機体が構成される。一例として、胴体部1が6角筒状とされ、胴体部1の中心から6本の支持軸2a~2fが等角間隔で放射状に延びるようになされている。胴体部1および支持軸2a~2fは、軽量で強度の高い材料から構成されている。
さらに、胴体部1および支持軸2a~2fからなる機体は、その重心が支持軸2a~2fの中心を通る鉛直線上にくるように、各構成部品の形状、配置等が設計される。さらに、この鉛直線上に重心がくるように、胴体部1内に回路ユニット5およびバッテリ6が設けられている。
図2の例では、回転翼およびモータの数が6個とされている。しかしながら、4個の回転翼およびモータを有する構成、或いは8個以上の回転翼およびモータを有する構成でもよい。
支持軸2a~2fの先端部には、回転翼の駆動源としてのモータ3a~3fがそれぞれ取り付けられている。モータ3a~3fの回転軸に回転翼4a~4fが取り付けられている。各モータを制御するためのUAV制御部101などを含む回路ユニット5が支持軸2a~2fが交わる中心部に取り付けられている。
モータ3aおよび回転翼4aと、モータ3dおよび回転翼4dとが対を構成する。同様に、(モータ3b,回転翼4b)と(モータ3e,回転翼4e)とが対を構成し、(モータ3c,回転翼4c)と(モータ3f,回転翼4f)とが対を構成する。
胴体部1内に底面に動力源としてのバッテリ6が配置されている。バッテリ6は、例えばリチウムイオン二次電池と充放電を制御するバッテリ制御回路とを有する。バッテリ6は、胴体部1の内部に着脱自在に取り付けられている。バッテリ6の重心と機体の重心とを一致させることによって、重心の安定性が増加する。
一般的にドローンと称される電動小型飛行体は、モータの出力を制御して所望の航行を可能としている。例えば、空中に静止しているホバーリングの状態では、機体に搭載されたジャイロセンサを用いて傾きを検知し、機体が下がった側のモータ出力を増加させ、上がった側のモータ出力を低下させることによって、機体を水平に保つようにしている。さらに、前進の際には、進行方向のモータ出力を低下、逆方向のモータ出力を増加させることによって、前傾姿勢を取らせ、進行方向への推進力を発生させるようにしている。このような電動小型飛行体の姿勢制御および推進制御において、上述したようなバッテリ6の設置位置は、機体の安定性と制御の容易性とのバランスをとることができる。
図3は、移動体100の構成を示すブロック図である。移動体100は、UAV(Unmanned aerial vehicle)制御部101、通信部102、自己位置推定部103、3次元測距部104、ジンバル制御部105、センサ部106、バッテリ6、モータ3a~3f、を備えて構成されている。なお、上述の移動体100の外観構成で説明した支持軸、回転翼などは省略する。UAV制御部101、通信部102、自己位置推定部103、3次元測距部104、ジンバル制御部105、センサ部106は図2の移動体100の外観図に示される回路ユニット5に含まれているものとする。
UAV制御部101はCPU(Central Processing Unit)、RAM(Random Access Memory)およびROM(Read Only Memory)などから構成されている。ROMには、CPUにより読み込まれ動作されるプログラムなどが記憶されている。RAMは、CPUのワークメモリとして用いられる。CPUは、ROMに記憶されたプログラムに従い様々な処理を実行してコマンドの発行を行うことによって、移動体100全体および各部を制御する。また、UAV制御部101は、モータ3a~3fの出力を制御することにより移動体100の飛行を制御するものである。
通信部102は、端末装置300および撮像装置200とデータの送受信を行なうための各種通信用端子または通信モジュールである。通信は、端末装置300とは無線LAN(Local Area Network)やWAN(Wide Area Network)、WiFi(Wireless Fidelity)、4G(第4世代移動通信システム)、5G(第4世代移動通信システム)、Bluetooth(登録商標)、ZigBee(登録商標)などの無線通信で行われる。また、撮像装置200との通信は無線通信のほか、USB(Universal Serial Bus)通信などの有線通信でもよい。移動体100は端末装置300の情報処理装置400が作成した移動経路情報を通信部で受信してその移動経路に従って自律移動して撮影を行う。
自己位置推定部103は、センサ部106で取得した各種センサ情報に基づいて移動体100の現在位置を推定する処理を行うものである。
3次元測距部104は、センサ部106で取得した各種センサ情報に基づいて3次元の測距処理を行うものである。
ジンバル制御部105は、移動体100に撮像装置200を回転自在に装着させるためのジンバル500の動作を制御する処理部である。ジンバル制御部105でジンバル500の軸の回転を制御することにより撮像装置200の向きを自在に調整することができる。これにより、設定された構図に合わせて撮像装置200の向きを調整して撮影を行うことができる。
センサ部106は、ステレオカメラ、LiDAR(Laser Imaging Detection and Ranging)などの距離を測定することができるセンサである。ステレオカメラは、距離センサの一種で、人間が物を見るときの三角測量の原理を応用した左右2台のカメラによるステレオ方式カメラである。ステレオカメラで撮影した画像データを用いて視差データを生成し、カメラ(レンズ)と対象表面までの距離を測定することができる。LiDARはパルス状に発光するレーザー照射に対する散乱光を測定し、遠距離にある対象までの距離やその対象の性質を分析するものである。センサ部106が取得したセンサ情報を移動体100の自己位置推定部103と3次元測距部104に供給される。
またセンサ部106はGPS(Global Positioning System)モジュール、IMU(Inertial Measurement Unit)モジュールを含んでいてもよい。GPSモジュールは、移動体100の現在位置(緯度経度情報)を取得してUAV制御部101、自己位置推定部103などに供給するものである。IMUモジュールは、慣性計測装置であり、2軸または3軸方向に対する加速度センサ、角度速度センサ、ジャイロセンサなどによって、3次元の角速度と加速度を求めることにより、移動体100の姿勢、傾き、旋回時の角速度やY軸方向周りの角速度など検出してUAV制御部101などに供給する。
さらにセンサ部106は高度計、方位計などを含んでいてもよい。高度計は、移動体100が位置する高度を計測して高度データをUAV制御部101に供給するものであり、気圧高度計、電波高度計などがある。方位計は磁石の作用を用いて移動体100の進行方角を検出してUAV制御部101などに供給するものである。
本実施の形態においては、移動体100の下部にジンバル500を介して撮像装置200が搭載されている。ジンバル500とは、例えば2軸または3軸の軸で支持する物体(本実施の形態では撮像装置200)を回転させる回転台の一種である。
[1-3.撮像装置200の構成]
撮像装置200は、図2Bに示すように移動体100の胴体部1の底面にジンバル500を介して吊り下げられるように搭載されている。撮像装置200はジンバル500の駆動により360度水平方向から垂直方向への全方向のいずれの方向にもレンズを向けて撮像することが可能となっている。これにより、設定した構図での撮影が可能となっている。なお、ジンバル500の動作制御はジンバル制御部105により行われる。
図4のブロック図を参照して撮像装置200の構成について説明する。撮像装置200は、制御部201、光学撮像系202、レンズ駆動ドライバ203、撮像素子204、画像信号処理部205、画像メモリ206、記憶部207、通信部208を備えて構成されている。
光学撮像系202は、被写体からの光を撮像素子204に集光するための撮像レンズ、撮像レンズを移動させてフォーカス合わせやズーミングを行うための駆動機構、シャッタ機構、アイリス機構などから構成されている。これらは撮像装置200の制御部201、レンズ駆動ドライバ203からの制御信号に基づいて駆動される。光学撮像系202を介して得られた被写体の光画像は、撮像装置200が備える撮像素子204上に結像される。
レンズ駆動ドライバ203は、例えばマイコンなどにより構成され、制御部201の制御に従い撮像レンズを光軸方向に沿って所定量移動させることにより、目標とする被写体に合焦するようにオートフォーカスを行う。また、制御部201からの制御に従い、光学撮像系202の駆動機構、シャッタ機構、アイリス機構などの動作を制御する。これにより、露光時間(シャッタースピード)の調整、絞り値(F値)などの調整がなされる。
撮像素子204は、被写体からの入射光を光電変換して電荷量に変換して、画素信号を出力する。そして、撮像素子204は画素信号を画像信号処理部205に出力する。撮像素子204としては、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などが用いられる。
画像信号処理部205は撮像素子204から出力された撮像信号に対して、CDS(Correlated Double Sampling)処理によりS/N(Signal/Noise)比を良好に保つためのサンプルホールド、AGC(Auto Gain Control)処理、A/D(Analog/Digital)変換などを行ない、画像信号を作成する。
画像メモリ206は、揮発性メモリ、例えば、DRAM(Dynamic Random Access Memory)で構成されるバッファメモリである。画像メモリ206は画像信号処理部205によって所定の処理が施された画像データを一時的に蓄えておくものである。
記憶部207は、例えば、ハードディスク、USBフラッシュメモリ、SDメモリカードなどの大容量記憶媒体である。撮像された画像は例えばJPEG(Joint Photographic Experts Group)などの規格に基づいて圧縮された状態または非圧縮の状態で保存される。また、保存された画像に関する情報、撮像位置を示す撮像位置情報、撮像日時を示す撮像時刻情報などの付加情報を含むEXIF(Exchangeable Image File Format)データもその画像に対応付けられて保存される。
通信部208は、移動体100および端末装置300とデータの送受信を行なうための各種通信用端子または通信モジュールである。通信は、USB通信などの有線通信や、無線LAN、WAN、WiFi、4G、5G、Bluetooth(登録商標)、ZigBee(登録商標)などの無線通信のどちらであってもよい。
[1-4.端末装置300および情報処理装置400の構成]
端末装置300はスマートフォンなどコンピュータであり、情報処理装置400としての機能を備える。なお、端末装置300はスマートフォン以外にもパーソナルコンピュータ、タブレット端末、サーバ装置など情報処理装置400としての機能を備える事が可能である装置であればどのようなものでもよい。
図5を参照して端末装置300の構成について説明する。端末装置300は制御部301、記憶部302、通信部303、入力部304、表示部305、情報処理装置400を備えて構成されている。
制御部301は、CPU、RAMおよびROMなどから構成されている。CPUは、ROMに記憶されたプログラムに従い様々な処理を実行してコマンドの発行を行うことによって端末装置300の全体および各部の制御を行う。
記憶部302は、例えば、ハードディスク、フラッシュメモリなどの大容量記憶媒体である。記憶部302には端末装置300で使用する各種アプリケーションやデータなどが格納されている。
通信部303は、移動体100および撮像装置200とデータや各種情報の送受信を行なうための通信モジュールである。通信は、離れた移動体100および撮像装置200と通信することができる無線LAN、WAN、WiFi、4G、5G、Bluetooth(登録商標)、ZigBee(登録商標)などの無線通信であればどのような方法でもよい。
入力部304は、ユーザが構図設定のための入力、ウェイポイント設定のための入力など各種入力および指示の入力などを行うためのものである。入力部304に対してユーザから入力がなされると、その入力に応じた制御信号が生成されて制御部301に供給される。そして、制御部301はその制御信号に対応した各種処理を行う。入力部304は物理ボタンの他、タッチパネル、モニタと一体に構成されたタッチスクリーン、音声認識による音声入力などでもよい。
表示部305は、画像/映像、GUI(Graphical User Interface)などを表示するディスプレイなどの表示デバイスである。本実施の形態において表示部305にはセマンティックマップ作成範囲設定用UI、ウェイポイント入力用UI、移動経路提示用UIなどが表示される。なお、端末装置300は表示部305以外の出力手段として音声を出力するスピーカなどを備えていてもよい。
次に情報処理装置400の構成について説明する。情報処理装置400は移動体100と撮像装置200により指定の構図で自律移動および自律撮影を行うことができるように構図を設定し、移動経路を決定する処理を行うものである。図6に示すように情報処理装置400はマップ作成部401、形状抽出部402、構図設定部403、ウェイポイント設定部404、経路決定部405を備えて構成されている。
マップ作成部401はセマンティックマップを作成するものである。セマンティック(semantic)とは、「意味の、語義の、意味論の、意味的な」という訳されるものであり、セマンティックマップとはマップ中に存在するオブジェクトを識別したり特定したりする意味としての情報と、意味を有するオブジェクトとオブジェクトの境界線の情報を含むマップである。
マップ作成部401は2次元の地図データ上に設定される範囲についてセマンティックマップを作成する。このセマンティックマップが作成される範囲は撮像装置200を備える移動体100が移動しながら撮影する範囲であり、特許請求の範囲の「移動範囲」に相当するものである。
形状抽出部402はセマンティックマップから特定の形状(直線、曲線など)を抽出する処理を行うものである。形状抽出部402は例えばHough変換により形状の抽出を行う。抽出した形状を示す形状情報は経路決定部405に供給される。Hough変換は、角度を持った直線、円など予め定めたテンプレートである形状を画像から抽出する手法である。
構図設定部403は、撮像装置200で撮影する画像の構図を設定する処理を行うものである。構図の第1の設定方法としては、予め複数の構図データを保持しておき、それを端末装置300の表示部305に表示してユーザに提示し、ユーザから選択された構図を撮影用の構図として設定する、という方法がある。構図設定部403に予め保持させておく構図としては、例えば従来から写真撮影に広く用いられている日の丸構図、2分割構図、3分割構図、対角構図、シンメトリー構図、放射線構図、三角構図など様々なものがある。
また第2の方法として、既存の構図ではなくユーザの描画入力により構図を設定する方法がある。例えば、端末装置300の表示部305に描画用UIを表示させ、描画ツールによりユーザが構図を示す線を描き、その線で表される図形を構図とする。
さらに第3の方法としては、経路決定部405がユーザに撮影に最適な構図を提案する、という方法である。これは形状抽出部402が抽出した形状の情報を利用して、抽出された形状と予め保持している複数の構図データを比較して類似度が高い構図をユーザに提示して提案し、ユーザが決定したものを構図として設定するという方法である。
ウェイポイント設定部404は、移動体100の移動経路を構成するウェイポイントを設定するものである。ウェイポイントとは、移動体100がどのように移動するかを示す移動経路を決定するための移動体100の通過地点である。ウェイポイントは移動経路を決定するためのものであるため複数設定され、複数でさえあればその数は特定の数に限定されるものではない。例えば端末装置300の表示部305に2次元地図データを表示し、その地図上にユーザから指定された地点をウェイポイントとして設定する。ウェイポイントはセマンティックマップ上に設定してもよいし、セマンティックマップ作成範囲を示す2次元の地図データ上に設定してもよい。さらに、セマンティックマップを2次元の鳥瞰図に変換したマップ上にウェイポイントを指定できるようにしてもよい。
経路決定部405は、セマンティックマップ作成範囲内において移動体100が設定された構図で撮像装置200による撮影を行うために移動する経路を決定するものである。移動経路にはセマンティックマップ作成範囲内において設定された全てのウェイポイントを通過する一つの大域的移動経路と、各ウェイポイント間の移動経路である局所的移動経路がある。
端末装置300と情報処理装置400は以上のようにして構成されている。なお、情報処理装置400はプログラムの実行により実現され、そのプログラムは予め端末装置300内にインストールされていてもよいし、ダウンロード、記憶媒体などで配布されて、ユーザが自らインストールするようにしてもよい。さらに、情報処理装置400は、プログラムによって実現されるのみでなく、その機能を有するハードウェアによる専用の装置、回路などを組み合わせて実現されてもよい。
[1-5.情報処理装置400による処理]
[1-5-1.全体処理]
次に情報処理装置400における全体処理について説明する。図7は情報処理装置400による全体フローを示すフローチャートである。まずステップS101でマップ作成部401によりセマンティックマップを作成する。セマンティックマップは例えば元画像が図8Aに示すものである場合、図8Bに示すようなものとして作成される。図8Bのセマンティックマップはグレースケールで表したものであり、図中において明度で分類された領域ごとに示した値はその領域のグレースケールの階調の範囲を示すものである。図8Bのセマンティックマップには例えば、道路、木、空などマップ中における意味の情報も含まれている。セマンティックマップ作成の詳細は図10のフローチャートを参照して後述する。作成されたセマンティックマップは形状抽出部402に供給される。
次にステップS102で形状抽出部402がセマンティックマップ中から所定の形状(直線、曲線など)を抽出する。形状は例えばHough変換により図9に示すように抽出される。抽出された形状の情報は経路決定部405に供給される。
次にステップS103で構図設定部403により撮影のための構図を設定する。構図設定部403により設定された構図の情報は経路決定部405に供給される。
次にステップS104でウェイポイント設定部404により移動経路決定のためのウェイポイントを設定する。
次にステップS105で経路決定部405により移動経路を決定する。移動経路決定の詳細については図12のフローチャートを参照して後述する。なお、ステップS101のセマンティックマップ作成およびステップS102の形状抽出より先にステップS103の構図設定およびステップS104のウェイポイント設定を行っていてもよく、順序に関わらずステップS105の経路決定までにステップS101乃至ステップS104が完了していればよい。
このようにして決定された移動経路の情報は移動体100のUAV制御部101に供給され、移動体100のUAV制御部101が移動経路に移動体100を自律移動させるよう制御を行い、撮像装置200が移動経路上において設定された構図で撮影を行う。
[1-5-2.セマンティックマップ作成処理]
まず図10のフローチャートを参照して図7のステップS101におけるセマンティックマップ作成処理について説明する。
まず、ステップS201でセマンティックマップを作成する範囲を決定する。このセマンティックマップ作成範囲は2次元の地図データ上においてユーザにより指定された範囲に基づいて設定される。
例えば図11Aに示すように端末装置300の表示部305に表示された、緯度経度情報と対応づけられた2次元の地図データ上においてユーザはセマンティックマップを作成する範囲を矩形状の枠で囲うことにより指定する。そしてこの指定された範囲の情報がマップ作成部401に供給され、指定された範囲がセマンティックマップを作成する範囲として設定される。セマンティックマップ作成範囲を設定した後は、セマンティックマップ作成範囲においてユーザがウェイポイントを指定しやすくするために、図11Bに示すようにセマンティックマップ作成範囲を表示部305全域に表示するとよい。
なお、セマンティックマップ作成範囲は矩形状に限られず、三角形状、円形状の他、特定の形状ではない自由形状でもよい。なお、マップ作成範囲は3次元の地図データに対してユーザが範囲を指定して決定されてもよい。
次にステップS202で、セマンティックマップ作成範囲においてセンサ部106によるセマンティックマップ作成用の観測を行うために移動体100を移動させて到達させる目的地を設定する。この目的地は移動体100による観測が済んだ観測済エリアと、まだ観測が行われていない未観測エリアの境界上に設定する。
次にステップS203で移動体100の動作を制御して目的地まで移動させる。次にステップS204で、移動体100が備えているセンサ部106(ステレオカメラ等)を用いた公知の3次元形状測定技術で3点の特徴点を特定し、その3点の間にメッシュを張る。このように本実施の形態ではセマンティックマップをメッシュを用いて作成する。なお、セマンティックマップはメッシュだけでなく例えばボクセルを用いて作成することも可能である。
次にステップS204でセマンティックセグメンテーションを行う。セマンティックセグメンテーションとは画像を構成する画素の1つ1つに対して、その画素が示す意味をラベル付けする処理である。
次にステップS205で、セマンティックセグメンテーションの結果に基づいて、3次元形状に対して2次元のセマンティックのラベルを投影して3次元のセマンティックマップ上において、ステップS203で張ったメッシュがどのようなカテゴリ(道路、建築物など)に属するものであるかを投票により決定する。
次にステップS207でセマンティックマップ作成範囲内に未観測エリアがあるか否かが判定される。未観測エリアがある場合処理はステップS202に進み、ステップS202で新たな目的地が設定される。そして未観測エリアがなくなるまでステップS202乃至ステップS207を繰り返すことによりセマンティックマップ作成範囲全体のセマンティックマップを作成することができる。
以上のようにしてマップ作成部401によるセマンティックマップの作成が行われる。
[1-5-3.移動経路決定処理]
次に図12のフローチャートを参照して図7のフローチャートのステップS103における移動経路決定処理について説明する。移動経路は大域的移動経路と局所的移動経路とから構成されている。大域的移動経路とは全てのウェイポイントを通過するように設定される移動体100の移動の始点から終点までの経路であり、局所的移動経路はウェイポイント間ごとに設定される移動経路である。局所的移動経路が連なって大域的移動経路が構成されることとなる。
まずステップS301でユーザからの入力に基づいてウェイポイント設定部404がセマンティックマップ作成範囲内にウェイポイントを設定する。ウェイポイントとは移動体100の移動経路上の特定の位置を示すものである。例えば、ユーザの入力に基づいて設定されたウェイポイントは図13Aに示すようにセマンティックマップ作成範囲を示す2次元の地図データ上に上の点で表すようにするとよい。これによりユーザはウェイポイントがどこであるかを容易に確認することができる。図13Aに示すようにウェイポイントは、セマンティックマップ作成範囲上に複数設定される。なお、ウェイポイントはセマンティックマップ上に指定できるようにしてもよいし、セマンティックマップを2次元の鳥瞰図に変換したマップ上に指定できるようにしてもよい。
次にステップS302で経路決定部405は基準とするウェイポイントから最寄りのウェイポイントまでの移動経路を設定する。最初の基準となるウェイポイントは移動体100が移動を開始する位置であり、ユーザからの入力に基づいて設定される。なお、所定のアルゴリズム等により経路決定部405が最初の基準となるウェイポイントを設定してもよい。
次にステップS303で全てのウェイポイントを通過するように移動経路を設定したか否かが判定される。全てのウェイポイントを通過していない場合処理はステップS304に進む(ステップS303のNo)。
次にステップS304で、ステップS302で移動経路が設定された最寄りのウェイポイントを次に設定する経路の基準となるウェイポイントに設定する。そして処理はステップS302に進み、ステップS304で新たに設定された基準ウェイポイントから最寄りのウェイポイントまでの移動経路を設定する。
このステップS302乃至ステップS304を繰り返すことにより図13Bに示すように全てのウェイポイントを経由する大域的移動経路を設定することができる。このように大域的移動経路は全てのウェイポイントを通過するように作成される。
次に図14のフローチャートを参照して2つのウェイポイント間における移動経路である局所的移動経路を設定する処理について説明する。
まずステップS401で全てのウェイポイントの中から局所的移動経路を決定する2つのウェイポイントを決定する。局所的移動経路を決定する2つのウェイポイントはユーザからの入力や大域的移動経路の始点から終点に対応するウェイポイントの順に自動的に決定するようにしてもよい。
次にステップS402で、経路決定部405は2つのウェイポイント間における複数の仮の移動経路を設定する。仮の移動経路の決め方としては、効率的なもの、最適な経路を求めるためのもの等、ロボット、自律車両、自律移動体などの移動についての公知の技術、公知のアルゴリズムがあり、それらを適宜使い分けることができる。それら公知の技術には大きく分けて、考えられる経路を全て評価するもの、ランダムに経路を複数仮に置いてその中から選択するものの2つがある。
次にステップS403で、仮の移動経路上における移動体100の位置および姿勢を入力する。以下の処理ではこの入力した移動体100の位置および姿勢におけるコストが算出される。
次にステップS404で、複数の仮移動経路のうちの1つの仮移動経路について、その仮移動経路に沿ってコストを算出する。コストとは、仮移動経路自体の距離を正規化して得られる値と、障害物からの距離を正規化した値と、構図との類似度を正規化した値とをそれぞれ重み付けして足し合わせた結果算出されるものである。コストが最も低い移動経路が移動体100にとって最適な移動経路であり、最終的に大域的移動経路に含まれるものとなる。コスト算出の詳細は後述する。
次にステップS405で全ての仮移動経路についてコストを算出したか否かが判定される。全ての仮移動経路についてコストを算出していない場合、処理はステップS403に進み(ステップS405のNo)、全ての仮移動経路についてコストを算出するまで全てステップS403乃至ステップS405が繰り返される。
そして全ての仮移動経路についてコストを算出した場合処理はステップS406に進み、全ての仮移動経路の中から最もコストが低い仮移動経路を経路計画に含める移動経路として決定する。コストが最も低く、最適な移動経路とは経路自体の距離が短く、セマンティックマップと構図の類似度が高い移動経路である。
次に図15のフローチャートを参照して仮移動経路についてのコストの算出を説明する。図15の処理は本番撮影の前に、仮移動経路ごとのコストを算出して複数の仮移動経路の中から最もコストが低い仮移動経路を最適な局所的移動経路として決定するものである。
まずステップS501で、複数の仮移動経路の中の一の仮移動経路について、設定された構図で撮影を行うとする場合の移動体100の位置と姿勢を求める。
次にステップS502で、一の仮移動経路について、設定された構図で撮影を行うとする場合の撮像装置200の位置と姿勢を求める。なお、撮像装置200の位置および姿勢はジンバル500の位置および姿勢として求めるようにしてもよい。
次にステップS503で、ステップS501で算出した移動体100の位置および姿勢と、ステップS502で算出した撮像装置200の位置および姿勢に基づいてセマンティックマップから撮像装置200で撮影できると想定される撮影画像を取得する。この処理は、3次元のセマンティックマップにおいて移動体100に設けられた撮像装置200で撮影したときに3次元空間上ではどのような画像が撮れるかを2次元上に表し、セマンティックマップを撮像装置200で撮影できるであろうと想定できる撮影画像に変換する処理、すなわち、セマンティックマップを撮影画像としての2次元画像に投影する処理ともいえる。
仮移動経路の途中で、移動体100が特定の位置と姿勢であり、かつ、移動体100に設けられた撮像装置200が特定の位置と姿勢である場合に撮影されることが予想される2次元画像を3次元のマップと照らし合わせて算出する。このステップS503の処理は実際に撮像装置200で撮影をするわけではなく、情報処理装置400内の処理でセマンティックマップ、移動体100の位置情報および姿勢情報、撮像装置200の位置情報および姿勢情報に基づいて算出するものである。
次にステップS504での仮移動経路のコストを算出する。設定された構図を構成する線分とセマンティックマップにおいて抽出された形状(直線、曲線など)との差である、セマンティックマップと構図に関するコストであるcostcomp kは下記の式1で算出される。
例えば図16Aに示すようにセマンティックマップにおいて抽出された形状と、図16Bに示すように設定された構図を構成する線分とでは、図17に示す差がコストとして算出される。図17はセマンティックマップと構図を重ね合わせた状態である。セマンティックマップにおいて抽出された形状と構図を構成する線分の差は0であることが理想であり差が0の場合、構図と合致した画像の撮影を行うことができる。しかし実際は差を0にするのは難しいため、設定された構図に近い画像を撮影するためには差をなるべく小さくする(コストを小さくする)必要がある。よって、構図を構成する線分とそれに最寄りのセマンティックマップ中の形状との差が最も小さくなるように調整する必要がある。
[式1]
Figure 0007501535000001
そして、仮移動経路のコストであるcostpathは下記の式2で算出される。
[式2]
Figure 0007501535000002
式1、式2において用いられている変数は下記のとおりである。
構図に含まれている線分の数:n
Hough変換で検出されたl番目の直線:a+b+c=0
i番目の線分上の任意点:(x,y
ある経路上の位置および姿勢kから得られるコスト:costcomp k
経路上の位置および姿勢の数:p
目的地(ウェイポイント)との距離から得られるコスト:costdist
障害物との距離から得られるコスト:costobs
重み:w1, w2, w3
次にステップS505で、算出したコストが所定の閾値以下であるか否かが判定される。コストは低いことが望ましいため、コストが閾値以下である場合処理はステップS506に進み(ステップS505のYes)、仮移動経路が最適な局所的移動経路であると決定する。
なお、コストが閾値以下である仮移動経路が複数ある場合、その中から最もコストが低い仮移動経路を最適な局所的移動経路として決定するとよい。
一方、コストが閾値以下ではない場合、処理はステップS507に進み(ステップS505のNo)、コストが大きいとして仮移動経路は最適な局所的移動経路ではないと決定する。
このようにして各ウェイポイント間の局所的移動経路の全てを決定することができる。大域的移動経路は複数の局所的移動経路から構成されているため、全ての局所的移動経路が決定すると移動体100が撮影を行うための経路の全てを決定したことになる。そして情報処理装置400は決定した移動経路の情報を移動体100に送信する。移動経路情報を受信した移動体100のUAV制御部101は移動経路情報に従い移動体100の動作を制御し、さらにジンバル制御部105がジンバル500の動作を制御することにより、移動体100と撮像装置200による自律撮影で指定の構図の撮影を行うことができる。また、作成された移動経路を端末装置300の表示部305に表示してユーザに提示することによりユーザはどのような移動経路で移動体100が移動して撮影を行うかを把握することができる。
本技術によれば、ドローンなどの移動体100を使った撮影において従来は必要であった高度な技術を有するオペレータは必要ない。
<2.変形例>
以上、本技術の実施の形態について具体的に説明したが、本技術は上述の実施の形態に限定されるものではなく、本技術の技術的思想に基づく各種の変形が可能である。
移動体100としてのドローンは実施の形態で説明したような回転翼を備えるものに限られず、いわゆる固定翼型であってもよい。
本技術の移動体100はドローンに限られず、人の操縦を受けずに自動で移動する自動車、船舶、ロボットなどであってもよい。
撮像装置200がジンバル500としての機能を有するカメラマウントを介して移動体100に搭載されておらず、一定の状態に固定されて搭載されている場合、移動体100の姿勢と撮像装置200の姿勢は等しくなる。この場合、移動体100の傾きを調整することにより設定された構図で撮影を行うようにしてもよい。
実施の形態では、移動体100と撮像装置200とを別個の装置として構成したが、移動体100と撮像装置200とを一体の装置として構成してもよい。
撮像装置200としては、デジタルカメラ、スマートフォン、携帯電話機、携帯ゲーム機、ノートパソコン、タブレット端末など、撮像機能を備え、移動体100に搭載させることができる機器であればどのようなものを用いてもよい。
撮像装置200は入力部304、表示部305などを備えていてもよい。また、撮像装置200は移動体100と接続しない場合には単体で撮像装置200として使用できるものであってもよい。
また、セマンティックマップ作成に用いる3次元のマップデータは、外部のサーバやクラウドから取得してもよいし、インターネット上において一般に公開されているデータを用いてもよい。
また、セマンティックマップの作成はドローンではなくセンサ部106を搭載した自動車、ロボット、船舶で行い、またはセンサ装置を所持するユーザの歩行で行ってもよい。
情報処理装置400は端末装置300ではなく移動体100に設けられていてもよい。
また、構図の設定において、例えば「人間を中心に撮影したい」というようなテキスト入力または音声入力があった場合、それを解析して構図(例えば、人を中心にした日の丸構図など)を設定または提案できるようにしてもよい。
また、セマンティックマップで得られる被写体の情報と、構図に合わせて露光などの撮影条件の調整を行うようにしてもよい。例えば、被写体のうち、空であることがわかる範囲は露光を変えるなど、である。
実施の形態では構図を一つ設定してその構図で撮影を行うための移動経路を決定したが、図18に示すように局所的移動経路ごと(ウェイポイント間ごと)や任意の位置ごとに異なる構図を設定できるようにしてもよい。なお図18に示す構図はあくまで一例であり、その構図に限定されるものではない。
構図設定部403は、撮影済みの動画や静止画を参考にし、その参考動画/静止画から構図を抽出し、自動的にその動画や静止画と同様の構図を設定するようにしてもよい。
本技術は以下のような構成も取ることができる。
(1)
撮像装置を備える移動体が移動しながら撮影する範囲である移動範囲のマップを作成するマップ作成部と、
前記マップ内に存在する形状を抽出する形状抽出部と、
前記撮像装置で撮影する画像の構図を設定する構図設定部と、
前記形状と前記構図に基づいて前記移動体の前記移動範囲における移動経路を決定する経路決定部と
を備える情報処理装置。
(2)
前記マップはセマンティックマップである(1)に記載の情報処理装置。
(3)
前記経路決定部は、前記移動範囲において設定された複数のウェイポイントの全てを通過する移動経路である大域的移動経路を決定する(1)または(2)に記載の情報処理装置。
(4)
前記経路決定部は、前記構図と前記移動経路について算出するコストに基づいて前記ウェイポイント間の移動経路である局所的移動経路を決定する(3)に記載の情報処理装置。
(5)
前記経路決定部は、複数の前記ウェイポイント間それぞれにおいて複数の仮移動経路を設定し、複数の前記仮移動経路それぞれについて前記コストを算出し、コストが低い前記仮移動経路を前記局所的移動経路として決定する(4)に記載の情報処理装置。
(6)
前記コストは、前記形状抽出部により前記マップにおいて抽出された形状と、前記構図を構成する線分との差に基づくものである(4)に記載の情報処理装置。
(7)
前記コストは、前記ウェイポイント間の一端側の前記ウェイポイントから他端側の前記ウェイポイントまでの距離に基づくものである(4)に記載の情報処理装置。
(8)
前記コストは、前記ウェイポイント間の一端側の前記ウェイポイントから他端側の前記ウェイポイントまでにおける障害物との距離に基づくものである(4)に記載の情報処理装置。
(9)
前記構図設定部は、ユーザからの入力に基づいて前記構図を設定する(1)から(8)のいずれかに記載の情報処理装置。
(10)
予め定めた複数の構図データから前記ユーザの入力により選択されたものを前記構図として設定する
請求項9に記載の情報処理装置。
(11)
前記ユーザからの描画により入力された図形を前記構図として設定する
請求項9に記載の情報処理装置。
(12)
前記形状抽出部により前記マップにおいて抽出された形状と類似している構図データを前記ユーザに提示し、前記ユーザの入力により決定された前記構図データを前記構図として設定する
請求項9に記載の情報処理装置。
(13)
前記構図設定部は、前記マップにおいて抽出された前記形状に基づいて前記構図を決定する(1)から(12)のいずれかに記載の情報処理装置。
(14)
前記構図は前記ウェイポイント間ごとに設定可能である(3)に記載の情報処理装置。
(15)
前記形状抽出部は、Hough変換により前記マップ内に存在する前記形状を抽出する(1)から(13)のいずれかに記載の情報処理装置。
(16)
撮像装置を備える移動体が移動しながら撮影する範囲である移動範囲のマップを作成し、
前記マップ内に存在する形状を抽出し、
前記撮像装置で撮影する画像の構図を設定し、
前記形状と前記構図に基づいて前記移動体の前記移動範囲における移動経路を決定する情報処理方法。
(17)
撮像装置を備える移動体が移動しながら撮影する範囲である移動範囲のマップを作成し、
前記マップ内に存在する形状を抽出し、
前記撮像装置で撮影する画像の構図を設定し、
前記形状と前記構図に基づいて前記移動体の前記移動範囲における移動経路を決定する情報処理方法をコンピュータに実行させる情報処理プログラム。
100・・・移動体
200・・・撮像装置
400・・・情報処理装置
401・・・マップ作成部
402・・・形状抽出部
403・・・構図設定部
405・・・経路決定部

Claims (14)

  1. 撮像装置を備える移動体が移動しながら撮影する範囲である移動範囲における前記移動体が備えているセンサによるセンシング結果に基づいて前記移動範囲のセマンティックマップを作成するマップ作成部と、
    前記セマンティックマップ内に存在する形状を抽出する形状抽出部と、
    予め保持してある構図データまたはユーザの入力に基づいて前記撮像装置で撮影する画像の構図を設定する構図設定部と、
    ユーザからの入力に基づいて複数のウェイポイントを設定するウェイポイント設定部と、
    前記形状と前記構図と前記ウェイポイントに基づいて、前記移動体の前記移動範囲において、前記複数のウェイポイントの全てを通過する移動経路を決定する経路決定部と
    を備える
    情報処理装置。
  2. 前記経路決定部は、前記構図と前記移動経路について算出するコストに基づいて前記ウェイポイント間の移動経路である局所的移動経路を決定する
    請求項1に記載の情報処理装置。
  3. 前記経路決定部は、複数の前記ウェイポイント間それぞれにおいて複数の仮移動経路を設定し、複数の前記仮移動経路それぞれについて前記コストを算出し、前記コストが低い前記仮移動経路を前記局所的移動経路として決定する
    請求項2に記載の情報処理装置。
  4. 前記コストは、前記形状抽出部により前記セマンティックマップにおいて抽出された形状と、前記構図を構成する線分との差に基づくものである
    請求項2に記載の情報処理装置。
  5. 前記コストは、前記ウェイポイント間の一端側の前記ウェイポイントから他端側の前記ウェイポイントまでの距離に基づくものである
    請求項2に記載の情報処理装置。
  6. 前記コストは、前記ウェイポイント間の一端側の前記ウェイポイントから他端側の前記ウェイポイントまでにおける障害物との距離に基づくものである
    請求項2に記載の情報処理装置。
  7. 前記構図設定部は、予め定めた複数の構図データから前記ユーザの入力により選択されたものを前記構図として設定する
    請求項1に記載の情報処理装置。
  8. 前記構図設定部は、前記ユーザからの描画により入力された図形を前記構図として設定する
    請求項1に記載の情報処理装置。
  9. 前記構図設定部は、前記形状抽出部により前記セマンティックマップにおいて抽出された形状と類似している構図データを前記ユーザに提示し、前記ユーザの入力により決定された前記構図データを前記構図として設定する
    請求項1に記載の情報処理装置。
  10. 前記構図設定部は、前記セマンティックマップにおいて抽出された前記形状に基づいて前記構図を設定する
    請求項1に記載の情報処理装置。
  11. 前記構図は前記ウェイポイント間ごとに設定可能である
    請求項3に記載の情報処理装置。
  12. 前記形状抽出部は、Hough変換により前記セマンティックマップ内に存在する前記形状を抽出する
    請求項1に記載の情報処理装置。
  13. マップ作成部が、撮像装置を備える移動体が移動しながら撮影する範囲である移動範囲における前記移動体が備えているセンサによるセンシング結果に基づいて前記移動範囲のセマンティックマップを作成し、
    形状抽出部が、前記セマンティックマップ内に存在する形状を抽出し、
    構図設定部が、予め保持してある構図データまたはユーザの入力に基づいて前記撮像装置で撮影する画像の構図を設定し、
    ウェイポイント設定部が、ユーザからの入力に基づいて複数のウェイポイントを設定し、
    経路決定部が、前記形状と前記構図と前記ウェイポイントに基づいて、前記移動体の前記移動範囲において、前記複数のウェイポイントの全てを通過する移動経路を決定する
    情報処理方法。
  14. 撮像装置を備える移動体が移動しながら撮影する範囲である移動範囲における前記移動体が備えているセンサによるセンシング結果に基づいて前記移動範囲のセマンティックマップを作成し、
    前記セマンティックマップ内に存在する形状を抽出し、
    予め保持してある構図データまたはユーザの入力に基づいて前記撮像装置で撮影する画像の構図を設定し、
    ユーザからの入力に基づいて複数のウェイポイントを設定し、
    前記形状と前記構図と前記ウェイポイントに基づいて、前記移動体の前記移動範囲において、前記複数のウェイポイントの全てを通過する移動経路を決定する
    情報処理方法をコンピュータに実行させる情報処理プログラム。
JP2021534568A 2019-07-19 2020-05-28 情報処理装置、情報処理方法、情報処理プログラム Active JP7501535B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019133622 2019-07-19
JP2019133622 2019-07-19
PCT/JP2020/021124 WO2021014752A1 (ja) 2019-07-19 2020-05-28 情報処理装置、情報処理方法、情報処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2021014752A1 JPWO2021014752A1 (ja) 2021-01-28
JP7501535B2 true JP7501535B2 (ja) 2024-06-18

Family

ID=74194143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021534568A Active JP7501535B2 (ja) 2019-07-19 2020-05-28 情報処理装置、情報処理方法、情報処理プログラム

Country Status (4)

Country Link
US (1) US20220283584A1 (ja)
JP (1) JP7501535B2 (ja)
CN (1) CN114096929A (ja)
WO (1) WO2021014752A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11804038B1 (en) * 2021-06-22 2023-10-31 Amazon Technologies, Inc. Aerial array surveying of surfaces and subsurfaces
JP7500515B2 (ja) 2021-09-03 2024-06-17 株式会社東芝 被検体の検査に関連する処理装置、被検体の検査システム、被検体の検査に関連する処理方法、及び、被検体の検査に関連する処理プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016212465A (ja) 2015-04-28 2016-12-15 株式会社ニコン 電子機器および撮像システム
US20170293297A1 (en) 2016-04-07 2017-10-12 Samsung Electronics Co., Ltd. Electronic apparatus and operating method thereof
JP2017211909A (ja) 2016-05-27 2017-11-30 株式会社東芝 情報処理装置及び移動体装置
JP2018078371A (ja) 2016-11-07 2018-05-17 オリンパス株式会社 移動撮影装置、移動撮影指示装置、撮影機器及び移動撮影システム
JP2018201119A (ja) 2017-05-26 2018-12-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd モバイルプラットフォーム、飛行体、支持装置、携帯端末、撮像補助方法、プログラム、及び記録媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6803800B2 (ja) * 2017-05-19 2020-12-23 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 情報処理装置、空撮経路生成方法、空撮経路生成システム、プログラム、及び記録媒体
US10599161B2 (en) * 2017-08-08 2020-03-24 Skydio, Inc. Image space motion planning of an autonomous vehicle
US20200258400A1 (en) * 2019-02-13 2020-08-13 Foresight Ai Inc. Ground-aware uav flight planning and operation system
JPWO2020179491A1 (ja) * 2019-03-06 2020-09-10

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016212465A (ja) 2015-04-28 2016-12-15 株式会社ニコン 電子機器および撮像システム
US20170293297A1 (en) 2016-04-07 2017-10-12 Samsung Electronics Co., Ltd. Electronic apparatus and operating method thereof
JP2017211909A (ja) 2016-05-27 2017-11-30 株式会社東芝 情報処理装置及び移動体装置
JP2018078371A (ja) 2016-11-07 2018-05-17 オリンパス株式会社 移動撮影装置、移動撮影指示装置、撮影機器及び移動撮影システム
JP2018201119A (ja) 2017-05-26 2018-12-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd モバイルプラットフォーム、飛行体、支持装置、携帯端末、撮像補助方法、プログラム、及び記録媒体

Also Published As

Publication number Publication date
US20220283584A1 (en) 2022-09-08
WO2021014752A1 (ja) 2021-01-28
CN114096929A (zh) 2022-02-25
JPWO2021014752A1 (ja) 2021-01-28

Similar Documents

Publication Publication Date Title
US11649052B2 (en) System and method for providing autonomous photography and videography
CN111356954B (zh) 控制装置、移动体、控制方法以及程序
CN111567032B (zh) 确定装置、移动体、确定方法以及计算机可读记录介质
JP7501535B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム
US20210014427A1 (en) Control device, imaging device, mobile object, control method and program
JP2019110462A (ja) 制御装置、システム、制御方法、及びプログラム
WO2020225979A1 (ja) 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP6949930B2 (ja) 制御装置、移動体および制御方法
JP6940459B2 (ja) 情報処理装置、撮影制御方法、プログラム及び記録媒体
JP6481228B1 (ja) 決定装置、制御装置、撮像システム、飛行体、決定方法、及びプログラム
JP2020050261A (ja) 情報処理装置、飛行制御指示方法、プログラム、及び記録媒体
JP6641574B1 (ja) 決定装置、移動体、決定方法、及びプログラム
CN111357271B (zh) 控制装置、移动体、控制方法
WO2021035746A1 (zh) 图像处理方法、装置和可移动平台
WO2019242611A1 (zh) 控制装置、移动体、控制方法以及程序
WO2020020042A1 (zh) 控制装置、移动体、控制方法以及程序
JP6569157B1 (ja) 制御装置、撮像装置、移動体、制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240520