JP2019039892A - 光学情報処理装置、光学情報処理方法および光学情報処理用プログラム - Google Patents

光学情報処理装置、光学情報処理方法および光学情報処理用プログラム Download PDF

Info

Publication number
JP2019039892A
JP2019039892A JP2017164212A JP2017164212A JP2019039892A JP 2019039892 A JP2019039892 A JP 2019039892A JP 2017164212 A JP2017164212 A JP 2017164212A JP 2017164212 A JP2017164212 A JP 2017164212A JP 2019039892 A JP2019039892 A JP 2019039892A
Authority
JP
Japan
Prior art keywords
unmanned aircraft
uav
image
optical information
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017164212A
Other languages
English (en)
Other versions
JP7011908B2 (ja
Inventor
陽 佐々木
Akira Sasaki
陽 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2017164212A priority Critical patent/JP7011908B2/ja
Publication of JP2019039892A publication Critical patent/JP2019039892A/ja
Priority to JP2021193937A priority patent/JP7203935B2/ja
Application granted granted Critical
Publication of JP7011908B2 publication Critical patent/JP7011908B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】飛行するUAVの監視を効果的に行う。【解決手段】無人航空機を追尾しつつUAVまでの距離を測定することで前記無人航空機の位置を測定する無人航空機のターゲット位置算出部109と、ターゲット位置測定部109が測定した無人航空機の位置に基づき、無人航空機の飛行状態を示すパラメーラを算出する飛行高度算出部116および飛行速度算出部117と、飛行状態を示すパラメータをディスプレイ上に表示する画像を作成する画像作成部115とを備えるTS(トータルステーション)100。【選択図】図1

Description

本発明は、UAV等の航空機の監視を行う技術に関する。
無人航空機(UAV(Unmanned aerial vehicle))を撮影や測量等に用いる技術が知られている。この技術では、飛行するUAVを目視で監視する必要がある。飛行するUAVを監視する方法として、TS(トータルステーション)で飛行するUAVを追尾する方法がある(例えば、特許文献1を参照)。この方法では、TSが備えたターゲットの追尾機能を用いてUAVが追跡され、またTSは望遠鏡と画像撮影機能を備えているので、この光学系を用いたUAVの目視での追跡が可能となる。また、TSが備えるレーザー測距機能を用いて飛行するUAVの位置を特定することもできる。
US2014/0210663号公報
上記のTSでUAVを追尾する方法では、TSが備えるターゲットの自動追尾機能が利用される。この技術では、探索用レーザー光でUAVを捕捉および追尾する。UAVは、探索用レーザー光を入射方向に反射する反射プリズムを備え、この反射プリズムからの反射光をTS側で検出することで、TSによるUAVの追尾が行われる。
ところで、TSによるUAVの追尾では、TSがUAVを見失うことが問題となる。例えば、TSとUAVの間に鳥、電線、電柱、鉄塔、背の高い木、建物等が入った場合に、TSからの探索用レーザー光(追尾光)が遮られ、TSがUAVを見失う場合がある。
TSがUAVを見失った場合、TSの望遠鏡を用いてUAVを探索する操作が操縦者や監視者によって行われるが、一旦見失ったUAVを望遠鏡の視野に入れるのは困難である。望遠鏡の倍率を下げれば視野を広くできるが、最大で数100m遠方を飛行するUAVを広い視野の中から探し出すのは困難である。
操縦者がUAVを見失った場合、建物等への衝突や墜落といった事故が発生する可能性があり、そのようなことが発生しないようにすることが望まれる。このような背景において本発明は、飛行するUAVの監視を効果的に行う技術の提供を目的とする。
請求項1に記載の発明は、光学的に無人航空機を追尾しつつUAVまでの距離を測定することで前記無人航空機の位置を測定する無人航空機の位置測定部と、前記無人航空機を撮影するカメラと、前記位置測定部が測定した前記無人航空機の位置に基づき、前記無人航空機の飛行状態を示すパラメーラを算出する飛行状態算出部と、前記飛行状態を示すパラメータおよび前記カメラが撮影した前記無人航空機の撮影画像をディスプレイ上に表示する画像を作成する画像作成部とを備える光学情報処理装置である。
請求項2に記載の発明は、請求項1に記載の発明において、前記飛行状態を示すパラメータが、前記無人航空機の飛行方向であることを特徴とする。請求項3に記載の発明は、請求項1または2に記載の発明において、前記飛行状態を示すパラメータが、前記無人航空機の地表面からの高度および速度の一方または両方であることを特徴とする。
請求項4に記載の発明は、請求項1〜3のいずれか一項に記載の発明において、前記位置測定部が測定した前記無人航空機の位置と前記無人航空機の飛行空域における三次元地形情報とに基づいて前記地表面からの高度を算出する高度算出部を備えることを特徴とする
請求項5に記載の発明は、請求項1〜4のいずれか一項に記載の発明において、前記位置測定部が測定した前記無人航空機の位置と前記無人航空機の飛行の障害となる障害物との間の距離を算出する距離算出部を備えることを特徴とする。
請求項6に記載の発明は、請求項1〜4のいずれか一項に記載の発明において、前記画像作成部は、前記無人航空機と前記障害物との間の距離に基づき、前記無人航空機と前記障害物との相対位置関係を表示する画像を作成することを特徴とする。
請求項7に記載の発明は、請求項5または6に記載の発明において、前記画像作成部は、前記無人航空機と前記障害物との間の距離に基づき、前記無人航空機と前記障害物との衝突を警告する画像を作成することを特徴とする。
請求項8に記載の発明は、請求項5〜7のいずれか一項に記載の発明において、前記画像作成部は、前記無人航空機と前記障害物との間の距離に基づき、前記無人航空機を退避させる方向を示す画像を作成することを特徴とする。
請求項9に記載の発明は、請求項5〜8のいずれか一項に記載の発明において、前記無人航空機と前記無人航空機の飛行の障害となる障害物との間の距離が規定の値以下となった場合に、前記無人航空機と前記障害物とが前記ディスプレイ上に同時に表示されるように前記ディスプレイにおける表示倍率を調整する表示倍率調整部を備えることを特徴とする。
請求項10に記載の発明は、請求項5〜9のいずれか一項に記載の発明において、点群データを得るためのレーザースキャナを備え、前記レーザースキャナにより前記障害物の三次元データが得られることを特徴とする。
請求項11に記載の発明は、請求項5〜9のいずれか一項に記載の発明において、前記ディスプレイが透過型の頭部装着型ディスプレイであることを特徴とする。
請求項12に記載の発明は、請求項11に記載の発明において、前記頭部装着型ディスプレイの外部標定要素を算出する外部標定要素算出部を備え、前記無人航空機の位置と前記頭部装着型ディスプレイの外部標定要素に基づき、前記頭部装着型ディスプレイの表示画面における前記無人航空機の位置を算出する位置算出部を備えることを特徴とする。
請求項13に記載の発明は、請求項11または12に記載の発明において、前記無人航空機の位置と前記頭部装着型ディスプレイの外部標定要素に基づき、前記頭部装着型ディスプレイを装着した人間から見た前記無人航空機の方向を算出する方向算出部を備えることを特徴とする。
請求項14に記載の発明は、請求項11〜13のいずれか一項に記載の発明において、前記頭部装着型ディスプレイの外部標定要素は、前記頭部装着型ディスプレイに固定されたカメラが撮影した位置が特定された複数の点に基づく後方公交法によって算出されることを特徴とする。
請求項15に記載の発明は、光学的に無人航空機を追尾しつつUAVまでの距離を測定することで前記無人航空機の位置を測定する無人航空機の位置測定ステップと、前記無人航空機を撮影する撮影ステップと、前記位置測定ステップで測定した前記無人航空機の位置に基づき、前記無人航空機の飛行状態を示すパラメーラを算出する飛行状態算出ステップと、前記飛行状態を示すパラメータおよび前記カメラが撮影した前記無人航空機の撮影画像をディスプレイ上に表示する画像を作成する画像作成ステップとを備える光学情報処理方法である。
請求項16に記載の発明は、コンピュータに読み取らせて実行させるプログラムであって、コンピュータを光学的に無人航空機を追尾しつつUAVまでの距離を測定することで前記無人航空機の位置を測定する無人航空機の位置測定部と、前記位置測定部が測定した前記無人航空機の位置に基づき、前記無人航空機の飛行状態を示すパラメーラを算出する飛行状態算出部と、前記飛行状態を示すパラメータおよびカメラにより撮影した前記無人航空機の撮影画像をディスプレイ上に表示する画像を作成する画像作成部として機能させる光学情報処理用プログラムである。
本発明によれば、飛行するUAVの監視を効果的に行う技術が得られる。
実施形態の概念図である。 発明を利用したTS(トータルステーション)のブロック図である。 処理の手順の一例を示すフローチャートである。 処理の手順の一例を示すフローチャートである。 表示画面の一例を示す図である。 表示画面の一例を示す図である。 表示画面の一例を示す図である。 実施形態のブロック図である。 レチクルの画面上での位置を求める原理を示す原理図である。 表示画面の一例を示す図である。 表示画面の一例を示す図である。 表示画面の一例を示す図である。 表示画面の一例を示す図である。 後方交会法の原理を示す原理図である。
1.第1の実施形態
(構成)
図1には、発明を利用した位置測定装置の一例であるTS(トータルステーション)のブロック図が示されている。TS100は、飛行するUAV200を追跡しながら測距光を用いたUAV200の三次元位置の測定を行う。UAV200の追跡は、探索光を用いてUAV200が備えた反射プリズム202を探索することで行われ、UAV200の位置の測定は、測距光を反射プリズム202に照射し、その反射光を検出することで行われる。また、TS100は、本発明を利用した光学情報処理装置として機能する。この機能により、操縦者500が掛けたスマートグラスに各種の画像情報が表示される。
UAV200は、操縦者500により遠隔操作により操縦される。操縦者500は、コントローラ501を用いてUAV200の無線操縦を行う。勿論、UAV200を予め定めた飛行計画に従って自律飛行させることも可能である。UAV200は市販されている機種であり、特別なものではない。UAV200は、GNSS位置測定装置、IMU、無線通信装置、飛行計画や飛行ログを記憶する記憶装置、高度計を備えている。
UAV200に下部には、TS100による測量のターゲットとなる反射プリズム202が取り付けられている。また、UAV200はカメラ201を搭載しており、空中からの撮影が可能である。操縦者500は、スマートグラス503を掛けており、スマートグラス503には、TS100で処理された後述する各種の情報が表示される。
TS100は、GNSSを用いた自身の位置測定装置、測量対象(UAV200)の画像を取得するカメラ、ターゲット(UAV200の反射プリズム202)を探索する探索用レーザースキャン機能、測距用レーザー光を用いてターゲット(反射プリズム202)までの距離を測距するレーザー測距機能、レーザー測距されたターゲットの方向(水平角と垂直角(仰角または俯角))を測定する機能、ターゲットまでの距離と方向からターゲットの三次元位置を算出する機能、外部の機器との間で通信を行う機能、点群データを得るためのレーザースキャン機能を有する。
ターゲットまでの距離と方向を測定することで、TS100に対するターゲットの位置を測定できる。ここで、TS100の位置が判っていれば、ターゲット(この場合はUAV200)の地図座標系における位置(緯度・経度・高度もしくは直交座標系上のXYZ座標)を知ることができる。この機能は、市販のTSが持っている機能であり、特別なものではない。TSに関する技術としては、例えば、特開2009-229192号公報や特開2012-202821号公報等に記載されている。なお、地図座標系というのは、地図情報を扱う座標系(例えば、緯度,経度,高度(標高))であり、例えばGNSSで得られる位置情報は通常地図座標系で記述される。
以下、本実施形態で利用するTS(トータルステーション)100の一例を説明する。図2には、TS100のブロック図が示されている。TS100は、カメラ101、ターゲット探索部102、測距部103、水平・垂直方向検出部104、水平・垂直方向駆動部105、データ記憶部106、位置測定部107、通信装置108、ターゲット位置算出部109、UAV追跡制御部111、レーザースキャナ112、制御用マイコン113、画像取得部114、画像作成部115、飛行高度算出部116、飛行速度算出部117、障害物までの距離算出部119、表示倍率調整部120、三次元モデル作成部121、外部標定要素算出部122、レチクル表示位置算出部123、UAV方向算出部124を備えている。
図2に示す各機能部は、専用のハードウェアで構成してもよいし、マイコンによりソフトウェア的に構成できるものはソフトウェア的に構成してもよい。図2の構成を実現するために利用するハードウェアとしては、各種の電子デバイス(例えば、カメラ101を構成するカメラモジュールや通信装置108を構成する無線モジュール等)、モータ等を利用した各種の駆動機構、センサ機構、光学部品、各種の電子回路、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等が挙げられる。以上のハードウェアの構成に関しては、UAV200についても同じである。
カメラ101は、UAV200やターゲット等の測量対象の動画像または静止画像を撮影する。カメラ101は、CCDやCMOSセンサを用いたカメラモジュールを利用して構成され、望遠鏡を介して測位対象(例えばUAV200)の撮影を行い、その画像データを得る。通常、カメラ101が望遠鏡を介して撮影した画像を利用して測量対象となるターゲットの概略の視準が操作者により行われ、その後自動追尾機能による自律動作によりターゲットの精密な視準が行われる。
カメラ101の光軸と後述する測距部103の光軸(測距用レーザー光の光軸)とは一致しており、位置の特定を行うターゲットは、カメラ101の撮影画像の中心に捉えられる。TS100は小型のディスプレイ(例えば、液晶ディスプレイ等)を備えており、カメラ101が撮影した画像は、そこに表示可能である。カメラ101が撮影した画像のデータは、外部に出力可能であり、適当なディスプレイに表示できる。この例では、カメラ101が撮影した画像は、UAV200の操縦を行う操縦者500が掛けるスマートグラス502(頭部装着型ディスプレイの機能を有する眼鏡)に表示される。
スマートグラス502は、メガネ型ウェアラブル端末とも呼ばれる透過型の頭部装着型ディスプレイであり、UAV200の飛行に係る各種の情報が表示される。スマートグラス502は、画面を透かして遠くを見ることもでき、視野の中に見えている背景に重ねてTS100から出力される画像が表示される。スマートグラスは、メガネのレンズがある位置に小型のディスプレイが搭載されているメガネ型のデバイスである。このディスプレイは透過型であり、ディスプレイを介して向こう側を透かして見ることができる。
スマートグラスを掛けた人間は、眼鏡越しに対象物を見ながら、同時に仮想的に目の前に形成される画面(あたかも画面が目の前数十cmから数m先に展開されるように見える)に通常のディスプレイのように各種の画像が表示される。スマートグラスに表示される画像の規格は、PCやスマートフォン等に表示される画像と同じものが利用可能である。スマートグラスは、複数のメーカから各種のものが販売されている。
カメラ101が撮影し、TS100装備のディスプレイおよび外部のディスプレイに表示される画像の倍率は可変できる。この画像のズーム機能は、光学的な手法による方法、デジタル処理による方法、両者を複合した方法等によって実現される。カメラ101として市販のデジタルカメラを用い、それを外付けでTS100に装着する形態も可能である。カメラ101が撮影した画像のデータは、測距対象に係る測定時刻、測定方向、測定距離、測定対象の位置等のデータと関連付けされて適当な記憶領域に記憶することができる。
ターゲット探索部102は、三角錐型または扇形ビームを有した探索用レーザー光を用いたタ−ゲット(UAV200の反射プリズム202)の探索を行う。ターゲットの探索は、TS100を基準位置として行われる。TSによるターゲット(反射プリズム)の探索および追跡に関しては、例えば日本国特許第5124319号公報に記載されている。
測距部103は、測距用レーザー光を用いたターゲットまでの距離の測定を行う。測距部103は、測距用レーザー光の発光素子、照射光学系、受光光学系、受光素子、測距演算部、基準光の光路を備えている。対象物までの距離は、対象物から反射された測距光と基準光の位相差から算出される。距離の算出方法は、通常のレーザー測距と同じである。
水平・垂直方向検出部104は、測距部103が測距したターゲットの水平方向角と垂直方向角(仰角および俯角)を計測する。ターゲット探索部102、測距部103の光学系およびカメラ101を備えた筐体部分は、水平回転および仰角(俯角)制御が可能であり、水平方向角と垂直方向角は、エンコーダにより計測される。このエンコーダの出力が水平・垂直方向角検出部104で検出され、水平方向角と垂直方向角(仰角および俯角)の計測が行われる。
水平・垂直方向駆動部105は、ターゲット探索部102、測距部103の光学系およびカメラ101を備えた筐体部分の水平回転および仰角制御(および俯角制御)を行うモータ、該モータの駆動回路、該駆動回路の制御回路を備えている。なお、この筐体部分には後述するレーザースキャナ112も配置されている。データ記憶部106は、TS100の動作に必要な制御プログラム、各種のデータ、測量結果等を記憶する。
位置測定部107は、GNSSを用いたTS100の位置の測定を行う。位置測定部107は、相対測位と単独測位の両方を行う機能を有する。相対測位を行える環境であれば、相対測位を用いたTS100の位置の測定が好ましいが、相対測位が困難な場合は単独測位によるTS100の位置の測定が行われる。TS100によるUAV200の測位では、TS100の地図座標系における位置を既知のデータとして前もって取得する必要がある。実際の運用に当たっては、TS100を予め座標が既知の位置に設置する場合と、TS100を設置した位置を位置測定部107により測位する場合とがある。前者の場合、位置測定部107による測位は不要となる。
通信装置108は、外部の機器との間で通信を行う。TS100は、外部の端末(専用端末、PC、タブレット、スマートフォン等)による操作が可能であり、この際の通信が通信装置108を用いて行われる。また、通信装置108は、TS100の動作に必要な各種のデータの受け付け、およびTS100が取得した各種のデータの外部への出力を行う。例えば、TS100からインターネット回線を介して地図情報や地形情報を扱うデータサーバにアクセスし、測量に係る各種の情報をTS100が取得することができる。また、図2に示す機能の一部を外付けの機器で行う構成も可能であり、その場合、通信装置108を介して各種のデータのやり取りが行われる。また、通信装置108は、コントローラ501からUAV200の送信される制御信号を受信する、この制御信号に基づき、図5に例示する操縦桿操作指示表示が行われる。
ターゲット位置算出部109は、ターゲット(この場合は、UAV200搭載の反射プリズム202)までの距離と方向からTS100に対するターゲットの位置(座標)を算出する。ここで、ターゲットまでの距離は、測距部103で得られ、ターゲットの方向は水平・垂直方向検出部104で得られる。基準位置となるTS100の位置は、位置測定部107で特定されるので、TS100に対するターゲットの位置を求めることで、ターゲットの地図座標系における位置を求めることができる。
UAV追跡制御部111は、補足したUAVを追尾する制御を行う。すなわち、ターゲット探索部102で検出した追尾光(UAVから反射した追尾光)の入射方向に対応させてTSの方向を制御し、空中を移動するUAVに常にTS100の光軸が向くようにする動的な制御がUAV追跡制御部111で行われる。具体的には、ターゲット(反射プリズム202)から反射した追尾光のTS100に対する入射方向を検出し、それに基づき反射プリズム202の位置にTS100の光軸(測距部103からの測距光の光軸)が常に向くように、水平・垂直方向駆動部105に制御信号を出力する処理がUAV追跡制御部111で行われる。
レーザースキャナ112は、測距用レーザー光をスキャン光として用いて点群データを得る。点群データは、対象物を三次元座標が判明した点の集合として捉えたデータである。この例では、ターゲット探索部102とレーザースキャナ112は別構成であり、レーザースキャナ112は、ターゲット探索部102とは別に動作する。ここで、レーザースキャナが扱うレーザー光の波長は、ターゲット探索部102が用いるレーザー光と干渉しないように、ターゲット探索部102が用いるレーザー光とは別の波長が選択されている。点群データを得るレーザースキャナについては、例えば特開2010−151682号公報、特開2008―268004号公報、米国特許8767190号公報、米国特許7969558号公報等に記載されている。レーザースキャナ112としてスキャンを電子式(Solid state optical phased array方式)に行う電子式レーザースキャナを用いることもできる。この技術に関しては、例えば米国公開公報US2015/0293224号公報に記載されている。
以下、レーザースキャナ112について説明する。レーザースキャナ112は、測距用レーザー光の照射部、対象物から反射した測距用レーザー光を受光する受光部、測距用レーザー光の飛行時間に基づき対象物までの距離を検出する測距部、測距用レーザー光の照射方向(測距方向)を検出する測距方向検出部を備える。また、レーザースキャナ112は、自身の位置、測距距離および測距方向とに基づき測距用レーザー光の反射点の三次元位置を算出する測距対象点の位置算出部、測距用レーザー光の照射方向とその反射光の受光方向(測距光の光軸)を制御するスキャン制御部を備える。
測距用レーザー光は、特定の繰り返し周波数でパルス出力され、スキャンされながら特定の範囲に点々と照射される。測距用レーザー光の飛行時間から反射点までの距離が計算される。通常は、装置内に設けられた基準光路を飛翔したリファレンス光と対象物に照射されそこから反射された測距光との位相差から対象物までの距離が算出される。測距された距離、測距用レーザー光の照射方向およびとレーザースキャナ112の位置から、反射点のレーザースキャナ112の位置を原点とした三次元位置が計算される。この反射点の位置を多数測定することで点群データが得られる。ここで、TS100におけるレーザースキャナ112の位置と向きは、予め既知の情報として取得されており、レーザースキャナ112の地図座標系における位置は、位置測定部107の測位データに基づき算出される。よって、スキャンされた各点(反射点)の地図座標系における三次元座標を取得できる。
測距用レーザー光が特定の発振周波数でスキャンして照射されることで対象物における多数の反射点それぞれの三次元座標が取得される。この対象物における多数の反射点の集合が点群データとなる。点群データでは、三次元位置が特定された点の集合として対象物が捉えられる。
レーザースキャナ112は、反射点のRGB強度を取得できる。RGB強度は、反射光をR用フィルタ、G用フィルタ、B用フィルタで選別し、各色の光強度を検出することで得られる。よって、得られる点群データ各点のRGB強度に関するデータも得られる。なお、RGBに限定されず一または複数の特定の色情報の強度を取得する形態も可能である。また、色情報と別に(または色情報に加えて)スキャン光の反射光の強度を検出する形態も可能である。色強度およびスキャン光の反射強度の少なくとも一方を利用することで、UAV200を鳥等の他の飛行物と区別(識別)できるようにしてもよい。
制御用マイコン113は、後述する図3および図4の処理の手順の制御およびTS100全体の動作の制御を行う。画像取得部114は、カメラ101が撮影した画像の画像データを取得する。画像作成部115は、スマートグラス502に表示する画像を作成する。図5〜図7、図10〜図13には、画像作成部115で作成され、スマートグラス502に表示される画像の一例が示されている。
飛行高度算出部116は、TS100が測位しているUAV200の対地標高度を算出する。UAV200の対地標高度は、TS200が測位したUAV200の位置の標高からUAV200の位置の経度緯度における地表面の標高を差し引くことで求められる。なお、地表面の標高は、地図情報から取得するが、地図情報が得られなければ、TS100の設置位置の標高の値を採用する。
飛行速度算出部117は、TS100が追跡するUAV200の速度(速さと向き)を算数する。TS100の位置は、刻々と測定されているので、移動経路の接ベクトルを計算することで、速度ベクトルが得られ、この速度ベクトルからUAV200の移動方向(θx,θy,θz)と速さ(Vx,Vy,Vz)が得られる。
障害物までの距離算出部119は、UAV200の飛行の障害となる障害物がある場合に、UAV200からそこまでの距離を算出する。障害物は、建物、木、鉄塔、鳥等である。障害物に係る三次元データは、既存の三次元データ(例えば、三次元地図座標データ)やレーザースキャナ112から得られる点群データから取得する。鳥のデータは、既存のデータからは得られなので、レーザースキャナ112から得られる点群データから取得する。
表示倍率調整部120は、スマートグラス502に表示される画像の表示倍率を調整する。例えば、UAV200が障害物と干渉しそうな場合、両者が視野内に入るように表示倍率が調整される。
三次元モデル作成部121は、UAV200と障害物とを三次元的に捉えたモデルを作成する。このモデルは、UAV200と障害物との位置関係をスマートグラスに表示させる場合に利用される。この点は後述する。
レチクル表示位置算出部123は、スマートグラス502の表示画面におけるレチクル(画面中の位置を示す△、□、○、◎、×等のガイド表示)の表示位置を算出する。レチクルの表示位置は、スマートグラス502を透かして彼方に見えるUAV200(位置特定対象物)の表示画面における位置である。よって、レチクル表示位置算出部123は、スマートグラス502を透かして見えるUAV200(位置特定対象物)の表示画面における位置を計算する。方向算出部124は、スマートグラス502の視野から外れたUAV200の方向を算出する。レチクル表示位置算出部123および方向算出部124の処理の詳細については後述する。
TS100およびスマートグラス502の操作は、専用端末、走査用アプリケーションソフトをインストールしたスマートフォンやタブレットを用いて行う。例えば、後述するスマートグラス502の表示される各種の表示の切り替えは、スマートフォンやタブレットを用いて行われる。勿論、専用のコントローラを用意し、TS100およびスマートグラス502の操作を行っても良い。また、UAV200のコントローラ501にTS100の操作機能を付加する形態、スマートフォンでUAV200とTS100の操作を行う形態等も可能である。
(処理の一例)
以下、TS100で行われる処理の一例を説明する。図3および図4は、処理の手順の一例を示すフローチャートである。図3および4の処理を実行するプログラムは、データ記憶部106等の適当な記憶領域に記憶され、そこから読み出されて実行される。当該プログラムを適当な記憶媒体やデータサーバ等に記憶させ、そこから読み出して実行する形態も可能である。
まず、TS100によりUAV200を捕捉し、レーザー測距によりその位置を特定する処理について説明する。図3にこの処理の一例が示されている。この処理では、まずUAV200の反射プリズム202の探索が行われる(ステップS101)。この処理は、ターゲット探索部102で行われる。また、レーザースキャナ112による点群データを取得するためのレーザースキャンが開始される。
例えば、UAV200が飛び立つ前の地上に着陸している状態でTS100はUAV200を捕捉する。そして、捕捉したUAV200に対するレーザースキャンがレーザースキャナ112により開始され、UAV200およびその周囲の点群データの取得が開始される。その後、UAV200は飛行を開始し、TS100によるUAV200の追尾が行われ、同時にUAV200およびその周囲に対するレーザースキャンが継続して行われる。また、以下の方法でUAV200の追尾を行ってもよい。この場合、UAV200の飛行が開始されると、UAV200は最初に地上から規定の高さにまで上昇し、そこで停止する。この停止位置は予め飛行計画上で規定されており、TS100の側でも把握されている。そこで、この上昇して停止するUAV200の位置に照準してTS100はUAV200の捕捉を行う。また、UAV200をスキャン範囲に収めたレーザースキャンがレーザースキャナ112により開始され、UAV200およびその周囲の点群データの取得が開始される。この段階のレーザースキャンの範囲は、例えばUAV200を中心とした半径20〜50m程度の範囲が選択される。
ターゲットとなる反射プリズム202を捕捉したら、TS100の光軸(測距部103の光軸)を反射プリズム202に向ける制御が行われる(ステップS102)。反射プリズム202の捕捉後において、測距部103の光軸を反射プリズム202に向ける制御は、UAV追跡制御部111で行われる。
次いで、測距部103から測距光を反射プリズム202に向けて照射し、UAV200の位置の測定を行う(ステップS103)。UAV200の位置の測定は、ターゲット位置算出部109で行われる。
ステップS101→S102→S103の処理は繰り返し行われ、移動するUAV200の追跡が継続して行われる。この結果、UAV200の位置(三次元座標)が刻々と取得され、UAV200の位置および移動経路がTS100の側で把握される。
TS101によってUAV200を追跡している状態で、カメラ101によってUAV200が撮影される。カメラ101によるUAV200の撮影画像は、スマートグラス502に表示される。以下、スマートグラス502に表示される画像に係る処理について説明する。なお、この処理は、スマートフォン,タブレット,PC等のディスプレイにカメラ101が撮影した画像を表示する場合も同じである。
図4にスマートグラス502に表示される画像に係る処理の一例を示す。図3の処理が行なわれ、TS100によってUAV200が捕捉され、その測位が継続的に行われている状態で、図4の処理が実行される。まず、UAV200の対地高度が高度算出部116で算出される(ステップS111)。次に、飛行速度算出部117でUAV200の速度(方向と速さ)の算出が行われる(ステップS112)。
次に、スマートグラス502の表示画面の中に、カメラ101が撮影したUAV200の画像を表示する(ステップS113)。次に、スマートグラス502の表示画面上に、この段階で得られているUAV200の飛行状態の情報が表示される(ステップS114)。飛行状態の情報としては、例えば対地高度と速度(飛行方向と飛行の速さ)の情報が挙げられる。飛行状態の情報としては、上昇率、下降率、旋回半径、飛行計画航路からのずれ、TS100からの距離等が挙げられる。ステップS113とS114の処理は、画像作成部115で行われる。ステップS114の段階で、操縦者500がスマートグラス502越しに見る視界の様子の一例を図5に示す。
次に、UAV200と障害物との間の距離の算出が「障害物との間の距離算出部119」で行われる(ステップS115)。次に、ステープS115で算出した距離が予め定めた規定値以下(例えば、15m以下)であるか否かの判定が行われ(ステップS115)、この距離が規定値以下であれば、ステップS117に進み、そうでなければステップS111以下の処理が繰り返される。ステップS111以下の処理が繰り返されることで、スマートグラス502に表示されている高度と速度の情報が刻々と継続して更新される。
ステップS117では、UAV117と対象となる障害物との両方が画面上に表示されるようにスマートグラス502上での表示倍率の調整が行われる。この処理は、倍率調整部120で行われる。この処理の結果得られる表示画面の一例を図6に示す。図6のようにUAV200と障害物とを同時に画面上に表示することで、操作者500は、UAV200と障害物との位置関係を把握できる。
更にUAV200と障害物との距離が危険と判定される距離以下(例えば、10m以下)となると、警告表示画面がスマートグラス502上に表示される(ステップS118)。この処理は、画像作成部115で行われる。この表示では、UAV200が障害物に衝突する可能性がある旨の表示が行われ、更に障害物までの距離、方向、予想される接触するまでの時間、回避に適した方向等が表示される。図7にこの際の表示画面の一例を示す。
2.第2の実施形態
TS100の光軸上にUAV200と障害物が存在する場合、TS100のカメラ101が得た画像では、UAV200と障害物とが重なり、両者の距離感が判りづらい場合がある。この場合、以下に説明する視点変更表示をスマートグラス502上に表示する。視点変更表示は、三次元モデル作成部121で作成された三次元モデルに基づき、画像作成部115で作成される。
三次元モデル作成部121は、UAV200のダミーモデルと障害物の三次元モデルを作成する。UAV200のダミーモデルは、ターゲット位置算出部109が算出した三次元位置に配置されたUAV200を模した三次元データ化されたダミーモデルである。このダミーモデルの向きは正確でないが、ここでは重要視しない。
障害物の三次元モデルの取得は、三次元地図情報のデータベースから取得する方法やレーザースキャナ112から得た点群データから取得する方法がある。ただし、レーザースキャナ112から得た点群データは、オクル―ジョンの問題があり、TS100から死角となる部分のデータは欠落しているので、欠落した部分はデータを補完する等してモデル化したイメージ画像を作成する。
画像作成部115は、上記のUAV200と障害物とが含まれた三次元モデルをUAV200と障害物とを結ぶ線に垂直または水平方向から見た画像を作成する。この画像において、UAV200はモデル化されており、障害物も場合によってはモデル化され不自然な画像となるが、両者の距離感を把握するための画像であるので、その点は許容する。
ここで、UAV200と障害物の三次元位置は判っているので、両者の離間距離は判る。そこで、上記の画像中に両者の離間距離を表示する。また、UAVの移動方向やその他図5〜7に示す各種の情報も表示する。この画像では、TS100の光軸上にUAV200と障害物が重なっている場合でもUAV200と障害物の位置関係が視覚的に把握できる。
3.第3の実施形態
図5には、スマートグラス502の視界、すなわちスマートグラス502越しにUAVが小さく見えている状態が示されている。本実施形態では、このスマートグラス502越しに見えているUAVの画面上での位置にガイド表示(目印の表示)となるレチクルを表示する。このレチクルが表示されることで、スマートグラスの画面上におけるUAV200の位置が示され、またTS100が当該UAV200を捕捉している旨が表示される。
また図5では、UAV200が見えているが、UAV200の飛行位置が遠い場合、目視ではUAV200が見えない(または視認し難い)場合がある。また、鳥と区別し難い場合も有り得る。このような場合、スマートグラス502上の操縦者500が見ている画面上、言い換えるとスマートグラス502越しの操縦者500の視野内に、UAV200の位置をガイド表示するレチクルが表示されると便利である。
図10にスマートグラス502の画面上におけるUAV200の位置をガイドするレチクルが表示された例が示されている。図10の場合、UAV200が比較的大きく見えている例が示されているが、UAV200までの距離が遠く、視認し難い場合や鳥と区別がつき難い場合は、レチクル表示によりスマートグラス502越しに見えている視界中でUAV200の位置がガイドされることで、UAV200を直接視認しやすくなる。
以下、スマートグラス502に図10の表示を行わせる仕組みについて説明する。スマートグラス502に図10の表示を行わせる処理は、図2のレチクル表示位置算出部123で行われる。
レチクル表示位置算出部123では、以下の処理が行なわれる。まず、外部標定要素算出部122によりスマートグラス502の外部標定要素(向きと位置)が算出される。スマートグラス502の外部標定要素の算出については後述する。
スマートグラス502の向きは、その正面の方向で定義される。スマートグラス502の位置は、スマートグラス502を掛けている人(この場合は、操縦者500)の仮想的な視点位置である。この視点位置は、スマートグラス502の設計時に設定されているので、その位置を用いる。この位置は、TS100で扱われている座標系(例えば、地図座標系)で記述される。
スマートグラス502の位置が判れば、UAV200の位置はTS100で測位され既知であるので、スマートグラス502とUAV200を結ぶ方向線を設定し、その方向線とスマートグラス502の表示画面(操縦者500の目の前に仮想的に表示される画面)との交点が、レチクル表示位置として求められる。このレチクル表示位置は、仮に視認できれば、そこにUAV200が見える位置である。こうしてスマートグラス502の視野の中におけるレチクルの位置が算出される。
例えば、図9において、点P1がUAV200の三次元位置であり、点Oがスマートグラス502を掛けている人間(操縦者502)の視点の位置である。ここで、点P1と点Oを結ぶ方向線と仮想的に配置されるスマートグラス502の表示画面との交点p1がレチクルの表示位置として算出される。
上記の算出結果に基づき、スマートグラス502の画面上にレチクルを表示する処理が画像作成部115で行われる。こうして、図10に例示する画像がスマートグラス502上に表示される。
次に、外部標定要素算出部122で行われるスマートグラス502の外部標定要素の算出について説明する。まず、UAV200の飛行開始時におけるTS100によるUAV200のロックを行う際に、校正処理を行い外部標定要素の初期値を取得する。この際、UAV200は規定の高度で停止し、TS100によるUAV200のロック(捕捉)が行われる。
この際、スマートグラス502の表示を校正モードとし、図11に示す画面を表示する。図11の画面では、画面中(視野中)の規定の位置(この場合は中心)に視準用のガイド表示を表示させた例が示されている。操縦者500は、視準用のガイド表示の中央にUAV200が見えるように頭を動かし、視準用のガイド表示の中央にUAV200の像を捉える。この状態で校正処理を実行する。この処理は、例えば操作端末して使用されるスマートフォンを操作して行われる。
ここで、操縦者500は、GNSSを利用した位置特定装置303を携帯しており(例えば、スマートフォンのGPS機能が用いられる)その測位データはTS100に送られる。外部標定要素算出部122は、操縦者500から送られてきた測位データと位置測定部107の測位データを用いて相対測位を行い、操縦者500の視点の三次元位置を算出する。
例えばスマートフォンのGPS機能を用いる場合、予めスマートフォンを胸ポケットに入れた場合、ズボンの尻ポケットに入れた場合等の補正値を用意しておき、その補正値を用いて、操縦者500の視点位置を算出する。
こうして、操縦者500の視点の位置、この視点の位置から見たUAV200の位置のデータが得られる。ここで、操縦者500の視点の位置からUAV200の位置に向かう方向がスマートグラス502の向きとなる。以上のようにして、スマートグラス502の外部標定要素(位置と向き)の初期値が算出される。
この外部標定要素は、操縦者500が移動および頭を動かすと変化する。この変化に対応したスマートグラス502の外部標定要素の修正が外部標定要素算出部122で行われる。スマートグラス502の外部標定要素の修正は、図8の三次元電子コンパス301と三次元加速度センサ302の出力に基づいて検出される。
三次元電子コンパス301と三次元加速度センサ302は、スマートグラス502に取り付けられ、スマートグラス502の向きの変化を検出する。三次元電子コンパス301は、スマートグラス502の三次元方向を検出する。三次元加速度センサ302は、スマートグラス502に加わる加速度の三次元成分を検出する。三次元電子コンパス301と三次元加速度センサ302は、スマートフォンに利用されている部品を利用している。
三次元電子コンパス301と三次元加速度センサ302の出力は、TS100に入力される。データの伝送は、無線LAN回線等が利用される。三次元電子コンパス301と三次元加速度センサ302の出力を受け、外部標定要素算出部122は、スマートグラス502の向きを随時修正する。また、操縦者500が携帯したGNSS位置測定装置303の測位データの変化から、スマートグラス502の位置を随時修正する。こうして、スマートグラス502の外部標定要素が随時修正され、この随時修正される外部標定要素を用いて図10に例示するレチクルの表示に係る処理が行なわれる。
上述したスマートグラス502の外部標定要素の修正は、徐々に誤差が累積し、修正が行われてゆく過程で精度が失われてゆく。以下、スマートグラス502の外部標定要素の精度を保つ処理について説明する。この処理では、視準目標としてTS100を用いる。すなわち、図12に示すように、TS100が視準用の十字ガイドの中心に位置するように操縦者500は頭を動かす。この状態で外部標定要素122の再算出を行う。
この際、外部標定要素算出部122では以下の処理が行なわれる。この処理では、スマートグラスの位置(操縦者500の視点位置)およびTS100の位置の情報を取得し、
スマートグラス502の位置からTS100に向かう方向を算出する。こうして、スマートグラス502の外部標定要素を再計算する。スマートグラス502の外部標定要素は、操縦者502が移動および頭を動かすと変化するが、その修正は上述した方法で随時行われる。
上記のTS100を視準してのスマートグラス502の外部標定要素の算出は、最初の段階での初期値の計算に用いてもよい。また、UAV100が視準し易い位置にある場合は、図11に関連して説明した方法でスマートグラス502の外部標定要素の再計算(校正)を行ってもよい。また、位置を特定したターゲットを操縦者500から見える範囲に配置し、それを視準することで上記の外部標定要素の再計算(あるいは初期設定)を行ってもよい。
上記のスマートグラス502の外部標定要素の再計算を随時行うことで、外部標定要素の精度の低下に伴う図10のレチクル表示の精度の低下を抑えることができる。スマートグラス502にGNSS位置特定装置とIMU(慣性計測装置)を搭載し、スマートグラス502の外部標定要素(位置と姿勢)をリアルタイムに計測する形態も可能である。なお、スマートグラス502にGNSS位置特定装置とIMUを搭載する余裕がない場合、頭部装着型ヘルメットや頭部装着型補助器具にGNSS位置特定装置とIMUを取り付け、この頭部装着型ヘルメットや頭部装着型補助器具を頭部に装着し、スマートグラス502の外部標定要素の取得を行う形態も可能である。
4.第4の実施形態
スマートグラスにカメラを固定し、このカメラが撮影した画像に基づき、スマートグラスの外部標定要素を算出する方法も可能である。この場合、位置が特定された複数のターゲット、スマートグラスに取り付ける小型のカメラ、画像からターゲットを抽出するターゲット抽出部が必要であり、外部標定要素算出部122においてターゲットを用いた後方交会法によるスマートグラスの外部標定要素の算出が行われる。後方交会法を用いたカメラの外部標定要素の算出については、例えば、特開2013−186816号公報に記載されている。
以下、カメラの撮影画像を利用したスマートグラスの外部標定要素の算出について説明する。この場合、スマートグラスに動画を撮影するカメラを装着する。スマートグラスとカメラの位置と向きの関係は既知のデータとして予め取得しておく。また、スマートグラスを装着した人間から見える範囲に、位置(三次元座標)が予め特定された3つ以上の識別可能なターゲットを配置する。この際、人間が動き、また頭の向きを変えても常に3つ以上のターゲットが当該カメラに撮影されるようにターゲットを配置する。ターゲットとしては、数字やカラーコードにより識別する形態が利用できる。カラーコードターゲットとしては、例えば特開2011−053030号公報や特開2011−053031号公報に記載されている。
カメラは、ターゲットの撮影が主目的であるので、ターゲットを効果的に撮影できる向きに設定する。また水平方向におけるカメラの向きもターゲットが効果的に撮影できる向きであれば、スマートグラスの向きに合わせる必要はなく、例えばスマートグラスを装着した人間の側方や後方にカメラを向けてもよい。
外部標定要素の算出に当たっては、まず初期の状態で3つ以上のターゲットを当該カメラで撮影する。そして撮影画像からターゲットを画像処理により識別し抽出する。各ターゲットの三次元座標は既知であるので、後方交会法により当該カメラの外部標定要素が算出できる。スマートグラス(カメラ)が動くと、カメラの外部標定要素は変化するが、3つ以上のターゲットが写っていれば後方交会法によりカメラの外部標定要素が算出できる。こうして、変動するカメラの外部標定要素の算出が継続して行われる。
図14に後方交会法の原理を示す。この場合、点Oはカメラの位置(撮影視点の位置)であり、点P1,P2,P3はターゲットの位置であり、p1,p2,p3はカメラが撮影した画像の画面上におけるターゲット像の位置である。ここで、点P1,P2,P3は予め特定(測位)され既知であり、p1,p2,p3は撮影画像から得られる。そして、P1とp1を結ぶ方向線、P2とp2を結ぶ方向線、P3とp3を結ぶ方向線を設定し、この3本の方向線の交点Oを求めることでカメラの位置Oが求められる。
また、点Oと画面中心とを結ぶ方向線を求めることでカメラの光軸が数学的に求められる。このカメラの光軸を求めることで、点Oからの光軸の向きがカメラの向きとして求められる。こうして、スマートグラスに固定されたカメラの位置と向き、つまり外部標定要素が算出される。カメラとスマートグラスとの相対位置関係および向きの関係は既知であるので、カメラの外部標定要素が求まることで、スマートグラスの外部標定要素が求まる。
カメラによる撮影を継続して行い、上記の処理を継続して行うことで、スマートグラスの変動する外部標定要素が逐次計算され、継続して更新され続ける。
例えば、図1のスマートグラス502に、操縦者500の周囲の地表を撮影するカメラを固定する。また、操縦者500の周囲に複数のターゲットを配置し、その位置を測定しておく。また、スマートグラス502とカメラの位置と向きの関係は予め取得しておく。ここで、操縦者500がUAV200の操縦(あるいは監視)を行っている状態で、常に3つ以上のターゲットがカメラに撮影されるように、ターゲットの配置を行う。
操縦者502が頭を動かし、スマートグラス502の外部標定要素が変動しても、上記のターゲットを用いたスマートグラス502の外部標定要素の算出が行われ、その時点でのスマートグラス502の外部標定要素が取得される。この処理は継続して行われ、スマートグラス502の外部標定要素は、常に更新される。この動的に更新される外部標定要素を用いて、例えば図10の表示に係る処理が行われる。
この手法の場合、カメラ、撮影画像からターゲットを抽出する画像処理部が必要であり、また事前に複数のターゲットの測位の作業が必要となるが、動的に変動するスマートグラスの外部標定要素を高い精度で取得できる。
本明細書中で説明したスマートグラス502の外部標定要素を求める手法は、複数を組み合わせて用いることが可能である。図10のレチクルの表示には、UAV200の位置のデータが必要であるが、この位置のデータとしてUAV200が搭載するGNSS位置測定装置の測位データを用いることもできる。
カメラとしてステレオカメラを用い、ステレオ画像から抽出された特徴点の位置を前方交会法により求めて点群データを得、この点群データを標定点としてカメラの外部標定要素(スマートグラスの外部標定要素)を算出することもできる。また、1台のカメラを用い、視点の変更によるステレオ画像の取得を行って上記の場合と同様に点群データを得、この点群データに基づくカメラの外部標定要素(スマートグラスの外部標定要素)の算出も可能である。これらの場合も初期値の取得に位置を特定したターゲットが必要であるが、画像から抽出した点群も標定に用いるので、上述したターゲットのみを用いる場合に比較すればその数を減らすことができる。ステレオ画像から点群データを得る技術、および一つのカメラでステレオ画像を得、そこから点群データを得る技術については特開2013−186816号公報に記載されている。
5.第5の実施形態
ここでは、操縦者500がUAV100を見失った場合に、スマートグラス502の表示画面上に操縦者500から見たUAV100の方向をガイドする表示を行う例について説明する。TS100がUAV200を追跡しているが、操縦者500がUAV100を見失う場合がある。この場合、UAV方向算出部124の機能により、スマートグラス502の表示画面(操縦者500がスマートグラスを介して視認している視界)中にUAV100の方向をガイドする表示が行われる。
図13にその際の表示画面の一例を示す。この場合、左上の方向に視線を向けると、UAV100が捕捉できる。以下、UAV方向算出部124の機能について説明する。まず、TS100が捕捉し。ターゲット位置算出部109で算出されているUAV200の位置を取得する。次に、外部標定要素算出部122で算出されているスマートグラス502の外部標定要素を取得する。
次に、スマートグラス502の光軸(正面の方向)と直交し、UAV200に向かうベクトルを求め、このベクトルをスマートグラス502の表示面に正射影し、それを矢印としてスマートグラス502に表示する。こうして、図13に示すUAV200の方向を示す矢印の表示(ガイド表示)がスマートグラス502に表示される。図13の画像見て、操縦者502は矢印の方向に顔を向けることで、UAV200の方向を見、UAV200を捕捉できる。この際、UAV200が視界に入ったところで、図10に例示するレチクルの表示が行われるので、例えUAV200が遠く、視認し難くてもUAV200の視認が容易となる。
(その他)
スマートグラス502をUAV200の操縦者500以外の人間かかけてもよい。UAVの表示画面上での位置をガイドする方法として、矢印の表示を行う方法、4分割や9分割された画面中のどの分割画面にUAVが位置しているかを強調表示する方法も可能である。図10のレチクル表示を行う対象として、UAV以外の位置が特定された点や対象物を選択することも可能である。図10に例示する技術は、位置が特定された対象物の監視、探索、確認等に利用できる。本明細書に開示する発明は、対象物の視認を効果的に行う技術に利用できる。
100…TS(トータルステーション)、200…UAV、201…カメラ、200…反射プリズム、500…UAVの操縦者、501…コントローラ、502…スマートグラス。

Claims (16)

  1. 光学的に無人航空機を追尾しつつUAVまでの距離を測定することで前記無人航空機の位置を測定する無人航空機の位置測定部と、
    前記無人航空機を撮影するカメラと、
    前記位置測定部が測定した前記無人航空機の位置に基づき、前記無人航空機の飛行状態を示すパラメーラを算出する飛行状態算出部と、
    前記飛行状態を示すパラメータおよび前記カメラが撮影した前記無人航空機の撮影画像をディスプレイ上に表示する画像を作成する画像作成部と
    を備える光学情報処理装置。
  2. 前記飛行状態を示すパラメータが、前記無人航空機の飛行方向である請求項1に記載の光学情報処理装置。
  3. 前記飛行状態を示すパラメータが、前記無人航空機の地表面からの高度および速度の一方または両方である請求項1または2に記載の光学情報処理装置。
  4. 前記位置測定部が測定した前記無人航空機の位置と前記無人航空機の飛行空域における三次元地形情報とに基づいて前記地表面からの高度を算出する高度算出部を備える請求項1〜3のいずれか一項に記載の光学情報処理装置。
  5. 前記位置測定部が測定した前記無人航空機の位置と前記無人航空機の飛行の障害となる障害物との間の距離を算出する距離算出部を備える請求項1〜4のいずれか一項に記載の光学情報処理装置。
  6. 前記画像作成部は、前記無人航空機と前記障害物との間の距離に基づき、前記無人航空機と前記障害物との相対位置関係を表示する画像を作成する請求項5に記載の光学情報処理装置。
  7. 前記画像作成部は、前記無人航空機と前記障害物との間の距離に基づき、前記無人航空機と前記障害物との衝突を警告する画像を作成する請求項5または6に記載の光学情報処理装置。
  8. 前記画像作成部は、前記無人航空機と前記障害物との間の距離に基づき、前記無人航空機を退避させる方向を示す画像を作成する請求項5〜7のいずれか一項に記載の光学情報処理装置。
  9. 前記無人航空機と前記無人航空機の飛行の障害となる障害物との間の距離が規定の値以下となった場合に、前記無人航空機と前記障害物とが前記ディスプレイ上に同時に表示されるように前記ディスプレイにおける表示倍率を調整する表示倍率調整部を備える請求項5〜8のいずれか一項に記載の光学情報処理装置。
  10. 点群データを得るためのレーザースキャナを備え、
    前記レーザースキャナにより前記障害物の三次元データが得られる請求項5〜9のいずれか一項に記載の光学情報処理装置。
  11. 前記ディスプレイが透過型の頭部装着型ディスプレイである請求項1〜11のいずれか一項に記載の光学情報処理装置。
  12. 前記頭部装着型ディスプレイの外部標定要素を算出する外部標定要素算出部を備え、
    前記無人航空機の位置と前記頭部装着型ディスプレイの外部標定要素に基づき、前記頭部装着型ディスプレイの表示画面における前記無人航空機の位置を算出する位置算出部を備える請求項11に記載の光学情報処理装置。
  13. 前記無人航空機の位置と前記頭部装着型ディスプレイの外部標定要素に基づき、前記頭部装着型ディスプレイを装着した人間から見た前記無人航空機の方向を算出する方向算出部を備える請求項11または12に記載の光学情報処理装置。
  14. 前記頭部装着型ディスプレイの外部標定要素は、前記頭部装着型ディスプレイに固定されたカメラが撮影した位置が特定された複数の点に基づく後方交会法によって算出される請求項11〜13のいずれか一項に記載の光学情報処理装置。
  15. 光学的に無人航空機を追尾しつつUAVまでの距離を測定することで前記無人航空機の位置を測定する無人航空機の位置測定ステップと、
    前記無人航空機を撮影する撮影ステップと、
    前記位置測定ステップで測定した前記無人航空機の位置に基づき、前記無人航空機の飛行状態を示すパラメーラを算出する飛行状態算出ステップと、
    前記飛行状態を示すパラメータおよび前記カメラが撮影した前記無人航空機の撮影画像をディスプレイ上に表示する画像を作成する画像作成ステップと
    を備える光学情報処理方法。
  16. コンピュータに読み取らせて実行させるプログラムであって、
    コンピュータを
    光学的に無人航空機を追尾しつつUAVまでの距離を測定することで前記無人航空機の位置を測定する無人航空機の位置測定部と、
    前記位置測定部が測定した前記無人航空機の位置に基づき、前記無人航空機の飛行状態を示すパラメーラを算出する飛行状態算出部と、
    前記飛行状態を示すパラメータおよびカメラにより撮影した前記無人航空機の撮影画像をディスプレイ上に表示する画像を作成する画像作成部と
    して機能させる光学情報処理用プログラム。
JP2017164212A 2017-08-29 2017-08-29 光学情報処理装置、光学情報処理方法および光学情報処理用プログラム Active JP7011908B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017164212A JP7011908B2 (ja) 2017-08-29 2017-08-29 光学情報処理装置、光学情報処理方法および光学情報処理用プログラム
JP2021193937A JP7203935B2 (ja) 2017-08-29 2021-11-30 光学情報処理装置、光学情報処理方法および光学情報処理用プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017164212A JP7011908B2 (ja) 2017-08-29 2017-08-29 光学情報処理装置、光学情報処理方法および光学情報処理用プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021193937A Division JP7203935B2 (ja) 2017-08-29 2021-11-30 光学情報処理装置、光学情報処理方法および光学情報処理用プログラム

Publications (2)

Publication Number Publication Date
JP2019039892A true JP2019039892A (ja) 2019-03-14
JP7011908B2 JP7011908B2 (ja) 2022-01-27

Family

ID=65727378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017164212A Active JP7011908B2 (ja) 2017-08-29 2017-08-29 光学情報処理装置、光学情報処理方法および光学情報処理用プログラム

Country Status (1)

Country Link
JP (1) JP7011908B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110221326A (zh) * 2019-05-29 2019-09-10 中国第一汽车股份有限公司 车辆定位方法、装置、设备和存储介质
CN110595323A (zh) * 2019-08-22 2019-12-20 南京林业大学 精密量取仪器高的测量装置及测量方法
CN110645962A (zh) * 2019-10-08 2020-01-03 江西洪都航空工业集团有限责任公司 一种圆弧导轨式单相机测量***及其测量方法
JP2020204515A (ja) * 2019-06-17 2020-12-24 株式会社ミツトヨ 測定装置
JPWO2021131037A1 (ja) * 2019-12-27 2021-07-01
JP2021179976A (ja) * 2019-07-25 2021-11-18 株式会社プロドローン 遠隔操縦システムおよびその操縦装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09243365A (ja) * 1996-03-06 1997-09-19 Toyo Constr Co Ltd 位置検出装置、測量方法及び掘削方向制御システム
JP2009538487A (ja) * 2006-05-26 2009-11-05 アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド 拡張現実を使用して装置の保守命令および動作命令を表示するシステムおよび方法
JP2011203056A (ja) * 2010-03-25 2011-10-13 Tokyo Electric Power Co Inc:The 距離測定装置及び飛翔***置測定装置
JP2013186816A (ja) * 2012-03-09 2013-09-19 Topcon Corp 動画処理装置、動画処理方法および動画処理用のプログラム
JP2015001450A (ja) * 2013-06-14 2015-01-05 株式会社トプコン 飛行体誘導システム及び飛行体誘導方法
JP2017501475A (ja) * 2014-09-05 2017-01-12 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 状況に基づく飛行モード選択

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09243365A (ja) * 1996-03-06 1997-09-19 Toyo Constr Co Ltd 位置検出装置、測量方法及び掘削方向制御システム
JP2009538487A (ja) * 2006-05-26 2009-11-05 アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド 拡張現実を使用して装置の保守命令および動作命令を表示するシステムおよび方法
JP2011203056A (ja) * 2010-03-25 2011-10-13 Tokyo Electric Power Co Inc:The 距離測定装置及び飛翔***置測定装置
JP2013186816A (ja) * 2012-03-09 2013-09-19 Topcon Corp 動画処理装置、動画処理方法および動画処理用のプログラム
JP2015001450A (ja) * 2013-06-14 2015-01-05 株式会社トプコン 飛行体誘導システム及び飛行体誘導方法
JP2017501475A (ja) * 2014-09-05 2017-01-12 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 状況に基づく飛行モード選択

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110221326A (zh) * 2019-05-29 2019-09-10 中国第一汽车股份有限公司 车辆定位方法、装置、设备和存储介质
JP2020204515A (ja) * 2019-06-17 2020-12-24 株式会社ミツトヨ 測定装置
JP7270477B2 (ja) 2019-06-17 2023-05-10 株式会社ミツトヨ 測定装置
JP2021179976A (ja) * 2019-07-25 2021-11-18 株式会社プロドローン 遠隔操縦システムおよびその操縦装置
CN110595323A (zh) * 2019-08-22 2019-12-20 南京林业大学 精密量取仪器高的测量装置及测量方法
CN110645962A (zh) * 2019-10-08 2020-01-03 江西洪都航空工业集团有限责任公司 一种圆弧导轨式单相机测量***及其测量方法
JPWO2021131037A1 (ja) * 2019-12-27 2021-07-01
WO2021131037A1 (ja) * 2019-12-27 2021-07-01 日本電気株式会社 飛行物体管理装置、飛行物体管理方法、及び、記録媒体

Also Published As

Publication number Publication date
JP7011908B2 (ja) 2022-01-27

Similar Documents

Publication Publication Date Title
JP7011908B2 (ja) 光学情報処理装置、光学情報処理方法および光学情報処理用プログラム
US10234278B2 (en) Aerial device having a three-dimensional measurement device
JP6843773B2 (ja) 環境の走査及び無人航空機の追跡
EP3506042B1 (en) Three-dimensional information processing unit, apparatus having three-dimensional information processing unit, unmanned aerial vehicle, informing device, method and program for controlling mobile body using three-dimensional information processing unit
US8019490B2 (en) Imaging and display system to aid helicopter landings in brownout conditions
EP3081902B1 (en) Method and apparatus for correcting aircraft state in real time
JP6390013B2 (ja) 小型無人飛行機の制御方法
CN110458961B (zh) 基于增强现实的***
US10527423B1 (en) Fusion of vision and depth sensors for navigation in complex environments
EP3483554A1 (en) Surveying device, and calibration checking method and calibration checking program for surveying device
US20220210335A1 (en) Autofocusing camera and systems
JP7007137B2 (ja) 情報処理装置、情報処理方法および情報処理用プログラム
JP2019053003A (ja) データ処理装置、データ処理方法およびデータ処理用プログラム
EP3093616A1 (en) Device and method for designating characteristic points
JP7050425B2 (ja) 測量システム
JP2021021678A (ja) 測量装置、測量方法および測量用プログラム
KR101767648B1 (ko) 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어가 탑재된 드론 비행 장치
JP2018146524A (ja) 測量システム
JP7362203B2 (ja) 無人移動体
JP7203935B2 (ja) 光学情報処理装置、光学情報処理方法および光学情報処理用プログラム
US20210229810A1 (en) Information processing device, flight control method, and flight control system
JP6934367B2 (ja) 位置測定装置、位置測定方法および位置測定用プログラム
KR20160118558A (ko) 라이다 시스템
KR102416330B1 (ko) 드론시스템을 이용한 원격 좌표측정 시스템
US20210118311A1 (en) Flight route guidance system, flight route guidance device and flight route guidance method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220117

R150 Certificate of patent or registration of utility model

Ref document number: 7011908

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150