JP6329219B2 - Operation terminal and moving body - Google Patents
Operation terminal and moving body Download PDFInfo
- Publication number
- JP6329219B2 JP6329219B2 JP2016163248A JP2016163248A JP6329219B2 JP 6329219 B2 JP6329219 B2 JP 6329219B2 JP 2016163248 A JP2016163248 A JP 2016163248A JP 2016163248 A JP2016163248 A JP 2016163248A JP 6329219 B2 JP6329219 B2 JP 6329219B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- transmitter
- captured image
- image
- unmanned aircraft
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003384 imaging method Methods 0.000 claims description 186
- 238000004891 communication Methods 0.000 claims description 39
- 230000004397 blinking Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 description 77
- 101000579484 Homo sapiens Period circadian protein homolog 1 Proteins 0.000 description 73
- 101001126582 Homo sapiens Post-GPI attachment to proteins factor 3 Proteins 0.000 description 73
- 102100028293 Period circadian protein homolog 1 Human genes 0.000 description 73
- 230000008569 process Effects 0.000 description 44
- 238000012545 processing Methods 0.000 description 30
- 230000004044 response Effects 0.000 description 28
- 238000010586 diagram Methods 0.000 description 24
- 230000033001 locomotion Effects 0.000 description 19
- 239000003550 marker Substances 0.000 description 11
- 101000805729 Homo sapiens V-type proton ATPase 116 kDa subunit a 1 Proteins 0.000 description 10
- 101000854879 Homo sapiens V-type proton ATPase 116 kDa subunit a 2 Proteins 0.000 description 10
- 101000854873 Homo sapiens V-type proton ATPase 116 kDa subunit a 4 Proteins 0.000 description 10
- 102100020737 V-type proton ATPase 116 kDa subunit a 4 Human genes 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 9
- 210000000078 claw Anatomy 0.000 description 8
- 238000005259 measurement Methods 0.000 description 7
- 230000007704 transition Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 101000714926 Homo sapiens Taste receptor type 2 member 14 Proteins 0.000 description 5
- 101000766332 Homo sapiens Tribbles homolog 1 Proteins 0.000 description 5
- 101000798132 Mus musculus Taste receptor type 2 member 116 Proteins 0.000 description 5
- 102100036720 Taste receptor type 2 member 14 Human genes 0.000 description 5
- 101000892439 Homo sapiens Taste receptor type 2 member 10 Proteins 0.000 description 4
- 101000766349 Homo sapiens Tribbles homolog 2 Proteins 0.000 description 4
- 101000634859 Mus musculus Taste receptor type 2 member 103 Proteins 0.000 description 4
- 102100040649 Taste receptor type 2 member 10 Human genes 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 238000013500 data storage Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Selective Calling Equipment (AREA)
Description
本発明は、移動体の撮像画像を出力する操作端末と、操作端末により遠隔制御される移動体と、に関する。 The present invention relates to an operation terminal that outputs a captured image of a moving body, and a moving body that is remotely controlled by the operation terminal.
従来、ドローン(drone)等の無人航空機(UAV:Unmanned Aerial Vehicle)の運動(例えば飛行)を遠隔制御するために、操作者により操作端末(例えばリモートコントローラ)が使用される。リモートコントローラは、例えば操作者の両手で把持された状態で使用される。無人航空機は、操作者によるリモートコントローラの操作に応じて、前後、左右、上下、向きの4つの次元による移動を行う。このため、無人航空機の操作には相応の習熟度が求められる。 Conventionally, an operator terminal (for example, a remote controller) is used by an operator to remotely control a motion (for example, flight) of an unmanned aerial vehicle (UAV) such as a drone. For example, the remote controller is used in a state of being held with both hands of the operator. The unmanned aerial vehicle moves according to four dimensions of front and rear, left and right, up and down, and direction according to the operation of the remote controller by the operator. For this reason, a certain level of proficiency is required for operation of unmanned aerial vehicles.
ここで、無人航空機を実際に飛行させるフライト環境と同一の環境において、操作者による無人航空機の移動の遠隔制御を訓練可能とするシミュレーションモード、を提供する技術として、例えば特許文献1が知られている。
Here, for example,
特許文献1のリモートコントローラは、フライトモードとシミュレーションモードとを使い分けでき、フライトモード下では、実空間での無人航空機の移動を遠隔で制御できる。また、このリモートコントローラは、仮想空間で無人飛行体を移動させるためのシミュレーションモード下で、無人航空機の移動を遠隔で制御可能な操作を受け付ける。また、このリモートコントローラは、有線のケーブル(例えばUSB(Universal Serial Bus)ケーブル)を介して、ディスプレイデバイスに接続されている。ディスプレイデバイスには、シミュレーションモードにおける各種のフライトデータが、視覚的な画像、テキスト又はこれらの組み合わせとして表示される。
特許文献1 米国特許出願公開第2016/0091894号明細書
The remote controller of
操作者は、特許文献1の構成を用いて、無人航空機に搭載された撮像装置を用いて上空の様子を撮像する(以下、「空撮する」という)際に、次の行動を同時に行う必要があった。第1に、操作者は、無人航空機の移動を遠隔で制御するためにリモートコントローラを操作する。第2に、操作者は、リモートコントローラに接続されたディスプレイデバイスに表示されたフライトデータを見ながら、無人航空機による空撮のための操作を行う。第3に、操作者は、適宜上空を見上げて、無人航空機そのものの所在を目視して確認する。
The operator needs to simultaneously perform the following actions when imaging the state of the sky using the imaging device mounted on the unmanned aerial vehicle (hereinafter referred to as “aerial photography”) using the configuration of
しかしながら、上述した3つの行動を同時に行うことは現実的に困難であり、無人航空機に搭載された撮像装置を用いて空撮する時の操作者の操作時の利便性が良くなかった。 However, it is practically difficult to perform the above three actions at the same time, and it is not convenient for an operator to perform aerial photography using an imaging device mounted on an unmanned aircraft.
一態様において、操作端末は、表示部と接続され、移動体を遠隔制御する操作端末であって、所定の画角で撮像する撮像装置と、撮像装置により撮像された第1撮像画像を表示部に出力する制御部と、を備える。 In one aspect, the operation terminal is an operation terminal that is connected to the display unit and remotely controls the moving body, and includes an imaging device that captures an image at a predetermined angle of view, and a first captured image captured by the imaging device. And a control unit that outputs to
操作端末は、移動体との通信により、移動体により撮像された第2撮像画像を受信する無線通信部、を更に備えてよい。制御部は、第2撮像画像を表示部に出力してよい。 The operation terminal may further include a wireless communication unit that receives a second captured image captured by the mobile body through communication with the mobile body. The control unit may output the second captured image to the display unit.
制御部は、第1撮像画像と第2撮像画像とを表示部に同時に表示させてよい。 The control unit may display the first captured image and the second captured image on the display unit at the same time.
制御部は、第1撮像画像を第2撮像画像より小さく表示部に表示させてよい。 The control unit may display the first captured image smaller than the second captured image on the display unit.
制御部は、第2撮像画像を第1撮像画像より小さく表示部に表示させてよい。 The control unit may cause the display unit to display the second captured image smaller than the first captured image.
制御部は、移動体の移動方向を示す目印を、第1撮像画像に重畳して表示部に表示させてよい。 The control unit may display a mark indicating the moving direction of the moving body on the display unit so as to be superimposed on the first captured image.
制御部は、移動体の位置を示す目印を、第1撮像画像に重畳して表示部に表示させてよい。 The control unit may display a mark indicating the position of the moving body on the display unit so as to be superimposed on the first captured image.
制御部は、第2撮像画像を表示部に全画面表示させてよい。 The control unit may display the second captured image on the display unit in full screen.
制御部は、第1撮像画像を表示部に全画面表示させてよい。 The control unit may display the first captured image on the display unit in full screen.
制御部は、第2撮像画像の全画面表示から第1撮像画像の全画面表示への切替可能な指示部を、第2撮像画像に重畳して表示部に表示させてよい。 The control unit may cause the display unit to display an instruction unit capable of switching from full screen display of the second captured image to full screen display of the first captured image superimposed on the second captured image.
操作端末は、表示部を有する表示端末を保持可能な保持部を更に備えてよい。撮像装置は、保持部の一端に設けられた接続部を介して挿抜自在に取り付けられてよい。 The operation terminal may further include a holding unit capable of holding a display terminal having a display unit. The imaging device may be attached so as to be freely inserted and removed via a connection portion provided at one end of the holding portion.
操作端末は、表示部を有する表示端末を保持可能な保持部を更に備えてよい。撮像装置は、保持部の一端に固定して配置されてよい。 The operation terminal may further include a holding unit capable of holding a display terminal having a display unit. The imaging device may be fixedly disposed at one end of the holding unit.
撮像装置は、操作端末の筐体に固定して配置されてよい。 The imaging device may be fixedly disposed on the casing of the operation terminal.
一態様において、移動体は、操作端末から送信される遠隔制御の指示を基に、移動する。 In one aspect, the moving body moves based on a remote control instruction transmitted from the operation terminal.
一態様において、画像出力システムは、表示部を有する表示端末と、前記表示端末と接続され、移動体を遠隔制御する操作端末と、を備える。操作端末は、所定の画角で撮像する撮像装置を有し、撮像装置により撮像された第1撮像画像を表示端末に出力する。表示端末は、操作端末からの第1撮像画像を表示部に出力する。 In one aspect, an image output system includes a display terminal having a display unit, and an operation terminal connected to the display terminal and remotely controlling a moving body. The operation terminal has an imaging device that captures an image with a predetermined angle of view, and outputs a first captured image captured by the imaging device to the display terminal. The display terminal outputs the first captured image from the operation terminal to the display unit.
操作端末は、移動体との通信により、移動体により撮像された第2撮像画像を受信して表示端末に出力してよい。表示端末は、操作端末からの第2撮像画像を表示部に出力してよい。 The operation terminal may receive the second captured image captured by the moving body and output the second captured image to the display terminal through communication with the moving body. The display terminal may output the second captured image from the operation terminal to the display unit.
操作端末は、表示端末に、第1撮像画像と第2撮像画像とを表示部に同時に表示させてよい。 The operation terminal may cause the display terminal to simultaneously display the first captured image and the second captured image on the display unit.
操作端末は、表示端末に、第1撮像画像を第2撮像画像より小さく表示部に表示させてよい。 The operation terminal may cause the display terminal to display the first captured image smaller than the second captured image on the display unit.
操作端末は、表示端末に、第2撮像画像を第1撮像画像より小さく表示部に表示させてよい。 The operation terminal may cause the display terminal to display the second captured image smaller than the first captured image on the display unit.
操作端末は、表示端末に、移動体の移動方向を示す目印を、第1撮像画像に重畳して表示部に表示させてよい。 The operation terminal may cause the display terminal to display a mark indicating the moving direction of the moving body on the display unit so as to be superimposed on the first captured image.
操作端末は、表示端末に、移動体の位置を示す目印を、第1撮像画像に重畳して表示部に表示させてよい。 The operation terminal may cause the display terminal to display a mark indicating the position of the moving body on the display unit so as to be superimposed on the first captured image.
操作端末は、表示端末に、第2撮像画像を表示部に全画面表示させてよい。 The operation terminal may cause the display terminal to display the second captured image on the display unit in full screen.
操作端末は、表示端末に、第1撮像画像を表示部に全画面表示させてよい。 The operation terminal may cause the display terminal to display the first captured image on the display unit in full screen.
操作端末は、表示端末に、第2撮像画像の全画面表示から第1撮像画像の全画面表示への切替可能な指示部を、第2撮像画像に重畳して表示部に表示させてよい。 The operation terminal may cause the display unit to display an instruction unit capable of switching from full-screen display of the second captured image to full-screen display of the first captured image on the display unit, superimposed on the second captured image.
操作端末は、表示端末に、第1撮像画像における移動体の周囲に移動体の存在を示す目印を表示部に表示させてよい。 The operation terminal may cause the display unit to display a mark indicating the presence of the moving body around the moving body in the first captured image.
操作端末は、撮像装置の所定の画角外に移動体が移動した場合に、表示端末に、撮像装置から得られた移動体の移動方向を示す目印を、第1撮像画像に重畳して表示部に表示させてよい。 When the moving body moves outside the predetermined angle of view of the imaging device, the operation terminal displays a mark indicating the moving direction of the moving body obtained from the imaging device on the display terminal so as to be superimposed on the first captured image. May be displayed on the screen.
操作端末は、撮像装置の所定の画角外にいた移動体が所定の画角内に移動した場合に、表示端末に、撮像装置から得られた移動体の所定の画角内に進入する直前の移動方向を示す目印を、第1撮像画像に重畳して表示部に表示させてよい。 The operation terminal immediately enters the display terminal within the predetermined angle of view of the moving object obtained from the imaging device when the moving object outside the predetermined angle of view of the imaging device moves within the predetermined angle of view. A mark indicating the moving direction may be superimposed on the first captured image and displayed on the display unit.
表示端末は、表示部への画面切替操作に応じて、第1撮像画像を表示部に全画面表示してよい。 The display terminal may display the first captured image in full screen on the display unit in response to a screen switching operation to the display unit.
表示端末は、表示部への画面切替操作に応じて、第2撮像画像を表示部に全画面表示してよい。 The display terminal may display the second captured image on the display unit in full screen in response to a screen switching operation to the display unit.
表示端末は、表示部への画面切替操作に応じて、第1撮像画像を表示部に全画面表示してよい。 The display terminal may display the first captured image in full screen on the display unit in response to a screen switching operation to the display unit.
表示端末は、表示部への画面切替操作に応じて、第2撮像画像を表示部に全画面表示してよい。 The display terminal may display the second captured image on the display unit in full screen in response to a screen switching operation to the display unit.
操作端末は、表示端末に、第1撮像画像と第2撮像画像との同時表示画面への切替可能な指示部を、第2撮像画像に重畳して表示部に表示させてよい。表示端末は、指示部の選択操作に応じて、第1撮像画像を第2撮像画像より小さく表示部に表示してよい。 The operation terminal may cause the display terminal to display an instruction unit capable of switching to the simultaneous display screen of the first captured image and the second captured image superimposed on the second captured image and displayed on the display unit. The display terminal may display the first captured image smaller than the second captured image on the display unit according to the selection operation of the instruction unit.
表示端末は、表示部への画面切替操作に応じて、第1撮像画像と第2撮像画像との同時表示画面への切替可能な指示部を、第2撮像画像に重畳して表示部に表示してよい。 The display terminal displays, on the display unit, an instruction unit that can switch to the simultaneous display screen of the first captured image and the second captured image in a superimposed manner on the second captured image in response to a screen switching operation to the display unit. You can do it.
一態様において、画像出力方法は、表示部と接続され、移動体を遠隔制御する操作端末における画像出力方法であって、操作端末が有する撮像装置により所定の画角で撮像する段階と、撮像装置により撮像された第1撮像画像を表示部に出力する段階と、を備える。 In one aspect, an image output method is an image output method in an operation terminal that is connected to a display unit and remotely controls a moving body, and is configured to capture an image with a predetermined angle of view by an imaging device included in the operation terminal; And outputting the first captured image captured by the step to the display unit.
画像出力方法は、移動体との通信により、移動体により撮像された第2撮像画像を受信する段階と、第2撮像画像を表示部に出力する段階と、を更に備えてよい。 The image output method may further include a step of receiving a second captured image captured by the mobile body and a step of outputting the second captured image to the display unit by communication with the mobile body.
画像出力方法は、第1撮像画像と第2撮像画像とを表示部に同時に表示させる段階、を更に備えてよい。 The image output method may further include a step of simultaneously displaying the first captured image and the second captured image on the display unit.
画像出力方法は、第1撮像画像を第2撮像画像より小さく表示部に表示させる段階、を更に備えてよい。 The image output method may further include a step of displaying the first captured image smaller than the second captured image on the display unit.
画像出力方法は、第2撮像画像を第1撮像画像より小さく表示部に表示させる段階、を更に備えてよい。 The image output method may further include a step of displaying the second captured image smaller than the first captured image on the display unit.
画像出力方法は、移動体の移動方向を示す目印を、第1撮像画像に重畳して表示部に表示させる段階と、を更に備えてよい。 The image output method may further include a step of displaying a mark indicating the moving direction of the moving body on the display unit so as to be superimposed on the first captured image.
画像出力方法は、移動体の位置を示す目印を、第1撮像画像に重畳して表示部に表示させる段階と、を更に備えてよい。 The image output method may further include a step of superimposing a mark indicating the position of the moving body on the first captured image and displaying the mark on the display unit.
画像出力方法は、第2撮像画像を表示部に全画面表示させる段階、を更に備えてよい。 The image output method may further include a step of displaying the second captured image on the display unit in a full screen.
画像出力方法は、第1撮像画像を表示部に全画面表示させる段階、を更に備えてよい。 The image output method may further include a step of displaying the first captured image on the display unit in a full screen.
画像出力方法は、第2撮像画像の全画面表示から第1撮像画像の全画面表示への切替可能な指示部を、第2撮像画像に重畳して表示部に表示させる段階、を更に備えてよい。 The image output method further includes a step of causing the display unit to display an instruction unit capable of switching from full screen display of the second captured image to full screen display of the first captured image on the second captured image. Good.
一態様において、プログラムは、移動体を遠隔制御する操作端末と接続され、表示部を有するコンピュータである表示端末に、操作端末が有する撮像装置により撮像された第1撮像画像を取得する処理と、取得された第1撮像画像を表示部に出力する処理と、を実行させる。 In one aspect, a program is connected to an operation terminal that remotely controls a moving body, and obtains a first captured image captured by an imaging device included in the operation terminal in a display terminal that is a computer having a display unit; And a process of outputting the acquired first captured image to the display unit.
プログラムは、移動体により撮像された第2撮像画像を取得する処理と、取得された第2撮像画像を表示部に出力する処理と、を更に実行させてよい。 The program may further execute processing for acquiring the second captured image captured by the moving body and processing for outputting the acquired second captured image to the display unit.
プログラムは、第1撮像画像と第2撮像画像とを同時に表示部に表示する処理、を更に実行させてよい。 The program may further execute a process of simultaneously displaying the first captured image and the second captured image on the display unit.
プログラムは、第1撮像画像を第2撮像画像より小さく表示部に表示する処理、を更に実行させてよい。 The program may further execute processing for displaying the first captured image smaller than the second captured image on the display unit.
プログラムは、第2撮像画像を第1撮像画像より小さく表示部に表示する処理、を更に実行させてよい。 The program may further execute a process of displaying the second captured image on the display unit smaller than the first captured image.
プログラムは、移動体の移動方向を示す目印を、第1撮像画像に重畳して表示部に表示する処理、を更に実行させてよい。 The program may further execute a process of superimposing a mark indicating the moving direction of the moving body on the first captured image and displaying the mark on the display unit.
プログラムは、移動体の位置情報を示す目印を、第1撮像画像に重畳して表示部に表示する処理、を更に実行させてよい。 The program may further execute a process of superimposing a mark indicating the position information of the moving object on the first captured image and displaying the mark on the display unit.
プログラムは、第2撮像画像を表示部に全画面表示する処理、を更に実行させてよい。 The program may further execute a process of displaying the second captured image on the display unit in a full screen.
プログラムは、第1撮像画像を表示部に全画面表示する処理、を更に実行させてよい。 The program may further execute a process of displaying the first captured image on the display unit on a full screen.
プログラムは、第2撮像画像の全画面表示から第1撮像画像の全画面表示への切替可能な指示部を、第2撮像画像に重畳して表示部に表示する処理、を更に実行させてよい。 The program may further execute a process of superimposing an instruction unit capable of switching from full-screen display of the second captured image to full-screen display of the first captured image on the display unit so as to be superimposed on the second captured image. .
プログラムは、第1撮像画像における移動体の周囲に移動体の存在を示す目印を表示部に表示する処理、を更に実行させてよい。 The program may further execute a process of displaying a mark indicating the presence of the moving body on the display unit around the moving body in the first captured image.
プログラムは、撮像装置の所定の画角外に移動体が移動した場合に、移動体の移動方向を示す目印を、第1撮像画像に重畳して表示部に表示する処理、を更に実行させてよい。 The program further executes a process of superimposing a mark indicating the moving direction of the moving body on the first captured image and displaying it on the display unit when the moving body moves outside a predetermined angle of view of the imaging device. Good.
プログラムは、撮像装置の所定の画角外にいた移動体が所定の画角内に移動した場合に、移動体の所定の画角内に進入する直前の移動方向を示す目印を、第1撮像画像に重畳して表示部に表示する処理、を更に実行させてよい。 When the moving object that has been outside the predetermined angle of view of the imaging apparatus has moved within the predetermined angle of view, the program displays a mark indicating the moving direction immediately before entering the predetermined angle of view of the moving object in the first imaging The process of superimposing on the image and displaying on the display unit may be further executed.
プログラムは、表示部への画面切替操作に応じて、第1撮像画像を表示部に全画面表示する処理、を更に実行させてよい。 The program may further execute a process of displaying the first captured image on the display unit on a full screen in response to a screen switching operation on the display unit.
プログラムは、表示部への画面切替操作に応じて、第2撮像画像を表示部に全画面表示する処理、を更に実行させてよい。 The program may further execute a process of displaying the second captured image on the display unit on a full screen in response to a screen switching operation on the display unit.
プログラムは、表示部への画面切替操作に応じて、第1撮像画像を表示部に全画面表示する処理、を更に実行させてよい。 The program may further execute a process of displaying the first captured image on the display unit on a full screen in response to a screen switching operation on the display unit.
プログラムは、表示部への画面切替操作に応じて、第2撮像画像を表示部に全画面表示する処理、を更に実行させてよい。 The program may further execute a process of displaying the second captured image on the display unit on a full screen in response to a screen switching operation on the display unit.
プログラムは、第1撮像画像と第2撮像画像との同時表示画面への切替可能な指示部を、第2撮像画像に重畳して表示部に表示する処理と、指示部の選択操作に応じて、第1撮像画像を第2撮像画像より小さく表示部に表示する処理、を更に実行させてよい。 The program responds to a process of superimposing the instruction unit that can be switched to the simultaneous display screen of the first captured image and the second captured image on the display unit on the second captured image and a selection operation of the instruction unit. The process of displaying the first captured image smaller than the second captured image on the display unit may be further executed.
プログラムは、表示部への画面切替操作に応じて、第1撮像画像と第2撮像画像との同時表示画面への切替可能な指示部を、第2撮像画像に重畳して表示部に表示する処理、を更に実行させてよい。 The program displays, on the display unit, an instruction unit that can switch to the simultaneous display screen of the first captured image and the second captured image in a superimposed manner on the second captured image in response to a screen switching operation on the display unit. The processing may be further executed.
一態様において、記録媒体は、プログラムが記録されている。 In one aspect, a program is recorded on the recording medium.
なお、上記の発明の概要は、本発明の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The summary of the invention does not enumerate all the features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須とは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Not all combinations of features described in the embodiments are essential for the solution of the invention.
特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイル又はレコードに表示される通りであれば異議を唱えない。但し、それ以外の場合、一切の著作権を留保する。 The claims, the description, the drawings, and the abstract include matters subject to copyright protection. The copyright owner will not object to any number of copies of these documents as they appear in the JPO file or record. However, in other cases, all copyrights are reserved.
以下の実施形態では、操作端末の一例として、無人航空機(UAV:Unmanned Aerial Vehicle)の移動を含む各種処理の遠隔制御を指示するための送信機50を例示して説明する。送信機50は、例えば送信機50を使用する人物(以下、「操作者」という)の両手で把持された状態で使用される。以下、本明細書に添付する図面では、無人航空機を「UAV」と表記する。なお、画像出力方法は、操作端末の一例としての送信機50における動作が規定されたものである。また、記録媒体は、プログラム(例えば後述する表示端末80による各種の処理を実行させるプログラム)が記録媒体に記録されたものである。
In the following embodiments, a
図1は、表示端末(例えばタブレット端末80T)が装着された送信機50の外観の一例を示す斜視図である。本実施形態において、上下前後左右の方向は、図1に示す矢印の方向にそれぞれ従うとする。
FIG. 1 is a perspective view showing an example of the appearance of a
送信機50は、例えば略正方形状の底面を有し、かつ高さが底面の一辺より短い略直方体(言い換えると、略箱形)の形状をした樹脂製の筐体50Bを有する。送信機50の具体的な構成は図4を参照して後述する。送信機50の筐体表面の略中央には、ホルダ支持部51を挟むように左制御棒53Lと右制御棒53Rとが突設して配置される。
The
ホルダ支持部51は、例えば略T字状に加工された金属を用いて構成され、3つの接合部を有する。3つの接合部のうち、2つの接合部(第1の接合部、第2の接合部)が筐体50Bに接合され、1つの接合部(第3の接合部)がホルダHLDに接合される。第1の接合部は、送信機50の筐体50Bの表面の略中央(例えば、左制御棒53Lと右制御棒53Rと電源ボタンB1とRTHボタンB2とにより囲まれる位置)に挿設される。第2の接合部は、送信機50の筐体50Bの表面の後側(例えば、左制御棒53L及び右制御棒53Rよりも後側の位置)にネジ51N(図3参照)を介して挿設される。第3の接合部は、送信機50の筐体50Bの表面から離反した位置に設けられ、ヒンジ51H(図3参照)を介してホルダHLDに固定される。第3の接合部は、ホルダHLDを支持する支点としての役割を有する。ホルダ支持部51は、送信機50の筐体50Bの表面から離反した状態でホルダHLDを支持する。操作者PER1(図9参照)の操作により、ヒンジ51Hを介して、ホルダHLDの角度の調整が可能である。
The
送信機50が備える保持部の一例としてのホルダHLDは、表示端末(例えば図1ではタブレット端末80T)の載置面と、載置面の一端側において載置面を基準として上側に略90度起立する上端壁部UP1と、載置面の他端側において載置面を基準として上側に略90度起立する下端壁部UP2とを有する。ホルダHLDは、上端壁部UP1と載置面と下端壁部UP2とで挟み込むようにタブレット端末80Tを固定して保持可能である。載置面の幅(言い換えると、上端壁部UP1と下端壁部UP2との間の距離)は、操作者PER1により調整可能である。載置面の幅は、例えばタブレット端末80Tが挟み込まれるように、タブレット端末80Tの筐体の一方向の幅と略同一となるように調整される。
The holder HLD as an example of a holding unit included in the
左制御棒53L、右制御棒53Rは、それぞれ操作者PER1による無人航空機100の移動を遠隔で制御(例えば、無人航空機100の前後移動、左右移動、上下移動、向き変更)するための操作において使用される。図1では、左制御棒53L及び右制御棒53Rは、操作者PER1の両手からそれぞれ外力が印加されていない初期状態の位置が示されている。左制御棒53L及び右制御棒53Rは、操作者PER1により印加された外力が解放された後、自動的に所定位置(例えば図1に示す初期位置)に復帰する。
The
本実施形態の送信機50は、送信機50が備える撮像装置の一例としての送信機カメラ55を有する。送信機カメラ55の具体的な構成は図4を参照して後述する。送信機カメラ55は、無人航空機100が移動する領域(例えば上空)を所定の画角で撮像する。送信機カメラ55は、例えば上空を飛行中の無人航空機100を操作者PER1が見上げて目視しなくても無人航空機100の所在を把握できるように、無人航空機100を撮像する。このため、送信機カメラ55の所定の画角は、例えば135度程度あれば好ましく、広角であるとよい。但し、画角の135度は一例であり、この数値に限定はされない。
The
なお図1では、送信機カメラ55は、ホルダHLDの一端(例えば上端壁部UP1の後側の側面)に設けられたコネクタの一例としてのUSB(Universal Serial Bus)コネクタUJ3を介して、取外し自在に取り付けられている(図5A参照)。送信機50と送信機カメラ55との取付又は固定の方法は、図5Aの方法に限定されず、詳細は後述する。
In FIG. 1, the
左制御棒53Lの手前側(言い換えると、操作者PER1側)には、送信機50の電源ボタンB1が配置される。電源ボタンB1が操作者PER1により一度押下されると、例えば送信機50に内蔵されるバッテリ(不図示)の容量の残量がバッテリ残量表示部L2において表示される。電源ボタンB1が操作者PER1によりもう一度押下されると、例えば送信機50の電源がオンとなり、送信機50の各部(図4参照)に電源が供給されて使用可能となる。
The power button B1 of the
右制御棒53Rの手前側(言い換えると、操作者PER1側)には、RTH(Return To Home)ボタンB2が配置される。RTHボタンB2が操作者PER1により押下されると、送信機50は、無人航空機100に所定の位置に自動復帰させるための信号を送信する。これにより、送信機50は、無人航空機100を所定の位置(例えば無人航空機100が記憶している離陸位置)に自動的に帰還させることができる。RTHボタンB2は、例えば屋外での無人航空機100による空撮中に操作者PER1が無人航空機100の機体を見失った場合、又は電波干渉や予期せぬトラブルに遭遇して操作不能になった場合等に利用可能である。
An RTH (Return To Home) button B2 is disposed on the front side of the
電源ボタンB1及びRTHボタンB2の手前側(言い換えると、操作者PER1側)には、リモートステータス表示部L1及びバッテリ残量表示部L2が配置される。リモートステータス表示部L1は、例えばLED(Light Emission Diode)を用いて構成され、送信機50と無人航空機100との無線の接続状態を表示する。バッテリ残量表示部L2は、例えばLEDを用いて構成され、送信機50に内蔵されたバッテリ(不図示)の容量の残量を表示する。
A remote status display portion L1 and a battery remaining amount display portion L2 are disposed on the front side of the power button B1 and the RTH button B2 (in other words, on the operator PER1 side). The remote status display unit L1 is configured using, for example, an LED (Light Emission Diode) and displays a wireless connection state between the
図1に示すタブレット端末80Tには、USBケーブルCBLの一端が挿入されるUSBコネクタUJ1が設けられる。タブレット端末80Tは、タブレット端末80Tが備える表示部の一例としてのディスプレイTPDを有する。従って、送信機50は、USBケーブルCBLを介して、タブレット端末80TのディスプレイTPDと接続可能となる。また、送信機50は、USBポートUSPを有する。USBケーブルCBLの他端は、送信機50のUSBポートUSPに挿入される。なお、送信機50は、マイクロUSBポートMUSPを有してよい。マイクロUSBポートMUSPには、マイクロUSBケーブル(不図示)が接続される。
The
図2は、表示端末(例えばスマートフォン80S)が装着された送信機50の筐体前面側の外観の一例を示す斜視図である。図2の各部の説明において、図1の各部の説明と重複するものについては、同一の符号を付与して説明を簡略化又は省略する。本実施形態において、上下前後左右の方向は、図2に示す矢印の方向にそれぞれ従うとする。
FIG. 2 is a perspective view showing an example of the appearance on the front side of the housing of the
ホルダHLDは、上端壁部UP1と下端壁部UP2との間の略中央部に、左爪部TML及び右爪部TMRを有してよい。左爪部TML及び右爪部TMRは、例えばホルダHLDが幅広のタブレット端末80Tを保持する際には、載置面に沿うように倒される。一方、左爪部TML及び右爪部TMRは、例えばホルダHLDがタブレット端末80Tより幅狭のスマートフォン80Sを保持する際には、載置面を基準として上側に略90度起立する。これにより、スマートフォン80Sは、ホルダHLDの上端壁部UP1と左爪部TML及び右爪部TMRとにより保持される。
The holder HLD may have a left claw portion TML and a right claw portion TMR at a substantially central portion between the upper end wall portion UP1 and the lower end wall portion UP2. For example, when the holder HLD holds the
図2に示すスマートフォン80Sには、USBケーブルCBLの一端が挿入されるUSBコネクタUJ2が設けられる。スマートフォン80Sは、スマートフォン80Sが備える表示部の一例としてのディスプレイTPDを有する。このため、送信機50は、USBケーブルCBLを介して、スマートフォン80SのディスプレイTPDと接続可能となる。
The
図3は、表示端末(例えばスマートフォン80S)が装着された送信機50の筐体背面側の外観の一例を示す斜視図である。図3の各部の説明において、図1又は図2の各部の説明と重複するものについては、同一の符号を付与して説明を簡略化又は省略する。本実施形態において、上下前後左右の方向は、図3に示す矢印の方向にそれぞれ従うとする。
FIG. 3 is a perspective view showing an example of the appearance on the back side of the housing of the
図3に示すように、ホルダ支持部51の高さはネジ51Nにより調整可能である。
As shown in FIG. 3, the height of the
左制御棒53L及び右制御棒53Rより後側であって、かつ送信機50の筐体50Bの後方側面から、2つのアンテナAN1,AN2が突設して配置される(図3参照)。アンテナAN1,AN2は、操作者PER1の左制御棒53L及び右制御棒53Rの操作に基づき、送信機制御部61により生成された信号(つまり、無人航空機100の移動を制御するための信号)を無人航空機100に送信する。アンテナAN1,AN2は、例えば2kmの送受信範囲をカバーできる。また、アンテナAN1,AN2は、送信機50と無線接続中の無人航空機100が有する撮像装置220,230(後述参照)により撮像された画像、又は無人航空機100が取得した各種データ(後述参照)が無人航空機100から送信された場合に、これらの画像又は各種データを受信できる。
Two antennas AN1 and AN2 project from the
送信機50と表示端末80(例えばタブレット端末80T、スマートフォン80S)とは、例えばUSBケーブルCBLを介して通信可能に接続される(図3参照)。
The
図4は、送信機カメラ55と送信機50と表示端末80との電気的な接続関係の一例を示すブロック図である。送信機カメラ55と送信機50と表示端末80とにより、本実施形態の画像出力システムが構成される。例えば図1〜図3を参照して説明したように、送信機50と送信機カメラ55とは情報やデータが入出力可能に接続され、送信機50と表示端末80とはUSBケーブルCBLを介して情報やデータが通信可能に接続される。
FIG. 4 is a block diagram illustrating an example of an electrical connection relationship among the
送信機カメラ55は、レンズユニット55Aと、イメージセンサ55Bと、信号処理部55Cとを含む構成である。
The
レンズユニット55Aは、送信機カメラ55において所定の画角が形成可能に、少なくとも1つのレンズを用いて構成される。レンズユニット55Aは、無人航空機100が移動する領域(例えば上空)から入射した光を、イメージセンサ55Bにおいて撮像可能に結像させる。
The
イメージセンサ55Bは、例えばCCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)を用いて構成される。イメージセンサ55Bは、レンズユニット55Aを介して結像された光を光電変換することにより撮像し、撮像により得られた光学像の電気信号を信号処理部55Cに出力する。
The image sensor 55B is configured using, for example, a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). The image sensor 55B captures an image by photoelectrically converting light imaged through the
信号処理部55Cは、イメージセンサ55Bの出力(つまり、光学像の電気信号)を用いて既存の画像処理を施すことにより、所定の形式(例えばH.264)を満たす映像データを構成するRGB画像データ又はYUV画像データ(以下、「フレーム画像」という)を生成する。信号処理部55Cは、このフレーム画像を用いて、送信機カメラ55の被写体の一例としての無人航空機100の撮像画像を生成し、カメラインタフェース部67を介して送信機制御部61に出力する。
The
なお、信号処理部55Cは、既存の画像処理(例えば複数のフレーム画像間の差分抽出)により、無人航空機100の移動方向を検知することにより無人航空機100を追跡してよい。信号処理部55Cは、無人航空機100の移動方向の追跡結果の情報データを送信機50に出力してよい。この追跡結果の情報データは、送信機50から表示端末80に入力され、表示端末80において無人航空機100の移動方向を算出する時に使用される。
Note that the
送信機50は、左制御棒53Lと、右制御棒53Rと、送信機制御部61と、無線通信部63と、送信機側USBインタフェース部65と、電源ボタンB1と、RTHボタンB2と、操作部セットOPSと、リモートステータス表示部L1と、バッテリ残量表示部L2とを含む構成である。
The
左制御棒53Lは、例えば操作者PER1の左手により、無人航空機100の移動を遠隔で制御するための操作に使用される。右制御棒53Rは、例えば操作者PER1の右手により、無人航空機100の移動を遠隔で制御するための操作に使用される。無人航空機100の移動は、例えば前進する方向の移動、後進する方向の移動、左方向の移動、右方向の移動、上昇する方向の移動、下降する方向の移動、左方向に無人航空機100を回転する移動、右方向に無人航空機100を回転する移動のうちいずれか又はこれらの組み合わせであり、以下同様である。
The
送信機50が備える制御部の一例としての送信機制御部61は、プロセッサ(例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor))を用いて構成される。送信機制御部61は、送信機50の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。
A
例えば送信機制御部61は、カメラインタフェース部67を介して取得した撮像画像(以下、「第1撮像画像」ともいう)のデータをメモリ(不図示)に保存し、送信機側USBインタフェース部65を介して表示端末80に出力する。言い換えると、送信機制御部61は、送信機カメラ55により撮像された無人航空機100の撮像画像のデータを表示端末80のディスプレイTPDに表示させる。これにより、送信機カメラ55により撮像された無人航空機100の撮像画像(第1撮像画像)は、表示端末80のディスプレイTPDにおいて表示可能となる(例えば図10、図12参照)。
For example, the
例えば送信機制御部61は、操作者PER1の左制御棒53L及び右制御棒53Rの操作により、その操作により指定された無人航空機100の移動を制御するための信号を生成する。送信機制御部61は、この生成した信号を、無線通信部63及びアンテナAN1,AN2を介して、無人航空機100に送信して無人航空機100を遠隔制御する。これにより、送信機50は、無人航空機100の移動を遠隔で制御できる。
For example, the
例えば送信機制御部61は、無人航空機100の撮像装置220が撮像した撮像画像(以下、「第2撮像画像」ともいう)のデータを、無線通信部63を介して取得してメモリ(不図示)に保存し、送信機側USBインタフェース部65を介して表示端末80に出力する。言い換えると、送信機制御部61は、無人航空機100の撮像装置220により撮像された空撮画像のデータを表示端末80のディスプレイTPDに表示させる。これにより、無人航空機100の撮像装置220により撮像された空撮画像(第2撮像画像)は、表示端末80のディスプレイTPDにおいて表示可能となる(例えば図10、図11、図13参照)。
For example, the
無線通信部63は、2つのアンテナAN1,AN2と接続される。無線通信部63は、2つのアンテナAN1,AN2を介して、無人航空機100との間で所定の無線通信方式(例えばWifi(登録商標))を用いた情報やデータの送受信を行う。無線通信部63は、例えば無人航空機100との無線通信により、無人航空機100の撮像装置220により撮像された、無人航空機100が移動する領域(例えば上空)の空撮画像のデータを受信する。無線通信部63は、空撮画像のデータを送信機制御部61に出力する。また、無線通信部63は、GPS受信機240(図8参照)を有する無人航空機100により算出された無人航空機100の位置情報を受信する。無線通信部63は、無人航空機100の位置情報を送信機制御部61に出力する。
The
送信機側USBインタフェース部65は、送信機50と表示端末80との間の情報やデータの入出力を行う。送信機側USBインタフェース部65は、例えば送信機50に設けられたUSBポートUSP(図3参照)により構成される。
The transmitter-side
カメラインタフェース部67は、送信機50と送信機カメラ55との間の情報やデータの入出力を行う。
The
電源ボタンB1は一度押下されると、一度押下された旨の信号が送信機制御部61に入力される。送信機制御部61は、この信号に従い、送信機50に内蔵されるバッテリ(不図示)の容量の残量をバッテリ残量表示部L2に表示する。これにより、操作者PER1は、送信機50に内蔵されるバッテリの容量の残量を簡単に確認できる。また、電源ボタンB1は二度押下されると、二度押下された旨の信号が送信機制御部61に渡される。送信機制御部61は、この信号に従い、送信機50に内蔵されるバッテリ(不図示)に対し、送信機50内の各部への電源供給を指示する。これにより、操作者PER1は、送信機50の電源がオンとなり、送信機50の使用を簡単に開始できる。
When the power button B1 is pressed once, a signal indicating that the power button B1 has been pressed is input to the
RTHボタンB2は押下されると、押下された旨の信号が送信機制御部61に入力される。送信機制御部61は、この信号に従い、無人航空機100に所定の位置(例えば無人航空機100の離陸位置)に自動復帰させるための信号を生成し、無線通信部63及びアンテナAN1,AN2を介して無人航空機100に送信する。これにより、操作者PER1は、送信機50に対する簡単な操作により、無人航空機100を所定の位置に自動で復帰(帰還)させることができる。
When the RTH button B2 is pressed, a signal indicating that the RTH button B2 has been pressed is input to the
操作部セットOPSは、複数の操作部(例えば操作部OP1,…,操作部OPn)(n:2以上の整数)を用いて構成される。操作部セットOPSは、図4に示す左制御棒53L、右制御棒53R、電源ボタンB1及びRTHボタンB2を除く他の操作部(例えば、送信機50による無人航空機100の遠隔制御を支援するための各種の操作部)により構成される。ここでいう各種の操作部とは、例えば、無人航空機100の撮像装置220を用いた静止画の撮像を指示するボタン、無人航空機100の撮像装置220を用いた動画の録画の開始及び終了を指示するボタン、無人航空機100のジンバル200(図8参照)のチルト方向の傾きを調整するダイヤル、無人航空機100のフライトモードを切り替えるボタン、無人航空機100の撮像装置220の設定を行うダイヤルが該当する。
The operation unit set OPS is configured using a plurality of operation units (for example, operation units OP1,..., Operation unit OPn) (n: an integer of 2 or more). The operation unit set OPS supports other operation units (for example, the remote control of the
リモートステータス表示部L1及びバッテリ残量表示部L2は、図1を参照して説明したので、ここでは説明を省略する。 The remote status display unit L1 and the remaining battery level display unit L2 have been described with reference to FIG.
表示端末80は、プロセッサ81と、端末側USBインタフェース部83と、無線通信部85と、メモリ87と、GPS(Global Positioning System)受信機89と、ディスプレイTPDとを含む構成である。表示端末80は、例えばタブレット端末80T(図1参照)、又はスマートフォン80S(図2、図3参照)である。
The
プロセッサ81は、例えばCPU、MPU又はDSPを用いて構成される。プロセッサ81は、表示端末80の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。
The
例えばプロセッサ81は、端末側USBインタフェース部83を介して取得した撮像画像(第1撮像画像)のデータをメモリ87に保存し、ディスプレイTPDに表示する。言い換えると、プロセッサ81は、送信機カメラ55により撮像された無人航空機100の撮像画像のデータをディスプレイTPDに表示する。これにより、送信機カメラ55により撮像された無人航空機100の撮像画像(第1撮像画像)は、表示端末80のディスプレイTPDにおいて表示可能となる(例えば図10、図12参照)。
For example, the
例えばプロセッサ81は、端末側USBインタフェース部83を介して取得した空撮画像(第2撮像画像)のデータをメモリ87に保存し、ディスプレイTPDに表示する。言い換えると、プロセッサ81は、無人航空機100の撮像装置220により撮像された空撮画像のデータをディスプレイTPDに表示する。これにより、無人航空機100の撮像装置220により撮像された空撮画像(第2撮像画像)は、表示端末80のディスプレイTPDにおいて表示可能となる(例えば図10、図11、図13参照)。
For example, the
端末側USBインタフェース部83は、表示端末80と送信機50との間の情報やデータの入出力を行う。端末側USBインタフェース部83は、例えばタブレット端末80Tに設けられたUSBコネクタUJ1、又はスマートフォン80Sに設けられたUSBコネクタUJ2により構成される。
The terminal-side
無線通信部85は、表示端末80に内蔵されるアンテナ(不図示)を介して、インターネット等の広域網ネットワーク(不図示)と接続される。無線通信部85は、広域網ネットワークに接続された他の通信機器(不図示)との間で情報やデータを送受信する。
The
メモリ87は、例えば表示端末80の動作を規定するプログラムや設定値のデータが格納されたROM(Read Only Memory)と、プロセッサ81の処理時に使用される各種の情報やデータを一時的に保存するRAM(Random Access Memory)を有する。メモリ87のROMに格納されたプログラムや設定値のデータは、所定の記録媒体(例えばCD−ROM、DVD−ROM)にコピーされてよい。メモリ87のRAMには、例えば送信機カメラ55により撮像された無人航空機100の撮像画像のデータ、又は無人航空機100の撮像装置220により撮像された空撮画像のデータが保存される。
The
GPS受信機89は、複数の航法衛星(つまり、GPS衛星)から発信された時刻及び各GPS衛星の位置(座標)を示す複数の信号を受信する。GPS受信機89は、受信された複数の信号に基づいて、GPS受信機89の位置(つまり、表示端末80の位置)を算出する。表示端末80と送信機50とはUSBケーブルCBLを介して接続されているがほぼ同じ位置にあると考えることができるため、表示端末80の位置は、送信機50の位置と略同一と考えることができる。なお、GPS受信機89は表示端末80内に設けられるとして説明したが、送信機50内に設けられてよい。また、表示端末80と送信機50との接続方法は、USBケーブルCBLによる有線接続に限定されず、既定の近距離無線通信(例えばBluetooth(登録商標))による無線接続でよい。GPS受信機89は、表示端末80の位置情報をプロセッサ81に出力する。なお、GPS受信機89の位置情報の算出は、GPS受信機89の代わりにプロセッサ81により行われてよい。この場合、プロセッサ81には、GPS受信機89が受信した複数の信号に含まれる時刻及び各GPS衛星の位置を示す情報が入力される。
The
ディスプレイTPDは、例えばLCD(Liquid Crystal Display)を用いて構成され、プロセッサ81から出力された各種の情報やデータを表示する。例えばディスプレイTPDは、送信機カメラ55により撮像された無人航空機100の撮像画像のデータを表示する。また、ディスプレイTPDは、無人航空機100の撮像装置220により撮像された空撮画像のデータを表示する。また、ディスプレイTPDは、上記した情報やデータを表示でき、更に、操作者PER1のタッチ操作又はタップ操作の入力操作を受付可能なタッチパネルを用いて構成されてよい。以下、ディスプレイTPDは、例えばタッチパネルを用いて構成されるとして説明する。
The display TPD is configured using, for example, an LCD (Liquid Crystal Display) and displays various information and data output from the
図5Aは、送信機カメラ55の送信機50への取付例を示す模式図である。図5Bは、送信機カメラ55の送信機50への固定例を示す模式図である。なお、図5A及び図5Bに示す取付例、固定例はあくまで送信機カメラ55と送信機50との接続方法を示す一例であって、これらの接続方法に限定されない。
FIG. 5A is a schematic diagram illustrating an example of attachment of the
図5Aに示すように、送信機カメラ55は、送信機50のホルダHLDの一端(例えば上端壁部UP1)に設けられた接続部の一例としてのUSBコネクタUJ3を介して、挿抜自在に取り付けられてよい。この状態では、レンズの光軸Ocが鉛直方向上向きとなっている。これにより、操作者PER1は、送信機カメラ55において無人航空機100を撮像したいと考える場合にはUSBコネクタUJ3に簡易に取り付けできる。一方で、送信機カメラ55が必要なくなった場合にはUSBコネクタUJ3から簡易に取り外しできる。
As shown in FIG. 5A, the
また、送信機カメラ55はレンズユニット55Aの光軸を操作者PER1の操作により手動調整が可能となるように取り付けられてよい。これにより、操作者は、自己の嗜好に応じて、送信機カメラ55の撮像方向(いわゆる光軸Oc)を任意に調整できる。
Further, the
図5Bに示すように、送信機カメラ55は、送信機50のホルダHLDの一端(例えば上端壁部UP1)に内蔵されて固定して配置されてよい。つまり、ホルダHLDの内部に送信機カメラ55が埋設され、レンズユニット55Aのレンズは外部に露出している。この状態では、図5Aに示すレンズの光軸Ocに比べて、図5Bに示すレンズの光軸Ocが鉛直方向上向きから少し傾斜している。これにより、操作者PER1は、ネジ51Nの調整又はヒンジ51Hを介したホルダHLDの角度調整により、送信機カメラ55を自己の好みに応じた角度に調整して撮像させることができる。
As shown in FIG. 5B, the
また、送信機カメラ55は、送信機カメラ55の筐体50Bに内蔵されて固定して配置されてよい。つまり、筐体50Bの内部に送信機カメラ55が埋設され、レンズユニット55Aのレンズは外部に露出している。この状態では、図5Aに示す送信機カメラ55と同様に、レンズの光軸Ocが鉛直方向上向きとなっている。これにより、操作者PER1は、例えばネジ51Nの調整又はヒンジ51Hを介したホルダHLDの角度調整の操作を必要とせず、簡易に送信機カメラ55に上空を撮像させることができる。
Further, the
また、表示端末80(例えばタブレット端末80T、スマートフォン80S)がカメラを備える構成であれば、送信機カメラ55の代わりに、表示端末80が備えるカメラを用いてよい。つまり、タブレット端末80T又はスマートフォン80Sに内蔵されるカメラにより、無人航空機100が移動する領域(例えば上空)が撮像されてよい。これにより、本実施形態において送信機カメラ55の構成を省略でき、送信機50の部品点数を削減できる。
Moreover, if the display terminal 80 (for example,
図6は、無人航空機100の外観の一例を示す図である。図7は、無人航空機100の具体的な外観の一例を示す図である。無人航空機100が移動方向STV0に飛行する時の側面図が図6に示され、無人航空機100が移動方向STV0に飛行する時の斜視図が図7に示されている。無人航空機100は、撮像装置220,230を備えて移動する移動体の一例である。移動体とは、無人航空機100の他、空中を移動する他の航空機、地上を移動する車両、水上を移動する船舶等を含む概念である。ここで、図6及び図7に示すように、地面と平行であって移動方向STV0に沿う方向にロール軸(図9のx軸参照)が定義されたとする。この場合、地面と平行であってロール軸に垂直な方向にピッチ軸(図9のy軸参照)が定められ、更に、地面に垂直であってロール軸及びピッチ軸に垂直な方向にヨー軸(図9のz軸)が定められる。
FIG. 6 is a diagram illustrating an example of the appearance of the unmanned
無人航空機100は、UAV本体102と、ジンバル200と、撮像装置220と、複数の撮像装置230とを含む構成である。無人航空機100は、操作端末の一例としての送信機50から送信される遠隔制御の指示を基に移動する移動体の一例である。移動体とは、無人航空機100の他、空中を移動する他の航空機、地上を移動する車両、水上を移動する船舶等を含む概念である。
The unmanned
UAV本体102は、複数の回転翼を備える。UAV本体102は、複数の回転翼の回転を制御することにより無人航空機100を飛行させる。UAV本体102は、例えば4つの回転翼を用いて無人航空機100を飛行させる。回転翼の数は、4つに限定されない。また、無人航空機100は、回転翼を有さない固定翼機でもよい。
The UAV
撮像装置220は、所望の撮像範囲に含まれる被写体(例えば空撮対象となる上空の様子、山や川等の景色)を撮像する撮像用のカメラである。
The
複数の撮像装置230は、無人航空機100の飛行を制御するために無人航空機100の周囲を撮像するセンシング用のカメラである。2つの撮像装置230が、無人航空機100の機首である正面に設けられてよい。更に、他の2つの撮像装置230が、無人航空機100の底面に設けられてよい。正面側の2つの撮像装置230はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像装置230もペアとなり、ステレオカメラとして機能してよい。複数の撮像装置230により撮像された画像に基づいて、無人航空機100の周囲の3次元空間データが生成されてよい。なお、無人航空機100が備える撮像装置230の数は4つに限定されない。無人航空機100は、少なくとも1つの撮像装置230を備えていればよい。無人航空機100は、無人航空機100の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの撮像装置230を備えてよい。撮像装置230で設定できる画角は、撮像装置220で設定できる画角より広くてよい。撮像装置230は、単焦点レンズ又は魚眼レンズを有してよい。
The plurality of
図8は、無人航空機100のハードウェア構成の一例を示すブロック図である。無人航空機100は、UAV制御部110と、通信インタフェース150と、メモリ160と、ジンバル200と、回転翼機構210と、撮像装置220と、撮像装置230と、GPS受信機240と、慣性計測装置(IMU:Inertial Measurement Unit)250と、磁気コンパス260と、気圧高度計270とを含む構成である。
FIG. 8 is a block diagram illustrating an example of a hardware configuration of the unmanned
UAV制御部110は、例えばCPU、MPU又はDSPを用いて構成される。UAV制御部110は、無人航空機100の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。
The
UAV制御部110は、メモリ160に格納されたプログラムに従って無人航空機100の飛行を制御する。UAV制御部110は、通信インタフェース150を介して遠隔の送信機50から受信した命令に従って、無人航空機100の飛行を制御する。メモリ160は無人航空機100から取り外し可能であってもよい。
The
UAV制御部110は、複数の撮像装置230により撮像された複数の画像を解析することで、無人航空機100の周囲の環境を特定してよい。UAV制御部110は、無人航空機100の周囲の環境に基づいて、例えば障害物を回避して飛行を制御する。UAV制御部110は、複数の撮像装置230により撮像された複数の画像に基づいて無人航空機100の周囲の3次元空間データを生成し、3次元空間データに基づいて飛行を制御してよい。
The
UAV制御部110は、現在の日時を示す日時情報を取得する。UAV制御部110は、GPS受信機240から現在の日時を示す日時情報を取得してよい。UAV制御部110は、無人航空機100に搭載されたタイマ(不図示)から現在の日時を示す日時情報を取得してよい。
The
UAV制御部110は、無人航空機100の位置を示す位置情報を取得する。UAV制御部110は、GPS受信機240から、無人航空機100が存在する緯度、経度及び高度を示す位置情報を取得してよい。UAV制御部110は、GPS受信機240から無人航空機100が存在する緯度及び経度を示す緯度経度情報、並びに気圧高度計270から無人航空機100が存在する高度を示す高度情報をそれぞれ位置情報として取得してよい。
The
UAV制御部110は、磁気コンパス260から無人航空機100の向きを示す向き情報を取得する。向き情報には、例えば無人航空機100の機首の向きに対応する方位が示される。
The
UAV制御部110は、撮像装置220が撮像すべき撮像範囲を撮像する時に無人航空機100が存在すべき位置を示す位置情報を取得してよい。UAV制御部110は、無人航空機100が存在すべき位置を示す位置情報をメモリ160から取得してよい。UAV制御部110は、無人航空機100が存在すべき位置を示す位置情報を、通信インタフェース150を介して送信機50等の他の装置から取得してよい。UAV制御部110は、3次元地図データベースを参照して、撮像すべき撮像範囲を撮像するために、無人航空機100が存在可能な位置を特定して、その位置を無人航空機100が存在すべき位置を示す位置情報として取得してよい。
The
UAV制御部110は、撮像装置220及び撮像装置230のそれぞれの撮像範囲を示す撮像情報を取得する。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像装置220及び撮像装置230の画角を示す画角情報を撮像装置220及び撮像装置230から取得する。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像装置220及び撮像装置230の撮像方向を示す情報を取得する。UAV制御部110は、例えば撮像装置220の撮像方向を示す情報として、ジンバル200から撮像装置220の姿勢の状態を示す姿勢情報を取得する。UAV制御部110は、無人航空機100の向きを示す情報を取得する。撮像装置220の姿勢の状態を示す情報は、ジンバル200のピッチ軸及びヨー軸の基準回転角度からの回転角度を示す。UAV制御部110は、撮像範囲を特定するためのパラメータとして、無人航空機100が存在する位置を示す位置情報を取得する。UAV制御部110は、撮像装置220及び撮像装置230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて、撮像装置220が撮像する地理的な範囲を示す撮像範囲を画定し、撮像範囲を示す撮像情報を生成することで、撮像情報を取得してよい。
The
UAV制御部110は、撮像装置220が撮像すべき撮像範囲を示す撮像情報を取得してよい。UAV制御部110は、メモリ160から撮像装置220が撮像すべき撮像情報を取得してよい。UAV制御部110は、通信インタフェース150を介して送信機50等の他の装置から撮像装置220が撮像すべき撮像情報を取得してよい。
The
UAV制御部110は、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を取得する。オブジェクトは、例えば、建物、道路、車、木等の風景の一部である。立体情報は、例えば、3次元空間データである。UAV制御部110は、複数の撮像装置230から得られたそれぞれの画像から、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を生成することで、立体情報を取得してよい。UAV制御部110は、メモリ160に格納された3次元地図データベースを参照することにより、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を取得してよい。UAV制御部110は、ネットワーク上に存在するサーバが管理する3次元地図データベースを参照することで、無人航空機100の周囲に存在するオブジェクトの立体形状に関する立体情報を取得してよい。
The
UAV制御部110は、撮像装置220及び撮像装置230により撮像された画像データを取得する。
The
UAV制御部110は、ジンバル200、回転翼機構210、撮像装置220、及び撮像装置230を制御する。UAV制御部110は、撮像装置220の撮像方向又は画角を変更することによって、撮像装置220の撮像範囲を制御する。UAV制御部110は、ジンバル200の回転機構を制御することで、ジンバル200に支持されている撮像装置220の撮像範囲を制御する。
The
本明細書では、撮像範囲は、撮像装置220又は撮像装置230により撮像される地理的な範囲をいう。撮像範囲は、緯度、経度、及び高度で定義される。撮像範囲は、緯度、経度、及び高度で定義される3次元空間データにおける範囲でよい。撮像範囲は、撮像装置220又は撮像装置230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて特定される。撮像装置220及び撮像装置230の撮像方向は、撮像装置220及び撮像装置230の撮像レンズが設けられた正面が向く方位と俯角とから定義される。撮像装置220の撮像方向は、無人航空機100の機首の方位と、ジンバル200に対する撮像装置220の姿勢の状態とから特定される方向である。撮像装置230の撮像方向は、無人航空機100の機首の方位と、撮像装置230が設けられた位置とから特定される方向である。
In this specification, the imaging range refers to a geographical range captured by the
UAV制御部110は、回転翼機構210を制御することで、無人航空機100の飛行を制御する。つまり、UAV制御部110は、回転翼機構210を制御することにより、無人航空機100の緯度、経度、及び高度を含む位置を制御する。UAV制御部110は、無人航空機100の飛行を制御することにより、撮像装置220及び撮像装置230の撮像範囲を制御してよい。UAV制御部110は、撮像装置220が備えるズームレンズを制御することで、撮像装置220の画角を制御してよい。UAV制御部110は、撮像装置220のデジタルズーム機能を利用して、デジタルズームにより、撮像装置220の画角を制御してよい。
The
撮像装置220が無人航空機100に固定され、撮像装置220を動かせない場合、UAV制御部110は、特定の日時に特定の位置に無人航空機100を移動させることにより、所望の環境下で所望の撮像範囲を撮像装置220に撮像させることができる。あるいは撮像装置220がズーム機能を有さず、撮像装置220の画角を変更できない場合でも、UAV制御部110は、特定された日時に、特定の位置に無人航空機100を移動させることで、所望の環境下で所望の撮像範囲を撮像装置220に撮像させることができる。
When the
通信インタフェース150は、送信機50と通信する(図8参照)。通信インタフェース150は、遠隔の送信機50からUAV制御部110に対する各種の命令を受信する。
The
メモリ160は、UAV制御部110がジンバル200、回転翼機構210、撮像装置220、撮像装置230、GPS受信機240、慣性計測装置250、磁気コンパス260及び気圧高度計270を制御するのに必要なプログラム等を格納する。メモリ160は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、及びUSBメモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ160は、UAV本体102の内部に設けられてよい。UAV本体102から取り外し可能に設けられてよい。
The
ジンバル200は、少なくとも1つの軸を中心に撮像装置220を回転可能に支持する。ジンバル200は、ヨー軸、ピッチ軸、及びロール軸を中心に撮像装置220を回転可能に支持してよい。ジンバル200は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像装置220を回転させることで、撮像装置220の撮像方向を変更してよい。
The
回転翼機構210は、複数の回転翼と、複数の回転翼を回転させる複数の駆動モータとを有する。
The
撮像装置220は、所望の撮像範囲の被写体を撮像して撮像画像(第2撮像画像)のデータを生成する。撮像装置220の撮像により得られた画像データは、撮像装置220が有するメモリ、又はメモリ160に格納される。
The
撮像装置230は、無人航空機100の周囲を撮像して撮像画像のデータを生成する。撮像装置230の画像データは、メモリ160に格納される。
The
GPS受信機240は、複数の航法衛星(つまり、GPS衛星)から発信された時刻及び各GPS衛星の位置(座標)を示す複数の信号を受信する。GPS受信機240は、受信された複数の信号に基づいて、GPS受信機240の位置(つまり、無人航空機100の位置)を算出する。GPS受信機240は、無人航空機100の位置情報をUAV制御部110に出力する。なお、GPS受信機240の位置情報の算出は、GPS受信機240の代わりにUAV制御部110により行われてよい。この場合、UAV制御部110には、GPS受信機240が受信した複数の信号に含まれる時刻及び各GPS衛星の位置を示す情報が入力される。
The
慣性計測装置250は、無人航空機100の姿勢を検出し、検出結果をUAV制御部110に出力する。慣性計測装置IMU250は、無人航空機100の姿勢として、無人航空機100の前後、左右、及び上下の3軸方向の加速度と、ピッチ軸、ロール軸、及びヨー軸の3軸方向の角速度とを検出する。
磁気コンパス260は、無人航空機100の機首の方位を検出し、検出結果をUAV制御部110に出力する。
The
気圧高度計270は、無人航空機100が飛行する高度を検出し、検出結果をUAV制御部110に出力する。
図9は、操作者PER1が送信機50と接続された表示端末80のディスプレイTPDを閲覧しながら無人航空機100を操作する時の一例を示す図である。図9に示すx軸、y軸、z軸は、図6及び図7に示すロール軸、ピッチ軸、ヨー軸にそれぞれ対応する。図9では、送信機50と無人航空機100とは互いに無線通信可能に接続されている例が示されているが、送信機50と無人航空機100とは互いに有線通信可能に接続されてよい。
FIG. 9 is a diagram illustrating an example when the operator PER1 operates the unmanned
本実施形態では、送信機50に設けられた送信機カメラ55は、例えば無人航空機100を被写体として、無人航空機100が移動方向STV0に移動する領域(例えば上空)を撮像する。送信機カメラ55により撮像された撮像画像(つまり、無人航空機100が撮像された第1撮像画像)は、送信機50に入力される。その後、第1撮像画像は、送信機50から表示端末80に入力されてディスプレイTPDにて表示される(図10、図12参照)。従って、操作者PER1は、送信機50を操作して無人航空機100の移動を遠隔で制御する際に、無人航空機100が飛行している上空を見上げて目視すること無く、ディスプレイTPDに表示された第1撮像画像を閲覧することができる。よって、無人航空機100の位置を把握でき、快適に無人航空機100の飛行を制御できる。
In the present embodiment, the
これにより、送信機50は、上空で飛行している無人航空機100の移動を遠隔制御する際に、無人航空機100を送信機カメラ55により撮像でき、その撮像により得た送信機カメラ画像56をディスプレイTPDにおいて操作者PER1に閲覧させることができる。従って、操作者PER1は、無人航空機100を確認するためにわざわざ上空を見上げること無く、ディスプレイTPDに表示された送信機カメラ画像56によって無人航空機100の所在を簡単に確認できる。言い換えると、送信機50は、無人航空機100に搭載された撮像装置220を用いて空撮する時の操作者PER1の利便性を向上できる。
Thus, the
また、無人航空機100が備える撮像装置220により撮像(空撮)された撮像画像(つまり、上空の様子や景色等が撮像された第2撮像画像)は、無線(wireless)で無人航空機100から送信機50に送信されて送信機50で受信される。その後、第2撮像画像は、送信機50から表示端末80に入力されてディスプレイTPDにて表示される(図10、図11、図13参照)。従って、操作者PER1は、ディスプレイTPDに表示された第2撮像画像を閲覧することで、空撮を快適に楽しむことができる。
In addition, a captured image captured by the
また、送信機50は、無人航空機100との無線通信により、無人航空機100が備える撮像装置220により撮像(空撮)された領域(例えば上空)のUAVカメラ画像57(第2撮像画像)を受信する。送信機50は、表示端末80に、無人航空機100により空撮されたUAVカメラ画像57をディスプレイTPDに出力して表示させる。これにより、送信機50は、送信機カメラ画像56だけでなく、無人航空機100により空撮されたUAVカメラ画像57もディスプレイTPDに表示できる。従って、操作者PER1は、送信機カメラ画像56によって無人航空機100の行方を確認できるだけでなく、無人航空機100により空撮された被写体の画像を閲覧でき無人航空機100による空撮を快適に楽しむことができる。
Further, the
図10は、送信機カメラ画像56とUAVカメラ画像57とが共に表示端末80のディスプレイTPDに表示された表示例を示す図である。図11は、UAVカメラ画像57が表示端末80のディスプレイTPDに全画面表示された第1表示例を示す図である。図12は、送信機カメラ画像56が表示端末80のディスプレイTPDに全画面表示された表示例を示す図である。図13は、UAVカメラ画像57が表示端末80のディスプレイTPDに全画面表示された第2表示例を示す図である。送信機カメラ画像56は第1撮像画像に対応し、UAVカメラ画像57は第2撮像画像に対応する。
FIG. 10 is a diagram illustrating a display example in which both the
図10に示すように、表示端末80のプロセッサ81は、送信機50の送信機制御部61からの表示指示に基づき、送信機カメラ画像56とUAVカメラ画像57とをディスプレイTPDに同時に表示させてよい。言い換えると、送信機50は、表示端末80に対し、送信機カメラ画像56とUAVカメラ画像57とをディスプレイTPDに同時に表示させてよい。送信機50からの表示指示には、送信機カメラ画像56とUAVカメラ画像57とをディスプレイTPDに同時に表示する旨の命令が含まれる。これにより、操作者PER1は、送信機50を操作して無人航空機100の移動を遠隔で制御する際に、無人航空機100が飛行している上空を見上げて目視すること無く、送信機カメラ画像56によって無人航空機100の位置を把握できる。よってUAVカメラ画像57によって無人航空機100による空撮を快適に楽しめる。
As shown in FIG. 10, the
表示端末80のプロセッサ81は、送信機カメラ画像56及びUAVカメラ画像57をディスプレイTPDに同時に表示させる際に、送信機カメラ画像56及びUAVカメラ画像57の各データ構造におけるヘッダを参照し、送信機カメラ画像56のラベルLB1、UAVカメラ画像57のラベルLB2をそれぞれ付与して表示してよい。これにより、操作者PER1は、一目でディスプレイTPDに表示された画像の種類を判別でき、各画像の内容確認を行い易くなる。
The
図10に示すように、表示端末80のプロセッサ81は、送信機50の送信機制御部61からの表示指示に基づき、送信機カメラ画像56をUAVカメラ画像57より小さくディスプレイTPDに同時に表示させてよい。言い換えると、送信機50は、表示端末80に対し、送信機カメラ画像56をUAVカメラ画像57より小さくディスプレイTPDに同時に表示させてよい。送信機50からの表示指示には、送信機カメラ画像56をUAVカメラ画像57より小さくディスプレイTPDに同時に表示する旨の命令が含まれる。これにより、操作者PER1は、少なくとも無人航空機100の位置確認が可能な程度の表示サイズで送信機カメラ画像56を閲覧でき、主に大きな表示サイズのUAVカメラ画像57によって無人航空機100による空撮画像を快適に楽しむことができる。
As shown in FIG. 10, the
なお図示は省略しているが、表示端末80のプロセッサ81は、送信機50の送信機制御部61からの表示指示に基づき、UAVカメラ画像57を送信機カメラ画像56より小さくディスプレイTPDに同時に表示させてよい。言い換えると、送信機50は、表示端末80に対し、UAVカメラ画像57を送信機カメラ画像56より小さくディスプレイTPDに同時に表示させてよい。送信機50からの表示指示には、UAVカメラ画像57を送信機カメラ画像56より小さくディスプレイTPDに同時に表示する旨の命令が含まれる。これにより、操作者PER1は、小さな表示サイズのUAVカメラ画像57によって無人航空機100による空撮画像を確認でき、主に大きな表示サイズの送信機カメラ画像56によって無人航空機100の位置の詳細確認を行うことができる。
Although not shown, the
また、図10に示すように、表示端末80のプロセッサ81は、送信機50の送信機制御部61からの表示指示に基づき、無人航空機100の移動方向を示す目印STV1を送信機カメラ画像56に重畳してディスプレイTPDに表示させてよい。言い換えると、送信機50は、表示端末80に対し、無人航空機100の移動方向を示す目印STV1を送信機カメラ画像56に重畳してディスプレイTPDに表示させてよい。送信機50からの表示指示には、無人航空機100の移動方向を示す目印STV1を送信機カメラ画像56に重畳してディスプレイTPDに表示する旨の命令が含まれる。無人航空機100の移動方向は、例えば表示端末80のプロセッサ81において判別可能である。つまり、プロセッサ81は、GPS受信機89から表示端末80の位置情報(言い換えると、送信機50の位置)を取得でき、更に、無人航空機100から送信された無人航空機100の位置情報を端末側USBインタフェース部83を介して取得できる。プロセッサ81は、送信機50の位置情報と無人航空機100の位置情報とを用いて、無人航空機100の移動方向を算出できる。これにより、操作者PER1は、送信機カメラ画像56の中で無人航空機100の移動方向を示す目印STV1が示されることで、無人航空機100の移動方向を簡易に判別できる。
As shown in FIG. 10, the
また、送信機カメラ55は、被写体の一例としての無人航空機100の撮像画像を用いた既存の画像処理、又は無人航空機100を追従するための既存の光軸調整機構により、無人航空機100の移動を追従して移動方向に関する情報を取得してよい。この移動方向に関する情報は、送信機50を介して表示端末80に入力されてよい。表示端末80は、無人航空機100の移動方向を示す目印STV1を用いて、送信機カメラ画像56に重畳してディスプレイTPDに表示してよい。これにより、送信機50及び表示端末80において、無人航空機100の移動方向を取得するためのプログラムを実行するプロセッサの処理負荷を軽減できる。
Further, the
図11に示すように、表示端末80のプロセッサ81は、送信機50の送信機制御部61からの表示指示に基づき、UAVカメラ画像57をディスプレイTPDに全画面表示させてよい。言い換えると、送信機50は、表示端末80に対し、UAVカメラ画像57をディスプレイTPDに全画面表示させてよい。送信機50からの表示指示には、UAVカメラ画像57をディスプレイTPDに全画面表示する旨の命令が含まれる。これにより、操作者PER1は、ディスプレイTPDの全域に表示されたUAVカメラ画像57のワイドビューによって無人航空機100による空撮画像の雰囲気を快適に楽しめる。
As illustrated in FIG. 11, the
図12に示すように、表示端末80のプロセッサ81は、送信機50の送信機制御部61からの表示指示に基づき、送信機カメラ画像56をディスプレイTPDに全画面表示させてよい。言い換えると、送信機50は、表示端末80に対し、送信機カメラ画像56をディスプレイTPDに全画面表示させてよい。送信機50からの表示指示には、送信機カメラ画像56をディスプレイTPDに全画面表示する旨の命令が含まれる。これにより、操作者PER1は、送信機50を操作して無人航空機100の移動を遠隔で制御する際に、ディスプレイTPDの全域に表示された送信機カメラ画像56のワイドビューによって、無人航空機100が飛行している上空を見上げて目視すること無く無人航空機100の位置を簡単に把握できる。
As illustrated in FIG. 12, the
また図12においても同様に、表示端末80のプロセッサ81は、送信機50の送信機制御部61からの表示指示に基づき、無人航空機100の位置,移動方向を示す目印ICN1,STV1を送信機カメラ画像56に重畳してディスプレイTPDに表示させてよい。言い換えると、送信機50は、表示端末80に対し、無人航空機100の位置,移動方向を示す目印ICN1,STV1を送信機カメラ画像56に重畳してディスプレイTPDに表示させてよい。送信機50からの表示指示には、無人航空機100の位置,移動方向を示す目印ICN1,STV1を送信機カメラ画像56に重畳してディスプレイTPDに表示する旨の命令が含まれる。無人航空機100の位置は、無人航空機100の移動方向と同様に、例えば表示端末80のプロセッサ81において判別可能である。つまり、プロセッサ81は、GPS受信機89から表示端末80の位置情報(言い換えると、送信機50の位置)を取得でき、更に、無人航空機100から送信された無人航空機100の位置情報を端末側USBインタフェース部83を介して取得できる。プロセッサ81は、送信機50の位置情報と無人航空機100の位置情報とを用いて、送信機カメラ画像56における相対的な無人航空機100の位置(座標)を算出できる。これにより、操作者PER1は、送信機カメラ画像56の中で無人航空機100が視認できない程に無人航空機100が上昇した場合でも、無人航空機100の位置,移動方向を示す目印ICN1,STV1が示されることで、無人航空機100の位置及び移動方向を簡易に判別できる。なお、図12では、無人航空機100の位置,移動方向を示す目印ICN1,STV1の両方が送信機カメラ画像56としてディスプレイTPDに表示されているが、無人航空機100の位置及び移動方向のうち、いずれか一つ(例えば無人航空機100の位置)を示す目印ICN1が送信機カメラ画像56としてディスプレイTPDに表示されてよい。
Also in FIG. 12, similarly, the
また、送信機カメラ55は1つであると例示して説明したが、送信機カメラ55は送信機50に対して複数(例えば2つ以上)設けられてよい。これにより、送信機50は、送信機カメラ55が1つである場合に比べて、広角な画角の送信機カメラ画像56のデータを取得できる。つまり、送信機50は、それぞれの送信機カメラ55により撮像された送信機カメラ画像56を適宜合成して表示端末80のディスプレイTPDに表示させることで、操作者PER1に広範な画角の送信機カメラ画像56を閲覧させることができ、操作者PER1による無人航空機100の確認を一層簡易化できる。
In addition, the
図13に示すように、表示端末80のプロセッサ81は、送信機50の送信機制御部61からの表示指示に基づき、指示部の一例としてのアイコンTRB1をUAVカメラ画像57に重畳してディスプレイTPDに表示させてよい。アイコンTRB1は、操作者PER1の操作により指定されると、UAVカメラ画像57の全画面表示から送信機カメラ画像56の全画面表示への切替をプロセッサ81に指示する。言い換えると、送信機50は、表示端末80に対し、アイコンTRB1をUAVカメラ画像57に重畳してディスプレイTPDに表示させてよい。送信機50からの表示指示には、アイコンTRB1をUAVカメラ画像57に重畳してディスプレイTPDに表示する旨の命令が含まれる。これにより、操作者PER1は、無人航空機100による空撮画像を閲覧していて無人航空機100の所在が気になった時に、アイコンTRB1を選択操作(例えばタッチ操作等の指定操作)することによりUAVカメラ画像57が送信機カメラ画像56に切り替えられるので、無人航空機100の所在を簡単に確認できる。
As illustrated in FIG. 13, the
図14Aは、送信機カメラ画像56中の無人航空機100を強調表示する第1表示例を示す図である。図14Bは、送信機カメラ画像56中の無人航空機100を強調表示する第2表示例を示す図である。図14Cは、無人航空機100が送信機カメラ55の画角から外れた場合、無人航空機100が送信機カメラ55の画角から外れる直前の無人航空機100の移動方向の表示例を示す図である。図14Dは、送信機カメラ55の画角から外れていた無人航空機100が送信機カメラ55の画角内に進入した場合、無人航空機100が送信機カメラ55の画角内に進入する直前の無人航空機100の進入方向の表示例を示す図である。
FIG. 14A is a diagram showing a first display example in which the
図14A及び図14Bに示すように、表示端末80のプロセッサ81は、送信機カメラ画像56中の無人航空機100を強調してディスプレイTPDに表示させてよい。図14Aでは、例えば無人航空機100の周囲を囲むように点線のマーカMK1が表示される。図14Bでは、例えば無人航空機100の近傍に、無人航空機100の存在を強調するためのマーカMK2が点滅して表示される。これにより、操作者PER1は、無人航空機100が送信機カメラ画像56中で視認できない程に上昇した場合でも、マーカMK1又はマーカMK2によって無人航空機100の位置を簡単に把握できる。なお、図14A及び図14Bでは、マーカMK1,MK2が表示される背景の送信機カメラ画像56の他に、UAVカメラ画像57も同時に表示されているが、例えば送信機カメラ画像56がディスプレイTPDに全画面表示されてよい。
As shown in FIGS. 14A and 14B, the
また、表示端末80のプロセッサ81は、例えば送信機カメラ画像56にビルや木等の障害物が映し出され、かつ無人航空機100がこの障害物に隠れた時にも、図14Aや図14Bに示すマーカMK1,MK2を無人航空機100の周囲又は近傍に表示してよい。これにより、操作者PER1は、無人航空機100が送信機カメラ55の画角内に存在しているが送信機カメラ画像56内に映らなくなった時でも、マーカMK1,MK2により無人航空機100の所在を正確に把握できる。
The
図14Cに示すように、表示端末80のプロセッサ81は、無人航空機100が送信機カメラ55の画角外に移動したことを検知した時に、送信機カメラ画像56に無人航空機100の移動方向(つまり、無人航空機100が送信機カメラ画像56に映らなくなる直前の移動方向)をディスプレイTPDに表示させてよい。図14Cでは、例えば無人航空機100が送信機カメラ画像56の紙面右側の方向に移動したことを示すマーカMK3が表示される。これにより、操作者PER1は、無人航空機100が送信機カメラ55の画角から外れる方向に移動して送信機カメラ画像56に無人航空機100が映らなくなった場合でも、マーカMK3によって無人航空機100の移動方向を簡単に把握でき、無人航空機100の行方を追跡できる。なお、図14Cでは、マーカMK3が表示される背景の送信機カメラ画像56が全画面表示されているが、送信機カメラ画像56とUAVカメラ画像57とが同時に表示されてよい。
As shown in FIG. 14C, when the
また、表示端末80のプロセッサ81は、無人航空機100が送信機カメラ55の画角から外れて移動したことを検知した時に、表示端末80が有するバイブレータ(不図示)を振動させたり、光源(例えばLEDランプ)を点滅させたりすることで、操作者PER1に報知してよい。これにより、操作者PER1は、無人航空機100が送信機カメラ55の画角から外れて移動したことを即座に知ることができる。
Further, when the
図14Dに示すように、表示端末80のプロセッサ81は、送信機カメラ55の画角から外れていた無人航空機100が送信機カメラ55の画角内に進入したことを検知した時に、無人航空機100が送信機カメラ55の画角内に進入する直前の無人航空機100の移動方向(つまり、無人航空機100が送信機カメラ画像56に映る直前の無人航空機100の移動方向)を送信機カメラ画像56に重畳してディスプレイTPDに表示させてよい。図14Dでは、例えば無人航空機100が送信機カメラ画像56の紙面右側の方向から画角内に進入したことを示すマーカMK4が表示される。これにより、操作者PER1は、マーカMK4によって送信機カメラ55の画角から外れていた無人航空機100がどこから送信機カメラ55の画角内に移動したかを簡単に把握できる。なお、図14Dでは、マーカMK4が表示される背景の送信機カメラ画像56が全画面表示されているが、送信機カメラ画像56とUAVカメラ画像57とが同時に表示されてよい。
As shown in FIG. 14D, when the
図15Aは、表示端末80のディスプレイTPDに表示される画面の第1遷移例を示す説明図である。図15Bは、表示端末80のディスプレイTPDに表示される画面の第2遷移例を示す説明図である。図15A及び図15Bは、操作者PER1のディスプレイTPDに対する入力操作(例えばタッチ操作)により、図10〜図13に示す画面の遷移状態の一例が示されている。
FIG. 15A is an explanatory diagram illustrating a first transition example of a screen displayed on the display TPD of the
図15Aにおいて、送信機カメラ画像56及びUAVカメラ画像57の同時表示画面(図10参照)が表示されている状態で操作者PER1により画面切替操作がディスプレイTPDに入力されたとする。画面切替操作は、例えば送信機カメラ画像56のタッチ操作が該当する。表示端末80のプロセッサ81は、この画面切替操作に応じて、送信機カメラ画像56をディスプレイTPDに全画面表示する。これにより、操作者PER1は、UAVカメラ画像57の表示を省略でき、送信機カメラ画像56の詳細(例えば無人航空機100の所在)を簡単な操作によって確認できる。
In FIG. 15A, it is assumed that a screen switching operation is input to the display TPD by the operator PER1 while the simultaneous display screen (see FIG. 10) of the
図15Aにおいて、送信機カメラ画像56及びUAVカメラ画像57の同時表示画面(図10参照)が表示されている状態で操作者PER1により画面切替操作がディスプレイTPDに入力されたとする。画面切替操作は、例えばUAVカメラ画像57のタッチ操作が該当する。表示端末80のプロセッサ81は、この画面切替操作に応じて、UAVカメラ画像57をディスプレイTPDに全画面表示する。これにより、操作者PER1は、送信機カメラ画像56の表示を省略でき、UAVカメラ画像57の詳細(例えば無人航空機100による空撮画像)を簡単な操作によって確認できる。
In FIG. 15A, it is assumed that a screen switching operation is input to the display TPD by the operator PER1 while the simultaneous display screen (see FIG. 10) of the
図15Aにおいて、送信機カメラ画像56及びUAVカメラ画像57の同時表示画面が表示されている状態で操作者PER1により画面切替操作がディスプレイTPDに入力されたとする。同時表示画面では、UAVカメラ画像57が送信機カメラ画像56より小さく表示されていたとする。画面切替操作は、例えば送信機カメラ画像56のタッチ操作が該当する。表示端末80のプロセッサ81は、この画面切替操作に応じて、送信機カメラ画像56をディスプレイTPDに全画面表示する。これにより、操作者PER1は、UAVカメラ画像57の表示を省略でき、送信機カメラ画像56の詳細(例えば無人航空機100の所在)を簡単な操作によって確認できる。
In FIG. 15A, it is assumed that a screen switching operation is input to the display TPD by the operator PER1 while the simultaneous display screen of the
図15Aにおいて、送信機カメラ画像56及びUAVカメラ画像57の同時表示画面が表示されている状態で操作者PER1により画面切替操作がディスプレイTPDに入力されたとする。同時表示画面では、UAVカメラ画像57が送信機カメラ画像56より小さく表示されていたとする。画面切替操作は、例えばUAVカメラ画像57のタッチ操作が該当する。表示端末80のプロセッサ81は、この画面切替操作に応じて、UAVカメラ画像57をディスプレイTPDに全画面表示する。これにより、操作者PER1は、送信機カメラ画像56の表示を省略でき、UAVカメラ画像57の詳細(例えば無人航空機100による空撮画像)を簡単な操作によって確認できる。
In FIG. 15A, it is assumed that a screen switching operation is input to the display TPD by the operator PER1 while the simultaneous display screen of the
図15Bにおいて、指示部の一例としてのアイコンTRB2が重畳されたUAVカメラ画像57の画面が表示されている状態で操作者PER1により画面切替操作がディスプレイTPDに入力されたとする。画面切替操作は、例えばアイコンTRB2の指定操作(例えばタッチ操作)が該当する。表示端末80のプロセッサ81は、この画面切替操作に応じて、送信機カメラ画像56とUAVカメラ画像57との同時表示画面をディスプレイTPDに表示する。これにより、操作者PER1は、送信機カメラ画像56に映る無人航空機100の行方を簡単な操作によって確認できつつ、無人航空機100の空撮画像も快適に閲覧できる。なお、図15Bでは、画面切替操作により、送信機カメラ画像56がUAVカメラ画像57より小さく表示される画面に遷移したが、UAVカメラ画像57が送信機カメラ画像56より小さく表示される画面に遷移してよい。
In FIG. 15B, it is assumed that a screen switching operation is input to the display TPD by the operator PER1 while the screen of the
図15Bにおいて、送信機カメラ画像56とUAVカメラ画像57との同時表示画面が表示されている状態で操作者PER1により画面切替操作がディスプレイTPDに入力されたとする。画面切替操作は、例えばUAVカメラ画像57のダブルタップ操作が該当する。表示端末80のプロセッサ81は、この画面切替操作に応じて、アイコンTRB2が重畳されたUAVカメラ画像57の画面をディスプレイTPDに表示する。これにより、操作者PER1は、無人航空機100による空撮画像を快適に閲覧でき、必要に応じて送信機カメラ画像56の画面に切替可能なアイコンTRB2の操作を行うことができる。なお、図15Bでは、画面切替操作がされる背景の画面は、送信機カメラ画像56がUAVカメラ画像57より小さく表示される画面を例示したが、UAVカメラ画像57が送信機カメラ画像56より小さく表示される画面を例示してよい。
In FIG. 15B, it is assumed that a screen switching operation is input to the display TPD by the operator PER1 while the simultaneous display screen of the
図16は、無人航空機100と送信機50と送信機カメラ55と表示端末80との間の画像出力の動作手順の一例を詳細に説明するシーケンス図である。図16の説明の前提として、無人航空機100は送信機50により遠隔制御ができる初期設定が予め行われている。
FIG. 16 is a sequence diagram illustrating in detail an example of an operation procedure of image output among the
図16において、送信機50の電源ボタンB1が操作者PER1の操作により押下されると、送信機50の電源がオン(ON)される(S1)。送信機50の電源ONに伴い、送信機カメラ55の電源もオン(ON)される(S1)。また、操作者PER1の操作により、表示端末80の電源がオン(ON)される(S2)。操作者PER1の操作により無人航空機100の電源もオン(ON)される(S3)。表示端末80の電源がオンされた後、操作者PER1の操作により、無人航空機100の遠隔制御に関するアプリケーションが起動する(S4)。
In FIG. 16, when the power button B1 of the
送信機カメラ55は、ステップS2において電源がオンされると撮像を開始し、操作者の操作により電源がオフ(OFF)されるまで撮像を継続する(S5)。送信機カメラ55は、撮像により得た撮像画像(送信機カメラ画像56)のデータを送信機50に出力する(S6)。
The
操作者PER1の操作により、例えば左制御棒53L及び右制御棒53Rを用いた無人航空機100の飛行操作が入力されたとする(S7)。送信機50は、無人航空機100の飛行開始の指示を含む遠隔制御用の信号を生成し、この信号を無線通信(例えばWifi(登録商標))により無人航空機100に送信する(S8)。無人航空機100は、送信機50から送信された信号を受信すると、上空への飛行を開始する(S9)。
It is assumed that a flight operation of the
操作者PER1の操作により、無人航空機100の撮像操作が入力されたとする(S10)。送信機50は、無人航空機100の撮像装置220,230による撮像開始の指示を含む遠隔制御用の信号を生成し、この信号を無線通信(例えばWifi(登録商標))により無人航空機100に送信する(S11)。無人航空機100は、送信機50から送信された信号を受信すると、撮像装置220,230による撮像を開始し(S12)、操作者PER1の操作により送信機50から撮像停止の指示を含む信号を受信するまで撮像を継続する(S12)。
It is assumed that the imaging operation of the
また、無人航空機100は、ステップS12において撮像を開始すると、例えばGPS受信機240、慣性計測装置250、磁気コンパス260及び気圧高度計270を用いて各種の情報を算出する。無人航空機100は、算出結果としてのUAV情報データと撮像により得た撮像画像(UAVカメラ画像57)のデータとを、無線通信(例えばWifi(登録商標))により送信機50に送信する(S13)。UAV情報データには、例えば無人航空機100の位置(座標)を示す位置情報が含まれる。
When the
送信機50は、送信機カメラ55から出力された送信機カメラ画像56のデータと、無人航空機100から送信されたUAVカメラ画像57のデータ及びUAV情報データとを出力する(S14)。ステップS14の処理は、送信機50、送信機カメラ55及び無人航空機100の電源がそれぞれオンされている間において継続される。
The
表示端末80は、送信機50から出力されてくる各種のデータを受領し(S15)、一定時間分、各種のデータを蓄積する(S16)。表示端末80は、ステップS16において蓄積した一定期間分の各種のデータを用いて、例えば上空を飛行している無人航空機100の移動方向を繰り返し算出する(S17)。
The
ここで、操作者PER1による表示指示操作が入力されると(S18)、表示端末80は、ディスプレイTPDへの表示用データ(例えば図10〜図13のうちいずれかに示す画面のデータ)を生成し(S19)、その表示用データをディスプレイTPDに表示する(S20)。
Here, when a display instruction operation by the operator PER1 is input (S18), the
以上により、本実施形態の送信機50は、ディスプレイTPDを有する表示端末80と接続され、無人航空機100を遠隔制御する。送信機50は、無人航空機100が移動する領域(例えば上空)を所定の画角で撮像する送信機カメラ55を備える。送信機50は、表示端末80に、送信機カメラ55により撮像された送信機カメラ画像56(第1撮像画像)をディスプレイTPDに出力して表示させる。
As described above, the
付記
1.表示部を有する表示端末と、前記表示端末と接続され、移動体を遠隔制御する操作端末と、を備え、前記操作端末は、所定の画角で撮像する撮像装置を有し、前記撮像装置により撮像された第1撮像画像を前記表示端末に出力し、前記表示端末は、前記操作端末からの前記第1撮像画像を前記表示部に出力する、画像出力システム。
2.前記操作端末は、前記移動体との通信により、前記移動体により撮像された第2撮像画像を受信して前記表示端末に出力し、前記表示端末は、前記操作端末からの前記第2撮像画像を前記表示部に出力する、条項1に記載の画像出力システム。
3.前記操作端末は、前記表示端末に、前記第1撮像画像と前記第2撮像画像とを前記表示部に同時に表示させる、条項2に記載の画像出力システム。
4.前記操作端末は、前記表示端末に、前記第1撮像画像を前記第2撮像画像より小さく前記表示部に表示させる、条項2に記載の画像出力システム。
5.前記操作端末は、前記表示端末に、前記第2撮像画像を前記第1撮像画像より小さく前記表示部に表示させる、条項3に記載の画像出力システム。
6.前記操作端末は、前記表示端末に、前記移動体の移動方向を示す目印を、前記第1撮像画像に重畳して前記表示部に表示させる、条項1又は2に記載の画像出力システム。
7.前記操作端末は、前記表示端末に、前記移動体の位置を示す目印を、前記第1撮像画像に重畳して前記表示部に表示させる、条項1又は2に記載の画像出力システム。
8.前記操作端末は、前記表示端末に、前記第2撮像画像を前記表示部に全画面表示させる、条項2に記載の画像出力システム。
9.前記操作端末は、前記表示端末に、前記第1撮像画像を前記表示部に全画面表示させる、条項1又は2に記載の画像出力システム。
10.前記操作端末は、前記表示端末に、前記第2撮像画像の全画面表示から前記第1撮像画像の全画面表示への切替可能な指示部を、前記第2撮像画像に重畳して前記表示部に表示させる、条項2に記載の画像出力システム。
11.前記操作端末は、前記表示端末に、前記第1撮像画像における前記移動体の周囲に前記移動体の存在を示す目印を前記表示部に表示させる、条項1又は2に記載の画像出力システム。
12.前記操作端末は、前記撮像装置の前記所定の画角外に前記移動体が移動した場合に、前記表示端末に、前記撮像装置から得られた前記移動体の移動方向を示す目印を、前記第1撮像画像に重畳して前記表示部に表示させる、条項6に記載の画像出力システム。
13.前記操作端末は、前記撮像装置の前記所定の画角外にいた前記移動体が前記所定の画角内に移動した場合に、前記表示端末に、前記撮像装置から得られた前記移動体の前記所定の画角内に進入する直前の移動方向を示す目印を、前記第1撮像画像に重畳して前記表示部に表示させる、条項6に記載の画像出力システム。
14.前記表示端末は、前記表示部への画面切替操作に応じて、前記第1撮像画像を前記表示部に全画面表示する、条項4に記載の画像出力システム。
15.前記表示端末は、前記表示部への画面切替操作に応じて、前記第2撮像画像を前記表示部に全画面表示する、条項4に記載の画像出力システム。
16.前記表示端末は、前記表示部への画面切替操作に応じて、前記第1撮像画像を前記表示部に全画面表示する、条項5に記載の画像出力システム。
17.前記表示端末は、前記表示部への画面切替操作に応じて、前記第2撮像画像を前記表示部に全画面表示する、条項5に記載の画像出力システム。
18.前記操作端末は、前記表示端末に、前記第1撮像画像と前記第2撮像画像との同時表示画面への切替可能な指示部を、前記第2撮像画像に重畳して前記表示部に表示させ、前記表示端末は、前記指示部の選択操作に応じて、前記第1撮像画像を前記第2撮像画像より小さく前記表示部に表示する、条項2に記載の画像出力システム。
19.前記表示端末は、前記表示部への画面切替操作に応じて、前記第1撮像画像と前記第2撮像画像との同時表示画面への切替可能な指示部を、前記第2撮像画像に重畳して前記表示部に表示する、条項2に記載の画像出力システム。
20.表示部と接続され、移動体を遠隔制御する操作端末における画像出力方法であって、前記操作端末が有する撮像装置により所定の画角で撮像する段階と、前記撮像装置により撮像された第1撮像画像を前記表示部に出力する段階と、を備える、画像出力方法。
21.前記移動体との通信により、前記移動体により撮像された第2撮像画像を受信する段階と、前記第2撮像画像を前記表示部に出力する段階と、を更に備える、条項20に記載の画像出力方法。
22.前記第1撮像画像と前記第2撮像画像とを前記表示部に同時に表示させる段階、を更に備える、条項21に記載の画像出力方法。
23.前記第1撮像画像を前記第2撮像画像より小さく前記表示部に表示させる段階、を更に備える、条項21に記載の画像出力方法。
24.前記第2撮像画像を前記第1撮像画像より小さく前記表示部に表示させる段階、を更に備える、条項21に記載の画像出力方法。
25.前記移動体の移動方向を示す目印を、前記第1撮像画像に重畳して前記表示部に表示させる段階と、を更に備える、条項20又は21に記載の画像出力方法。
26.前記移動体の位置を示す目印を、前記第1撮像画像に重畳して前記表示部に表示させる段階と、を更に備える、条項20又は21に記載の画像出力方法。
27.前記第2撮像画像を前記表示部に全画面表示させる段階、を更に備える、条項21に記載の画像出力方法。
28.前記第1撮像画像を前記表示部に全画面表示させる段階、を更に備える、条項20又は21に記載の画像出力方法。
29.前記第2撮像画像の全画面表示から前記第1撮像画像の全画面表示への切替可能な指示部を、前記第2撮像画像に重畳して前記表示部に表示させる段階、を更に備える、条項21に記載の画像出力方法。
30.移動体を遠隔制御する操作端末と接続され、表示部を有するコンピュータである表示端末に、前記操作端末が有する撮像装置により撮像された第1撮像画像を取得する処理と、取得された前記第1撮像画像を前記表示部に出力する処理と、を実行させるための、プログラム。
31.前記移動体により撮像された第2撮像画像を取得する処理と、取得された前記第2撮像画像を前記表示部に出力する処理と、を更に実行させるための、条項30に記載のプログラム。
32.前記第1撮像画像と前記第2撮像画像とを同時に前記表示部に表示する処理、を更に実行させるための、条項31に記載のプログラム。
33.前記第1撮像画像を前記第2撮像画像より小さく前記表示部に表示する処理、を更に実行させるための、条項31に記載のプログラム。
34.前記第2撮像画像を前記第1撮像画像より小さく前記表示部に表示する処理、を更に実行させるための、条項31に記載のプログラム。
35.前記移動体の移動方向を示す目印を、前記第1撮像画像に重畳して前記表示部に表示する処理、を更に実行させるための、条項30又は31に記載のプログラム。
36.前記移動体の位置情報を示す目印を、前記第1撮像画像に重畳して前記表示部に表示する処理、を更に実行させるための、条項31に記載のプログラム。
37.前記第2撮像画像を前記表示部に全画面表示する処理、を更に実行させるための、条項31に記載のプログラム。
38.前記第1撮像画像を前記表示部に全画面表示する処理、を更に実行させるための、条項30又は31に記載のプログラム。
39.前記第2撮像画像の全画面表示から前記第1撮像画像の全画面表示への切替可能な指示部を、前記第2撮像画像に重畳して前記表示部に表示する処理、を更に実行させるための、条項31に記載のプログラム。
40.前記第1撮像画像における前記移動体の周囲に前記移動体の存在を示す目印を前記表示部に表示する処理、を更に実行させるための、条項31に記載のプログラム。
41.前記撮像装置の所定の画角外に前記移動体が移動した場合に、前記移動体の移動方向を示す目印を、前記第1撮像画像に重畳して前記表示部に表示する処理、を更に実行させるための、条項35に記載のプログラム。
42.前記撮像装置の所定の画角外にいた前記移動体が前記所定の画角内に移動した場合に、前記移動体の前記所定の画角内に進入する直前の移動方向を示す目印を、前記第1撮像画像に重畳して前記表示部に表示する処理、を更に実行させるための、条項35に記載のプログラム。
43.前記表示部への画面切替操作に応じて、前記第1撮像画像を前記表示部に全画面表示する処理、を更に実行させるための、条項33に記載のプログラム。
44.前記表示部への画面切替操作に応じて、前記第2撮像画像を前記表示部に全画面表示する処理、を更に実行させるための、条項33に記載のプログラム。
45.前記表示部への画面切替操作に応じて、前記第1撮像画像を前記表示部に全画面表示する処理、を更に実行させるための、条項34に記載のプログラム。
46.前記表示部への画面切替操作に応じて、前記第2撮像画像を前記表示部に全画面表示する処理、を更に実行させるための、条項34に記載のプログラム。
47.前記第1撮像画像と前記第2撮像画像との同時表示画面への切替可能な指示部を、前記第2撮像画像に重畳して前記表示部に表示する処理と、前記指示部の選択操作に応じて、前記第1撮像画像を前記第2撮像画像より小さく前記表示部に表示する処理と、を更に実行させるための、条項31に記載のプログラム。
48.前記表示部への画面切替操作に応じて、前記第1撮像画像と前記第2撮像画像との同時表示画面への切替可能な指示部を、前記第2撮像画像に重畳して前記表示部に表示する処理、を更に実行させるための、条項31に記載のプログラム。
49.条項31〜48のうちいずれか一項に記載のプログラムが記録された、記録媒体。
2. The operation terminal receives a second captured image captured by the mobile body through communication with the mobile body and outputs the second captured image to the display terminal. The display terminal receives the second captured image from the operation terminal. The image output system according to
3. The image output system according to
4). The image output system according to
5. The image output system according to clause 3, wherein the operation terminal causes the display terminal to display the second captured image smaller than the first captured image on the display unit.
6). The image output system according to
7). The image output system according to
8). The image output system according to
9. The image output system according to
10. The operation terminal superimposes, on the display terminal, an instruction unit capable of switching from full screen display of the second captured image to full screen display of the first captured image on the second captured image. The image output system according to
11. The image output system according to
12 When the moving body moves outside the predetermined angle of view of the imaging device, the operation terminal displays a mark indicating a moving direction of the moving body obtained from the imaging device on the display terminal. 7. The image output system according to
13. The operation terminal is configured such that when the moving body that is outside the predetermined angle of view of the imaging device moves within the predetermined angle of view, the display terminal is connected to the moving body obtained from the imaging device. 7. The image output system according to
14 The image output system according to
15. 5. The image output system according to
16. 6. The image output system according to clause 5, wherein the display terminal displays the first captured image in full screen on the display unit in response to a screen switching operation to the display unit.
17. 6. The image output system according to clause 5, wherein the display terminal displays the second captured image in full screen on the display unit in response to a screen switching operation to the display unit.
18. The operation terminal causes the display terminal to display an instruction unit capable of switching to the simultaneous display screen of the first captured image and the second captured image superimposed on the second captured image on the display unit. The image output system according to
19. The display terminal superimposes on the second captured image an instruction unit capable of switching to the simultaneous display screen of the first captured image and the second captured image in response to a screen switching operation to the display unit. The image output system according to
20. An image output method in an operation terminal that is connected to a display unit and remotely controls a moving body, wherein an image is captured at a predetermined angle of view by an imaging device included in the operation terminal, and a first image captured by the imaging device Outputting an image to the display unit.
21. 21. The image according to clause 20, further comprising: receiving a second captured image captured by the mobile body through communication with the mobile body; and outputting the second captured image to the display unit. output method.
22. The image output method according to clause 21, further comprising the step of simultaneously displaying the first captured image and the second captured image on the display unit.
23. The image output method according to clause 21, further comprising: displaying the first captured image smaller than the second captured image on the display unit.
24. The image output method according to clause 21, further comprising the step of displaying the second captured image smaller than the first captured image on the display unit.
25. The image output method according to clause 20 or 21, further comprising a step of superimposing a mark indicating a moving direction of the moving body on the first captured image and displaying the mark on the display unit.
26. The image output method according to clause 20 or 21, further comprising: displaying a mark indicating the position of the moving body on the display unit so as to be superimposed on the first captured image.
27. The image output method according to Clause 21, further comprising: displaying the second captured image on the display unit in a full screen.
28. The image output method according to clause 20 or 21, further comprising: displaying the first captured image on the display unit on a full screen.
29. An instruction unit capable of switching from full-screen display of the second captured image to full-screen display of the first captured image is superimposed on the second captured image and displayed on the display unit. 22. The image output method according to item 21.
30. A process of acquiring a first captured image captured by an imaging device included in the operation terminal on a display terminal that is connected to an operation terminal that remotely controls the moving body and has a display unit, and the acquired first A program for executing a process of outputting a captured image to the display unit.
31. The program according to clause 30, further executing a process of acquiring a second captured image captured by the moving body and a process of outputting the acquired second captured image to the display unit.
32. 32. The program according to clause 31, for further executing a process of simultaneously displaying the first captured image and the second captured image on the display unit.
33. The program according to clause 31, further executing a process of displaying the first captured image smaller than the second captured image on the display unit.
34. 32. The program according to clause 31, for further executing a process of displaying the second captured image smaller than the first captured image on the display unit.
35. 32. The program according to clause 30 or 31, further executing a process of displaying a mark indicating a moving direction of the moving body on the display unit so as to be superimposed on the first captured image.
36. 32. The program according to clause 31, further executing a process of displaying a mark indicating the position information of the moving body on the display unit so as to be superimposed on the first captured image.
37. 32. The program according to clause 31, for further executing a process of displaying the second captured image on the display unit on a full screen.
38. 32. The program according to clause 30 or 31, further executing a process of displaying the first captured image on the display unit on a full screen.
39. In order to further execute a process of superimposing on the second captured image a display unit capable of switching from full screen display of the second captured image to full screen display of the first captured image on the display unit The program according to clause 31.
40. 32. The program according to clause 31, further executing a process of displaying a mark indicating the presence of the moving object on the display unit around the moving object in the first captured image.
41. When the moving body moves out of a predetermined angle of view of the imaging device, a process of superimposing a mark indicating the moving direction of the moving body on the first captured image and displaying it on the display unit is further executed. A program according to Clause 35 for causing
42. When the moving body that has been outside the predetermined angle of view of the imaging device has moved within the predetermined angle of view, a mark indicating the moving direction of the moving body immediately before entering the predetermined angle of view is The program according to Clause 35, for further executing a process of superimposing the first captured image on the display unit and displaying the image on the display unit.
43. 34. The program according to clause 33, further executing a process of displaying the first captured image on the display unit on a full screen in response to a screen switching operation on the display unit.
44. The program according to clause 33, further causing a process of displaying the second captured image on the display unit in a full screen in response to a screen switching operation on the display unit.
45. 35. The program according to clause 34, further executing a process of displaying the first captured image on the display unit on a full screen in response to a screen switching operation on the display unit.
46. The program according to clause 34, further causing a process of displaying the second captured image on the display unit in a full screen in response to a screen switching operation on the display unit.
47. An instruction unit that can switch to the simultaneous display screen of the first captured image and the second captured image is superimposed on the second captured image and displayed on the display unit, and a selection operation of the instruction unit In response, the program according to clause 31, further executing a process of displaying the first captured image smaller than the second captured image on the display unit.
48. In response to a screen switching operation to the display unit, an instruction unit capable of switching to the simultaneous display screen of the first captured image and the second captured image is superimposed on the second captured image on the display unit. The program according to clause 31, for further executing a process of displaying.
49. 50. A recording medium on which the program according to any one of clauses 31 to 48 is recorded.
以上、本発明を実施形態を用いて説明したが、本発明の技術的範囲は上述した実施形態に記載の範囲には限定されない。上述した実施形態に、多様な変更又は改良を加えることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載からも明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in embodiment mentioned above. It will be apparent to those skilled in the art that various modifications and improvements can be made to the embodiment described above. It is also apparent from the scope of the claims that the embodiment added with such changes or improvements can be included in the technical scope of the present invention.
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず、」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each process such as operation, procedure, step, and stage in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. ”And the like, and can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. is not.
50 送信機
50B 筐体
53L 左制御棒
53R 右制御棒
55 送信機カメラ
55A レンズユニット
55B イメージセンサ
55C 信号処理部
56 送信機カメラ画像
57 UAVカメラ画像
61 送信機制御部
63、85 無線通信部
65 送信機側USBインタフェース部
67 カメラインタフェース部
80 表示端末
80T タブレット端末
80S スマートフォン
81 プロセッサ
83 端末側USBインタフェース部
87、160 メモリ
89、240 GPS受信機
100 無人航空機
102 UAV本体
150 通信インタフェース
200 ジンバル
210 回転翼機構
220、230 撮像装置
250 慣性計測装置
260 磁気コンパス
270 気圧高度計
AN1、AN2 アンテナ
HLD ホルダ
OPS 操作部セット
OP1 操作部1
OPn 操作部n
TPD ディスプレイ
50
OPn Operation unit n
TPD display
Claims (15)
前記移動体が移動する領域を含む領域を所定の画角で撮像する撮像装置と、
前記撮像装置により撮像された第1撮像画像を前記表示部に出力し、かつ前記所定の画角から前記移動体が外れたことを検知すると前記移動体が外れた方向を示す目印を前記第1撮像画像に表示する制御部と、を備える、
操作端末。 An operation terminal connected to a display unit and remotely controlling a moving object,
An imaging device for imaging an area including an area in which the moving body moves at a predetermined angle of view;
When the first picked-up image picked up by the image pickup device is output to the display unit and when it is detected that the moving body has deviated from the predetermined angle of view, a mark indicating the direction in which the moving body has deviated is displayed. A control unit that displays the captured image ,
Operation terminal.
前記制御部は、前記所定の画角から前記移動体が外れたことを検知すると、前記バイブレータを振動させる動作、及び、前記光源を点滅させる動作のうち、前記バイブレータ及び光源に対応する少なくとも1つの動作を実行する、When the control unit detects that the moving body has deviated from the predetermined angle of view, at least one of the operation for vibrating the vibrator and the operation for blinking the light source corresponds to the vibrator and the light source. Perform actions,
請求項1に記載の操作端末。The operation terminal according to claim 1.
前記制御部は、前記第2撮像画像を前記表示部に出力する、
請求項1又は2に記載の操作端末。 A wireless communication unit that receives a second captured image captured by the mobile body through communication with the mobile body;
The control unit outputs the second captured image to the display unit.
The operation terminal according to claim 1 or 2 .
請求項3に記載の操作端末。 The control unit causes the display unit to simultaneously display the first captured image and the second captured image.
The operation terminal according to claim 3 .
請求項3に記載の操作端末。 The control unit causes the display unit to display the first captured image smaller than the second captured image.
The operation terminal according to claim 3 .
請求項3に記載の操作端末。 The control unit causes the display unit to display the second captured image smaller than the first captured image.
The operation terminal according to claim 3 .
請求項1又は2に記載の操作端末。 The control unit causes a mark indicating the moving direction of the moving body to be superimposed on the first captured image and displayed on the display unit.
The operation terminal according to claim 1 or 2 .
請求項3に記載の操作端末。 The control unit causes a mark indicating the position of the moving body to be superimposed on the first captured image and displayed on the display unit.
The operation terminal according to claim 3 .
請求項3に記載の操作端末。 The control unit causes the display unit to display the second captured image on a full screen;
The operation terminal according to claim 3 .
請求項3に記載の操作端末。 The control unit displays the first captured image on the display unit in a full screen.
The operation terminal according to claim 3 .
請求項10に記載の操作端末。 The control unit causes the display unit to display an instruction unit that can be switched from full screen display of the second captured image to full screen display of the first captured image on the second captured image.
The operation terminal according to claim 10 .
前記撮像装置は、前記保持部の一端に設けられた接続部を介して挿抜自在に取り付けられる、
請求項1又は2に記載の操作端末。 A holding unit capable of holding a display terminal having the display unit;
The imaging device is detachably attached via a connection portion provided at one end of the holding portion.
The operation terminal according to claim 1 or 2 .
前記撮像装置は、前記保持部の一端に固定して配置される、
請求項1又は2に記載の操作端末。 A holding unit capable of holding a display terminal having the display unit;
The imaging device is fixedly disposed at one end of the holding unit.
The operation terminal according to claim 1 or 2 .
請求項1又は2に記載の操作端末。 The imaging device is fixedly disposed on a casing of the operation terminal.
The operation terminal according to claim 1 or 2 .
移動体。 It moves based on a remote control instruction transmitted from the operation terminal according to claim 1 or 2 .
Moving body.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016163248A JP6329219B2 (en) | 2016-08-24 | 2016-08-24 | Operation terminal and moving body |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016163248A JP6329219B2 (en) | 2016-08-24 | 2016-08-24 | Operation terminal and moving body |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018032958A JP2018032958A (en) | 2018-03-01 |
JP6329219B2 true JP6329219B2 (en) | 2018-05-23 |
Family
ID=61304976
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016163248A Expired - Fee Related JP6329219B2 (en) | 2016-08-24 | 2016-08-24 | Operation terminal and moving body |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6329219B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7161304B2 (en) * | 2018-03-30 | 2022-10-26 | 大和ハウス工業株式会社 | localization system |
WO2020014927A1 (en) * | 2018-07-19 | 2020-01-23 | 深圳市大疆创新科技有限公司 | Remote control, gimbal head, unmanned aerial vehicle and photographing control method |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011169658A (en) * | 2010-02-17 | 2011-09-01 | Mitsubishi Electric Corp | Device and method for pinpointing photographed position |
JP2014063411A (en) * | 2012-09-24 | 2014-04-10 | Casio Comput Co Ltd | Remote control system, control method, and program |
JP6085153B2 (en) * | 2012-11-26 | 2017-02-22 | 日立Geニュークリア・エナジー株式会社 | Indoor survey system |
CN103426282A (en) * | 2013-07-31 | 2013-12-04 | 深圳市大疆创新科技有限公司 | Remote control method and terminal |
JP6693765B2 (en) * | 2016-02-26 | 2020-05-13 | 株式会社トプコン | Flight object tracking method and flight object guidance system |
-
2016
- 2016-08-24 JP JP2016163248A patent/JP6329219B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2018032958A (en) | 2018-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11377211B2 (en) | Flight path generation method, flight path generation system, flight vehicle, program, and storage medium | |
JP6878567B2 (en) | 3D shape estimation methods, flying objects, mobile platforms, programs and recording media | |
US20190318636A1 (en) | Flight route display method, mobile platform, flight system, recording medium and program | |
JP6765512B2 (en) | Flight path generation method, information processing device, flight path generation system, program and recording medium | |
US11122209B2 (en) | Three-dimensional shape estimation method, three-dimensional shape estimation system, flying object, program and recording medium | |
US11513514B2 (en) | Location processing device, flight vehicle, location processing system, flight system, location processing method, flight control method, program and recording medium | |
US11082639B2 (en) | Image display method, image display system, flying object, program, and recording medium | |
WO2020048365A1 (en) | Flight control method and device for aircraft, and terminal device and flight control system | |
WO2019230604A1 (en) | Inspection system | |
JP6329219B2 (en) | Operation terminal and moving body | |
JP7435599B2 (en) | Information processing device, information processing method, and program | |
JP2020036163A (en) | Information processing apparatus, photographing control method, program, and recording medium | |
JP6921026B2 (en) | Transmitters, flying objects, flight control instruction methods, flight control methods, programs, and storage media | |
JP7081198B2 (en) | Shooting system and shooting control device | |
JP6997170B2 (en) | Shape generation method, image acquisition method, mobile platform, flying object, program and recording medium | |
JPWO2018138882A1 (en) | Aircraft, motion control method, motion control system, program, and recording medium | |
WO2018188086A1 (en) | Unmanned aerial vehicle and control method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180309 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180403 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180419 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6329219 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |