JP2017139582A - Movement control system - Google Patents
Movement control system Download PDFInfo
- Publication number
- JP2017139582A JP2017139582A JP2016018367A JP2016018367A JP2017139582A JP 2017139582 A JP2017139582 A JP 2017139582A JP 2016018367 A JP2016018367 A JP 2016018367A JP 2016018367 A JP2016018367 A JP 2016018367A JP 2017139582 A JP2017139582 A JP 2017139582A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- movement
- touch
- pinch
- touch operation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 85
- 238000000034 method Methods 0.000 description 44
- 230000008569 process Effects 0.000 description 35
- 238000012545 processing Methods 0.000 description 30
- 230000003287 optical effect Effects 0.000 description 19
- 238000004891 communication Methods 0.000 description 12
- 230000008859 change Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- CNQCVBJFEGMYDW-UHFFFAOYSA-N lawrencium atom Chemical compound [Lr] CNQCVBJFEGMYDW-UHFFFAOYSA-N 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 230000001276 controlling effect Effects 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- KNMAVSAGTYIFJF-UHFFFAOYSA-N 1-[2-[(2-hydroxy-3-phenoxypropyl)amino]ethylamino]-3-phenoxypropan-2-ol;dihydrochloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC=C1 KNMAVSAGTYIFJF-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、ドローン等の移動装置に撮像装置を有するものの移動制御システムに関し、特にタッチパネル等の操作により撮像装置の移動を行うものに関する。 The present invention relates to a movement control system for an apparatus having an imaging device in a moving device such as a drone, and more particularly to a device for moving the imaging device by operating a touch panel or the like.
近年、ドローンと呼ばれる無線操作に応じて移動可能な飛行装置に撮像装置を有するものがあり、その操作のために一般的には専用の操作端末が用意されている。操作端末には、タッチパネルを利用して操作することが可能なものも存在するが、専用操作端末の動作を単純に置き換えたUIによるものが多く、直観的な操作ができず自由に操作するには操作への習熟を必要とする。また、タッチパネルによる撮像装置の操作という観点では、一般的に監視カメラの分野において直観的な操作を実現する従来技術が存在する。 In recent years, some flying devices called drones have an imaging device that can move according to wireless operation, and a dedicated operation terminal is generally prepared for the operation. Some operation terminals can be operated using a touch panel, but there are many UIs that simply replace the operation of the dedicated operation terminal, so that intuitive operation is not possible and the user can operate freely. Requires proficiency in operation. Further, from the viewpoint of operation of the image pickup apparatus using a touch panel, there is a conventional technique that realizes an intuitive operation in the field of surveillance cameras.
特許文献1では、スマートフォンやタブレット等のタッチパネル操作で一般的なピンチイン、ピンチアウトの操作を、監視カメラのズーム動作に対応させる操作方法の発明が開示されている。これは操作者が普段からタッチパネルで行っている操作から直観的に推測できる結果と、監視カメラの動作で類似の結果が起こる処理とを関連付けている。
特許文献1では、備え付けの監視カメラに関してタッチパネル操作による撮影方向の変更及びズームの制御について開示されている。しかし、ドローン等に搭載されているような撮像装置の位置移動をタッチパネル操作によって行う構成は考えられていない。 Japanese Patent Application Laid-Open No. H10-228561 discloses a change in shooting direction and a zoom control by a touch panel operation with respect to a provided monitoring camera. However, a configuration for moving the position of the imaging apparatus mounted on a drone or the like by touch panel operation is not considered.
そこで、本発明の目的は、ドローン等の移動装置に搭載されて位置移動が可能な撮像装置を、タッチパネル機能のある操作端末で操作する場合に、その移動を直観的にわかりやすく行える移動制御システムを提供することである。 Therefore, an object of the present invention is to provide a movement control system that can intuitively and easily understand the movement of an imaging device mounted on a moving device such as a drone and capable of moving its position with an operation terminal having a touch panel function. Is to provide.
上記の目的を達成するために、本発明における移動制御システムは、外部装置からの指示に応じて位置移動が可能な移動装置と、前記移動装置の移動を指示する操作装置とからなる移動制御システムであって、前記移動装置は、被写体を撮像する撮像手段を保持して移動し、前記操作装置は、前記撮像手段で撮像している画像を表示する表示手段と、タッチ操作を検出するタッチ操作手段と、前記タッチ操作手段により検出されたタッチ操作がピンチアウト操作である場合に、撮像方向に対する前進方向への移動を前記移動装置へ指示する指示手段とを有することを特徴とする。 In order to achieve the above object, a movement control system according to the present invention is a movement control system comprising a moving device capable of moving a position in accordance with an instruction from an external device and an operating device for instructing the movement of the moving device. The moving device holds and moves an imaging unit that captures an image of the subject, and the operation device includes a display unit that displays an image captured by the imaging unit, and a touch operation that detects a touch operation. And means for instructing the moving device to move in the forward direction relative to the imaging direction when the touch operation detected by the touch operation means is a pinch-out operation.
本発明によれば、ドローン等に搭載されて位置移動が可能な撮像装置をタッチパネル機能のある操作端末で操作する場合に、その移動を直観的にわかりやすく行えるようになる。 According to the present invention, when an imaging device mounted on a drone or the like and capable of position movement is operated with an operation terminal having a touch panel function, the movement can be intuitively and easily understood.
以下図面を参照しながら、本発明の実施の形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(第1の実施形態)
図1は、本発明の第1の実施形態に係る移動制御システムの構成例を示すブロック図である。図1において、100は移動装置、200は操作装置(操作端末)を示す。移動装置100と操作装置200とを有して移動制御システムは構成される。
(First embodiment)
FIG. 1 is a block diagram showing a configuration example of a mobility control system according to the first embodiment of the present invention. In FIG. 1,
118は撮像装置であり、移動装置100に保持部材によって保持される。撮像装置118は、移動装置100に対して取り外し可能な構成であっても良いし、一体的に固定された構成であっても良い。
撮像光学系101は外部の光を撮像素子103へ集光するレンズ群、及びレンズ群を操作、固定するためのメカ機構で構成される。撮像光学系操作部102は、撮像光学系101のメカ機構を操作する電気機構であり、CPU106からの操作指令により撮像光学系101の内部のメカ機構を操作する電気信号を出力する。撮像素子103は、撮像光学系101より取り入れた光を結像し、結像された像を電気情報に変換する。また撮像素子103は像面位相差方式による距離検出のための情報を取得する構成とすることが可能である。撮像信号処理部104は撮像素子103から得られた画像情報を成形するとともに、撮像素子103から得られる像面位相差情報から、撮像装置から撮像素子103の各撮像画素に結像している光源物体までの距離を算出することができる。すなわち撮像された画像の任意の局所的な部分に関して、撮像装置からどれだけの距離を以て撮像されたかが算出され、その情報を必要に応じて記録、利用することができる。算出可能な原理としては、例えば、従来から広く使用されている瞳分割による位相差AFの方式の応用である。各画素単位で右目画像用情報、左目画像用情報を得られる2つのフォトダイオードを備えた構造を撮像素子103が有していることから位相差AF方式での距離情報検出が可能となっているものとする。
The imaging
CPU105は撮像装置118を含む移動装置100の処理の全体統括を行う。ROM106には移動装置100の処理プログラム、処理に必要な情報が予め保持されており、CPU105はこのROM106に保持された処理プログラムに基づいて動作する。RAM107は処理中の一時的なデータ保持の役割を担っている。
The
被写体認識部108は撮像信号処理部104で処理された画像情報から特定の物体を認識し、その物体の範囲などの情報を出力することができる。具体的には、予め登録されている物体情報、例えば人物の人体、顔等の検出を行うことができる。事前に登録した顔の情報などがあれば特定の人物を検出することもできる。メモリスロット109は記録データをメモリカード110に読み書きするためのインタフェースである。メモリカード110はメモリスロット109を通じて画像情報を記録されるものである。
The subject recognition unit 108 can recognize a specific object from the image information processed by the imaging
駆動部111は移動装置100の自律的な位置移動を可能にするための機構部分であり、本実施例においては具体的には4つのモータとモータ軸にとりつけられたプロペラを備えている。CPU105から総合的に判断された移動命令により4つのプロペラを適切に回転駆動させ、位置の移動、姿勢変化、方向回転などの動作を行うことができる。方位検知センサ112は移動装置100が東西南北どちらを向いているかを検出できる。GPS113は現在の位置をGPS信号を受信し処理することで特定することができる。加速度センサ114は移動装置100にかかる3次元方向の加速度を検出することができ、加速中の加速度や落下状況などを検出することができる。ジャイロ115は3次元の3軸方向に関する回転量を検出することができる。移動装置100は方位検知センサ112〜ジャイロ115の構成から得られる情報を総合的に処理して、現在の位置、加速度状態、回転状態などを算出することができる。通信部116は操作端末200内と通信部206との無線通信を介して、操作端末200との指令のやり取り、画像情報、位置の情報等、必要な情報を送受信することができる。
The drive unit 111 is a mechanism part that enables the
撮像光学系102、及び撮像信号処理部104〜通信部116はバス117を介して指令、情報のやり取りが可能である。
The imaging
CPU201は操作端末200の処理の全体統括を行う。ROM202には操作端末200の処理プログラム、処理に必要な情報が予め保持されており、CPU201はこのROM202に保持された処理プログラムに基づいて動作する。RAM203は処理中の一時的なデータ保持の役割を担っている。
The
LCD表示部204は、後述する通信部206を介して受信した撮像装置118で撮像している画像や映像を表示したり、タッチ操作部205のための操作部材を表示することが可能である。
The
タッチ操作部205はユーザからの操作・指示を受け付けるためのインターフェースである。CPU201はタッチ操作部205への以下の操作パターン・状態を検出できる。
・タッチ操作部を指やペンで触れたこと(以下、タッチダウンと称する)。
・タッチ操作部を指やペンで触れている状態であること(以下、タッチオンと称する)。
・タッチ操作部を指やペンで触れたまま移動していること(以下、ムーブと称する)。
・タッチ操作部へ触れていた指やペンを離したこと(以下、タッチアップと称する)。
・タッチ操作部に何も触れていない状態(以下、タッチオフと称する)。
The
-Touching the touch operation unit with a finger or a pen (hereinafter referred to as touchdown).
The touch operation unit is touched with a finger or a pen (hereinafter referred to as touch-on).
-The touch operation unit is moved while being touched with a finger or a pen (hereinafter referred to as a move).
-A finger or pen that has been touching the touch operation unit is released (hereinafter referred to as touch-up).
A state where nothing touches the touch operation unit (hereinafter referred to as touch-off).
これらの操作や、タッチ操作部205に指やペンが触れているタッチ位置座標は非図示の内部バスを通じてCPU201に通知され、CPU201は通知された情報に基づいてタッチ操作部205にどのような操作が行なわれたかを判定する。
These operations and the touch position coordinates at which the finger or pen is touching the
ムーブについてはタッチ操作部205を移動する指やペンの移動方向についても、位置座標の変化に基づいて垂直成分・水平成分毎に判定できる。またタッチ操作部205をタッチダウンから一定のムーブを経てタッチアップをしたとき、ストロークを描いたこととする。ムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。素早くドラッグを行い最後に指を弾くように離す操作を、フリックと判定するものとする。
Regarding the move, the moving direction of the finger or pen moving the
また、タッチ操作部205に対する2箇所の同時タッチ(マルチタッチ)が行われていることも検出できる。マルチタッチの検出を利用して、図3(a)のように、指などでタッチパネルの2箇所に触れた状態のまま、タッチされている2点間の距離が離れるようにムーブしていること(以下、ピンチアウトと称する)も判別できる。また、逆に、図3(b)のように、タッチされている2点間の距離が近づくようにムーブしていること(以下、ピンチインと称する)も判別できる。なお、ピンチインとピンチアウトを総称してピンチ操作と称するものとする。
It can also be detected that two touches (multi-touch) are simultaneously performed on the
また、タッチ操作部205は、LCD表示部204に操作部材を表示した上で、操作部材に対応する個別操作を受け付けることも可能である。通信部206は移動装置100内の通信部116との通信を介して、移動装置100との指令のやり取り、画像情報、位置の情報等、必要な情報を送受信することができる。
The
図2は、本発明の第1の実施形態に係る操作端末の処理を示すフローチャートである。図2のフローチャートは、操作端末200の各処理ブロックを制御し実行される処理手順を図示したものであり、ROM202に格納されているプログラムをRAM203に展開し、CPU201が実行することにより実現される。
FIG. 2 is a flowchart showing processing of the operation terminal according to the first embodiment of the present invention. The flowchart of FIG. 2 illustrates a processing procedure executed by controlling each processing block of the
まず始めにステップS201においてタッチ操作部205へのタッチ操作があるか否かを判定している。タッチ操作がない場合は、ステップS201を繰り返し、タッチ操作があるまで待機する。このとき移動装置100は、空中の1点で停止(ホバリング)し、撮像装置118で撮影されている映像が通信部116、通信部206を介して、操作端末200のLCD表示部204にリアルタイムで表示されているものとする。また本実施例では、図12(d)のように撮像装置118の光軸方向と、移動装置100の駆動部111で規定される移動軸方向が一致しているものとする。タッチ操作がある場合、ステップS202に進む。ステップS202では行われたタッチ操作の操作パターンが、ピンチ操作であるかどうかを判定する。ステップS202では行われたタッチ操作がピンチ操作であればステップS203に進み、そうでなければステップS209に進む。
First, in step S201, it is determined whether or not there is a touch operation on the
ステップS203ではタッチ中心点がタッチパネル中央領域の内部に入っているか否かを判定する。この判定について図4に基づいて、詳細に説明する。図4(a)はタッチパネル上でのタッチパネル中央領域を説明する図である。タッチパネル枠402はタッチ操作部205の操作可能な領域の大きさを示している。説明のためタッチパネル枠402の中心点を元にxy座標を設定している。タッチパネル枠402の中心を基準としてタッチパネル枠402より小さな領域としてタッチパネル中央領域401を設定している。図4(b)(c)の2つの例からステップS203の処理の分岐を説明する。図4(b)において指領域403、404はそれぞれピンチ操作のために最初にタッチされた2つの指の接地領域(ピンチ操作の開始点)を示している。指領域403、404それぞれの重心位置を求め、その2つの重心位置の中間点をタッチ中心点405として定義している。図4(b)の場合タッチ中心点405がタッチパネル中央領域401の中に入っているので、ステップS203においてはステップS204に進む分岐となる。反対の場合として図4(c)では、同様に求めたタッチ中心点408が、タッチパネル中央領域401の外に存在するので、ステップS203においてはステップS205に進む分岐となる。ステップS204、S205における移動装置100への移動指令での移動軸の方向の決定方法について、図5、図6に基づいて、詳細に説明する。
In step S203, it is determined whether or not the touch center point is inside the touch panel center region. This determination will be described in detail with reference to FIG. FIG. 4A is a diagram for explaining a central area of the touch panel on the touch panel. A
図5は、本発明の第1の実施形態に係るピンチアウトの位置による移動方向の決定について示す図である。図5(a)におけるタッチパネル中央領域401、タッチパネル枠402、指領域406、407、タッチ中心点408は図4(c)と同様のものである。図5(a)では、図4のxy軸に加えて説明のためにz軸も追加している。図5(a)では、タッチパネル枠402に対して3次元的に距離Lだけ離れた位置の平面枠を仮想し、この枠を仮想前方枠502とする。距離Lは予め設定されている値で、操作端末200内のROM202に格納されている値とする。手501で示すように実際にタッチしている平面はタッチパネル枠402の位置である。指領域406、407、タッチ中心点408を仮想前方枠502に射影させたものを指領域503、504、タッチ中心点505とする。
FIG. 5 is a diagram illustrating determination of the moving direction based on the pinch-out position according to the first embodiment of the present invention. The touch
図5(a)はタッチパネル枠502の距離L前方に仮想枠を設定しているが、それに対し距離L後方に仮想枠を設定しているのが図6であり、この仮想枠を仮想後方枠606とする。指領域406、407、タッチ中心点408を仮想後方枠606に射影させたものを指領域601、602、タッチ中心点603とする。
In FIG. 5A, a virtual frame is set in front of the distance L of the
ステップS204で移動軸を光軸方向に決定するが、この方向は図5(a)におけるz軸の方向である。もし前進する場合は図5(a)の方向506で定義する方向が移動装置100の進行方向となる。もし後進する場合は図6の方向604で定義する方向が移動装置100の進行方向となる。
In step S204, the movement axis is determined in the optical axis direction, and this direction is the direction of the z axis in FIG. If the vehicle moves forward, the direction defined by the
ステップS205で決定する移動軸は、前進の場合、タッチパネル枠402の中心からタッチ中心点505へ向けた方向507が移動軸となる。これをxz平面、yz平面への射影として示したものが図5(b)、(c)となる。タッチ中心点408,505のxy座標を(x1、y1)とすると、図5(b)のxz平面上では原点から(x、z)=(x1、L)へ引いた直線のなす角度θ1で定義できる。図5(c)のyz平面上では(x、z)=(y1、L)へ引いた直線のなす角度θ2で定義できる。
In the case of forward movement, the movement axis determined in step S205 is a movement axis in a
もし後進の場合、図6においてタッチパネル枠402の中心からタッチ中心点603へ向けた方向605が移動軸となる。このように移動装置100の移動軸を決定した後にステップS206に進む。
In the case of reverse travel, a
ステップS206では、タッチ操作の操作方向からなされたタッチ操作ピンチアウトか否かを判定する。もしピンチアウトである場合、ステップS207に移り、移動方向を移動軸の前進方向にする。この場合、もしステップS204を通過していたならば方向506の方向に、ステップS205を通過していたならば方向507の方向が移動方向として決定される。もしピンチインである場合、ステップS208に移り、移動方向を移動軸の後進方向にする。この場合、もしステップS204を通過していたならば方向604の方向に、ステップS205を通過していたならば方向605の方向が移動方向として決定される。これらの移動方向決定の後、ステップS211に進む。
In step S206, it is determined whether or not the touch operation pinch out is performed from the operation direction of the touch operation. If it is a pinch out, the process moves to step S207, and the moving direction is set to the forward direction of the moving axis. In this case, the direction of the
ここでステップS202戻り、ステップS202においてピンチ操作以外の操作が行われた場合について説明する。 Here, returning to step S202, a case where an operation other than the pinch operation is performed in step S202 will be described.
ステップS202においてピンチ操作以外の操作が行われた場合、ステップS209に進み、行われたタッチ操作がドラッグ操作であるかどうかの判定を行う。ステップS209において行われたタッチ操作がドラッグ操作と判定された場合、ステップS210に移り移動方向を決定する。ドラッグ操作が行われた場合の移動方向の決定方法を図7に基づいて詳細に説明する。 If an operation other than the pinch operation is performed in step S202, the process proceeds to step S209, and it is determined whether the performed touch operation is a drag operation. If it is determined that the touch operation performed in step S209 is a drag operation, the process proceeds to step S210 to determine the movement direction. A method of determining the moving direction when a drag operation is performed will be described in detail with reference to FIG.
図7は、本発明の第1の実施形態に係るドラッグ操作に対応する動作を示す図である。ステップS210では、上下左右方向、もしくはそれらの組み合わせの方向が移動方向として決定される。図7(b)において指領域701をドラッグ操作の始点とし、ドラッグ操作の操作方向が、方向(1)(上方)、方向(2)(右方向)、方向(3)(下方向)、方向(4)(左方向)の場合を考える。この時、ドラッグ操作で入力されたそれぞれの方向に対応する移動装置の進行方向を図7(c)に示す。それぞれ図7(c)の方向(1)(下方向)、方向(2)(左方向)、方向(3)(上方向)、方向(4)(右方向)と指領域701の重心点について対称な方向を移動装置100の移動方向として設定する。この方向に一定方向進んだ場合の、撮像装置118で撮像されているLCD表示部204の表示画像を図7(d)に示す。図7(b)において方向(1)(2)(3)(4)の方向にそれぞれドラッグ操作をした場合、図7(d)で示す画像(1)(2)(3)(4)がそれぞれ得られる。スマートフォンやタブレットの画像ビューワにおいて、画像に対して一般的なドラッグ操作を行った場合の画像の変化と同じ効果が得られる。これにより操作者はよりドラッグ操作によって、より直観的に移動装置100すなわち撮像装置118の操作をできることになる。このようにドラッグ操作による移動方向決定がなされた後、ステップS211に進む。
FIG. 7 is a diagram illustrating an operation corresponding to the drag operation according to the first embodiment of the present invention. In step S210, the up / down / left / right direction or a combination thereof is determined as the moving direction. In FIG. 7B, the
ピンチ操作、ドラッグ操作により移動方向が決定された後は、決定した移動方向(S211)、移動開始コマンド(S212)を移動装置100に送信し、ステップS213に進む。
After the movement direction is determined by the pinch operation and the drag operation, the determined movement direction (S211) and movement start command (S212) are transmitted to the moving
ステップS213ではピンチ操作、ドラッグ操作が行われた後、タッチオンの状態が継続しているか、この場合、操作の後に指がタッチ操作部205から離されずに付けられたままであるかどうかを判定する。具体的にはタッチ操作の検出後も、一定時間以上タッチオン状態が継続されているかどうかで判断する。
In step S213, it is determined whether the touch-on state continues after the pinch operation and the drag operation are performed, or in this case, whether or not the finger remains attached to the
ステップS213においてタッチ操作が継続中であると判定した場合、ステップS213を繰り返し、タッチアップされるまで待機する。すなわち、タッチオンが継続している間は、移動装置100は指示方向への移動を継続することになる。その際、例えば、図11に示すように、タッチ操作に応じた移動装置100の移動方向を、矢印又は文字などで画像と一緒に表示するようにしても良い。
If it is determined in step S213 that the touch operation is continuing, step S213 is repeated and the process waits until touch-up is performed. That is, while the touch-on continues, the moving
タッチ操作が終了している(タッチアップされた)と判定された場合、ステップS214へ進み、移動装置100へ、移動停止コマンドを送信し、ステップS201に戻る。
When it is determined that the touch operation has been completed (touched up), the process proceeds to step S214, a movement stop command is transmitted to the
ここでステップS209戻り、ステップS209においてドラッグ操作以外の操作が行われた場合について説明する。ステップS209においてドラッグ操作以外の操作が行われた場合、ステップS215へ進み、操作に対応するコマンドの有無の判定を行う。対応するコマンドがある場合は、ステップS216へ進み、移動装置100へ対応するコマンドを送信した後、ステップS201に戻る。対応するコマンドが無い場合は、ステップS201に戻る。
Here, returning to step S209, the case where an operation other than the drag operation is performed in step S209 will be described. If an operation other than the drag operation is performed in step S209, the process proceeds to step S215 to determine whether there is a command corresponding to the operation. If there is a corresponding command, the process proceeds to step S216, the corresponding command is transmitted to the
以上、第1の実施形態に係る操作端末200の処理について説明をしたが、ここで、操作端末200からコマンドを受信した場合の、移動装置100の動作について図10を使って説明する。図10は、本実施例に係る移動装置の処理を示すフローチャートである。図10のフローチャートは、移動装置100の各処理ブロックを制御し実行される処理手順を図示したものであり、ROM106に格納されているプログラムをRAM107に展開し、CPU105が実行することにより実現される。
The processing of the
まず始めにステップS1001において、操作端末200から移動方向及び移動開始コマンドを受信したか否かを判定している。移動開始コマンドを受信した場合は、ステップS1002へ進み、移動装置100は指示された移動方向への移動を開始する。受信していない場合は、ステップS1001を繰り返し、操作があるまで移動制御は行わない。
First, in step S1001, it is determined whether a movement direction and a movement start command are received from the
ステップS1002で移動制御を開始した後は、ステップS1003へ進み、移動停止コマンドを受信したか否かを判定する。移動停止コマンドを受信した場合は、移動装置100は移動を停止(S1004)する。移動停止コマンドを受信していない場合は、ステップS1002を繰り返し、操作があるまで移動を続ける。
After the movement control is started in step S1002, the process proceeds to step S1003 to determine whether a movement stop command has been received. When the movement stop command is received, the moving
この操作の一例としてピンチアウトを行った場合を示したのが図8、図9である。 FIG. 8 and FIG. 9 show the case where the pinch out is performed as an example of this operation.
図8は、タッチパネルの中央領域でピンチアウト操作をした場合の、移動装置100の動作示す図である。図8(a)は、進行方向が「前進」のときに指領域801、802へ指を置き方向803、804へピンチアウト操作をした場合を示している。この場合、図8(b)のように移動装置100が位置808から809方向へ移動する。この時、LCD表示部204に表示されている画像は図8(c)のようになる。
FIG. 8 is a diagram illustrating the operation of the moving
図9は、タッチパネルの中央領域外でピンチアウト操作をした場合の、移動装置100の動作示す図である。図9(a)は、指領域901、903へ指を置き方向903、904へピンチアウト操作した場合で、移動装置100の移動方向が撮像装置118の光軸と並行でない。この場合、移動装置100は斜め右上前方に移動し、この時のLCD表示部204に表示されている画像は図9(b)のようになる。
FIG. 9 is a diagram illustrating the operation of the moving
なお、移動装置100の移動速度は所定の速度としても良いが、操作端末200から送信する構成としても良い。その場合、例えば、ピンチ操作の際のなぞり距離に応じて決定しても良いし、タッチオンの継続時間に応じて加速するようにしても良い。例えばピンチアウト後にタッチオンを継続したまま、ピンチインの方向に動かすなど、タッチオンを継続しながら2点を逆方向に移動させた際には、減速するようにしても良い。また、タッチアップされた後、短時間の間に繰り返しピンチ操作が行われた場合は、停止コマンドを送信せず、移動を続ける構成としても良く、またピンチ操作の繰り返し回数ごとに段階的に移動速度を変えるようにしても良い。また、移動装置100の移動開始からの経過時間などに応じて、速度を制御する構成としても良い。
The moving speed of the
以上述べてきた第1の実施形態の処理により、ドローンなどに搭載された位置移動が可能な撮像装置をタッチパネル機能のある操作端末で操作する場合に、直観的にわかりやすい操作で撮像装置の移動制御が可能である。 When the imaging device mounted on a drone or the like and capable of moving a position is operated with an operation terminal having a touch panel function by the processing of the first embodiment described above, the movement control of the imaging device is intuitively easy to understand. Is possible.
(第2の実施形態)
以下、図を参照しながら、本発明の第2の実施形態における処理について説明する。なお、第1の実施形態と同一の処理を行う部分は同一の記号で示し、説明を省略する。第2の実施形態では、例えば図12(e)のように、撮像装置118が移動装置100に対してパンチルト角度を変更可能な構成で、操作端末200から撮像装置118へコマンドを送信するなどの操作によりパンチルト制御が可能なものとする。
(Second Embodiment)
Hereinafter, processing in the second embodiment of the present invention will be described with reference to the drawings. In addition, the part which performs the same process as 1st Embodiment is shown with the same symbol, and description is abbreviate | omitted. In the second embodiment, for example, as illustrated in FIG. 12E, the
図13は、本発明の第2の実施形態に係る操作端末の処理を示すフローチャートである。図13のフローチャートは、操作端末200の各処理ブロックを制御し実行される処理手順を図示したものであり、ROM202に格納されているプログラムをRAM203に展開し、CPU201が実行することにより実現される。
FIG. 13 is a flowchart showing processing of the operation terminal according to the second embodiment of the present invention. The flowchart in FIG. 13 illustrates a processing procedure executed by controlling each processing block of the
ステップS1301において、操作端末200は移動装置100の向きに対する撮像装置118の撮像方向に関する情報を取得する。この情報は、例えば、一定期間ごとに操作端末200から移動装置100へ問い合わせたり、移動装置100が撮像装置118の撮像方向を変更した際に、操作端末200へ通知することにより取得可能である。
In step S <b> 1301, the
移動装置100に対する撮像装置118の撮像方向に関する情報を取得した後は、ステップS1302に進み、パンチルト操作が行われているかどうか、すなわち、移動装置100の正位置と撮像装置118の光軸方向が一致しているか否かを判定する。一致している状態とは、移動装置100と撮像装置118の前後方向、上下方向、左右方向が一致していることを指す。一致している場合はステップS1304へ進む。
After acquiring the information related to the imaging direction of the
一致していない場合はステップS1303へ進み、そのパンチルト角において、移動装置100の移動座標系と撮像装置118の光学座標系を一致させる処理を行う。ここで、移動座標系とは移動装置100の前後方向、上下方向、左右方向を表す座標系である。光学座標系とは撮像装置118の前後方向、上下方向、左右方向を表す座標系を表す座標系であり、操作端末200に表示される画像の座標系と一致する。このステップS1303における座標変換処理について図12を用いて説明する。
If they do not match, the process advances to step S1303 to perform processing for matching the moving coordinate system of the moving
図12(a)はタッチ操作部の中央で指領域1201、1202に指を置き、方向1203、1204へ指を広げたピンチアウト、(b)はピンチイン、(c)はドラッグ操作を示している。図12(d)は、移動装置100に対して撮像装置118のパンチルト角度が付いておらず、移動装置100の移動座標系の前方方向と、撮像装置118の光軸方向1210が一致している場合である。この場合、図12(a)で示すピンチアウトで図12(d)の方向(1)へ進行し、図12(b)で示すピンチイン操作で図12(d)の方向(2)へ進行する。図12(c)ドラッグ操作で方向(3)、(4)、(5)、(6)の操作をそれぞれ行った場合、図12(d)の方向(3)、(4)、(5)、(6)のへ進行する。
FIG. 12A shows a pinch-out in which a finger is placed in the
ここで図12(e)のように移動装置100に対して撮像装置118が−90度方向にチルト角を持っていた場合を考える。この場合、図12(a)のピンチアウトに応じて鉛直下方向、すなわち図12(e)における方向(1)の方向に移動しないと、操作者が操作端末200のLCD表示部204での表示に対して不自然になる。よってこの場合は、光軸方向1211の方向をピンチアウト動作の前進方向とし、その方向を基準として、図12(e)の方向(2)、(3)、(4)、(5)、(6)の方向座標を決定する。そのうえで、ピンチ操作により指示された移動方向を、移動装置100と撮像装置118との相対関係に基づき変換し、移動装置100の移動方向を決定する。図12(e)の例ではチルト角が−90度の場合を示しているが、パン・チルト角が任意の値であっても、上述の要領で光軸方向をピンチアウトの方向と合わせることを基準に移動座標系の変換を行うことができる。以下の処理では、全てこの座標変換を行った上で、移動方向を決定するものとする。
Here, consider a case where the
続くステップS1304からステップS1319の処理は、第1の実施形態のステップS201〜ステップS216と同様であるので詳細説明は割愛する。 The subsequent processing from step S1304 to step S1319 is the same as step S201 to step S216 of the first embodiment, and thus detailed description thereof is omitted.
本実施例では、操作端末200でタッチ操作に応じた移動方向、移動距離を算出し、移動装置100に送信する構成を例としたが、操作端末200から操作情報を送信し、移動装置100で受信した操作情報から移動方向、移動速度を算出しても良い。その場合は、移動装置100と撮像装置118の方向の相対関係に基づいて、移動装置100で操作情報を変換して移動方向を算出する。
In this embodiment, the moving direction and the moving distance corresponding to the touch operation are calculated by the
以上述べてきた第2の実施形態の処理により、ドローン等の前進方向と撮像装置の光軸の方向が任意に変更された状況でも、移動装置100の移動をタッチ操作で直観的にわかりやすく行える。
By the processing of the second embodiment described above, even when the forward direction of the drone or the like and the direction of the optical axis of the imaging device are arbitrarily changed, the movement of the moving
本実施例では、移動装置100が指定された方向に移動開始コマンドを受信してから停止コマンドを受信するまでの間移動するが、移動動作中に障害物などを認識して自動停止する構成とすることも可能である。操作端末200からの停止コマンドを受信していない場合でも、被写体認識部108によって障害物などが存在する場合には、撮像素子103の構成から可能になる距離情報検出を用いて、安全のため衝突しない距離で停止する。この時、被写体認識部によって検出された障害物の種別によって、近づける距離の制限に変化を持たせてもよい。例えば、障害物が壁などの物体である場合は、移動装置100が障害物から距離Aだけ手前で停止し、障害物が人物の場合は、移動装置100が障害物から距離Bだけ手前の位置で停止する(距離B>距離A)。
In the present embodiment, the
また、障害物等の移動制限により移動を停止した場合には、同じ方向にズーム動作をするように制御を切り替えても良い。その場合には、図11に示す矢印の色や表示する文字列を変えて、障害物等により移動できない旨、ズーム動作に切り替えた旨を、認識しやすく表示することも可能である。同様に、ドラッグ操作による移動装置の移動を、撮像方向の変更に切り替えても良い。 Further, when the movement is stopped due to the movement restriction of an obstacle or the like, the control may be switched so that the zoom operation is performed in the same direction. In that case, the color of the arrow and the character string to be displayed shown in FIG. 11 can be changed so that it can be easily recognized that it cannot be moved due to an obstacle or the like, and that the zoom operation has been switched. Similarly, the movement of the moving device by a drag operation may be switched to change of the imaging direction.
また、本実施例では移動装置100の動作に関して前後進移動、上下左右方向移動のみであったが、円環状のなぞり操作に応じて旋回動作を受け付けるようにしても良い。例えば、円環状のUIを用意し、指で時計方向になぞると右旋回コマンドを移動装置100に送信し、反時計方向になぞると左旋回コマンドを移動装置100に送信する。
In this embodiment, only the forward / backward movement and the vertical / horizontal movement are performed with respect to the operation of the moving
また、例えばLCD表示部204に表示させた切替部材をタッチすることにより、ピンチ操作に対応する動作を、前後方向への移動と、ズーム動作とを切り替える構成としても良い。同様に、ドラッグ操作に対応する動作を、左右方向又は上下方向への移動と、撮像方向の変更(パンチルト動作)とを切り替えることも可能である。このように、本実施形態では、所定の条件に応じて移動装置100に対する移動指示と、撮像装置118に対するズーム指示を選択的に実行可能である。
Further, for example, by touching a switching member displayed on the
なお、本実施例では、ドローン等を例として説明したが、移動装置は三次元の移動ができなくても良く、例えば、レール等で移動方向が規制された監視カメラなどにも応用可能である。 In this embodiment, a drone or the like has been described as an example. However, the moving device may not be able to move three-dimensionally, and can be applied to, for example, a surveillance camera whose movement direction is regulated by a rail or the like. .
以上が本発明の好ましい実施形態の説明であるが、本発明は、本発明の技術思想の範囲内において、上記実施形態に限定されるものではなく、対象となる回路形態により適時変更されて適応するべきものである。 The above is a description of a preferred embodiment of the present invention. However, the present invention is not limited to the above-described embodiment within the scope of the technical idea of the present invention, and is adapted as appropriate according to the target circuit form. What to do.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100 移動装置
101 撮像光学系
102 撮像光学系操作部
103 撮像素子
104 撮像信号処理部
105 CPU
106 ROM
107 RAM
108 被写体認識部
109 メモリスロット
110 メモリカード
111 駆動部
112 方位検知センサ
113 GPS
114 加速度センサ
115 ジャイロ
116 通信部
118 撮像装置
200 操作端末
201 CPU
202 ROM
203 RAM
204 LCD表示部
205 タッチ操作部
206 通信部
DESCRIPTION OF
106 ROM
107 RAM
108
114
202 ROM
203 RAM
204
Claims (9)
前記移動装置は、被写体を撮像する撮像手段を保持して移動し、
前記操作装置は、前記撮像手段で撮像している画像を表示する表示手段と、タッチ操作を検出するタッチ操作手段と、前記タッチ操作手段により検出されたタッチ操作がピンチアウト操作である場合に、撮像方向に対する前進方向への移動を前記移動装置へ指示する指示手段とを有することを特徴とする移動制御システム。 A movement control system comprising a moving device capable of moving a position in accordance with an instruction from an external device, and an operating device for instructing movement of the moving device,
The moving device moves while holding an imaging means for imaging a subject,
The operation device includes a display unit that displays an image captured by the imaging unit, a touch operation unit that detects a touch operation, and a touch operation detected by the touch operation unit is a pinch-out operation. A movement control system comprising: instruction means for instructing the movement device to move in the forward direction relative to the imaging direction.
タッチ操作を検出するタッチ操作手段と、
前記タッチ操作手段により検出されたタッチ操作がピンチアウト操作である場合に、撮像方向に対する前進方向への移動を前記撮像手段を保持する移動装置へ指示する指示手段とを有することを特徴とする操作装置。 Display means for displaying an image captured by the imaging means;
Touch operation means for detecting a touch operation;
And an instruction means for instructing a moving device that holds the imaging means to move in the forward direction relative to the imaging direction when the touch operation detected by the touch operation means is a pinch-out operation. apparatus.
前記移動装置は、被写体を撮像する撮像手段と、
前記撮像手段の撮像方向を変更する駆動手段とを有し、
前記外部装置からタッチ操作のパターン及び操作方向を含む操作情報を受けとった場合に、前記操作情報及び前記撮像手段の撮像方向に基づいて、前記移動装置の移動方向を算出することを特徴とする移動装置。 A moving device that can move in accordance with an instruction from an external device,
The moving device includes imaging means for imaging a subject;
Drive means for changing the imaging direction of the imaging means,
When the operation information including the touch operation pattern and the operation direction is received from the external device, the movement direction of the moving device is calculated based on the operation information and the imaging direction of the imaging unit. apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016018367A JP6685742B2 (en) | 2016-02-02 | 2016-02-02 | Operating device, moving device, and control system thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016018367A JP6685742B2 (en) | 2016-02-02 | 2016-02-02 | Operating device, moving device, and control system thereof |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020066233A Division JP6855616B2 (en) | 2020-04-01 | 2020-04-01 | Operating devices, mobile devices, and their control systems |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017139582A true JP2017139582A (en) | 2017-08-10 |
JP2017139582A5 JP2017139582A5 (en) | 2019-03-14 |
JP6685742B2 JP6685742B2 (en) | 2020-04-22 |
Family
ID=59566140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016018367A Active JP6685742B2 (en) | 2016-02-02 | 2016-02-02 | Operating device, moving device, and control system thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6685742B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019114036A (en) * | 2017-12-22 | 2019-07-11 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Information processing apparatus, flight control instruction method, program, and recording medium |
JP2019147556A (en) * | 2017-11-06 | 2019-09-05 | 株式会社エアロネクスト | Flight unit and control method of flight unit |
JP2021064064A (en) * | 2019-10-10 | 2021-04-22 | 沖電気工業株式会社 | Robot system, robot, and operation terminal |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7274157B1 (en) | 2022-08-01 | 2023-05-16 | 株式会社アルヴィオン | Program for operating the target device |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11261873A (en) * | 1998-03-10 | 1999-09-24 | Fuji Photo Optical Co Ltd | Lens device for television camera |
JPH11275434A (en) * | 1998-03-19 | 1999-10-08 | Star Micronics Co Ltd | Moving speed controller and zoom ratio variable speed controller for image pickup camera |
JP2002072047A (en) * | 2000-08-28 | 2002-03-12 | Fuji Photo Optical Co Ltd | Lens controller |
JP2014036246A (en) * | 2012-08-07 | 2014-02-24 | Sony Corp | Imaging control apparatus, imaging control method, and computer program |
JP2014099719A (en) * | 2012-11-13 | 2014-05-29 | Hitachi Advanced Digital Inc | Camera with universal head motion control and display control scheme |
US20140313332A1 (en) * | 2013-04-19 | 2014-10-23 | Sony Corporation | Control device, control method, and computer program |
JP2014220715A (en) * | 2013-05-09 | 2014-11-20 | 株式会社ザクティ | Electronic camera |
JP2015036845A (en) * | 2013-08-12 | 2015-02-23 | 株式会社ニコン | Electronic device and program |
JP2016082441A (en) * | 2014-10-17 | 2016-05-16 | ソニー株式会社 | Controller, control method and computer program |
JP2016225872A (en) * | 2015-06-01 | 2016-12-28 | 日本電信電話株式会社 | Travel apparatus operation terminal, travel apparatus operation method and travel apparatus operation program |
-
2016
- 2016-02-02 JP JP2016018367A patent/JP6685742B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11261873A (en) * | 1998-03-10 | 1999-09-24 | Fuji Photo Optical Co Ltd | Lens device for television camera |
JPH11275434A (en) * | 1998-03-19 | 1999-10-08 | Star Micronics Co Ltd | Moving speed controller and zoom ratio variable speed controller for image pickup camera |
JP2002072047A (en) * | 2000-08-28 | 2002-03-12 | Fuji Photo Optical Co Ltd | Lens controller |
JP2014036246A (en) * | 2012-08-07 | 2014-02-24 | Sony Corp | Imaging control apparatus, imaging control method, and computer program |
JP2014099719A (en) * | 2012-11-13 | 2014-05-29 | Hitachi Advanced Digital Inc | Camera with universal head motion control and display control scheme |
US20140313332A1 (en) * | 2013-04-19 | 2014-10-23 | Sony Corporation | Control device, control method, and computer program |
JP2014212479A (en) * | 2013-04-19 | 2014-11-13 | ソニー株式会社 | Control device, control method, and computer program |
JP2014220715A (en) * | 2013-05-09 | 2014-11-20 | 株式会社ザクティ | Electronic camera |
JP2015036845A (en) * | 2013-08-12 | 2015-02-23 | 株式会社ニコン | Electronic device and program |
JP2016082441A (en) * | 2014-10-17 | 2016-05-16 | ソニー株式会社 | Controller, control method and computer program |
JP2016225872A (en) * | 2015-06-01 | 2016-12-28 | 日本電信電話株式会社 | Travel apparatus operation terminal, travel apparatus operation method and travel apparatus operation program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019147556A (en) * | 2017-11-06 | 2019-09-05 | 株式会社エアロネクスト | Flight unit and control method of flight unit |
JP2019167104A (en) * | 2017-11-06 | 2019-10-03 | 株式会社エアロネクスト | Flying body and method for controlling the same |
JP2019114036A (en) * | 2017-12-22 | 2019-07-11 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Information processing apparatus, flight control instruction method, program, and recording medium |
JP2021064064A (en) * | 2019-10-10 | 2021-04-22 | 沖電気工業株式会社 | Robot system, robot, and operation terminal |
Also Published As
Publication number | Publication date |
---|---|
JP6685742B2 (en) | 2020-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10948993B2 (en) | Picture-taking within virtual reality | |
EP2956843B1 (en) | Human-body-gesture-based region and volume selection for hmd | |
US10852847B2 (en) | Controller tracking for multiple degrees of freedom | |
CN111344644B (en) | Techniques for motion-based automatic image capture | |
CN109416535B (en) | Aircraft navigation technology based on image recognition | |
EP3021206B1 (en) | Method and device for refocusing multiple depth intervals, and electronic device | |
JP6685742B2 (en) | Operating device, moving device, and control system thereof | |
EP3197148A1 (en) | Method for controlling motions and actions of an apparatus including an image capture device | |
JP6855616B2 (en) | Operating devices, mobile devices, and their control systems | |
WO2020080107A1 (en) | Information processing device, information processing method, and program | |
CN111164544A (en) | Motion sensing | |
WO2018191969A1 (en) | Camera mount control method and device | |
JP2015118442A (en) | Information processor, information processing method, and program | |
US10771707B2 (en) | Information processing device and information processing method | |
CN104699249A (en) | Information processing method and electronic equipment | |
KR101553503B1 (en) | Method for controlling a external device using object recognition | |
JP2024075613A (en) | Information processing method, information processing device, and program | |
TWI498804B (en) | Electronic device and method for capturing image | |
KR20100112408A (en) | Taget parking space degination method and apparatus and computer readable recording medium therefor and parking assist apparatus using same | |
JP6632298B2 (en) | Information processing apparatus, information processing method and program | |
CN113677412A (en) | Information processing apparatus, information processing method, and program | |
JP6882147B2 (en) | Operation guidance system | |
EP3702008A1 (en) | Displaying a viewport of a virtual space | |
JP2023053972A (en) | Display control device, display control method and display control program | |
JP2017112438A (en) | Imaging system and control method therefor, communication device, mobile imaging device, program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190129 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200401 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6685742 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |