JP7482923B2 - 無人航空機の制御装置およびその制御方法 - Google Patents

無人航空機の制御装置およびその制御方法 Download PDF

Info

Publication number
JP7482923B2
JP7482923B2 JP2022046506A JP2022046506A JP7482923B2 JP 7482923 B2 JP7482923 B2 JP 7482923B2 JP 2022046506 A JP2022046506 A JP 2022046506A JP 2022046506 A JP2022046506 A JP 2022046506A JP 7482923 B2 JP7482923 B2 JP 7482923B2
Authority
JP
Japan
Prior art keywords
image
unmanned aerial
aerial vehicle
user
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022046506A
Other languages
English (en)
Other versions
JP2023081259A (ja
Inventor
允求 秦
岱芸 蔡
Original Assignee
仁寶電腦工業股▲ふん▼有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 仁寶電腦工業股▲ふん▼有限公司 filed Critical 仁寶電腦工業股▲ふん▼有限公司
Publication of JP2023081259A publication Critical patent/JP2023081259A/ja
Application granted granted Critical
Publication of JP7482923B2 publication Critical patent/JP7482923B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/228Command input arrangements located on-board unmanned vehicles
    • G05D1/2285Command input arrangements located on-board unmanned vehicles using voice or gesture commands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Forklifts And Lifting Vehicles (AREA)
  • Selective Calling Equipment (AREA)

Description

本発明は、ヒューマン・マシン・インタラクション(human-machine interaction)技術に関するものであり、特に、無人航空機(unmanned aerial vehicle, UAV)の制御装置およびその制御方法に関するものである。
現在の無人航空機(UAV)は、主に、無線遠隔操作装置および関連するプログラムを利用して、対応するUAVを制御または操作する。低高度の視線距離内のUAVは、レジャーや娯楽、空中写真のために使用される。また、撮像装置(例えば、カメラやビデオカメラ)およびヘッドマウント型表示装置(通称、ゴーグル(goggle))をUAVに配置すると、撮像装置で取り込んだ画像を無線伝送によりヘッドマウント型表示装置に表示することができるため、ユーザーは、一人称視点(first-person view, FPV)によりUAVを制御することができる。この種のシステムは、FPVトラバースマシン(traversing machine)とも称される。
しかしながら、FPVトラバースマシンは、FPVを介して操作を制御するため、初心者にとって難しい。また、FPVトラバースマシンをスムーズに操作するには、無線遠隔制御の操作(例えば、スロットル(throttle)、ロール(rolling)、方向、およびピッチの制御を含む4つの動作)に精通していなければならない。そのため、他の手段によりFPVトラバースマシンの操作をより簡単にできるかどうかが、研究すべき課題の1つとなっている。
本発明は、より直感的な方法を提供して、UAVの状況を監視してからUAVを制御することにより、制御の難度を下げることのできるUAVの制御装置およびその制御方法を提供する。
本発明は、無人航空機(UAV)の制御装置を提供する。制御装置は、感知装置と、画像受信機と、制御送信機と、ディスプレイと、プロセッサとを含む。感知装置は、ユーザーの動作を感知するために使用される。画像受信機は、無人航空機の第1撮像装置から無人航空機内の本体の少なくとも一部または全てを含む画像を受信するために使用される。制御送信機は、制御信号を無人航空機に送信するために使用される。プロセッサは、感知装置、画像受信機、制御送信機、およびディスプレイに接続される。プロセッサは、ディスプレイを使用して、画像受信機で受信した画像を継続的に表示する。プロセッサは、感知装置により動作を取得して、その動作を無人航空機に対応する制御信号に変換し、制御送信機により制御信号を無人航空機に送信する。無人航空機は、制御装置が送信した制御信号によって制御される。
本発明は、制御装置に適用する無人航空機の制御方法を提供する。この制御方法は、無人航空機の第1撮像装置から無人航空機内の本体の少なくとも一部または全てを含む画像を受信するステップと、制御装置のディスプレイに画像を継続的に表示するステップと、ユーザーの動作を感知して、その動作を無人航空機に対応する制御信号に変換するステップと、制御信号を無人航空機に送信して、制御信号により無人航空機を制御するステップとを含む。
以上のように、本発明が提供する無人航空機の制御装置およびその制御方法は、三人称視点を有する撮像装置を無人航空機に設置するため、ユーザーは、三人称視点から画面/画像を介して無人航空機の本体を直感的に見て、ユーザーの動作(例えば、ジェスチャー、唇の動き、または対応する操作手段)を検出し、それに応じて無人航空機を制御することができる。このようにして、本発明の無人航空機システムは、ユーザーの体感操作を組み合わせた三人称視点を提供することにより、より直感的な方法を提供して無人航空機を制御するため、制御の難度を下げることができる。
添付図面は、本発明の原理がさらに理解されるために含まれており、本明細書に組み込まれ、且つその一部を構成するものである。図面は、本発明の実施形態を例示しており、説明とともに、本発明の原理を説明する役割を果たしている。
本発明の第1実施形態に係るUAVシステムの概略図である。 本発明の第1実施形態に係るUAVシステムのブロック図である。 第1実施形態において、ヘッドマウント型表示装置を制御装置のディスプレイとして使用した時のインターフェースの概略図である。 複数種類のプリセットジェスチャーに対応するUAV制御信号の概略図である。 複数種類のプリセットジェスチャーに対応するUAV制御信号の概略図である。 複数種類のプリセットジェスチャーに対応するUAV制御信号の概略図である。 第2実施形態において、UAVに取り込んだ画像を制御装置に無線基地局を介して無線送信した時のUAVシステムの概略図である。 本発明の第3実施形態に係るUAVシステムの概略図である。 本発明の第4実施形態に係るUAVシステムの概略図である。 本発明の第4実施形態において、唇の動きを識別して音声テキスト情報を取得した時の唇活動識別モジュールの概略図である。 本発明の第4実施形態において、音声テキスト情報を使用してUAVの飛行方向を制御した時の概略図である。 本発明の第5実施形態に係るUAVシステムの概略図である。 本発明の様々な実施形態に係るUAVの制御方法のフローチャートである。
図1は、本発明の第1実施形態に係るUAVシステム100の概略図である。図2は、本発明の第1実施形態に係るUAVシステム100のブロック図である。図1および図2を同時に参照されたい。UAVシステム100は、UAV120および制御装置110を含む。
制御装置110は、主に、感知装置112と、画像受信機114と、制御送信機116と、ディスプレイ118と、プロセッサ119とを含む。プロセッサ119は、感知装置112、画像受信機114、制御送信機116、およびディスプレイ118に接続される。図1における第1実施形態の制御装置110は、例えば、ヘッドマウント型表示装置である。UAVシステム100に応用されるヘッドマウント型表示装置は、ゴーグルとも称される。
UAV120は、主に、第1撮像装置122を含む。第1撮像装置122は、主に、UAV120内の本体の少なくとも一部または全てを含む画像を取り込むために使用される。図1の矢印140は、第1撮像装置122が画像を取り込んだ時の視野方向を示すために使用され、画像からUAV120内の本体のより多くの部分を取得することができる。UAV120は、さらに、画像送信機123、制御受信機124、モーターモジュール125、電源モジュール126、電源制御モジュール127、飛行制御システム128、GPS位置決めモジュール129、および他の構成要素を含む。
第1撮像装置122が取り込んだ画像は、「三人称視点」画像と称することができる。いわゆる三人称視点とは、ユーザーが傍観者の目線から主役(本実施形態では、UAV120)の動作と周囲の環境を同時に観察することであり、UAV120自身の状況と周囲の環境を容易に知ることができる。UAV120の飛行制御システム128は、図2の矢印210で示すように、無線通信技術を用いて画像送信機123により第1撮像装置122が取り込んだ画像を制御装置110の画像受信機114に送信する。
UAV120の飛行制御システム128は、モーターモジュール125、電源モジュール126、および電源制御モジュール127を介してUAV120の離陸、着陸、加速、および減速などの制御を行う。本実施形態において、UAV120は、電源が不足した時に、リターン操作を実行することができる。UAV120の飛行制御システム128は、GPS位置決めモジュール129および対応する感知装置112を利用して、それ自身の位置及び制御装置110からの距離を判断することにより、リターン操作をいつ実行するかを決定し、リターン経路を自動的に計画する。UAV120上に発光ダイオード(light-emitting diode, LED)を設置して、UAV120の現在の状態を示すことにより、ユーザーは、視覚的に知らせを受けることができる。
制御装置110の制御送信機116は、図2の矢印220に示すように、UAV120を制御するための制御信号をUAV120の制御受信機124に送信する。UAV120は、制御装置110が送信した制御信号によって制御される。
制御装置110の画像受信機114は、UAV120の第1撮像装置122からUAV120内の本体の少なくとも一部または全てを含む画像を受信する。制御装置110のプロセッサ119は、ディスプレイ118を使用して、画像受信機114で受信した画像を継続的に表示する。
本発明の本実施形態のUAVシステム100は、ヘッドマウント型表示装置のディスプレイ118を介してユーザー105に三人称視点を提供するだけでなく、ユーザー105の体感操作に合わせてUAV120の制御も行う。例えば、制御装置110の感知装置112を設置して、ユーザー105の動きを感知する。第1実施形態における「動作」は、例えば、ユーザー105の手指動作であり、本実施形態を応用することにより、ユーザーの左手または右手でUAV120を操縦することができる。プロセッサ119は、感知装置112によりユーザーの動作(例えば、ユーザーが行う手指動作、唇の動き、または体感動作)を取得して、その動作をUAV120に対応する制御信号に変換し、制御送信機116により制御信号をUAV120の制御受信機124に送信することによって(矢印220で示す)、体感動作によりUAV120を制御する。
図1の感知装置112は、主に、ヘッドマウント型表示装置の前面に配置され、感知装置112は、ユーザー105の手を含む第2画像を取り込んで、第2画像内の手領域107を取り込むための第2撮像装置を含む。感知装置112として第2撮像装置を適用する他に、本実施形態は、赤外線撮像装置、投光イルミネーター(flood illuminator)、ドットマトリックスプロジェクター(dot-matrix projector)、および、他の画像および光取り込み技術のうちの1つ、またはその組み合わせを包括的に統合して、ユーザー105の手領域107を決定することにより、手領域107の感知精度をさらに向上させることができる。
図3は、第1実施形態において、ヘッドマウント型表示装置を制御装置110のディスプレイ118として使用した時のインターフェースの概略図である。図3を参照すると、第1実施形態は、制御装置110としてヘッドマウント型表示装置を使用する。プロセッサ119は、手領域107における手指動作に基づいて仮想手画像310を生成し、仮想手画像310をディスプレイ118に表示された画像に重ねるため、ユーザーは、UAV120の本体の一部および環境、並びにユーザー自身の仮想手画像310を含む画像をディスプレイ118でより直感的に見ることができる。
手を含む第2画像の過剰処理を防ぐため、本実施形態は、画像を取り込んでその画像をディスプレイ118に表示する時に、第2撮像装置(感知装置112)のジェスチャー範囲(図3の破線ボックス320に示す)を設定することができる。このようにして、ユーザーは、仮想手画像310および手指感知の有効範囲を直感的に知ることができる。詳しく説明すると、ジェスチャー範囲は、主に、ユーザーが手指動作の領域を容易に認識できるようにするために使用される。本実施形態において、ジェスチャー範囲内の手指動作は、主に、ユーザーのジェスチャーを判断するために使用され、その後、識別に対応する制御信号として使用される。しかしながら、ユーザーのジェスチャーが大き過ぎてジェスチャー範囲の外に出た場合でも、本実施形態は、ジェスチャー範囲の外の画像を使用して、ジェスチャーを認識および判断するが、手指ジェスチャーの認識成功率は、多くの要因(例えば、手指動作が感知装置112から離れていることや、レンズの問題により画像が歪むこと等)によって低下する可能性がある。つまり、図3の破線ボックス320に示したジェスチャー範囲は、主に、手指ジェスチャーをより良く識別できる領域をユーザーに知らせるために使用される。手指ジェスチャーが誤って破線ボックス320を超えてしまった場合でも、図2のプロセッサ119は、ジェスチャー範囲外の画像を識別できる可能性がある。
図1~図3を同時に参照されたい。ユーザー105の操作に関し、制御装置110は、その本体に物理ボタンを設置してもよく、あるいはディスプレイ118に表示されたユーザーインターフェースに仮想ロック解除ボタンを表示してもよい。ユーザー105が物理ボタン/仮想ロック解除ボタンを押した時、プロセッサ119は、第2撮像装置(感知装置112)により手領域107内の手指動作の認識を開始し、手領域107内の手指動作を仮想手画像310に変更して、ディスプレイ118に表示された画面に重ねる。例えば、プロセッサ119は、物理ボタン/仮想ロック解除ボタンが押された後にジェスチャーペアリングモードに入り、ユーザーの手のひらを下向きにして、画面の有効範囲に手のひらを置くようユーザー105に要求する。この状況で、仮想手画像310は、手のひらを下向きにして、図3の破線ボックス320内に位置する。その後、プロセッサ119は、ユーザー105が左手を使用したか、右手を使用したかを判断し、仮想手画像310に基づいてUAV120を制御する。ジェスチャーペアリングモードが完了した(つまり、UAV120を制御するため、ユーザー105が左手または右手を使用することを判断した)後、プロセッサ119は、第2撮像装置(感知装置112)により手領域107を取得して、ユーザー105の手指動作を感知する。この手指動作は、複数種類のプリセットジェスチャーのうちの1つとして認識され、認識されたジェスチャータイプは、対応する制御信号に変換される。
詳しく説明すると、プロセッサ119は、ジェスチャー活動認識モジュール(gesture activity recognition module)を有し、ジェスチャー活動認識モジュールにより手領域107に対応する手指動作をこれらのプリセットジェスチャータイプのうちの1つとして認識する。図4、図5、および図6は、複数種類のプリセットジェスチャーに対応するUAV120の制御信号の概略図である。
図4(A)~図4(C)は、プリセットジェスチャータイプ107-Aが垂直に立てた状態の手の甲である場合を示したものであり、制御信号は、「UAV120が後方に傾斜し、後方に飛行する」であり、この手指ジェスチャーに続くUAV120の連続動作は、以下の通りである:図4(A)のUAV120が制御信号を受信した後、UAV120は、その前進方向の角度を引き上げて、図4(B)のUAV120になる。そして、図4(C)のUAV120は、ユーザーに向かって徐々に飛んできて、視覚上わずかに拡大する。図4(D)~図4(F)は、プリセットジェスチャータイプ107-Bが垂れ下がった状態の手の甲である場合を示したものであり、制御信号は、「UAV120が前方に傾斜し、前方に飛行する」であり、この手指ジェスチャーに続くUAV120の連続動作は、以下の通りである:制御信号を受信した後、図4(D)のUAV120は、その前進方向の角度を下向きに調整して、図4(E)のUAV120になる。そして、図4(F)のUAV120は、ユーザーから徐々に離れて、視覚上わずかに縮小する。
図5(A)は、プリセットジェスチャータイプ107-Cが手のひらを下にして手を左に向けた場合を示したものであり、制御信号は、「UAV120が左に飛行する」である。図5(B)は、プリセットジェスチャータイプ107-Dが手のひらを下にして手を右に向けた場合を示したものであり、制御信号は、「UAV120が右に飛行する」である。図5(C)は、プリセットジェスチャータイプ107-Eが手のひらを右に向けた場合を示したものであり、制御信号は、「UAV120が右に回転する」である。図5(D)は、プリセットジェスチャータイプ107-Fが手のひらを左に向けた場合を示したものであり、制御信号は、「UAV120が左に回転する」である。
図6は、プロセッサ119がプリセットジェスチャータイプ107-Gおよび107-Hにおける親指の指示方向と人指し指の指示方向の間の開き角度を判断して、UAV120のスロットルの範囲を決定する時の図である。図6(A)は、プリセットジェスチャータイプ107-Gにおける親指の指示方向と人指し指の指示方向の間の角度がほぼ90度である場合を示したものであり、UAV120のスロットルは、完全に閉じている。つまり、UAV120のモーターモジュールは、飛行用の電源を提供しない。プリセットジェスチャータイプにおける親指の指示方向と人指し指の指示方向の間の角度が90度~45度の間の時、UAV120のスロットルは、半開き状態である。つまり、UAV120のモーターモジュールは、飛行用の電源を半分提供する。図6(B)は、プリセットジェスチャータイプ107-Hにおける親指の指示方向と人指し指の指示方向の間の角度が45度~0度の間である場合を示したものであり、UAV120のスロットルは、完全に開いている。つまり、UAV120のモーターモジュールは、飛行用の電源を全て提供する。ジェスチャー活動認識モジュールは、図5および図6のプリセットジェスチャータイプを用いて、入力された手領域に対応する第1ジェスチャータイプを分析することにより、第1ジェスチャータイプを対応する制御信号に変換することができる。本実施形態を応用することにより、プリセットジェスチャータイプとUAV制御の間の関係を必要に応じて調整することができる。例えば、左手操作をプリセットジェスチャータイプとして使用する、異なる手指ジェスチャーを使用してスロットルの範囲を制御する等のことができる。
図1~図3を参照すると、プロセッサ119が第1ジェスチャータイプを対応する制御信号に変換した時、制御信号がUAV120に送信されるため(矢印220を参照)、UAV120は、モーターモジュール125を制御して、対応する動作を実行する。また、ユーザー105は、再度物理ボタン/仮想ロック解除ボタンに触れて、本実施形態の手指ジェスチャーでUAV120を制御する対応機能をオフにすることができる。
図7は、第2実施形態において、UAV120に取り込んだ画像を制御装置110に無線基地局610を介して無線送信した時のUAVシステム600の概略図である。第1実施形態の制御装置110およびUAV120は、図2の画像受信機114および画像送信機123を使用して、画像を直接送信する。これと比較して、第2実施形態のUAV120およびUAVシステム600は、5G無線ネットワークプロトコルに適合する撮像装置を第1撮像装置122として使用し、まず、取り込んだ画像を5G無線ネットワークプロトコルに適合するコアネットワークおよび中間局である無線基地局610(図7の矢印611)に送信してから、無線基地局610からの画像を制御装置110に送信する。
図8は、本発明の第3実施形態に係るUAVシステム700の概略図である。第3実施形態と第1実施形態の間の主な相違点は、制御装置710をヘッドマウント型表示装置から携帯用電子機器(例えば、タブレットPC、スマートフォン、またはフロントレンズを有する電子機器)に変えて実施したことである。つまり、制御装置710内の感知装置712は、携帯用電子機器においてユーザー105の方向に面して配置され、感知装置712は、第2撮像装置を含む。第2撮像装置(感知装置712)は、ユーザー105の手を含む第2画像を取り込んで、第2画像内の手領域107を取り込むために使用される。制御装置710内のプロセッサは、第2撮像装置(感知装置712)により手領域107を取得して、ユーザーの手指動作を感知し、ジェスチャー活動認識モジュールにより手指動作を複数のプリセットジェスチャータイプのうちの第1ジェスチャータイプとして認識するとともに、第1ジェスチャータイプを対応する制御信号に変換して、UAV120を制御する。
図9は、本発明の第4実施形態に係るUAVシステム800の概略図である。第4実施形態および第3実施形態の制御装置810は、いずれも携帯用電子機器(例えば、タブレットPC、スマートフォン、またはフロントレンズを有する電子機器)として実施される。つまり、制御装置810の感知装置812は、携帯用電子機器においてユーザー105の方向に面して配置され、感知装置812は、第2撮像装置を含む。第4実施形態が第3実施形態と異なるのは、制御装置810のプロセッサが、第2撮像装置(感知装置812)によりユーザー105の唇を含む第2画像を取り込んで、この第2画像内の唇領域108を取り込むという点である。
制御装置810のプロセッサは、第2撮像装置(感知装置812)により唇領域108を取得して、ユーザーの唇の動きを感知し、唇活動認識モジュール(lip activity recognition module)を使用して唇の動きを認識して、ユーザー105の音声テキスト情報を取得するとともに、音声テキスト情報を対応する制御信号に変換する。
図10は、第4実施形態において、唇の動きを識別して音声テキスト情報を取得した時の唇活動識別モジュールの概略図である。第4実施形態において使用する唇活動識別モジュールは、第2撮像装置(感知装置812)が取り込んだ唇領域108により、図10(A)の唇形状ドット分布910、図10(B)の上唇形状920および下唇形状930、図10(C)の上歯範囲940、下歯範囲950、および上下の歯の間の隙間960を決定し、それにより、ユーザーが唇で伝えた音声を取得して、その音声をテキスト情報に変換することができる。
図11は、本発明の第4実施形態において、音声テキスト情報を使用してUAV120の飛行方向を制御した時の概略図である。図11の第4実施形態は、マップモードでUAV120の飛行方向を制御する。例えば、図11の制御装置のディスプレイの右半分は、UAV120の三人称視点からの画面/画像を表示し、図11の制御装置のディスプレイの左半分1010は、地図を表示し、複数の直線(例えば、「A」、「B」、「C」、「D」)および水平線(例えば、「1」、「2」…「6」)で地図をグリッドパターンに分割し、UAV120の位置1005を地図に標記する。ユーザーが唇を開いて音声情報「A」および「5」を順番に言った時、図11の第4実施形態のプロセッサは、制御信号をUAV120に送信して、現在位置1005から直線「A」と水平線「5」が交差する点で示される位置「A-5」にUAV120を移動させる。
図12は、本発明の第5実施形態に係るUAVシステム1200の概略図である。第5実施形態と第1実施形態の間の主な相違点は、制御装置1210をヘッドマウント型表示装置からネックマウント型ウェアラブルデバイスに変えて実施することである。つまり、制御装置1210内の感知装置1212は、ネックマウント型ウェアラブルデバイスの前面に配置され、感知装置1212は、ユーザー105の手に面する方向に配置された第2撮像装置を含む。第2撮像装置(感知装置1212)は、ユーザー105の手を含む第2画像を取り込んで、第2画像内の手領域107を取り込むために構成される。制御装置1210内のプロセッサは、第2撮像装置(感知装置1212)により手領域107を取得し、ユーザーの手指動作を感知して、ジェスチャー活動認識モジュールにより手指動作を複数のプリセットジェスチャータイプのうちの第1ジェスチャータイプとして認識するとともに、第1ジェスチャータイプを対応する制御信号に変換して、UAV120を制御する。
一方、ネックマウント型ウェアラブルデバイスとして実施される制御装置1210には、ディスプレイがない。制御装置1210は外部ディスプレイ1218と通信するよう制御することにより、UAV120の第1撮像装置122が取り込んだ画像を画像送信機123により送信し、外部ディスプレイ1218に表示することができる。ユーザー105が外部ディスプレイ1218で画像を見ることができるだけでなく、制御装置1210のプロセッサが手領域107の手指動作に基づいて外部ディスプレイ1218に仮想手画像を生成することもできるため、ユーザーは、外部ディスプレイ1218で操作のためのジェスチャーを確認することができる。
図13は、本発明の様々な実施形態に係るUAVの制御方法のフローチャートである。このUAVの制御方法は、UAVの制御装置(例えば、ヘッドマウント型表示装置、携帯用電子機器等)の制御に適用することができる。ステップS1110において、制御装置は、UAVの第1撮像装置からUAV内の本体の少なくとも一部または全てを含む画像を受信する。ステップS1120において、制御装置のディスプレイに画像を継続的に表示する。ステップS1130において、制御装置は、制御装置の感知装置によりユーザーの動きを感知する。ステップS1140において、制御装置は、ステップS1130において感知した動作をUAVに対応する制御信号に変換する。ステップS1150において、制御装置は、制御信号をUAVに送信し、制御信号によってUAVを制御する。図13の制御方法の詳しい実施方式は、上述した実施形態を参照されたい。
以上のように、本発明が提供するUAVの制御装置およびその制御方法は、三人称視点を有する撮像装置をUAVに設置するため、ユーザーは、三人称視点から画面/画像を介してUAV機を直感的に見て、ユーザーの動作(例えば、ジェスチャー、唇の動き、または対応する操作手段)を検出し、それに応じてUAVを制御することができる。このようにして、本発明のUAVシステムは、ユーザーの体感操作を組み合わせた三人称視点を提供することにより、より直感的な方法を提供してUAVを制御するため、制御の難度を下げることができる。
本発明の無人航空機(UAV)の制御装置およびその制御方法は、ヒューマン・マシン・インタラクション製品に応用することができる。
100、700、800、1200 UAVシステム
105 ユーザー
107 手領域
107-A~107-H プリセットジェスチャータイプ
108 唇領域
110、710、810、1210 控制装置
112、712、812、1212 感知装置
114 画像受信機
116 制御送信機
118、1218 ディスプレイ
119 プロセッサ
120 無人航空機(UAV)
122 第1撮像装置
123 画像送信機
124 制御受信機
125 モーターモジュール
126 電源モジュール
127 電源制御モジュール
128 飛行制御モジュール
129 GPS位置決めモジュール
140 矢印(第1撮像装置の視角方向)
210、220、611、612 矢印
310 仮想手画像
320 破線ボックス
610 無線基地局
910 唇形状ドット分布
920 上唇形状
930 下唇形状
940 上歯範囲
950 下歯範囲
960 上下の歯の間の隙間
1005 UAVの位置
1010 のディスプレイの左半分
A-5 位置
S1110~S1150 UAVの制御方法の各ステップ

Claims (15)

  1. 無人航空機(UAV)の本体の少なくとも一部または全て及び周囲の環境を含む画像を取り込む第1撮像装置を備えた無人航空機の制御装置であって、
    ユーザーの動作を感知する感知装置と、
    前記無人航空機の第1撮像装置から前記無人航空機の本体の少なくとも一部または全て及び周囲の環境を含む画像を受信する画像受信機と、
    前記画像受信機で受信した画像を表示するディスプレイと、
    制御信号を前記無人航空機に送信する制御送信機と、
    前記感知装置、前記画像受信機、前記ディスプレイ、および前記制御送信機に接続されたプロセッサと、
    を含み、
    前記プロセッサが、前記感知装置により前記動作を取得して、前記動作を前記無人航空機に対応する前記制御信号に変換し、前記制御送信機により前記制御信号を前記無人航空機に送信し、
    前記無人航空機が、前記制御装置が送信した前記制御信号によって制御され、
    前記ディスプレイには、前記制御信号によって制御された前記無人航空機の動作及び周囲の環境を含む画像が、三人称視点の画像として表示される
    無人航空機の制御装置。
  2. 前記制御装置が、ヘッドマウント型表示装置であり、
    前記感知装置が、前記ヘッドマウント型表示装置の前面に配置され、第2撮像装置を含み、
    前記第2撮像装置が、前記ユーザーの手を含む第2画像を取り込んで、前記第2画像内の手領域を取り込むよう構成され、
    前記プロセッサが、前記第2撮像装置により前記手領域を取得して、前記ユーザーの手指動作を感知し、前記手指動作を複数種類のプリセットジェスチャーのうちの第1ジェスチャータイプとして認識するとともに、前記第1ジェスチャータイプを対応する前記制御信号に変換する請求項1に記載の無人航空機の制御装置。
  3. 前記プロセッサが、さらに、前記手指動作に基づいて仮想手画像を生成し、前記仮想手画像をディスプレイに表示された前記画像に重ねる請求項2に記載の無人航空機の制御装置。
  4. 前記プロセッサが、さらに、前記ディスプレイにジェスチャー範囲を表示し、前記ジェスチャー範囲内の前記手指動作が、識別に対応する前記制御信号として使用される請求項3に記載の無人航空機の制御装置。
  5. 前記制御装置が、携帯用電子機器であり、
    前記感知装置が、前記携帯用電子機器において前記ユーザーの方向に面して配置され、第2撮像装置を含み、
    前記第2撮像装置が、前記ユーザーの手を含む第2画像を取り込んで、前記第2画像内の手領域を取り込むよう構成され、
    前記プロセッサが、前記第2撮像装置により前記手領域を取得して、前記ユーザーの手指動作を感知し、前記手指動作を複数種類のプリセットジェスチャーのうちの第1ジェスチャータイプとして認識するとともに、前記第1ジェスチャータイプを対応する前記制御信号に変換する請求項1に記載の無人航空機の制御装置。
  6. 前記制御装置が、携帯用電子機器であり、
    前記感知装置が、前記携帯用電子機器において前記ユーザーの方向に面して配置され、第2撮像装置を含み、
    前記第2撮像装置が、前記ユーザーの唇を含む第2画像を取り込んで、前記第2画像内の唇領域を取り込むよう構成され、
    前記プロセッサが、前記第2撮像装置により前記唇領域を取得して、前記ユーザーの唇の動きを感知し、前記唇の動きを認識して、前記ユーザーの音声テキスト情報を取得するとともに、前記音声テキスト情報を対応する前記制御信号に変換する請求項1に記載の無人航空機の制御装置。
  7. 前記制御装置が、ネックマウント型ウェアラブルデバイスであり、
    前記感知装置が、前記ネックマウント型ウェアラブルデバイスの前面に配置され、第2撮像装置を含み、
    前記第2撮像装置が、前記ユーザーの手を含む第2画像を取り込んで、前記第2画像内の手領域を取り込むよう構成され、
    前記プロセッサが、前記第2撮像装置により前記手領域を取得して、前記ユーザーの手指動作を感知し、前記手指動作を複数種類のプリセットジェスチャーのうちの第1ジェスチャータイプとして認識するとともに、前記第1ジェスチャータイプを対応する前記制御信号に変換する請求項1に記載の無人航空機の制御装置。
  8. 前記プロセッサがディスプレイと通信し、前記ディスプレイに前記画像を表示させるように、さらに制御して、前記手指動作に基づいて仮想手画像を生成し、前記仮想手画像を前記ディスプレイに表示された前記画像に重ねる請求項7に記載の無人航空機の制御装置。
  9. 前記感知装置が、さらに、赤外線撮像装置、投光イルミネーター、およびドットマトリックスプロジェクターのうちの1つ、またはその組み合わせを含む請求項1に記載の無人航空機の制御装置。
  10. 無人航空機の本体の少なくとも一部または全て及び周囲の環境を含む画像を取り込む第1撮像装置を備えた無人航空機の制御方法であり、制御装置およびディスプレイに適用する無人航空機の制御方法であって、
    前記無人航空機の第1撮像装置から前記無人航空機の本体の少なくとも一部または全て及び周囲の環境を含む画像を受信するステップと、
    前記画像を継続的に表示するよう前記ディスプレイを制御するステップと、
    ユーザーの動作を感知して、前記動作を前記無人航空機に対応する制御信号に変換するステップと、
    前記制御信号を前記無人航空機に送信して、前記制御信号により前記無人航空機を制御するステップと、
    前記制御信号によって制御された前記無人航空機の動作及び周囲の環境を含む画像が、三人称視点の画像として前記ディスプレイに表示するステップと、
    を含む無人航空機の制御方法。
  11. 前記制御装置が、ヘッドマウント型表示装置であり、
    感知装置が、前記ヘッドマウント型表示装置の前面に配置され、第2撮像装置を含み、
    前記第2撮像装置が、前記ユーザーの手を含む第2画像を取り込んで、前記第2画像内の手領域を取り込むよう構成され、
    前記ユーザーの前記動作を感知して、前記動作を前記無人航空機に対応する前記制御信号に変換する前記ステップが、
    前記第2撮像装置により前記手領域を取得して、前記ユーザーの手指動作を感知するステップと、
    ジェスチャー活動認識モジュールにより前記手指動作を複数種類のプリセットジェスチャーのうちの第1ジェスチャータイプとして認識するステップと、
    前記第1ジェスチャータイプを対応する前記制御信号に変換するステップと、
    を含む請求項10に記載無人航空機の制御方法。
  12. 前記手指動作に基づいて仮想手画像を生成するステップと、
    前記仮想手画像を表示された前記画像に重ねるステップと、
    をさらに含む請求項11に記載無人航空機の制御方法。
  13. 前記制御装置が、携帯用電子機器であり、
    前記携帯用電子機器が、前記ユーザーに面する方向に配置された第2撮像装置を含み、
    前記第2撮像装置が、前記ユーザーの手を含む第2画像を取り込んで、前記第2画像内の手領域を取り込むよう構成され、
    前記ユーザーの前記動作を感知して、前記動作を前記無人航空機に対応する前記制御信号に変換する前記ステップが、
    前記第2撮像装置により前記手領域を取得して、前記ユーザーの手指動作を感知するステップと、
    ジェスチャー活動認識モジュールにより前記手指動作を複数種類のプリセットジェスチャーのうちの第1ジェスチャータイプとして認識するステップと、
    前記第1ジェスチャータイプを対応する前記制御信号に変換するステップと、
    を含む請求項10に記載無人航空機の制御方法。
  14. 前記制御装置が、携帯用電子機器であり、
    前記携帯用電子機器が、前記ユーザーに面する方向に配置された第2撮像装置を含み、
    前記第2撮像装置が、前記ユーザーの唇を含む第2画像を取り込んで、前記第2画像内の唇領域を取り込むよう構成され、
    前記ユーザーの前記動作を感知して、前記動作を前記無人航空機に対応する前記制御信号に変換する前記ステップが、
    前記第2撮像装置により前記唇領域を取得して、前記ユーザーの唇の動きを感知するステップと、
    唇活動認識モジュールにより前記唇の動きを認識して、前記ユーザーの音声テキスト情報を取得するステップと、
    前記音声テキスト情報を対応する前記制御信号に変換するステップと、
    を含む請求項10に記載の無人航空機の制御方法。
  15. 前記制御装置が、ネックマウント型ウェアラブルデバイスであり、
    前記ネックマウント型ウェアラブルデバイスが、前記ユーザーの手に面する方向に配置された第2撮像装置を含み、
    前記第2撮像装置が、前記ユーザーの前記手を含む第2画像を取り込んで、前記第2画像内の手領域を取り込むよう構成され、
    前記ユーザーの前記動作を感知して、前記動作を前記無人航空機に対応する前記制御信号に変換する前記ステップが、
    前記第2撮像装置により前記手領域を取得して、前記ユーザーの手指動作を感知するステップと、
    ジェスチャー活動認識モジュールにより前記手指動作を複数種類のプリセットジェスチャーのうちの第1ジェスチャータイプとして認識するステップと、
    前記第1ジェスチャータイプを対応する前記制御信号に変換するステップと、
    を含む請求項10に記載の無人航空機の制御方法。
JP2022046506A 2021-11-30 2022-03-23 無人航空機の制御装置およびその制御方法 Active JP7482923B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW110144560 2021-11-30
TW110144560A TWI802115B (zh) 2021-11-30 2021-11-30 無人機的控制裝置及其控制方法

Publications (2)

Publication Number Publication Date
JP2023081259A JP2023081259A (ja) 2023-06-09
JP7482923B2 true JP7482923B2 (ja) 2024-05-14

Family

ID=86499906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022046506A Active JP7482923B2 (ja) 2021-11-30 2022-03-23 無人航空機の制御装置およびその制御方法

Country Status (3)

Country Link
US (1) US11921523B2 (ja)
JP (1) JP7482923B2 (ja)
TW (1) TWI802115B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113939871A (zh) * 2019-06-11 2022-01-14 松下知识产权经营株式会社 讲话区间检测装置、讲话区间检测方法及讲话区间检测程序
CN117389338B (zh) * 2023-12-12 2024-03-08 天津云圣智能科技有限责任公司 无人机的多视角交互方法、装置及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014150348A (ja) 2013-01-31 2014-08-21 Sharp Corp 撮影装置
JP2018165066A (ja) 2017-03-28 2018-10-25 セイコーエプソン株式会社 頭部装着型表示装置およびその制御方法
JP2021179924A (ja) 2020-05-15 2021-11-18 富士フイルムビジネスイノベーション株式会社 情報提示システム及びプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7606411B2 (en) 2006-10-05 2009-10-20 The United States Of America As Represented By The Secretary Of The Navy Robotic gesture recognition system
US8903568B1 (en) * 2013-07-31 2014-12-02 SZ DJI Technology Co., Ltd Remote control method and terminal
US9798322B2 (en) 2014-06-19 2017-10-24 Skydio, Inc. Virtual camera interface and other user interaction paradigms for a flying digital assistant
WO2017071143A1 (en) 2015-10-30 2017-05-04 SZ DJI Technology Co., Ltd. Systems and methods for uav path planning and control
CN105223957B (zh) 2015-09-24 2018-10-02 北京零零无限科技有限公司 一种手势操控无人机的方法和装置
EP3971674B1 (en) 2015-12-09 2024-02-14 SZ DJI Technology Co., Ltd. Systems and methods for uav flight control
CN105630341A (zh) 2015-12-23 2016-06-01 英华达(上海)科技有限公司 触控显示装置、触控显示方法及无人机
KR20170090603A (ko) 2016-01-29 2017-08-08 아주대학교산학협력단 손의 움직임 인식을 이용한 드론 제어 시스템 및 방법
US10168700B2 (en) 2016-02-11 2019-01-01 International Business Machines Corporation Control of an aerial drone using recognized gestures
US20180217671A1 (en) * 2016-02-23 2018-08-02 Sony Corporation Remote control apparatus, remote control method, remote control system, and program
US10244211B2 (en) 2016-02-29 2019-03-26 Microsoft Technology Licensing, Llc Immersive interactive telepresence
TWI631507B (zh) * 2016-03-04 2018-08-01 德凡特未來股份有限公司 動作判識裝置及其控制方法
CN106020234B (zh) * 2016-07-26 2020-09-08 北京奇虎科技有限公司 一种无人机飞行控制的方法、装置及设备
KR20180075191A (ko) 2016-12-26 2018-07-04 삼성전자주식회사 무인 이동체를 제어하기 위한 방법 및 전자 장치
TWI667054B (zh) 2017-01-24 2019-08-01 大陸商騰訊科技(深圳)有限公司 飛行器飛行控制方法、裝置、飛行器及系統
CA2997077A1 (en) 2017-03-06 2018-09-06 Walmart Apollo, Llc Apparatuses and methods for gesture-controlled unmanned aerial vehicles
KR102239469B1 (ko) * 2018-01-19 2021-04-13 한국과학기술원 객체 제어 방법 및 객체 제어 장치
TWI725497B (zh) * 2018-08-08 2021-04-21 緯創資通股份有限公司 控制裝置與無人機控制方法
US11625034B2 (en) * 2019-02-21 2023-04-11 Hangzhou Zero Zero Technology Co., Ltd One-handed remote-control device for aerial system
US11106223B2 (en) 2019-05-09 2021-08-31 GEOSAT Aerospace & Technology Apparatus and methods for landing unmanned aerial vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014150348A (ja) 2013-01-31 2014-08-21 Sharp Corp 撮影装置
JP2018165066A (ja) 2017-03-28 2018-10-25 セイコーエプソン株式会社 頭部装着型表示装置およびその制御方法
JP2021179924A (ja) 2020-05-15 2021-11-18 富士フイルムビジネスイノベーション株式会社 情報提示システム及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ドローン[Phantom3 Standard]に360度カメラ[Insta360 ONE]をつけて沖縄の海を空撮!,SUNABA KOZA,日本,株式会社ハナハナワークスおきなわ,2019年05月03日,https://sunabaco.ltd/2019/05/03/blog-03/

Also Published As

Publication number Publication date
US11921523B2 (en) 2024-03-05
JP2023081259A (ja) 2023-06-09
TWI802115B (zh) 2023-05-11
US20230168694A1 (en) 2023-06-01
TW202324015A (zh) 2023-06-16

Similar Documents

Publication Publication Date Title
US11816296B2 (en) External user interface for head worn computing
US11231897B2 (en) Display system, display device, information display method, and program
US10643390B2 (en) Head mounted display, method for controlling head mounted display, and computer program
US11886638B2 (en) External user interface for head worn computing
JP7482923B2 (ja) 無人航空機の制御装置およびその制御方法
CN107223223B (zh) 一种无人机第一视角飞行的控制方法及***、智能眼镜
US20170017323A1 (en) External user interface for head worn computing
WO2018133593A1 (zh) 智能终端的控制方法和装置
KR20150134591A (ko) 무인 항공기를 제어하는 포터블 디바이스 및 그 제어 방법
US9678663B2 (en) Display system and operation input method
KR102449439B1 (ko) Hmd를 이용한 무인기 조종 장치
US11164383B2 (en) AR device and method for controlling the same
JP2018112809A (ja) 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
JP2017091433A (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
US20160070101A1 (en) Head mounted display device, control method for head mounted display device, information system, and computer program
CN107077363B (zh) 信息处理装置、控制信息处理装置的方法、记录介质
US11804052B2 (en) Method for setting target flight path of aircraft, target flight path setting system, and program for setting target flight path
CN108008730A (zh) 无人机飞行控制方法及其***
JP6303274B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2018142764A (ja) 表示システム、表示装置、及び、表示装置の制御方法
JP2016130985A (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
US20170285765A1 (en) Input apparatus, input method, and computer program
JP6451222B2 (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2015176526A (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2018107823A (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240430

R150 Certificate of patent or registration of utility model

Ref document number: 7482923

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150