JP2009295152A - ユーザの身振りに基づいてアビオニクス・システムを動作させる方法及びシステム - Google Patents

ユーザの身振りに基づいてアビオニクス・システムを動作させる方法及びシステム Download PDF

Info

Publication number
JP2009295152A
JP2009295152A JP2009116453A JP2009116453A JP2009295152A JP 2009295152 A JP2009295152 A JP 2009295152A JP 2009116453 A JP2009116453 A JP 2009116453A JP 2009116453 A JP2009116453 A JP 2009116453A JP 2009295152 A JP2009295152 A JP 2009295152A
Authority
JP
Japan
Prior art keywords
headset
display
pilot
operating state
movements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009116453A
Other languages
English (en)
Inventor
Brent D Larson
ブレント・ディー・ラーソン
John G Suddreth
ジョン・ジー・サドレス
Frank Cupero
フランク・キュペロ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell International Inc
Original Assignee
Honeywell International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell International Inc filed Critical Honeywell International Inc
Publication of JP2009295152A publication Critical patent/JP2009295152A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • B64D45/04Landing aids; Safety measures to prevent collision with earth's surface
    • B64D45/08Landing aids; Safety measures to prevent collision with earth's surface optical
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D43/00Arrangements or adaptations of instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】パイロットの身振りに基づいて、ヘッドセットおよびヘッドアップディスプレイを含むアビオニクス・システムを動作させる方法及びシステムを提供する。
【解決手段】パイロットが装着しているヘッドセットの位置と方向を検出し、位置と方向の所定の動作の検出に応答して、ヘッドアップディスプレイを第1の動作モードから第2の動作モードに切り替え、ヘッドセットが最初の位置と方向に戻る場合、ヘッドアップディスプレイを第2の動作モードにとどまらせる。
【選択図】図2

Description

本発明は、一般にアビオニクス・システムに関し、より詳細には、パイロット等のユーザの身振りに基づいてアビオニクス・システムを動作させるための方法及びシステムに関する。
航空機のような現在の乗り物はしばしば、透明なディスプレイ又は画像コンバイナ上へ様々なシンボル及び情報を投影するヘッドアップ・ディスプレイ(HUD)を含み、それを通じてユーザ(例えばパイロット)は同時に外部の状況を見ることができる。従来のHUDは、航空機のフロントガラス上の計器盤の上に配置された、あるいは直接フロントガラスとパイロットとの間に配置された固定の画像コンバイナを含んでいる。
最近になって、パイロットの頭の位置や角度方向が変化するにつれて移動するパイロットのヘルメットやヘッドセットに結合された、目に近い(near-to-eye、NTE)ディスプレイのような画像コンバイナを利用する、「ヘッド・マウント型の」HUDがますます開発されている。ヘッド・マウント型のHUDの長所は、表示された情報がパイロットの頭の位置や方向にかかわらずパイロットに見えるということであるが、パイロットが目に見える障害物ができるだけない状態で地形を見ることを試みている場合、あるいは、パイロットが計器盤(つまり「ヘッド・ダウン」ディスプレイ)上の表示を見ている場合など、NTEディスプレイ上の情報見えなくなることをパイロットが望む状況が存在する。通常、パイロットがHUDを非活性化するためのただ一つの方法は、航空機の操縦室でユーザ入力デバイス(例えば。スイッチ)を手動で作動させることであり、これは気が散る原因となり、通常は少なくとも1つの手を操縦装置から離すことをパイロットに要求する。
この意味で、固定の画像コンバイナを利用する従来のHUDには、パイロットの頭部が画像コンバイナの正面にある場合、表示された情報が通常目に見えるにすぎないという長所がある。すなわち、パイロットが画像コンバイナを見回すために横に傾くかあるいは計器盤を見おろすと、HUD上の情報はもはや目に見えなくなる。
さらに、ユーザ入力デバイスの手動操作の必要なしにパイロットが航空機内の他のシステムをコントロールできることが有利な状況がある。さらに、航空機がパイロットの身振りに自動的に応答することが有利な状況がある。
従って、ユーザの身振りに基づいてアビオニクス・システムを動作させる方法及びシステムを提供することが望ましい。さらに、本発明のその他の望ましい特徴及び特性は、添付の図面及びこの背景と共に以下の本発明の詳細な説明及び添付の特許請求の範囲を考慮することで明白になる。
ヘッドセット及びヘッドアップ・ディスプレイ(HUD)装置を含むアビオニクス・システムを動作させる方法が提供される。HUD装置が第1の動作状態にある場合のヘッドセットの最初の位置−方向が検出される。ヘッドセットの所定の組の動作が検出される。ヘッドセットの所定の組の動作は最初の位置−方向で始まる。所定の組の動作の検出に応答して、HUD装置は、第1の動作状態から第2の動作状態に切り替えられる。ヘッドセットが最初の位置−方向へ戻る場合、HUD装置は第2の動作状態にとどまらせられる。
ヘッドセット及びヘッドアップ・ディスプレイ(HUD)装置を含むアビオニクス・システムを動作させる方法が提供される。ヘッドセットの動作の第1と第2の組が定義される。HUD装置が第1の動作状態にある場合のヘッドセットの最初の位置−方向が検出される。ヘッドセットの第1の組の動作が検出される。ヘッドセットの第1の組の動作は最初の位置−方向で開始する。第1の組の動作の検出に応答して、HUD装置は、第1の動作状態から第2の動作状態に切り替えられる。第2の組の動作を経験せずにヘッドセットが最初の位置−方向へ戻る場合、HUD装置は第2の動作状態にとどまらせられる。ヘッドセットの第2の組の動作が検出される。第2の組の動作の検出に応答して、HUD装置は、第2の動作状態から第3の動作状態に切り替えられる。
ヘッドセットを含むアビオニクス・システムを動作させる方法が提供される。ヘッドセットの所定の組の動作が検出される。ヘッドセットの所定の組の動作の検出に応じて音声通信が生成される。
本発明は、類似の数字が類似の要素を示す以下の図面と共に以下に記述される。
本発明の1つの実施例に従う、航空機の概略的なブロック図である。 最初の位置−方向における目に近い(NTE)ディスプレイを含む図1の航空機内のヘッドセットの等角図である。 記号画像がレンダリングされたNTEディスプレイの平面図である。 第1の組の動作を経験する図2のヘッドセットの等角図である。 記号画像を非活性化した、図3のNTEディスプレイの平面図である。 動作の別のセットを経験する図2のヘッドセットの等角図である。 本発明の別の実施例による1組の動作を経験する図2のヘッドセットの等角図である。 本発明のさらなる実施例による1組の動作を経験する図2のヘッドセットの等角図である。
以下の詳細な説明は本来例示にすぎず、本発明又は本発明の用途及び使用を制限するようには意図されない。さらに、前述の技術分野、背景及び概要又は以下の詳細な説明において提示される如何なる明示の又は黙示の理論によって束縛される意図もない。図1−8が単なる実例であり、一定の縮尺で描かれていないことにも注目すべきである。さらに、幾つかの図面において、x、y及びz軸及び/又は方向(又はピッチ(pitch)、ロール(roll)及び/又はヨー(yaw)軸))を含むデカルト座標系が、様々な実施例に従って、構成要素の相対的な方向を明確にするように示されている。しかし、この座標系は、単に本発明の種々の側面の説明を助けるように意図されるものであり、制限するものとして解釈されるべきでない。
図1乃至図8は、アビオニクス・システムを動作させるための方法及びシステムを説明する。1つの実施例では、アビオニクス・システムはヘッドセット及びヘッドアップ・ディスプレイ(HUD)を含む。HUD装置が第1の動作状態にある場合、ヘッドセットの最初の位置及び/又は角度方向(つまり位置−方向)が検出される。ヘッドセットの所定の組の動作(空間的な及び/又は角度的なもの)が検出される。ヘッドセットの所定の組の動作は最初の位置−方向において開始する。所定の組の動作の検出に応じて、HUD装置は、第1の動作状態から第2の動作状態に切り替えられる。ヘッドセットが最初の位置−方向へ戻る場合、HUD装置は第2の動作状態にとどまるようにさせられる。HUD装置の動作状態の切り替えは、HUD装置上でレンダリングされた画像の少なくとも一部を活性化すること及び/又は非活性化することを含み得る。
別の実施例では、アビオニクス・システムはヘッドセットを含んでいる。ヘッドセットの所定の組の動作が検出される。ヘッドセットの所定の組の動作の検出に応答して音声通信が生成される。所定の組の動作は、例えばヘッドセットを着用しているユーザの遭難(distress)や身振りの状態を示してもよい。
図1は、本発明の1つの実施例に従う航空機のような乗り物20を概略的に示す。乗り物20は、1つの実施例において、例えばプロペラ又はジェット・エンジンで駆動される自家用飛行機、商用ジェット旅客機又はヘリコプターのような多くの異なるタイプの航空機のうちのいずれか1つであってもよい。描かれた実施例では、乗り物20は、操縦室22(あるいはコックピット)及びアビオニクス/飛行システム24を含んでいる。特に説明されないが、一般に理解されるように、乗り物20が操縦室22及びアビオニクス/飛行システム24が接続されるフレーム又はボデイをさらに含むことが理解されるであろう。乗り物20が単に例示的なものであり、描かれた構成要素、システム及びデータソースの1つ又は複数なしに実現することができることも注目されるべきである。1つ以上の追加のコンポーネント、システムあるいはデータソースを用いて乗り物20を実現できることがさらに理解されるであろう。
操縦室22は、ユーザ・インターフェース26、ディスプレイ装置28(例えば主要な飛行ディスプレイ(primary flight display、PFD)、通信無線装置30、ナビゲーション無線装置32、オーディオ装置34、ヘッドセット36、及び頭部(及び/又は目)動作追跡装置(motion tracker)38を含む。
ユーザ・インターフェース26は、ユーザ40(例えばパイロット)から入力を受け取り、ユーザ入力に応答してアビオニクス/飛行システム24に対してコマンド信号を供給するように構成される。ユーザ・インターフェース26は、飛行制御装置(図示せず)、及び、マウス、トラックボール、ジョイスティック及び/又はキーボードのようなカーソル制御デバイス(CCD)、1個以上のボタン、スイッチ又はノブを含むがこれらに限定されない様々な既知のユーザ・インターフェース・デバイスのいずれか1つ又はこれらの組み合わせを含み得る。描かれた実施例では、ユーザ・インターフェース26はCCD42及びキーボード44を含んでいる。ユーザ40はCCD42を使用して、例えば、ディスプレイ装置28上のカーソル・シンボルを移動させ、またキーボード44を使用して、例えばテキストデータを入力する。
さらに図1を参照すると、ディスプレイ装置28は、グラフィック形式、アイコン形式及び/又はテキスト形式で様々な画像及びデータを表示するために使用され、また、ユーザ40によってユーザ・インターフェース26へ供給されたユーザ入力コマンドに応答してユーザ40に対して視覚フィードバックを供給するために使用される。ディスプレイ装置28がそれぞれ、画像及び/又はテキストデータをユーザ40が見ることのできるフォーマットでレンダリングするのに適した、陰極線管(CRT)ディスプレイ、LCD(液晶ディスプレイ)あるいはTFT(薄膜トランジスタ)ディスプレイ等の多くの既知のディスプレイの任意の1つを用いて実現できることが理解されるであろう。ディスプレイ装置28は、固定の画像コンバイナ上に投影される「ヘッド・ダウン」ディスプレイ又はヘッドアップ・ディスプレイ(HUD)として操縦室22において実現することもできる。
一般に理解されるように、航空管制官及び他の航空機のパイロットのような乗り物20の外側のエンティティと通信するために、通信無線装置30が使用される。ナビゲーション無線装置32は、(以下に記載されるような)グローバル・ポジショニング衛星(GPS)システム及び自動方向探知機(ADF)のように、乗り物の位置に関する様々な情報を外部ソースから受け取り、ユーザに伝えるために使用される。オーディオ装置34は、1つの実施例において、操縦室22内に取り付けられたオーディオ・スピーカである。
ヘッドセット36は、イヤホン46、マイクロホン48及び目の近くの(NTE)ディスプレイ(あるいは表示画面)50の相互に連結した組み合わせを含んでいる。イヤホン46は、実質的にヘッドセット36のためのフレームを形成し、パイロットによって取り外し可能に着用されるように構成されてもよい。以下に説明するように、イヤホン46及びマイクロホン48は、通信無線装置30と操作可能に通信してもよく、また、NTEディスプレイはアビオニクス・システム24と操作可能に通信してもよい。一般に理解されるように、ヘッドセット36が着用されている間にNTEディスプレイ50がユーザ40の目の正面に直接位置するよう、NTEディスプレイ50はイヤホン46から調節可能につるされてもよい。1つの実施例では、一般に理解されるように、NTEディスプレイ50は画像コンバイナ(つまり実質的に透明な板)である。NTEディスプレイ50は、さらに例えばLCDディスプレイ画面のような平面パネル・ディスプレイ画面であってもよい。図示されていないが、ヘッドセット36は、さらにユーザの頭部に対するユーザの目の動きを検出するために目動作検出器を含んでもよい。さらに、ヘッドセット36は、ユーザの頭部の動きを検出するために慣性センサのような様々なハードウェアを含んでもよい。操縦室22がヘッドセット36の、そして特にNTEディスプレイ50の「動作範囲限界」を定義してもよいことも注目されるべきである。すなわち、ヘッドセット36及びNTEディスプレイ50は、(例えば、ヘッドセットが「プラグを抜かれた状態」になることで)動作範囲限界から外れた場合、適切に動作することができず、及び/又は、航空機20の他の構成要素と通信することができない。
動作追跡装置38は、パイロットの頭部、全体としてのヘッドセット36及び/又はNTEディスプレイ50の動作(つまり位置と角度方向)を、(単独であるいはヘッドセット36中のハードウェアと協働して)検出するように構成される。図示されていないが、動作追跡装置38は、ヘッドセット36内に配置される光学コンポーネント及び/又は赤外線コンポーネント並びに慣性センサを含む、ヘッドセット36の動作を決定するための様々な方法を利用してもよい。図1及び2を参照すると、動作追跡装置38及び/又はヘッドセット36(又は下記に述べるプロセッサ)は、示されたデカルト座標系に対するヘッドセット36の位置及び角度方向(つまり位置−方向)を決定することができる。以下に述べるヘッドセット36の動作を説明するために、動作ボックス52がヘッドセット36に関して描かれている。さらに、矢印54は、ヘッドセット36の中央の部分から始まって、ヘッドセット36の角度方向の変化を示すものとして示される。特に矢印54は、パイロット40の視野の中心軸を示してもよい(図1)。図2は、空間的にも角度的にも動作ボックス52内の「中央の」(あるいは最初の)位置のヘッドセット36を示し、そこでパイロットは「直接前方を」(つまり航空機20の正面に向かって又は正面にわたって)見ていることができ、パイロットの頭部は、その人の座席(図示せず)の上に実質的に中央に配置される。
図1に示されるように、アビオニクス/飛行システム24は走路認識及び助言システム(runway awareness and advisory system、RAAS)55、計器着陸システム(ILS)56、フライトディレクター58、天気データソース60、地形回避警告システム(terrain avoidance warning system、TAWS)62、航空機衝突回避システム(traffic and collision avoidance system、TCAS)64、複数のセンサ66(例えば気圧センサ、温度計、及び風速センサ)、1以上の地形データベース68、1以上のナビゲーションデータベース70、ナビゲーション及びコントロールシステム(あるいはナビゲーションコンピュータ)72、及びプロセッサ74を含む。アビオニクス/飛行システム24の様々なコンポーネントはデータバス76(あるいはアビオニクス・バス)を介して操作可能に通信する。説明されないが、ナビゲーション及びコントロールシステム72は、飛行管理システム(FMS)、制御ディスプレイユニット(CDU)、オートパイロット又は自動誘導システム、複数の飛行制御表面(例えば補助翼、エレベータ及び方向舵)、エアデータコンピュータ(ADC)、高度計、大気データシステム(ADS)、グローバル・ポジショニング衛星(GPS)システム、自動方向探知装置(ADF)、コンパス、少なくとも1つのエンジン及びギア(つまり着陸装置)を含んでもよい。
プロセッサ74は、プログラム命令に応答して動作する、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、離散的な論理回路、マイクロプロセッサ、マイクロコントローラ及びデジタルシグナルプロセッサ(DSP)等、多くの既知の汎用制御装置あるいは特定用途向けプロセッサのうちの任意の1つ、あるいはそれらの組み合わせであってもよい。描かれた実施例では、プロセッサ74はオンボードのRAM(ランダム・アクセス・メモリ)78及びオンボードのROM(読み取り専用メモリ)80を含んでいる。プロセッサ74を制御するプログラム命令は、RAM78及びROM80のどちらかあるいは両方に格納されてもよい。例えば、オペレーティング・システム・ソフトウェアはROM80に格納されてもよいが、様々なオペレーティング・モード・ソフトウェア・ルーチン及び様々な動作パラメータはRAM78に格納されてもよい。RAM78及び/又はROM80は、以下に説明される方法及びプロセスの実行のためにその上に格納された指示を含んでもよい。これがオペレーティング・システム・ソフトウェア及びソフトウェア・ルーチンを格納する1つのスキームの単なる例示であって、様々な他の記憶スキームが実現し得ることが理解されよう。プロセッサ74がプログラマブルプロセッサだけでなく様々な他の回路を使用して実現されてもよいこともまた理解されよう。例えば、デジタル論理回路とアナログ信号処理回路を使用することもできる。
航空機20の動作中に、ヘッドセット36はパイロット40(あるいは他のユーザ)によって着用され、イヤホン46及びマイクロホン48は他の航空機とも地上要員とも通信するために使用される。さらに、ユーザ40の一方の目の前に直接位置するように、NTEディスプレイ50は調節される。
図3は動作中のNTEディスプレイ50を示す。NTEディスプレイ50上に地形画像82及び記号画像(symbology imageあるいは単に「記号(symbology)」)84が示される。地形画像82は、操縦室22からのパイロットの視界を少なくとも表現する。図3に示される例示的な実施例では、地形画像82は、航空機20の外側の地形の航空機20からの斜視図を描き、全ディスプレイ50を実質的にカバーする。地形画像82は地形部分86及び空部分(sky portion)88を含んでいる。一般に理解されるように、ディスプレイ50が画像コンバイナである実施例では、地形画像82は、NTEディスプレイ50を通して見られるような地形(及び/又は操縦室22の内部)についてのパイロット40の視界に過ぎない。NTEディスプレイ50が例えばLCDディスプレイである実施例において、地形画像82は、航空機20の現在の位置及び/又は方向(例えば機首方位)を提供する航空機20に搭載された各種機器からの複数の読み取りに基づいて生成され、航空機20の位置及び/又は方向、並びに地形及びナビゲーションデータベース68及び70(図1)が変化するにつれて変化する。図3に示されるように、航空機20の動作についてユーザ40を支援するために、地形の特徴(例えば、丘、山、谷など)が地形画像82に示されてもよい。
さらに図3を参照して、記号84は地形画像100の上に表示される。記号84は、高度表示器90、対気速度表示器92、機首方位表示器94、ロール表示器96及びピッチ表示器98のような複数のデジタル計器を含んでいる。一般に理解されるように、説明された実施例において、高度表示器90及び対気速度表示器92は、高度「テープ」及び対気速度テープとしてそれぞれ表示される。機首方位表示器94は、ディスプレイ50の下側中心部分でコンパスとしてグラフィック表示される。ロール表示器96はディスプレイ50の上部で機首方位表示器94の上に表示され、ピッチ表示器98は機首方位表示器94とロール表示器96の間に位置する。デジタル計器90−98は、ユーザ40への航空機20の位置及び/又は方向(つまり、機首方位、ピッチ、ロールなど)の指示を含む航空機の現在の状態に関する情報を提供する。図示されるように、NTEディスプレイ50はさらに水平バー100を含み、これは地形画像82及び記号画像84のいずれの一部でもないと考えられる。水平バー100は、ピッチ表示器98を通って、スクリーン50の中心近くで水平に延在する。
1つの実施例では、NTEディスプレイ50の動作状態は、ヘッドセット36(及び/又はパイロットの頭部及び/又はNTEディスプレイ50)の動作の所定の組に基づいてコントロールされる。すなわち、パイロットの頭部の様々な身振り又は動きが航空機20上のメモリに格納され、特定の身振りが動作追跡装置38によって検出される場合、NTEディスプレイ50の動作状態は変更される(例えば、第1の動作状態から第2の動作状態に変更される)。
例えば、図4及び5に示されるように、ヘッドセット36の所定の組の動作(つまり、少なくとも1つの空間的な動作及び/又は角度的な動作)が、1つの実施例中で、NTEディスプレイ50に示された記号画像84を非活性化する。具体的に図4を参照すると、ヘッドセット36は、パイロットが「頭部を円状に動かす」のと一致するように動かされる。すなわち、ヘッドセット36は、最初の位置(図2)で開始し、パイロットが見るように矢印54の先が反時計回りの方向に移動されるように、主としてX軸及びz軸の周りを1回以上(例えば3回)回転される。動作追跡装置38によるこの動作の検出により、動作追跡装置38はプロセッサ74へ適切な信号を送るようにさせられる。その後、プロセッサ74は図5に示されるようにNTEディスプレイ50上の記号画像84(あるいは記号画像84の一部)を非活性化する。
1つの実施例では、パイロット40は、ヘッドセット40が第2の組の動作を経験するように、自分の頭部を移動させることにより、NTEディスプレイ50の動作状態の変化を逆にしてもよい。例えば、図6は、図4に示すのと反対にパイロットが自身の頭部を円状に移動させるのに一致するようにヘッドセット36が動かされるのを示す。すなわち、ヘッドセット36は、パイロットが見るように矢印54の先が時計回りの方向に移動されるように、主としてX軸及びz軸の周りを1回以上(例えば3回)回転される。動作追跡装置38によるヘッドセット36のこの移動の検出により、記号画像84(あるいは、記号画像84の非活性化された部分)が再活性化され(つまり、第1の動作状態と同じであってもよい第3の動作状態へと切り替えられ)、図3に示される動作状態にNTEディスプレイ50を戻す。
第1の組の動作が一旦検出されてNTEディスプレイが第2の動作状態に切り替えられると、ヘッドセット36が最初の位置(図2)に戻されても、ヘッドセット36の第2の組の動作が検出されるまで、NTEディスプレイが第1の動作状態に戻らないことに注目すべきである。そのようにして、NTEが第2の動作状態に切り替えられた後、第2の組の動作が(第1の組の動作と同様に)十分に複雑且つ不明瞭であってパイロット40が偶然にそのような身振りを行ないそうもないような場合、パイロット40は、ヘッドセット36の正常な使用を再開してもよい。
説明されていないが、動作又は身振りの他の組がNTEディスプレイ50の動作状態の他の変化を引き起こしてもよい。例えば、一般に理解されるように、ある身振りにより、NTEディスプレイ50上で、エンハンスト飛行視覚装置(EVS)機能の表示を活性化し及び/又は非活性化してもよい。他の身振りもまた、ちょうどスクリーンキャプチャのように現在の表示画像中でロックするような他の機能を行なうために使用されてもよい。動作追跡装置38によって使用されるパターン認識アルゴリズムは、ベースライン・パターンで始まってもよいが、ユーザ依存の新しい身振りを改良してもよいし、適応させてもよいし、さらに学習してもよい。ディスプレイ制御のための音声コマンドも身振りとともに使用されてもよい。
動作の組はまた、x、y及びz軸に沿った並進運動のような、x、y及びz軸に関する回転以外のヘッドセット36の動作を含んでもよい。さらに、身振りはNTEディスプレイ50の動作状態を切り替えること以外の機能を活性化するために使用されてもよい。
1つの実施例では、よく理解されるように、図1のプロセッサ74は、全部で6つまでの独立した自由度で、動作追跡装置38からの出力データを分析するために使用され、それはこの実施例においては位置座標(positional coordinate)及び方向座標(orientational coordinate)の両方を含んでいる。プロセッサ74は、独立した自由度の入力セットを、当該入力セットより少数の自由度によって記述された従属データセットに数学的に変換する。その後、プロセッサ74はこの縮小されたデータセットについてパターンマッチングあるいは他の解析を行なう。これは複数の頭部動作パターンが等価な身振りを表わすことを可能にする一方、パターンマッチング・タスクを単純化する。
図4及び6を例として使用すると、6つまでの独立した自由度までが追跡される一方、時計回り及び反時計回りの円で表わされた身振りは2次元(2つの自由度)である。パターンマッチングは6つの座標すべてについて行なわれていてもよいが、多くのマッチングパターンがロバストなアルゴリズムを生成するためにテストされてもよい。例えば、等価な円形パターンを、頭部を回すことなく位置の移動のみを使用して、又は代替的に、固定の回転軸位置のみに関する回転によって、作成することができる。この実施例で適用された変換は、頭部又はヘッドセットの前のシンボル平面(symbol plane)に関して、6つの自由度、3つの位置及び3つの回転(各々相対的な軸に関して)をマッピングする。この特定の実施例では、シンボル平面は検出された元の位置からの視界のフォワードラインに垂直なように選択される。
すなわち、たとえシステムが6つの自由度(及び三次元)での移動を認識しても、動作はパターン認識の目的で二次元のみの動作に低減されてもよい。そのため、図4及び6に示される二次元の円は、システムが特定の機能のためのトリガと認識する「パターン」を表わしてもよい。しかしながら、これらの二次元の円形パターンは、円内で位置的に、あるいは円内で「角度的に」、あるいはこの2つの組み合わせで(つまり三次元で)ユーザがユーザの頭部を移動させることよって生成されてもよい。
このように、有効でロバストなパターン認識が容易になる。この変換に続いて、当分野において周知のように、プロセッサ74内のさらなる計算が認識シーケンスを完成するために使用される。代替的なシンボル平面が使用されてもよい。例えば、図4では、当該平面は動作ボックス52の前面であると考えられてもよい。代替的に、シンボルは非平面であってもよいし、あるいはより高次元であってもよい。パイロットあるいは他のディスプレイのユーザの鼻から前に伸びる直線とシンボル平面を交差させることにより、結果として得られるシンボルの1つの直観的なビジュアル化が提供される。
ヨー、ピッチもしくはロール回転又はx、yもしくはz動作の定義された6つの自由度の1つ以上の任意の組み合わせについてパターン認識分析が行われてもよいことが理解されよう。パターンは、1つの軸もしくは位置、又は2つ以上の軸もしくは位置で検出されてもよい。
目追跡装置(eye tracker)とともに使用される場合、パターン認識を分析することができる追加の軸あるいは位置(つまり6を超える自由度)があってもよい。例えば、目が下方を見ている間に頭部が上方へ傾けられる場合、拡大鏡を通して見る誰かに類似した方法で、ディスプレイを見ることができてもよいし、そうでなければ、表示を見ることができなくてもよい。
上述の方法及びシステムの1つの長所は、障害物の量を低減した状態で航空機の外部又は内部を見ることをユーザが望む場合に、NTEディスプレイ上の記号を迅速に非活性化するための方法をユーザに提供するということである。別の長所は、操縦室の任意の制御装置の手動操作を必要とせずに、ユーザがNTEディスプレイの動作状態を切り替えることができるということである。
別の実施例では、操縦室22内の無線通信あるいは音声メッセージのような音声通信を活性化するために身振りが使用される。
図7は、本発明の1つの実施例に従う、無線通信を活性化するために使用されるヘッドセット36の身振りを示す。詳細に示されていないが、ヘッドセット36は、矢印54の先が選択されたリズムで上方及び下方へ動かされる(つまり、パイロット40が頭部を縦に振る)ように、実質的にx軸に関して回転される。1つの例示的な実施例では、その動きは3つの比較的短く迅速な縦の振りとそれに続く3つのより長くより遅い縦の振りを含み、3つの追加の短く迅速な縦の振りで完結する。そのような組の動作は、モーリス符号に関連して記載されるように、3つの短いマーク、それに続く3つの長いマーク、そして3つの短いマークとして表現されてもよい。モールス符号におけるそのような一連のマークは、遭難信号(distress signal)として国際的に認識されている。そのため、1つの実施例では、上述の動作の組は、例えば、通信無線装置30(図1)に、航空機20が遭難していることを示すあらかじめ記録された無線通信を地上要員及び/又は他の航空機に対して送信させるために使用される。この実施例において特に興味をひくのは、パイロット40はマイクロホン48(図1)に向かってしゃべる必要なしに、また手動で操縦室22の如何なる制御装置も作動させる必要なしに、そのような遭難信号を送ることができるということである。したがって、そのような無線通信は「サイレント無線通信」と呼ばれてもよい。
図8は、本発明の別の実施例に従う、操縦室22において可聴の警報を活性化するために使用されるヘッドセット36の1組の動作を示す。詳細に示されていないが、ヘッドセットは、矢印54の先が選択されたリズムで(例えば図2に示される最初の位置から)下方へ及び上方へ動かされるように、実質的にx軸に関して回転される。1つの例示的な実施例では、その動きは、一連の比較的長く遅い下方への縦の振りと、その各々に続くより速くてより急激な上方への振りとを含む。所定の時間内に動作追跡装置38(図1)によって検出されたヘッドセット36の一連のそのような動作は、パイロット40が疲労していることを示してもよい。すなわち、上述の動作は、パイロットが寝入っていることを示してもよい。そのため、1つの実施例では、上述の動作の組は、オーディオ装置34(及び/又はイヤホン46)に、動作追跡装置38によって検出された身振りにつきパイロット40に対して警告を出すための可聴信号を生成させるために使用される。例えば、オーディオ装置34は、予め記録された警告あるいはアラームの音を生成してもよい。したがって、パイロット40は、自身が明らかに疲労状態にあることを警告されることができる。
1つの実施例で、システム、あるいはより具体的にはプロセッサ74は、ユーザ40について典型的な頭部の動きの速度、パターン及び/又は加速度を確立又は「学習」してもよい。後続の動作は、動作を以前に決定された「典型的な」動作と比較する、1つ以上の数値メトリック(測定基準)を生成するために分析され続けてもよい。これあるいは他の頭部動作アルゴリズムは、切迫した眠気についてパイロット及び/又は副操縦士に警告し、立ったり、歩いたり、あるいは他の刺激的な活動を提案することができる。視覚的又は音声の合図に加えて、追跡装置のデータが継続的な懸案事項を示す場合、振動あるいは他の機構のような物理的な刺激が適用されてもよい。適切な処理アルゴリズムで、システムは、ローカルにもっともよく扱われている状況と、例えば医学的な問題やセキュリティ上の問題等を近くの航空機搭乗員、航空交通管制あるいは他の機関などの他者に通知することを保証する状況とを識別してもよい。
他の実施例は、陸上車及び船舶のような航空機以外の乗り物で上述された方法及びシステムを利用してもよい。当該方法及びシステムも、動作範囲限界がユーザが遠隔的に乗り物を制御するステーションに対応するような無人車両で使用されてもよい。
少なくとも1つの例示的な実施例が以上の詳細な説明で示されたが、莫大な数の変更が存在することは理解されるべきである。例示的な実施例が単なる例であり、本発明の範囲、適用可能性あるいは構成をいかようにも制限するようには意図されないことはさらに理解されるべきである。そのようなものではなく、先の詳細な説明は、例示的な実施例の実現のために当業者に便利なロードマップを提供するものである。添付の特許請求の範囲及びその法的な等価物において述べられるような本発明の範囲から逸脱することなく、要素の機能及び構成において様々な変更を行なうことができることが理解されるであろう。

Claims (3)

  1. ヘッドセット(36)及びヘッドアップ・ディスプレイ(HUD)装置(50)を含むアビオニクス・システムを動作させる方法であって、
    HUD装置(50)が第1の動作状態にある場合に、前記ヘッドセット(36)の最初の位置−方向を検出するステップと、
    前記ヘッドセット(36)の所定の組の動作を検出するステップであって、前記所定の組の動作は前記最初の位置−方向から始まる、ステップと、
    前記所定の組の動作の検出に応答して、前記HUD装置(50)を前記第1の動作状態から第2の動作状態へ切り替えるステップと、
    前記ヘッドセットが前記最初の位置−方向へ戻る場合に、前記HUD装置(50)を前記第2の動作状態にとどまらせるステップと
    を含む方法。
  2. ヘッドセット(36)及びヘッドアップ・ディスプレイ(HUD)装置(50)を含むアビオニクス・システムを動作させる方法であって、
    前記ヘッドセット(36)の第1の組の動作及び第2の組の動作を定義するステップと、
    前記HUD装置(50)が第1の動作状態にある場合に、前記ヘッドセット(36)の最初の位置−方向を検出するステップと、
    前記ヘッドセット(36)の前記第1の組の動作を検出するステップであって、前記第1の組の動作は前記最初の位置−方向から始まる、ステップと、
    前記第1の組の動作の検出に応答して、前記HUD装置(50)を前記第1の動作状態から第2の動作状態に切り替えるステップと、
    前記ヘッドセット(36)が前記第2の組の動作を経験せずに前記最初の位置−方向へ戻る場合に、前記HUD装置(50)を前記第2の動作状態にとどまらせるステップと、
    前記ヘッドセット(36)の第2の組の動作を検出するステップと、
    前記第2の組の動作の検出に応答して、前記HUD装置(50)を前記第2の動作状態から第3の動作状態に切り替えるステップと
    を含む方法。
  3. ヘッドセット(36)を含むアビオニクス・システムを動作させる方法であって、
    前記ヘッドセット(36)の所定の組の動作を検出するステップと、
    前記ヘッドセット(36)の前記所定の組の動作の検出に応答して、音声通信を生成するステップと
    を含む方法。
JP2009116453A 2008-05-19 2009-05-13 ユーザの身振りに基づいてアビオニクス・システムを動作させる方法及びシステム Withdrawn JP2009295152A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US12/123,079 US8907887B2 (en) 2008-05-19 2008-05-19 Methods and systems for operating avionic systems based on user gestures

Publications (1)

Publication Number Publication Date
JP2009295152A true JP2009295152A (ja) 2009-12-17

Family

ID=40957994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009116453A Withdrawn JP2009295152A (ja) 2008-05-19 2009-05-13 ユーザの身振りに基づいてアビオニクス・システムを動作させる方法及びシステム

Country Status (5)

Country Link
US (1) US8907887B2 (ja)
EP (1) EP2124088B1 (ja)
JP (1) JP2009295152A (ja)
KR (1) KR20090120431A (ja)
TW (1) TW201003586A (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8970692B2 (en) 2011-09-01 2015-03-03 Industrial Technology Research Institute Head mount personal computer and interactive system using the same
US9965169B2 (en) * 2011-12-29 2018-05-08 David L. Graumann Systems, methods, and apparatus for controlling gesture initiation and termination
DE102012214903A1 (de) * 2012-08-22 2014-05-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Head-up-Displays eines Fahrzeugs und Bildermittlungssystem für das Head-up-Display
FR3003842B1 (fr) * 2013-03-26 2016-03-11 Airbus Operations Sas Dispositif de dialogue par gestuelles pour un poste de pilotage.
EP2892036B1 (en) * 2014-01-06 2017-12-06 Harman International Industries, Incorporated Alert generation correlating between head mounted imaging data and external device
FR3020691B1 (fr) * 2014-04-30 2017-08-25 Thales Sa Systeme avionique comportant des moyens de designation et de marquage du terrain
FR3020688B1 (fr) * 2014-04-30 2016-05-06 Thales Sa Systeme de visualisation de tete comportant des moyens de selections de cap et procede de selection associe
US9829708B1 (en) * 2014-08-19 2017-11-28 Boston Incubator Center, LLC Method and apparatus of wearable eye pointing system
US9811954B2 (en) * 2014-12-02 2017-11-07 Honeywell International, Inc. Near-to-eye display systems and methods for verifying aircraft components
US10030995B2 (en) * 2015-08-21 2018-07-24 The Boeing Company Controller for an aircraft tracker
US9964646B2 (en) 2015-08-21 2018-05-08 The Boeing Company Aircraft tracking method and device and method of installation
US10598932B1 (en) * 2016-01-06 2020-03-24 Rockwell Collins, Inc. Head up display for integrating views of conformally mapped symbols and a fixed image source
CN112578911B (zh) * 2016-12-06 2024-07-26 美国景书公司 跟踪头部和眼睛的运动的装置和方法
IL251843B (en) * 2017-04-20 2018-10-31 Elbit Systems Ltd Line-of-sight display mounted to the helicopter head
CN111252074B (zh) * 2020-01-19 2021-07-06 恒大恒驰新能源汽车科技(广东)有限公司 多模态控制方法、装置、计算机可读存储介质和车辆
US11582412B2 (en) * 2021-04-01 2023-02-14 Rockwell Collins, Inc. Camera agnostic core monitor incorporating projected images with high spatial frequency
US11590845B2 (en) * 2021-04-29 2023-02-28 Toyota Research Institute, Inc. Systems and methods for controlling a head-up display in a vehicle

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3719943A (en) * 1971-02-18 1973-03-06 Aradar Corp Selective identity system
US5347289A (en) * 1993-06-29 1994-09-13 Honeywell, Inc. Method and device for measuring the position and orientation of objects in the presence of interfering metals
US7180476B1 (en) * 1999-06-30 2007-02-20 The Boeing Company Exterior aircraft vision system using a helmet-mounted display
US6927694B1 (en) * 2001-08-20 2005-08-09 Research Foundation Of The University Of Central Florida Algorithm for monitoring head/eye motion for driver alertness with one camera
US20020158827A1 (en) * 2001-09-06 2002-10-31 Zimmerman Dennis A. Method for utilization of a gyroscopic or inertial device as a user interface mechanism for headmounted displays and body worn computers
WO2005043218A1 (ja) * 2003-10-30 2005-05-12 Brother Kogyo Kabushiki Kaisha 画像表示装置
US7180500B2 (en) * 2004-03-23 2007-02-20 Fujitsu Limited User definable gestures for motion controlled handheld devices
DE202004008110U1 (de) 2004-05-22 2004-08-12 Quade, Kay, Dipl.-Ing. (FH) Autonomes, selbstreferenzierendes Headtracking-Modul
GB0413877D0 (en) 2004-06-21 2004-07-21 Univ Staffordshire Head/body mounted control device
US7081836B2 (en) * 2004-07-09 2006-07-25 The Johns Hopkins University Method and apparatus for covertly detecting and reporting a distress condition in a vehicle control cabin
US7301465B2 (en) * 2005-03-24 2007-11-27 Tengshe Vishwas V Drowsy driving alarm system
US7212216B2 (en) * 2005-06-29 2007-05-01 Honeywell International, Inc. Perspective view primary flight display with terrain-tracing lines and method
US7535105B2 (en) 2005-08-02 2009-05-19 International Business Machines Corporation Inter-chip ESD protection structure for high speed and high frequency devices
US7342515B2 (en) * 2005-10-12 2008-03-11 Honeywell International, Inc. Hybrid centered head-down aircraft attitude display and method for calculating displayed drift angle limit
JP2008003389A (ja) 2006-06-23 2008-01-10 Fujifilm Corp レーザモジュール、光ファイバモジュール及び発光素子モジュール
US7928926B2 (en) * 2006-06-27 2011-04-19 Panasonic Corporation Display apparatus and method for hands free operation that selects a function when window is within field of view
JP4927631B2 (ja) 2006-06-27 2012-05-09 パナソニック株式会社 表示装置、その制御方法、プログラム、記録媒体および集積回路
US7538724B1 (en) * 2007-06-15 2009-05-26 Itt Manufacturing Enterprises, Inc. Method and system for relative tracking

Also Published As

Publication number Publication date
EP2124088B1 (en) 2019-07-10
EP2124088A2 (en) 2009-11-25
EP2124088A3 (en) 2012-03-07
TW201003586A (en) 2010-01-16
KR20090120431A (ko) 2009-11-24
US20090284552A1 (en) 2009-11-19
US8907887B2 (en) 2014-12-09

Similar Documents

Publication Publication Date Title
US8907887B2 (en) Methods and systems for operating avionic systems based on user gestures
US10168782B1 (en) Ultrasonic haptic feedback control system and method
US11760503B2 (en) Augmented reality system for pilot and passengers
US9594248B2 (en) Method and system for operating a near-to-eye display
US9533772B2 (en) Visual search assistance for an occupant of a vehicle
US8963804B2 (en) Method and system for operating a near-to-eye display
US8026834B2 (en) Method and system for operating a display device
EP2131153B1 (en) Methods and apparatus to assist pilots under conditions in which spatial disorientation may be present
JP2017130909A (ja) ディスプレイ・システムにおける前庭動眼反射の修正の設計および方法
EP3173847B1 (en) System for displaying fov boundaries on huds
US10627630B2 (en) Display system and method for an aircraft
EP2200005B1 (en) Method and system for managing traffic advisory information
US20190333397A1 (en) Method and system for pilot target aircraft and target obstacle alertness and awareness
US20190057612A1 (en) Method and system for pilot target aircraft and target obstacle alertness and awareness
Godfroy-Cooper et al. Joel D. Miller

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120807