JP6242591B2 - 仮想環境および物理環境における強化センサーによる位置特定 - Google Patents

仮想環境および物理環境における強化センサーによる位置特定 Download PDF

Info

Publication number
JP6242591B2
JP6242591B2 JP2013113752A JP2013113752A JP6242591B2 JP 6242591 B2 JP6242591 B2 JP 6242591B2 JP 2013113752 A JP2013113752 A JP 2013113752A JP 2013113752 A JP2013113752 A JP 2013113752A JP 6242591 B2 JP6242591 B2 JP 6242591B2
Authority
JP
Japan
Prior art keywords
virtual
perspective
view
real
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013113752A
Other languages
English (en)
Other versions
JP2013250268A5 (ja
JP2013250268A (ja
Inventor
ジェームズ ジェイ. トロイ,
ジェームズ ジェイ. トロイ,
ケヴィン ピューターボー,
ケヴィン ピューターボー,
クリストファー エスポージト,
クリストファー エスポージト,
ジョン シー. ガス,
ジョン シー. ガス,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boeing Co
Original Assignee
Boeing Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boeing Co filed Critical Boeing Co
Publication of JP2013250268A publication Critical patent/JP2013250268A/ja
Publication of JP2013250268A5 publication Critical patent/JP2013250268A5/ja
Application granted granted Critical
Publication of JP6242591B2 publication Critical patent/JP6242591B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

再配置可能な構造体等の大型オブジェクトの組み立ておよび保守は、コンポーネントの配置をガイドする測位システムの使用が有用である。たとえば、航空機は翼や尾部等の航空機の特定のコンポーネントの適切な配置を確保するため、これらのコンポーネントの位置を測定するための位置特定システムと装置が備わった施設で組み立てられることがある。航空機の製造においては整備士および品質保証(QA)部の検査係が航空機の特定位置を探す必要が頻繁に生じる。彼らはこれらの位置をデカルト座標X、Y、Z(航空業界ではStation、Buttline、Waterlineとも言われる)で示すテキストが記載された紙ベースのプリントアウトを使用する場合がある。場合によってはガイダンスとして図も使用されることがある。整備士または品質保証部の検査係は目的の位置が見つかったら、交換が必要な破損アイテムの座標を文書化する作業を実施する必要が生じる可能性がある。場合によっては、メジャーを使用し、関心領域近くのランドマークまたは地物からの距離を特定し、これを書き留めたりまたはラップトップに入力したりする。これらの手順には時間がかかり、また、テキストや図の誤認、測定方法に関する混同、手書きによるミス等、間違いが生じやすい。よって、対応する仮想環境の3Dモデルと統合可能な、物理的な動きを追跡するプロセスがあることが望ましい。
既存の位置特定システムは様々な欠陥がある。たとえば、光学式モーションキャプチャはシステムのサイズや囲まれた場所が必要であるといった制限があり、磁気追跡は磁気的干渉による影響、SLAM(Simultaneous Localization And Mapping)ベース手法には環境内の地物のハイコントラストな連続的可視性が必要となるところ、特に航空機の外側ではそれは常に得られるとは限らない。人間を追跡する標準的な慣性計測ユニット(IMU)ソリューションには、時間経過とともに、位置の直接計算の信頼性が損なわれる原因となる、加速度計のドリフトという問題がある。
したがって、様々な環境における3Dの位置特定とナビゲーションのためのシステムおよび方法があれば有用である。
一実施形態におけるコンピュータベースの方法は、実3次元空間における少なくとも1つの実オブジェクトに対する測定装置の実3次元空間における位置および方向を判定すること、および、測定装置に結合された表示装置上に、仮想3次元空間における実オブジェクトに対応する仮想オブジェクトの仮想イメージの透視図を表示することを含み、測定装置からの受信データから取得された位置および方向に基づき、仮想オブジェクトの透視図が実オブジェクトの透視図に一致する。
別の実施形態におけるコンピュータベースのシステムは、測定装置、表示部、プロセッサ、およびプロセッサに結合されたコンピュータで読み取り可能な有形媒体内に格納された論理命令を備えており、論理命令はプロセッサによる実行時に、実3次元空間における少なくとも1つの実オブジェクトに対する測定装置の実3次元空間における位置および方向を判定させ、かつ、表示部上に仮想3次元空間における実オブジェクトに対応する仮想オブジェクトの仮想イメージの透視図を表示させるようプロセッサを構成し、測定装置の位置に基づき、仮想オブジェクトの透視図が実オブジェクトの透視図に一致する。
別の実施形態におけるコンピュータプログラム製品は、プロセッサに結合されたコンピュータで読み取り可能な有形媒体内に格納された論理命令を備えており、論理命令はプロセッサによる実行時に、実3次元空間における少なくとも1つの実オブジェクトに対する測定装置の実3次元空間における位置および向きを判定させ、かつ、測定装置に結合された表示装置上に、仮想3次元空間における実オブジェクトに対応する仮想オブジェクトの仮想イメージの透視図を表示させるようプロセッサを構成し、測定装置の位置に基づき、仮想オブジェクトの透視図が実オブジェクトの透視図に一致する。
適用可能なさらなる領域は、本明細書の記載から明らかになる。本明細書の説明および具体例は解説のみを目的としたものであり、本開示に係る発明の範囲を限定することを意図していない。
本発明の解説に沿って、方法、システム、コンピュータプログラム製品に係る実施形態が以下の図面を参照しつつ詳細に記載される。
図1は、実施形態に従い、IMUベースの位置特定が実装されるコンピューティング環境の略図である。 図2は、一部の実施形態に従い、IMUベースの位置特定を実装するよう構成されるコンピューティングデバイスの略図である。 図3は実施形態に従ったIMUベースの位置特定のための方法における処理を示すフロー図である。 図4は実施形態に従ったIMUベースの位置特定のための方法における処理を示すフロー図である。
本明細書では、ナビゲーションを可能にするIMUベースの位置特定のためのシステムおよび方法について説明する。実施形態の完全な理解を授けるため、特定の実施形態に係る具体的な詳細が以下の説明および図面に記載されている。しかしながら、当業者であれば、以下に記載されているこれら具体的な詳細のうちいくつかを省いても、代替的な実施形態を実施可能であることを理解すべきである。
本明細書における概念は、仮想世界のナビゲーションを対応する物理環境でのユーザーの動きにより制御すると同時に、さらにユーザーが物理オブジェクトを見て、操作することを可能にし、かつ、CAD可視化機能を使用して分析することを可能にする相互作用技法を扱う。本明細書における各種実施形態は、航空機、船舶、列車、自動車、建物、および他の構造物等の複雑なビークルの製造作業及び/又はメンテナンス作業を行う観点から記載されている。本明細書において「ビークル」という用語はこれらのオブジェクトのあらゆるものを包含すると解釈すべきである。本明細書の実施形態によると、ビークルの仮想3次元(3D)モデルがコンピュータシステムのメモリに格納される。1つ以上の実オブジェクトがポータブルコンピューティングデバイスの近傍に配置されるよう、IMUを含むまたはIMUに結合され、かつ、表示部および前記ビークルの仮想3Dモデルの少なくとも一部を格納するために十分な処理能力を有するポータブルコンピューティングデバイスをビークル近傍またはビークル内の既知の指定位置に配置できる。前記1つ以上の実オブジェクトに対応する1つ以上の仮想オブジェクトの仮想イメージが表示部に表示され、IMUベースの位置特定プロセスからの相対的な位置データと方向データを使用し、表示部上の仮想イメージの透視図を前記1つ以上の実オブジェクトの透視図に一致するよう整列されると、これにより仮想環境と実環境が同期する。このステップは、IMUベースの位置と方向の追跡プロセスをこの位置で初期化するものであり、以降のすべての動きはこの位置に関連して定義される。IMUが実環境で移動されるにつれ、コンピューティングデバイスの表示部に表示された仮想環境がそれに応じて変化する。IMUベースの追跡プロセスを新規位置で再度初期化する必要がある場合、ユーザーが追加的に補正を加えることができる。一部の実施形態においては、IMUはコンピューティングデバイスの回転及び/又は並進を示す信号を生成する。他の実施形態においては、ユーザーインタフェースを介して、回転入力および並進入力がコンピューティングデバイスに提供される。
図1は、実施形態に従い、IMUベースの位置特定が実装されるコンピューティング環境の略図である。図1を参照すると、コンピュータベースのデバイス110、慣性計測ユニット(IMU)120、1つ以上の通信ネットワーク130、サーバー140、およびファイルストア150を備えた一実施形態の環境100の概要が示されている。一部の実施形態においては、環境100に航空機160等のビークルが含まれてよい。
コンピュータベースのデバイスはラップトップコンピュータ、タブレットコンピュータ、携帯情報端末(PDA)、スマートフォン等のポータブルコンピューティングデバイスで具現化できる。サーバー140は据置型コンピューティングデバイスで具現化できる。図2は、コンピュータベースのデバイス110またはサーバー140のいずれかに構成され得るコンピューティングデバイス200の略図である。一実施形態では、コンピューティングデバイス200は画面204を有する表示部202を含む1つ以上の付随の入出力デバイス、1つ以上のスピーカー206、キーボード210、1つ以上の他のI/Oデバイス212、およびマウス214を含む。他のI/Oデバイス212は、タッチ式スクリーン、音声入力デバイス、トラックボール、およびシステム200がユーザーからの入力を受信できるようにする任意の他のデバイスであってよい。
コンピューティングデバイス200には、システムハードウェア220およびメモリ230が含まれており、メモリ230はランダムアクセスメモリ(RAM)及び/又はリードオンリーメモリ(ROM)として実装可能である。ファイルストア280はコンピューティングデバイス200と通信可能なようにコンピューティングデバイス200に結合できる。ファイルストア280は、1つ以上のハードドライブ、CD−ROMドライブ、DVD−ROMドライブ、または他の種類の記憶デバイス等、コンピューティングデバイス200に内蔵されていてよい。ファイルストア280は、1つ以上の外付けハードドライブ、ネットワーク接続ストレージ、または別のストレージネットワーク等、コンピュータ200の外部にあってもよい。
システムハードウェア220には、1つ以上のプロセッサ222、1つ以上のグラフィックプロセッサ224、ネットワークインタフェース226、およびバス構造228が含まれ得る。本明細書で使用する「プロセッサ」という用語は、たとえば、限定しないが、マイクロプロセッサ、マイクロコントローラ、CISC(Complex Instruction Set Computer)マイクロプロセッサ、RISC(Reduced Instruction Set Computer)マイクロプロセッサ、VLIW(Very Long Instruction Word)マイクロプロセッサ、または任意の他の種類のプロセッサもしくは処理回路等、任意の種類のコンピュータ計算要素を意味する。
グラフィックプロセッサ224は、グラフィックス及び/又はビデオ操作を管理する付属プロセッサとして機能することができる。グラフィックプロセッサ224は、コンピューティングシステム200のマザーボードに統合化したり、または拡張スロットを介してマザーボードに結合したりできる。
一実施形態では、ネットワークインタフェース226は、イーサネット(登録商標)インタフェース(例えば、電気電子技術者協会規格IEEE802.3−2002を参照)等の有線インタフェース、またはIEEE802.11a、b、g準拠インタフェース(例えば、LAN/MANシステム間のIT通信及び情報交換のためのIEEE規格―第2部:無線LANメディアアクセス制御(MAC)及び物理層(PHY)仕様―追補4:2.4GHz帯における高速伝送のための拡張、802.11G−2003を参照)等の無線インタフェースであってよい。無線インタフェースの他の例として、汎用パケット無線サービス(GPRS)インタフェース(例えば、GPRSハンドセット要件に関するガイドライン、モバイルコミュニケーションズ/GSM(登録商標)協会用グローバルシステム、バージョン3.0.1、2002年12月)を挙げられる。
バス構造228はシステムハードウェア220の種々のコンポーネントを接続する。一実施形態では、バス構造228は、メモリバス、周辺機器用バスまたは外部バス及び/又は11ビットバス、業界標準アーキテクチャ(ISA)、PCI、マイクロチャネルアーキテクチャ(MSA)、拡張ISA(EISA)、インテリジェントドライブエレクトロニクス(IDE)、VESAローカルバス(VLB)、ペリフェラルコンポーネントインターコネクト(PCI)、ユニバーサルシリアルバス(USB)、アドバンストグラフィックスポート(AGP)、パーソナルコンピュータメモリカード国際協会(PCMCIA)バス、スモールコンピュータシステムズインタフェース(SCSI)、PCI Express(PCI−E)バス、シリアルATA(SATA)バス等(これらに限定せず)の入手可能な任意の種類のバスアーキテクチャを採用するローカルバスを含む、1つ以上の各種バス構造であってよい。
メモリ230は、コンピューティングデバイス200の動作を管理するためのオペレーティングシステム240を含むことができる。一実施形態では、オペレーティングシステム240は、システムハードウェア220へのインタフェースを提供するハードウェアインタフェースモジュール254を含む。さらに、オペレーティングシステム240は、コンピューティングデバイス200の動作で使用されるファイルを管理するファイルシステム250、およびコンピューティングデバイス200上で実行されるプロセスを管理するプロセス制御サブシステム252を含むことができる。
オペレーティングシステム240は、システムハードウェア220と連携してリモートソースとの間でデータパケット及び/又はデータストリームを送受信するよう動作する1つ以上の通信インタフェースを含む(または管理する)ことができる。オペレーティングシステム240はさらに、オペレーティングシステム240とメモリ130内に常駐する1つ以上のアプリケーションモジュール間のインタフェースを提供するシステムコールインタフェースモジュール242を含むことができる。オペレーティングシステム240は、Windows(登録商標)ブランドのオペレーティングシステムまたはUNIX(登録商標)オペレーティングシステムもしくはその派生システム(例えば、Linux(登録商標)、Solaris、iOS、Android等)、あるいは他のオペレーティングシステムとして具現化できる。
一実施形態においては、メモリ230に仮想マッピングモジュール260が含まれ、仮想マッピングモジュールはコンピュータで読み取り可能な有形媒体内にエンコードされた論理命令で具現化できる。図1に示されるサーバー140を具現化するコンピュータデバイス200内の仮想マッピングモジュール(図1では145)は3次元環境および3次元環境内におけるオブジェクトの仮想の形態を維持する。たとえば、一部の実施形態においては、サーバー上の仮想マッピングモジュール145は航空機160の3次元環境を維持する。前記航空機の3次元環境には航空機160を含む各種構造体およびコンポーネントが含まれてよい。図1に示されるコンピュータベースのデバイス110を具現化するコンピューティングデバイス200内の仮想マッピングモジュール260は、プロセッサ222による実行時にプロセッサ222にIMUベースの位置特定をサーバー140内の仮想マッピングモジュール145が維持する3次元環境を介して実装させる論理命令を含んでよい。
図1に戻るが、一部の実施形態においては慣性計測ユニット(IMU)120はコンピュータベースのデバイス110に統合されてよい。代替的な実施形態では、IMU120はユニバーサルシリアルバス(USB)ポート等の適切なインタフェースを介してコンピュータベースのデバイス110に結合可能な別のデバイスであってよい。IMU120は内蔵マイクロプロセッサを含むことができるが、コンピュータベースのデバイス110内のプロセッサにタスクの処理を依存することもできる。一部の実施形態においては、IMU120は、相対的な加速度(加速度計)および回転速度(ジャイロ)を測定するモーションセンサーデバイス等、1つ以上の微小電気機械システム(MEMS)を含んでよい。IMU120が生成する出力はコンピュータベースのデバイス110に提供されてよい。これらの動作センサーが検出する動作を使用し、移動中のIMU120の位置と方向を計算できる。IMU120は移動中、概算の並進変位と回転変位を提供することもできる。
IMU120およびコンピュータベースのデバイス110は1つ以上の通信ネットワーク130を介してサーバー140に結合できる。通信ネットワーク130は、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、メトロポリタンエリアネットワーク(MAN)または広域ネットワーク(WAN)、私設通信ネットワーク等として具現化できる。さらに通信ネットワーク130、132、134には1つ以上のサブネットワークを含むことができる。たとえば、限定はしないが、通信ネットワーク130、132、134にはLANへのアクセスまたはインターネット等の基幹ネットワークへの直接アクセスを確立する、1つ以上のアクセスポイント(AP)を含んでよい。さらに、通信ネットワーク130、132、134には有線USBまたはシリアルリンク、無線802.11xリンク、無線USB、Bluetooth(登録商標)、赤外線リンク、セルラーネットワーク等(これらに限定されない)の各種入出力トランスポートを含んでよい。
ここまでIMUベースの位置特定を実装するシステムの構成コンポーネントについて記載してきたが、ここからシステムの各種コンポーネントの動作および相互作用について記載する。一部の実施形態において、コンピュータベースのデバイス110とIMU120が連携して、サーバー140が維持する仮想環境でのナビゲーションを可能にする。
図3は実施形態に従ったIMUベースの位置特定のための方法における処理を示すフロー図である。特に、図3は仮想空間における初期位置が選択される位置特定プロセスの処理を示す。一部の実施形態においては、図3に係る処理はコンピュータベースのデバイス110上で実行される仮想マッピングモジュール260単体によって実装されてもよいし、または仮想マッピングモジュール260とサーバー140上で実行される仮想マッピングモジュール145との連携によって実装されてもよい。
図3を参照すると、処理310において、コンピュータベースのデバイス110のメモリ内に仮想環境が読み込まれる。一部の実施形態においては、ネットワーク130を介して、完全な仮想環境がサーバー140の仮想マッピングモジュール145からコンピュータベースのデバイス110のメモリに読み込まれてよい。しかしながら、他の実施形態においては、仮想環境の一部のみがコンピュータベースのデバイス110のメモリに読み込まれる。たとえば、コンピュータベースのデバイス110のユーザーが仮想環境の特定領域を要求すると、要求された領域のみがサーバー140の仮想マッピングモジュール145からコンピュータベースのデバイス110のメモリ内に読み込まれるようにすることができる。
処理315において、IMU120が自身により生じる動きを示す信号を生成するよう、IMU120が起動される。処理320において、仮想環境にモデル化される既知の物理的位置を示す信号が受信される。たとえば、ユーザーがタッチスクリーン表示部112のメニュー118から、航空機160近傍または航空機160内の複数の既定位置から1つを選択し、コンピュータベースのデバイス110とIMU120を選択された位置に配置してもよい。処理325において、前記選択に応答して、コンピュータベースのデバイス110上で実行される仮想マッピングモジュール260が選択された位置の仮想環境のイメージを表示する。
処理330において、同一の透視図を基準に、表示部に表示された仮想イメージが実環境のイメージに一致するかどうか判定される。一部の実施形態においては、この判定は手動でなされる。たとえば、コンピュータベースのデバイスのユーザーがデバイス110の表示部112に表示された仮想イメージを見て、イメージが一致するかどうか主観的判断を下すようにしてもよい。他の実施形態においては、この判定はコンピュータベースのデバイス110上またはコンピュータベースのデバイス110に結合されたコンピュータ上で実行される論理回路により客観的な方法でなされてよい。たとえば、一部の実施形態においては、コンピュータベースのデバイス110はカメラ等のイメージキャプチャデバイスを備えてよく、イメージキャプチャデバイスを使用し、コンピュータベースのデバイス近傍の実環境のイメージをキャプチャする。このような実施形態の場合、コンピュータベースのデバイスによりキャプチャされたイメージの属性を表示部に表示された仮想イメージの属性と比較し、両イメージが一致するかどうか判定することができる。
処理330において、仮想イメージが実環境のイメージと一致しない場合、処理335に制御が渡され、仮想環境と実環境が整列するまで相対的なイメージの位置および方向がユーザーにより調整される。さらに別の実施形態においては、タッチスクリーン(または他のビューポイントコントロール)を使用し、仮想ビューポイントを回転、パン及び/又は拡大縮小すること、または物理的に表示装置(取り付けられたセンサーも)を移動させることで、表示部の仮想イメージを操作し、仮想イメージが実環境のイメージに一致するようにしてもよい。一方、処理330で両イメージが一致した場合、位置特定プロセスは成功と見なされ、実世界のコンピュータベースのデバイス110とIMU120の位置が表示部112に表示された仮想イメージの透視図と同期される。
その結果、制御が処理340に渡され、コンピュータベースのデバイス110上で追跡プロセスが開始される。一部の実施形態においては、追跡プロセスでIMU120からの入力、またはIMU120からの入力と表示部112上の1つ以上のユーザーインタフェースからのユーザー入力を組み合わせたものが使用され、ユーザーが表示部112上に表示される仮想環境をナビゲートできるようにする。仮想環境はIMU120とコンピュータデバイス112が移動する実環境に一致している。
追跡プロセスの別の態様について図4を参照して説明する。図4を参照すると、処理410において仮想イメージの透視図が表示部112に表示される。処理415において、コンピュータベースのデバイス110上で実行される仮想マッピングモジュール260が、IMU120が回転運動を受けることを示す方向信号を受信する。一部の実施形態においては、コンピュータベースのデバイス110を保持するユーザーが、IMU120を回転させると、それに応答してIMU120が方向信号を生成する。他の実施形態においては、タッチスクリーン表示部112上のユーザーインタフェースへのユーザー入力により回転信号が生成される。
同様に、処理420において、仮想マッピングモジュール260は並進信号を受信する。一部の実施形態においては、IMU120が並進運動を受けることを示す並進信号が受信される。一部の実施形態においては、コンピュータベースのデバイス110を保持するユーザーが、IMU120を並進させると、それに応答してIMU120からの受信データから並進信号が取得される。他の実施形態においては、タッチスクリーン表示部112上のユーザーインタフェース114へのユーザー入力により並進信号が生成される。
処理430において、回転信号と並進信号に応答して、表示部112に表示される仮想イメージが更新される。一部の実施形態においては、IMU120からの方向データは3×3の回転行列で表すことができる。以下の式に示されるように、3×3の回転行列に、画面座標で定義される3×1のx、y、zの並進ベクトルを右から乗算した解に、任意の追加のスクリーンベースの並進が含まれる。
Figure 0006242591

[ROT]は3×3の回転行列を表し、3×1ベクトルの[Xs、Ys、Zs]Tはスクリーン並進で、[Xa、Ya、Za]Tは絶対座標での結果の並進である。次にこのデータは、以下の形式の4x4の同次変換行列にリファクタリングされる。
Figure 0006242591
一実施形態において、IMU120からのデータを受信するコンピュータプロセスから、表示部112は数2に示されるような4×4行列の形式で、開始位置に対する相対的な位置データ(位置情報と方向情報)を受信する。数3に示すように、次にこの行列に、開始位置に関連付けられた行列を左から乗算する。
Figure 0006242591

3つの行列はすべて4×4同次変換行列である。一部の実施形態においては、解の行列を直接使用するか、または他の形式に変換して(グラフィックアプリケーションにより異なる)、仮想環境のビューポイントを設定し、かつ、グラフィック表示がこの新しいビューポイントを表示するため更新される(処理430)。
処理432において、仮想イメージが実オブジェクトのイメージに整列しているかどうか判定される。処理432において、ビューの修正が必要な場合、制御が処理325に戻される。一方、ビューの修正が不要の場合、制御が処理435に渡される。
処理435において、オブジェクトの選択または(x、y、z)位置ポイントの選択が必要な場合、ユーザーはコンピュータベースのデバイス110とIMU120を移動させる及び/又はスクリーン上の並進を使用することで、方向を変更し、表示部112上のオブジェクトまたは関心領域を配置する。前記オブジェクトまたは関心領域は十字線116または他のターゲティング要素等、適切なユーザーインタフェースを使用し選択することができる(処理440)。位置ポイントが適切なメモリ場所に格納される(処理445)か、または選択されたオブジェクトからのデータがユーザーに表示される。このプロセスでは他の位置ベースの選択アクションも有効にでき、たとえば、オブジェクトを選択するための選択イベントを使用し、オブジェクトに関する追加データを受信したり、オブジェクトの色を変更したり、オブジェクトを無効にしたり等のアクションを行うことができる。
処理450において、ユーザーが環境内でのナビゲーションを終了したら、制御が処理455に渡され、プロセスは終了する。一方、ユーザーがナビゲーションを続行したい場合、制御が処理415に戻される。
つまり、図3の処理は処理310〜340の間で、ユーザーが仮想環境を実環境と整列させることを可能にするものであり、処理415〜450はコンピューティングデバイス110とIMU120のユーザーが、ビークル160内またはビークル160近傍の3次元空間のパスを通ってコンピューティングデバイス110とIMU120を移動させることができ、仮想環境の対応ビューがコンピュータベースのデバイス110の表示部112に表示されるループを定義するものである。または、ユーザーは表示装置112上で入力を使用し、仮想環境を操作できる。このプロセスを人間ベースのナビゲーションと表現するが、これはIMUベースの位置特定プロセスにより提供されるデータを使用した実環境と仮想環境の連続的整列によって可能になる。
ユーザーは任意の時点で、表示装置の画面上で1つ以上の関心項目を選択でき、表示装置はそれに応答して選択ポイントにおけるオブジェクトに関する情報を表示する及び/又は選択ポイントの座標を格納する。
代替的な実施形態においては、ユーザーを特定位置にガイドするナビゲーションの指示を表示装置に表示できる。これには3Dの方向インジケータ(矢印等)またはテキスト要素、あるいはオーディオフィードバック要素が含まれ得る。たとえば、ユーザーが1つ以上の目的の座標の組を入力または選択して航空機の特定位置に移動したい場合、ユーザーは自動ナビゲーションアプリケーションに対し、現在位置から目的位置へユーザーをガイドする指示を生成するよう要求する。ユーザーが実環境を移動するにつれ、ナビゲーションインジケータ要素への更新とともに仮想環境が更新されて、仮想環境の対応ビューが表示される。この自動ナビゲーションアシスタンスアプリケーションは、上記の位置特定プロセスを実装するIMU装備の表示装置を運搬中のユーザーの現在位置および方向を利用できることを要求する。
これまで例示的なプロセスの特定の実施形態について説明してきたが、別の実施形態においては特定の動作を記載の順序で行う必要がないことを理解すべきである。別の実施形態においては、状況に応じて、一部の動作に修正を加えたり、異なる順序で実施したり、完全に省いたりすることができる。さらに各種の代替的な実施形態においては、記載された動作はコンピュータ、コントローラ、プロセッサ、プログラム可能なデバイス、ファームウェア、または他の任意の適切なデバイスによって実装可能であり、また記載された動作は1つ以上のコンピュータで読み取り可能な媒体上に格納された命令もしくはその他の方法で格納された命令またはそのようなデバイスにプログラムされた命令に基づかせることができる(コンピュータで読み取り可能な命令をリアルタイムにそのようなデバイスに送信することを含む)。ソフトウェアの場合、記載された動作は1つ以上のプロセッサによる実行時、本明細書に記載された処理を実行するコンピュータ命令の形を取る。コンピュータで読み取り可能な媒体を使用する場合、デバイス上に格納された命令を実装するため、デバイスでアクセス可能な任意の入手可能な媒体とすることができる。
本明細書の説明と図の中で、コンピュータベースの方法の一態様が開示される。前記方法は実3次元空間における少なくとも1つの実オブジェクトに対する測定装置120の実3次元空間における位置および方向を判定すること、および、測定装置120に結合された表示装置112、202上に、仮想3次元空間145における実オブジェクトに対応する仮想オブジェクトの仮想イメージの透視図を表示することを含み、測定装置120の位置に基づき、仮想オブジェクトの透視図が実オブジェクトの透視図に一致する。一変形例においては、前記方法は、少なくとも1つのオブジェクトに対する測定装置120の実3次元空間における位置および方向を判定することは、測定装置120が実3次元空間内の既知の物理的位置に配置されていることを示す信号を受信すること、表示装置112、202上に、既知の物理的位置の透視図に基づき少なくとも1つの仮想オブジェクトの仮想イメージの透視図を表示すること、および実オブジェクトの透視図と仮想オブジェクトの透視図間の一致を確認することを含む。
別の変形例においては、前記方法は、測定装置120が慣性計測ユニットIMU120を備えており、さらに実オブジェクトに対する慣性計測ユニット120の方向における変更を示す回転入力を受信すること、および、測定装置120からの受信データから取得された位置および方向に基づき、仮想オブジェクトの透視図が実オブジェクトの透視図と整列するよう、表示装置112、202上で仮想オブジェクトの透視図を回転させることを含む。さらに別の変形例においては、前記方法は、回転入力が慣性計測ユニットIMU120からの入力またはIMU120またはIMUデータ処理アプリケーション145、260と表示装置112、202に結合された入力デバイス112、202、204、206、210、212、214からの入力のうち少なくとも1つを備えることを含む。
さらに別の変形例においては、前記方法は、実オブジェクトの透視図と仮想オブジェクトの透視図間の一致を確認することは、実オブジェクトに対する慣性計測ユニット120の位置における変更を示す並進入力を受信すること、および、測定装置120の位置および方向に基づき、仮想3次元空間145の透視図が実3次元空間の透視図と整列するように表示装置112,202上の仮想3次元空間145の透視図を更新することの少なくとも1つを含む。一例においては、前記方法は、並進入力が測定装置120からの入力または測定装置処理アプリケーション145,260と表示装置112、202に結合された入力デバイス112、202、204、206、210、212、214からの入力のうち少なくとも1つを備えることを含む。別の例においては、前記方法はさらに、1つ以上の関心項目を選択するため表示装置112、202内で入力を受信すること、および、入力に応答して1つ以上の関心項目に関する情報を表示することを含む。
コンピュータベースのシステムの一態様が開示される。前記システムは、測定装置120、表示部112、204、プロセッサ222、およびプロセッサ222に結合されたコンピュータで読み取り可能な有形媒体230内に格納された論理命令260を備えており、論理命令はプロセッサ222による実行時に、実3次元空間における少なくとも1つの実オブジェクトに対する測定装置120の実3次元空間における位置および方向を判定させ、かつ、表示部112、204上に仮想3次元空間145における実オブジェクトに対応する仮想オブジェクトの仮想イメージの透視図を表示させるようプロセッサ222を構成することを含み、測定装置120の位置に基づき、仮想オブジェクトの透視図が実オブジェクトの透視図に一致する。一変形例においては、前記コンピュータベースのシステムは、実3次元空間における位置および方向を判定するための論理命令はさらに、プロセッサ222による実行時に、測定装置120が実3次元空間内の既知の物理的位置に配置されていることを示す信号を受信させ、表示部上に、既知の物理的位置の透視図に基づき少なくとも1つの仮想オブジェクトの仮想イメージの透視図を表示させ、実オブジェクトの透視図と仮想オブジェクトの透視図間の一致を確認させるようプロセッサ222を構成することを含む。
別の変形例においては、前記コンピュータベースのシステムは、プロセッサ222に結合されたコンピュータで読み取り可能な有形媒体230内に格納された論理命令260を備えており、論理命令はプロセッサ222による実行時に、実オブジェクトに対する測定装置120の方向における変更を示す回転入力を受信させ、かつ、測定装置120の位置および方向に基づき、仮想オブジェクトの透視図が実オブジェクトの透視図と整列するよう、表示装置112、202上で仮想オブジェクトの透視図を回転させるようプロセッサ222を構成することを含む。一例においては、前記コンピュータベースのシステムは、回転入力が慣性計測ユニット120からの入力または測定装置処理アプリケーション145、260と表示装置112、202に結合された入力デバイス112、202、204、206、210、212、214からの入力のうち少なくとも1つを備えることを含む。
別の例においては、前記コンピュータベースのシステムは、プロセッサ222に結合されたコンピュータで読み取り可能な有形媒体230内に格納された論理命令260を備えており、論理命令はプロセッサ222による実行時に、1つ以上の関心項目を選択するため表示装置112、202内で入力を受信させ、かつ、入力に応答して1つ以上の関心項目に関する情報を表示させるようプロセッサを構成することを含む。さらなる一例においては、前記コンピュータベースのシステムは、入力が測定装置120からの入力または測定装置処理アプリケーション145、260と表示装置112、202に結合された入力デバイス112、202、204、206、210、212、214からの入力のうち少なくとも1つを備えることを含む。さらに別の一例においては、前記コンピュータベースのシステムは、プロセッサ222に結合されたコンピュータで読み取り可能な有形媒体230内に格納された論理命令260を備えており、論理命令はプロセッサ222による実行時に、測定装置処理アプリケーション145、260と表示装置112、202に結合された入力デバイス112、202、204、206、210、212、214からの確認入力を受信させ、かつ、仮想オブジェクトの透視図と実オブジェクトのリアルタイムイメージ間のマッチングを判定するマッチングプロセスからの確認入力を受信させるようプロセッサ222を構成することを含む。
コンピュータプログラム製品の一態様が開示される。前記製品は、プロセッサ222に結合されたコンピュータで読み取り可能な有形媒体内に格納された論理命令を備えており、論理命令はプロセッサ222による実行時に、実3次元空間における少なくとも1つの実オブジェクトに対する測定装置の実3次元空間における位置および向きを判定させ、かつ、測定装置120に結合された表示装置112、202上に、仮想3次元空間145における実オブジェクトに対応する仮想オブジェクトの仮想イメージの透視図を表示させるようプロセッサ222を構成することを含み、測定装置120の位置に基づき、仮想オブジェクトの透視図が実オブジェクトの透視図に一致する。一変形例においては、前記コンピュータプログラム製品は、実3次元空間における位置および方向を判定するための論理命令260にさらに、プロセッサ222による実行時に、測定装置120が実3次元空間内の既知の物理的位置に配置されていることを示す信号を受信させ、表示装置112、202上に、既知の物理的位置の透視図に基づき少なくとも1つの仮想オブジェクトの仮想イメージの透視図を表示させ、実オブジェクトの透視図と仮想オブジェクトの透視図間の一致を確認させるようプロセッサ222を構成する論理命令を含む。
別の変形例においては、前記コンピュータプログラム製品は、測定装置120が慣性計測ユニット120を備え、さらにプロセッサ222に結合されたコンピュータで読み取り可能な有形媒体230内に格納された論理命令260を備えており、論理命令はプロセッサ222による実行時に、実オブジェクトに対する慣性計測ユニット120の方向における変更を示す回転入力を受信させ、かつ、測定装置120の位置および方向に基づき、仮想オブジェクトの透視図が実オブジェクトの透視図と整列するよう、表示装置112、202上で仮想オブジェクトの透視図を回転させるようプロセッサ222を構成することを含む。また別の変形例においては、前記コンピュータプログラム製品は、回転入力が慣性計測ユニット120からの入力または測定装置処理アプリケーション145、260と表示装置112、202に結合された入力デバイス112、202、204、206、210、212、214からの入力のうち少なくとも1つを備えることを含む。
一例においては、前記コンピュータプログラム製品はさらに、プロセッサ222に結合されたコンピュータで読み取り可能な有形媒体230に格納された論理命令を備えており、論理命令はプロセッサ222による実行時に、実オブジェクトに対する慣性計測ユニット120の位置における変更を示す並進入力を受信させ、かつ、測定装置120の位置および方向に基づき、仮想3次元空間145の透視図が実3次元空間の透視図と整列するように表示装置112、202上の仮想3次元空間145の透視図を更新させるようプロセッサ222を構成することを含む。また別の変形例においては、前記コンピュータプログラム製品は、並進入力が慣性計測ユニット120からの入力または測定装置処理アプリケーション145、260と表示装置112、202に結合された入力デバイス112、202、204、206、210、212、214からの入力のうち少なくとも1つを備えることを含む。さらなる別の例においては、前記コンピュータプログラム製品は、プロセッサ222に結合されたコンピュータで読み取り可能な有形媒体230内に格納された論理命令260を備えており、論理命令はプロセッサ222による実行時に、1つ以上の関心項目を選択するため表示装置112、202内で入力を受信させ、かつ、入力に応答して1つ以上の関心項目に関する情報を表示させるようプロセッサを構成することを含む。
各種実施形態においては、たとえば図3と4に示されるような本明細書の1つ以上の処理はハードウェア(論理回路等)、ソフトウェア、ファームウェア、あるいはこれらを組み合わせたものとして実装でき、これらを組み合わせたものはコンピュータプログラム製品として提供できる。コンピュータプログラム製品としては、たとえば本明細書に記載のプロセスを実行するようコンピュータをプログラムするために使用される命令が格納されたマシンで読み取り可能またはコンピュータで読み取り可能な媒体が挙げられる。マシンで読み取り可能な媒体としては、図3および4を参照して説明されたデバイス等、任意の適切な記憶デバイスであってよい。
さらに、コンピュータで読み取り可能な媒体はコンピュータプログラム製品としてダウンロードでき、この場合、プログラムはリモートコンピュータ(サーバー等)からリクエスト側のコンピュータ(クライアント)に対し、搬送波もしくは他の伝送媒体に具現化されたデータ信号の形で通信リンク(モデムまたはネットワーク接続)を通して転送され得る。したがって、本明細書において搬送波はマシンで読み取り可能な媒体を備えているとみなされる。
明細書中での「一実施形態」という言及は、その実施形態に関連して記載されている、特定の機能、構造、または特性が少なくとも1つの実装に含まれていることを意味する。本明細書のさまざまな箇所にある「一実施形態において」という語句は、必ずしも同一の実施形態について言及しているとは限らない。
また、本明細書および特許請求の範囲において、「結合された」および「接続された」という語およびそれらの派生語が使用され得る。一部の実施形態においては、「接続された」は2つ以上の要素が互いに直接、物理的に接触もしくは電気的に接触していることを示すために使用され得る。「結合された」は2つ以上の要素が直接、物理的に接触もしくは電気的に接触していることを意味し得る。しかしながら、また「結合された」は2つ以上の要素が互いに直接的に接触していないが、互いに連携または相互作用することを意味できる。
本発明に係る実施形態は構造的特徴及び/又は方法論的行為に特有の言語で説明したが、特許請求の範囲に係る発明はこれら特定の特徴または行為に限定されないと理解すべきである。特定の特徴および行為は特許請求の範囲に係る発明を実装する例示的な形式として開示されている。
100 環境
114 ユーザーインタフェース
116 十字線
118 メニュー
160 航空機
200 コンピューティングデバイス
202 表示部/表示装置
204 画面/入力デバイス/表示部
206 スピーカー

Claims (10)

  1. コンピュータシステムによって実施される方法であって、
    実3次元空間における実オブジェクトに対する測定装置(120)の実3次元空間における位置および方向を決定すること、
    測定装置(120)に結合された表示装置(112、202)上に、仮想3次元空間(145)における実オブジェクトに対応する仮想オブジェクトの仮想イメージの仮想透視図であって、測定装置(120)の位置から実オブジェクトの実透視図に対応する仮想透視図を表示すること、
    測定装置(120)に結合されたカメラからのイメージであって、実透視図に対応するイメージを受信すること、
    想透視図における仮想オブジェクトとイメージにおける実オブジェクトとが一致するかどうかを決定することと、および、
    仮想オブジェクトと実オブジェクトとが一致しないとの決定に応じて、実透視図に一致するように仮想透視図調整することを含む、方法。
  2. 位置および方向を決定することは、
    測定装置(120)が実3次元空間内の既知の物理的位置に配置されていることを示す信号を受信すること、および、
    実透視図と仮想透視図間の対応を確認し、測定装置(120)の位置を表示装置(112、202)上に表示された仮想イメージの透視図に同期させることを含む、請求項1に記載の方法。
  3. 測定装置(120)が慣性計測ユニット(IMU)(120)を備えており、さらに
    実オブジェクトに対するIMU(120)の方向における第1変更を示す回転入力を受信すること、および、
    回転入力から得られる位置および方向に基づき、仮想透視図が実透視図と整列するよう、表示装置(112、202)上で仮想透視図を回転させることを含む、請求項2に記載の方法。
  4. 回転入力が、IMU(120)からの第1入力、IMU(120)に結合された入力デバイス(112、202、204、206、210、212、214)からの第2入力、IMUデータ処理アプリケーション(145、260)に結合された入力デバイスからの第3入力、またはこれらの組合せを備える、請求項3に記載の方法。
  5. 実透視図と仮想透視図間の対応を確認することは、
    実オブジェクトに対するIMU(120)の位置における第2変更を示す並進入力を受信すること、または、
    測定装置(120)の位置および方向に基づき、仮想透視図が実透視図と整列するように表示装置(112、202)上の仮想透視図を更新すること、
    を含む、請求項3に記載の方法。
  6. 並進入力が測定装置(120)からの第1入力、測定装置(120)と表示装置(112、202)に結合された入力デバイス(112、202、204、206、210、212、214)からの第2入力、またはこれらの双方を備えており、
    1つ以上の関心項目を選択するため表示装置(112、202)から入力を受信すること、および、
    入力に応答して1つ以上の関心項目に関する情報を表示すること
    を含む、請求項5に記載の方法。
  7. ステムであって、
    測定装置(120)、
    測定装置(120)に結合された表示部(112、204)、
    プロセッサ(222)、および
    プロセッサ(222)に結合され命令(260)を格納するコンピュータで読み取り可能な有形媒体(230)を備えており、命令(260)はプロセッサ(222)による実行時に、プロセッサ(222)に、
    実3次元空間における実オブジェクトに対する測定装置(120)の実3次元空間における位置および方向を決定させ、
    表示部(112、204)上に仮想3次元空間(145)における実オブジェクトに対応する仮想オブジェクトの仮想イメージの仮想透視図であって、測定装置(120)の位置から、実オブジェクトの実透視図に対応する仮想透視図を表示させ、
    測定装置(120)に結合されたカメラからのイメージであって、実透視図に対応するイメージを受信させ、
    想透視図における仮想オブジェクトとイメージにおける実オブジェクトとが一致するかどうかを決定させ、および、
    仮想オブジェクトと実オブジェクトとが一致しないとの決定に応じて、実透視図に一致するように仮想透視図調整させる
    システム。
  8. 命令(260)はプロセッサ(222)にさらに、
    測定装置(120)が実3次元空間内の既知の物理的位置に配置されていることを示す信号を受信させ、および、
    実透視図と仮想透視図間の対応を確認させ、測定装置(120)の位置を表示装置(112、202)上に表示された仮想イメージの透視図に同期させる、請求項7に記載のシステム。
  9. 命令(260)はプロセッサ(222)にさらに次の(i)と(ii)、
    (i)実オブジェクトに対する測定装置(120)の方向における変更を示す回転入力を受信させ、および、測定装置(120)の位置および方向に基づき、仮想透視図が実透視図と整列するよう、表示装置(112、202)上で仮想透視図を回転させ、回転入力が慣性計測ユニット(IMU)(120)からの第1入力、測定装置(120)と表示装置(112、202)に結合された入力デバイス(112、202、204、206、210、212、214)からの第2入力、またはこれらの双方を備えており、
    (ii)1つ以上の関心項目を選択するため表示装置(112、202)から入力を受信させ、および、入力に応答して1つ以上の関心項目に関する情報を表示させ、入力が測定装置(120)からの第1入力、測定装置(120)と表示装置(112、202)に結合された入力デバイス(112、202、204、206、210、212、214)からの第2入力、またはこれらの双方を含んでおり、
    のうち1つ以上を実施させる、請求項8に記載のステム。
  10. コンピュータプログラムであって、プロセッサ(222)によって実行されたときに、プロセッサ(222)に、
    実3次元空間における実オブジェクトに対する測定装置(120)の実3次元空間における位置および方向を決定させ、
    表示部(112、204)上に仮想3次元空間(145)における実オブジェクトに対応する仮想オブジェクトの仮想イメージの仮想透視図であって、測定装置(120)の位置から、実オブジェクトの実透視図に対応する仮想透視図を表示させ、
    測定装置(120)に結合されたカメラからのイメージであって、実透視図に対応するイメージを受信させ、
    仮想透視図における仮想オブジェクトとイメージにおける実オブジェクトとが一致するかどうかを決定させ、および、
    仮想オブジェクトと実オブジェクトとが一致しないとの決定に応じて、実透視図に一致するように仮想透視図を調整させる、コンピュータプログラム。
JP2013113752A 2012-06-01 2013-05-30 仮想環境および物理環境における強化センサーによる位置特定 Active JP6242591B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/486,725 2012-06-01
US13/486,725 US9058681B2 (en) 2012-06-01 2012-06-01 Sensor-enhanced localization in virtual and physical environments

Publications (3)

Publication Number Publication Date
JP2013250268A JP2013250268A (ja) 2013-12-12
JP2013250268A5 JP2013250268A5 (ja) 2016-05-26
JP6242591B2 true JP6242591B2 (ja) 2017-12-06

Family

ID=48672363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013113752A Active JP6242591B2 (ja) 2012-06-01 2013-05-30 仮想環境および物理環境における強化センサーによる位置特定

Country Status (6)

Country Link
US (1) US9058681B2 (ja)
EP (1) EP2669763B1 (ja)
JP (1) JP6242591B2 (ja)
CN (1) CN103456025B (ja)
BR (1) BR102013013610B1 (ja)
CA (1) CA2807582C (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9395190B1 (en) 2007-05-31 2016-07-19 Trx Systems, Inc. Crowd sourced mapping with robust structural features
US8751151B2 (en) * 2012-06-12 2014-06-10 Trx Systems, Inc. System and method for localizing a trackee at a location and mapping the location using inertial sensor information
US20150355822A1 (en) * 2012-10-11 2015-12-10 Dougals R. COCHRAN Method for fine-tuning the physical position and orientation on an electronic device
US20140218291A1 (en) * 2013-02-07 2014-08-07 Microsoft Corporation Aligning virtual camera with real camera
US11268818B2 (en) 2013-03-14 2022-03-08 Trx Systems, Inc. Crowd sourced mapping with robust structural features
US11156464B2 (en) 2013-03-14 2021-10-26 Trx Systems, Inc. Crowd sourced mapping with robust structural features
US20140306910A1 (en) * 2013-04-15 2014-10-16 Qualcomm Incorporated Id tracking of gesture touch geometry
US9547173B2 (en) 2013-10-03 2017-01-17 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US9630631B2 (en) 2013-10-03 2017-04-25 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US9536353B2 (en) 2013-10-03 2017-01-03 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US9996975B2 (en) * 2014-03-18 2018-06-12 Dreamworks Animation L.L.C. Interactive multi-rider virtual reality ride system
US9355498B2 (en) 2014-06-19 2016-05-31 The Boeing Company Viewpoint control of a display of a virtual product in a virtual environment
FR3023643B1 (fr) * 2014-07-11 2017-10-27 Thales Sa Equipement optronique aeroporte pour l'imagerie, la surveillance et/ou la designation de cibles
US9759561B2 (en) 2015-01-06 2017-09-12 Trx Systems, Inc. Heading constraints in a particle filter
CN107727048A (zh) * 2016-08-11 2018-02-23 杭州顺源科教仪器设备有限公司 具有输入输出控制功能的智能型角度传感器
EP3336485B1 (en) 2016-12-15 2020-09-23 Safran Landing Systems UK Limited Aircraft assembly including deflection sensor
US20180182270A1 (en) 2016-12-22 2018-06-28 Hewlett-Packard Development Company, L.P. Displays representative of remote subjects
CN108268056B (zh) * 2016-12-30 2020-12-15 昊翔电能运动科技(昆山)有限公司 手持云台校准方法、装置和***
EP3410153A1 (en) * 2017-06-02 2018-12-05 Airbus Defence and Space, S.A. Portable device and method for locating components inside a closed environment, preferably inside an aircraft
EP3756073B1 (en) * 2018-02-23 2022-07-20 Telefonaktiebolaget LM Ericsson (publ) Coordinating alignment of coordinate systems used for a computer generated reality device and a haptic device
CN112416218B (zh) * 2020-09-08 2023-12-29 上海哔哩哔哩科技有限公司 虚拟卡片的显示方法、装置、计算机设备及存储介质
CN115246610B (zh) * 2021-09-10 2023-11-17 菱王电梯有限公司 一种电梯轿厢倾斜检测方法及***、电梯
CN115840412B (zh) * 2022-04-18 2023-11-03 宁德时代新能源科技股份有限公司 传输机构的虚拟仿真方法、装置、电子设备、plc和介质
EP4312095A1 (de) * 2022-07-25 2024-01-31 Siemens Aktiengesellschaft Verfahren und steuerungsprogramm zum betrieb eines engineering-systems für ein industrielles prozessautomatisierungssystem

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08335032A (ja) * 1995-06-05 1996-12-17 Toshio Yamazaki 画像表示方法及び装置
CA2356271A1 (en) 1998-12-23 2000-07-06 Image Guided Technologies, Inc. A hybrid 3-d probe tracked by multiple sensors
US6761637B2 (en) * 2000-02-22 2004-07-13 Creative Kingdoms, Llc Method of game play using RFID tracking device
US6852032B2 (en) * 2000-12-06 2005-02-08 Nikon Corporation Game machine, method of performing game and computer-readable medium
US7215322B2 (en) * 2001-05-31 2007-05-08 Siemens Corporate Research, Inc. Input devices for augmented reality applications
DE10256659A1 (de) * 2002-12-04 2004-07-08 Siemens Ag Engabevorrichtung zur Orientierung in einer dreidimensionalen Visualisierung, Verfahren zur Visualisierung von dreidimensionalen Datensätzen, Darstellungsvorrichtung zur Darstellung einer Visualisierung von dreidimensionalen Datensätzen, Verfahren zum Betrieb eines bildgebenden medizinischen Üntersuchungsgeräts und Verfahren zur graphischen Positionierung einer mittels eines bildgebenden medizinischen Untersuchungsgeräts zu messenden Schicht in einem dreidimensionalen Datensatz einer Vorbereitungsmessung
SE525290C2 (sv) 2002-12-20 2005-01-25 Trimble Ab Geodetiskt system för mätning/utsättning och metod för användning av detsamma
JP2004219182A (ja) * 2003-01-14 2004-08-05 Alpine Electronics Inc ナビゲーション装置
KR100518852B1 (ko) * 2003-08-25 2005-09-30 엘지전자 주식회사 차량의 후진 개선 추측항법
US7367809B2 (en) * 2004-03-26 2008-05-06 Atsushi Takahashi Three-dimensional digital entity mesoscope system equipped with three-dimensional visual instruction functions
DE102005004155A1 (de) 2005-01-28 2006-08-03 Siemens Ag Positionsbestimmung mittels eines Funkortungssystems, insbesondere mittels LPR, trotz begrenztzeitigem Ausfall der Funkortungskomponenten
US7287701B2 (en) 2005-02-17 2007-10-30 The Boeing Company Handheld coordinate reference system
US7853960B1 (en) 2005-02-25 2010-12-14 Vmware, Inc. Efficient virtualization of input/output completions for a virtual device
US20070038409A1 (en) 2005-08-02 2007-02-15 Kurt Gilson Position sensing means and method
JP4711818B2 (ja) * 2005-12-14 2011-06-29 アルパイン株式会社 ナビゲーション装置及び地図表示方法
JP4960659B2 (ja) * 2006-06-20 2012-06-27 クボテック株式会社 3次元仮想空間を利用したビデオカメラ撮影制御装置およびビデオカメラ撮影制御方法
US8395760B2 (en) * 2007-03-13 2013-03-12 Zheng Wang Unified spectral and geospatial information model and the method and system generating it
US8229163B2 (en) * 2007-08-22 2012-07-24 American Gnc Corporation 4D GIS based virtual reality for moving target prediction
US8005563B2 (en) 2007-10-26 2011-08-23 The Boeing Company System for assembling aircraft
JP2009260475A (ja) * 2008-04-14 2009-11-05 Mitsubishi Electric Corp 情報処理装置及び情報処理方法及びプログラム
US8138938B2 (en) 2008-10-28 2012-03-20 The Boeing Company Hand-held positioning interface for spatial query
US8279412B2 (en) 2009-12-17 2012-10-02 The Boeing Company Position and orientation determination using movement data
US8482556B2 (en) * 2010-01-19 2013-07-09 Xerox Corporation Detachable screen for multifunction device showing 3D dynamic views
CN101951502B (zh) * 2010-10-19 2012-11-21 北京硅盾安全技术有限公司 一种三维智能视频监控方法
US9304319B2 (en) * 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays

Also Published As

Publication number Publication date
BR102013013610B1 (pt) 2021-09-28
CA2807582C (en) 2015-12-22
US20130321391A1 (en) 2013-12-05
CN103456025B (zh) 2017-12-12
EP2669763A3 (en) 2017-06-21
CA2807582A1 (en) 2013-12-01
CN103456025A (zh) 2013-12-18
US9058681B2 (en) 2015-06-16
JP2013250268A (ja) 2013-12-12
BR102013013610A2 (pt) 2015-06-23
EP2669763A2 (en) 2013-12-04
EP2669763B1 (en) 2022-05-04

Similar Documents

Publication Publication Date Title
JP6242591B2 (ja) 仮想環境および物理環境における強化センサーによる位置特定
US11093036B2 (en) Tracking arm movements to generate inputs for computer systems
EP3120232B1 (en) Determining user handedness and orientation using a touchscreen device
US9355451B2 (en) Information processing device, information processing method, and program for recognizing attitude of a plane
US10521011B2 (en) Calibration of inertial measurement units attached to arms of a user and to a head mounted device
CN107748569B (zh) 用于无人机的运动控制方法、装置及无人机***
CN109313417A (zh) 帮助机器人定位
JP2011075559A (ja) 動き検出装置および方法
US11662817B2 (en) Method for controlling gimbal by somatosensory controller, gimbal, somatosensory controller, and system
US11531392B2 (en) Tracking upper arm movements using sensor modules attached to the hand and forearm
JP6875269B2 (ja) 情報処理装置、飛行制御指示方法、プログラム、及び記録媒体
KR101914660B1 (ko) 자이로 센서를 기반으로 증강현실 컨텐츠의 표시를 제어하는 방법 및 그 장치
WO2015107853A1 (ja) 進行方向情報出力装置、マップマッチング装置、進行方向情報出力方法、およびプログラム
US20210201011A1 (en) Data processing method for multi-sensor fusion, positioning apparatus and virtual reality device
JP7144991B2 (ja) 自律移動装置、自律移動プログラム及び位置推定システム
CN103529994B (zh) 虚拟触摸输入方法及定位采集设备
US11647358B2 (en) Method for obtaining location information of a user using movement information of an electronic device or feature information
EP4100918B1 (en) Method and system for aligning a digital model of a structure with a video stream
JP2022066992A (ja) 測位装置、測位方法、および測位プログラム
Choi et al. Development of 3-dimensional motion recognition based wireless transceiver for HMD
KR20230041461A (ko) 외부의 측위 장치를 이용하여 전역 위치를 추정하기 위한 컴퓨팅 장치 및 그의 방법
JP2015184391A (ja) 画像表示方法、装置、および、プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160331

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171108

R150 Certificate of patent or registration of utility model

Ref document number: 6242591

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250