JP2012501016A - モバイルデバイス上の3次元環境内でのナビゲーション - Google Patents

モバイルデバイス上の3次元環境内でのナビゲーション Download PDF

Info

Publication number
JP2012501016A
JP2012501016A JP2011524067A JP2011524067A JP2012501016A JP 2012501016 A JP2012501016 A JP 2012501016A JP 2011524067 A JP2011524067 A JP 2011524067A JP 2011524067 A JP2011524067 A JP 2011524067A JP 2012501016 A JP2012501016 A JP 2012501016A
Authority
JP
Japan
Prior art keywords
virtual camera
mobile device
finger
module
touch screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011524067A
Other languages
English (en)
Inventor
デイビッド コーンマン,
ピーター バーチ,
マイケル モートン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2012501016A publication Critical patent/JP2012501016A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本開示は、モバイルデバイス上の3次元環境内でナビゲートするための方法およびシステムに関する。いくつかの実施形態は、モバイルデバイスの配向を使用する3次元環境のナビゲーションに関する。いくつかの実施形態は、モバイルデバイス上で仮想カメラを移動させるためのユーザインターフェースジェスチャに関する。いくつかの実施形態は、ピンチング、回転、ダブルタッチズーム等のモバイルデバイス上で仮想カメラを移動させるためのユーザインターフェースジェスチャに関する。いくつかの実施形態は、モバイルデバイス上の3次元環境内のパンニングに関する。最後に、いくつかの実施形態は、モバイルデバイス上の3次元環境内のアンカーナビゲーションに関する。

Description

(発明の分野)
本発明は、概して、3次元環境内でのナビゲーションに関する。
(背景技術)
3次元データを表示するための3次元環境内をナビゲーションするためのシステムが存在する。3次元環境として、どの3次元データを表示するかを定義する仮想カメラが挙げられる。仮想カメラは、その位置および配向に従って視点を有する。仮想カメラの視点を変更することによって、ユーザは、3次元環境内をナビゲートすることが可能である。
携帯電話、パーソナルデジタルアシスタント(PDA)、携帯用ナビゲーションデバイス(PND)および携帯ゲーム機等のモバイルデバイスは、向上した演算能力を備えて作製されている。多数のモバイルデバイスは、インターネット等のネットワーク1つ以上にアクセスすることができる。また、Apple Inc.から販売されているIPHONEデバイス等のいくつかのモバイルデバイスは、GPSセンサ、加速度計、およびタッチ画面からの入力を受理する。向上した演算能力によって、モバイルデバイス上で広範囲のソフトウェアアプリケーションを稼動することが可能になっている。向上した演算能力にも関わらず、多数の携帯モバイルデバイスは、概して、4インチ未満の小型ディスプレイを有する。小型のディスプレイによって、ユーザがモバイルデバイス上の3次元環境内をナビゲートすることを困難にしている場合がある。
モバイルデバイス上の3次元環境内でのナビゲーションを改善する方法およびシステムが必要とされる。
(簡単な要旨)
本明細書に開示される実施形態は、モバイルデバイス上の3次元環境内でナビゲートするための方法およびシステムに関する。いくつかの実施形態は、モバイルデバイスの配向を使用する、3次元環境のナビゲーションに関する。いくつかの実施形態は、モバイルデバイス上で仮想カメラを移動させるためのユーザインターフェースジェスチャに関する。いくつかの実施形態は、ピンチング、回転、ダブルタッチズーム等のモバイルデバイス上で仮想カメラを移動させるためのユーザインターフェースジェスチャに関する。いくつかの実施形態は、モバイルデバイス上の3次元環境内のパンニングに関する。最後に、いくつかの実施形態は、モバイルデバイス上の3次元環境内のアンカーナビゲーションに関する。
本発明のさらなる実施形態、特長、および利点、ならびに本発明の多様な実施形態の構造および操作は、添付の図面を参照して以下に詳細を説明する。
本明細書に組み入れられ、仕様の一部を形成する添付の図面は、本発明を図説し、さらに、詳細説明と併せて本発明の原則を説明し、当業者が本発明を作製および使用することを可能にすることを目的とする。
図1は、3次元環境内をナビゲートするモバイルデバイスを示す図である。 図2は、3次元環境内をナビゲートする仮想カメラを示す図である。 図3は、3次元環境内をナビゲートするように、ユーザインターフェースジェスチャを受理するシステムを示す図である。 図4は、角度ジャンプナビゲーションのための方法を示すフローチャートである。 図5は、モバイルデバイス上の角度ジャンプナビゲーションを示す図である。 図6A〜Bは、表示上で選択される位置に従い、標的場所を決定するステップを示す図である。 図6A〜Bは、表示上で選択される位置に従い、標的場所を決定するステップを示す図である。 図7は、角度ジャンプ軌道を示す図である。 図8は、アンカールックアラウンドナビゲーションのための方法を示すフローチャートである。 図9A〜Bは、モバイルデバイス上のアンカールックアラウンドナビゲーションを示す図である。 図9A〜Bは、モバイルデバイス上のアンカールックアラウンドナビゲーションを示す図である。 図10は、アンカーヘリコプタナビゲーションのための方法を示すフローチャートである。 図11A〜Bは、モバイルデバイス上のアンカーヘリコプタナビゲーションを示す図である。 図11A〜Bは、モバイルデバイス上のアンカーヘリコプタナビゲーションを示す図である。 図12は、モバイルデバイス上の3次元環境内で周囲を見回すための2つの指のジェスチャを示す図である。 図13は、モバイルデバイスの配向に基づいて、仮想カメラをナビゲートするための方法を示すフローチャートである。 図14A〜Cは、モバイルデバイスの配向に基づいて、仮想カメラをナビゲートするステップを示す図である。 図15は、ピンチ運動量を使用して、仮想カメラをナビゲートするための方法を示すフローチャートである。 図16A〜Cは、ピンチ運動量を使用して、モバイルデバイス上の3次元環境内で仮想カメラをナビゲートするステップを示す図である。 図16A〜Cは、ピンチ運動量を使用して、モバイルデバイス上の3次元環境内で仮想カメラをナビゲートするステップを示す図である。 図16A〜Cは、ピンチ運動量を使用して、モバイルデバイス上の3次元環境内で仮想カメラをナビゲートするステップを示す図である。 図17は、モバイルデバイス上でパンニングするための方法を示すフローチャートである。 図18A〜Bは、モバイルデバイス上の3次元環境内をパンニングするステップを示す図である。 図18A〜Bは、モバイルデバイス上の3次元環境内をパンニングするステップを示す図である。 図19A〜Cは、モバイルデバイス上のナビゲーション内で使用されてもよい、異なるパンモードを示す図である。
要素が最初に示される図面は、典型的に、対応する参照番号の左端の数字によって示される。図面において、同様な参照番号は、同一または機能的に類似の要素を示す場合がある。
(実施形態の詳細な説明)
モバイルデバイス上の3次元環境内でのナビゲーションのための本発明の実施形態を提供する。以下の実施形態の詳細説明において、「一実施形態」、「実施形態」、「例示的実施形態」等への参照は、説明される実施形態が、特定の特長、構造、または特性を含むことができるが、あらゆる実施形態が、必ずしも、特定の特長、構造、または特性を含まなくてもよいことを示す。さらに、このような語句は、必ずしも同じ実施形態を参照していない。その上、特定の特長、構造、または特性が、実施形態に関係して説明されるとき、明示的に説明されているかどうかに関わらず、このような特長、構造、または特性を他の実施形態に関係して達成することは、当業者の知識の範囲内であると考えられる。
この詳細説明は項に分かれる。第1の項では、モバイルデバイス上の3次元環境内のナビゲーションの導入を提供する。第2の項では、モバイルデバイス上の3次元環境内でナビゲートするためのユーザインターフェースジェスチャを受理するシステムを説明する。次のいくつかの項では、ユーザインターフェースジェスチャを詳細に説明する。第3の項では、角度ズームユーザインターフェースジェスチャを説明する。第4の項では、2つのアンカーナビゲーションジェスチャを説明する。第5の項では、2重の指のルックアラウンドジェスチャを説明する。第6の項では、加速度計ナビゲーションを説明する。第7の項では、ピッチ運動量、ならびに2本の指のタッチおよび回転ジェスチャを説明する。最後に、第8の項では、モバイルデバイス上の3次元環境内でのパンニングを説明する。
(導入)
この項では、モバイルデバイス上の3次元環境内でのナビゲーションの概要を提供する。図1は、3次元環境内をナビゲートすることが可能なモバイルデバイス100を示す図である。実施形態において、モバイルデバイス100は、PDA、携帯電話、携帯ゲーム機、または当業者には周知の他のハンドヘルドモバイルデバイスであり得る。実施例において、モバイルデバイス100は、Apple Inc.から販売されているIPHONEデバイスであってもよい。別の実施例において、モバイルデバイス100は、Google Inc.から入手可能なANDROIDプラットフォームを稼動しているデバイスであってもよい。他の実施形態において、モバイルデバイス100は、タブレットコンピュータ、ノートパソコン、またはハンドヘルドモバイルデバイスより大型であるが、依然としてユーザによって容易に携帯される他のモバイルデバイスであってもよい。これらの例は、説明のためであって、本発明を制限することを意味しない。
モバイルデバイス100は、ユーザからのタッチ入力を受理する、タッチ画面を有することができる。ユーザは、ユーザの指、スタイラス、または当業者には周知の他の手段で画面に触れることができる。モバイルデバイス100はまた、モバイルデバイスが加速するときを検出、またはモバイルデバイス100の重力に対する配向を検出する、加速度計を有することもできる。モバイルデバイス100の配向を決定するために他のデバイスが使用されてもよく、本発明は加速度計に限定されることを意味しないことに注意されたい。さらに、1つ以上の加速度計が使用されてもよい。さらに、モバイルデバイス100は、GPS受信機等の場所受信機を有することができ、インターネット等のネットワーク1つ以上に接続されてもよい。
モバイルデバイス100は、表示102を有する。前述のように、モバイルデバイス100は、ユーザが表示102に触れるときにタッチ入力を受理することができる。さらに、表示102は、ユーザに画像を出力することができる。実施例において、モバイルデバイス100は、3次元環境を描画することができ、仮想カメラの視点から、表示102内でユーザに3次元環境を表示することができる。
モバイルデバイス100は、ユーザに3次元環境内で仮想カメラをナビゲートすることを可能にする。実施例において、3次元環境は、地球の3次元モデル等の3次元モデルを含むことができる。地球の3次元モデルは、3次元地形にマッピングされる衛星画像テクスチャを含むことができる。地球の3次元モデルは、建物のモデルおよび他の位置情報も含むことができる。この例は、説明に過ぎず、本発明を制限することを意味しない。
ユーザ入力に応答して、モバイルデバイス100は、仮想カメラの視点を変更することができる。仮想カメラの新しい視点に基づいて、モバイルデバイス100は、表示102内に新しい画像を描画することができる。仮想カメラの視点を変更し、新しい画像をもたらす、多様なユーザインターフェースジェスチャについて以下に詳細を説明する。
図2は、3次元環境内の仮想カメラを示す図200を示す。図200は、仮想カメラ202を含む。仮想カメラ202は、3次元地形210を視察するように方向付けられる。3次元地形210は、地球の3次元モデル等のより大型の3次元モデルの一部であってもよい。
前述のように、ユーザ入力によって、図1のモバイルデバイス100等のモバイルデバイスは、仮想カメラ202を新しい場所へ移動させることができる。さらに、ユーザ入力は、仮想カメラ202に、ピッチ、ヨー、ロール等の配向を変更させることができる。
この様式において、モバイルデバイス上のユーザインターフェースジェスチャは、仮想カメラにモバイルデバイス上の3次元環境内をナビゲートさせる。ユーザインターフェースジェスチャの多様なシステム構成要素および詳細について、以下に説明する。
(システム)
本項では、ユーザインターフェースジェスチャに応答して、モバイルデバイス上の3次元環境内で仮想カメラをナビゲートするシステムを説明する。図3は、モバイルデバイス上の3次元環境内でのナビゲーションのために、ユーザインターフェースジェスチャを受理するシステム300を示す図である。
システム300は、ユーザ相互作用モジュール310およびレンダラモジュール322を有するクライアント302を含む。ユーザ相互作用モジュール310は、運動モデル314を含む。概して、クライアント302は次のように操作する。ユーザ相互作用モジュール310は、ユーザが視察を希望する場所に関するユーザ入力を受信し、運動モデル314を介して、仮想カメラを定義する表示仕様を作成する。レンダラモジュール322は、表示仕様を使用して、どのデータが描画されるかを決定し、データを描画する。レンダラモジュール322が、システム300が有さないデータを描画することが必要な場合、システム300は、ネットワークインターフェース350を使用して、インターネット等のネットワーク1つ以上から、追加データを求めるリクエストをサーバに送信する。
運動モデル314は、表示仕様を作成する。表示仕様は、視錐台として周知の、3次元空間内の仮想カメラの可視ボリューム、および3次元環境内の視錐台の位置および配向を定義する。実施形態において、視錐台は、角錐台の形状である。視錐台は、表示環境に依存して変化し得る、最小および最大の視界距離を有する。このため、表示仕様を変更すると、仮想カメラの可視ボリュームにカリングされる地理データが変化する。カリングされる地理データは、レンダラモジュール322によって描画される。
表示仕様は、仮想カメラの3つの主なパラメータセットである、カメラ三脚、カメラレンズ、およびカメラ焦点機能を指定することができる。カメラ三脚パラメータセットは、仮想カメラの位置(X、Y、X座標)、仮想カメラがデフォルトの配向に対して配向される向き、ピッチ(例えば、水平?下向き?上向き?その間?)、およびヨー/ロール(例えば、水平?右回り?左回り?その間)を指定する。レンズパラメータセットは、水平方向の視野(例えば、望遠?通常の人間の眼‐約55度?または広角?)、および縦方向の視野(例えば、望遠、通常の人間の眼‐約55度?または広角?)を指定する。焦点パラメータセットは、近位クリップ平面までの距離(例えば、仮想カメラが見ることが可能な「レンズ」までの距離、これより近接の物体は描画されない)、および遠位クリップ平面までの距離(例えば、仮想カメラが見ることが可能なレンズからの距離、これより遠い物体は描画されない)を指定する。本明細書に使用されるように、「仮想カメラを移動させるステップ」は、仮想カメラをズームするステップ、ならびに仮想カメラを平行移動させるステップを含む。
表示仕様を作成するために、ユーザ相互作用モジュール310は、ユーザ入力を受信する。クライアント302は、入力を受信するための多様なメカニズムを有する。例えば、クライアント302は、タッチレシーバ340、加速度計342、および場所モジュール344を含むセンサを使用して入力を受信することができる。センサの各々は次にそれぞれを説明する。
タッチレシーバ340は、タッチ画面から入力を受理する、任意の種類のタッチレシーバであってよい。タッチレシーバ340は、図1の表示102等の表示上でタッチ入力を受信することができる。受信されるタッチ入力は、画面上のXおよびY座標によって定義されるようにユーザが触れた位置を含むことができる。ユーザは、指、スタイラス、または他の物体で画面に触れることができる。タッチレシーバ340は、例えば、ユーザが画面上の複数の場所を選択する場合、複数のタッチを同時に受信することが可能であってもよい。画面は、抵抗性、容量性、赤外線、弾性表面波、歪みゲージ、光学的画像、音響パルス認識、漏れ全反射、および拡散レーザ画像技術を含むが、これらに限定されない、当分野では周知の任意の技術を使用してタッチを検出することができる。
加速度計342は、当業者には周知の任意の種類の加速度計であってよい。加速度計342は、モバイルデバイスが移動するときを検出することが可能であってもよい。加速度計342はまた、重力に対するモバイルデバイスの配向を検出することが可能であってもよい。
場所レシーバ344は、モバイルデバイスの場所を検出する。場所レシーバ344は、例えば、GPSレシーバから、モバイルデバイスの場所を検出することができる。GPSレシーバは、GPS衛星からの信号を使用して、モバイルデバイスの場所を決定する。他の実施例において、場所レシーバ344は、例えば、近隣の携帯電話基地局および無線ランのホットスポットから情報を収集することによって、モバイルデバイスの場所を検出することができる。場所レシーバ344は、モバイルデバイスの場所を迅速かつ正確に決定するように、携帯電話基地局、無線ランのホットスポット、およびGPS衛星からの情報を合わせて使用することができる。
前述のように、ユーザ相互作用モジュール310は、表示仕様によって定義されるように仮想カメラの視点を変更する多様なモジュールを含む。ユーザ相互作用モジュール310は、運動量モジュール316、角度ジャンプモジュール312、ナビゲーションモジュール318、アンカーモジュール320、パンモジュール348、および標的モジュール346を含む。これらのモジュールの各々について以下に説明する。
ユーザ相互作用モジュール310内のモジュールは、標的場所に従って、仮想カメラの視点を変更することができる。標的場所は、標的モジュール346によって決定されてもよい。実施形態において、標的モジュール346は、仮想カメラの焦点から射線を延長することができる。標的場所は、射線と、地球の3次元モデル等の3次元モデルとの交差点であってもよい。射線は、ユーザによって選択される、表示上の位置に従って延長されてもよい。代替として、射線は、仮想カメラの視錐台の中心を通って延長されてもよい。標的モジュール346の操作は、図6A〜Bに関して詳細を説明する。
標的モジュール346が使用する1つのモジュールは、角度ジャンプモジュール312である。3次元環境内の地物を選択するユーザに応答して、角度ジャンプモジュール312は、仮想カメラを地物に向かって移動させる。実施例において、タッチレシーバ340は、ユーザが表示の位置を選択したことを示す、ユーザ入力を受信する。実施例において、ユーザは、表示上の位置を選択し、位置上をダブルタップすることによって、角度ジャンプを開始することができる。ユーザによって選択される位置に基づいて、標的モジュール346は、標的場所を決定する。標的場所を使用して、角度ジャンプモジュール312は、仮想カメラを移動させる。角度ジャンプモジュール312は、仮想カメラを標的場所に向かって移動させることができ、仮想カメラを標的場所に向かって回転させることができる。仮想カメラが移動するにつれて、角度ジャンプモジュール312は、飛行機のバンキングをシミュレーションするように、仮想カメラのロールを変更することができる。角度ジャンプモジュール312は、標的場所が表示のほぼ中心に現れるように、仮想カメラを配向することができる。仮想カメラを配向するために、角度ジャンプモジュール312は、仮想カメラのピッチまたはヨー値を変更することができる。この様式において、ユーザは、片手で画面上をダブルタップし、仮想カメラを標的に向けて容易にナビゲートすることが可能である。さらに、仮想カメラを新しい場所に円滑に移行することによって、ユーザに満足する効果を生むことができる。
アンカーモジュール320は、他のユーザインターフェースジェスチャに応答して、仮想カメラを移動させる。実施例において、アンカーモジュール320は、タッチレシーバ340が、1本の指の静止および他の指が運動中である、2本の指のタッチを受信するときに呼び出される。静止および運動中の指の相対的な初期位置は、アンカールックアラウンドモードまたはアンカーヘリコプタモードという、2つのナビゲーションモードのうちの1つを有効にすることができる。実施形態において、アンカールックアラウンドモードは、第1の静止指の初期位置が、第2の指の初期位置より下にあるときに有効になる。アンカーヘリコプタモードは、第1の静止指の初期位置が、第2の指の初期位置より上にあるときに有効になる。アンカールックアラウンドモードは、ルックアラウンドモジュール326によって実行されてもよく、アンカーヘリコプタモードは、ヘリコプタモジュール324によって実行されてもよい。
ルックアラウンドモジュール326は、第2の指の運動に従って、仮想カメラの配向を変更する。タッチレシーバ340は、第2の指の運動の方向を受信し、方向をルックアラウンドモジュール326に送信することができる。方向に基づいて、ルックアラウンドモジュール326は、仮想カメラを異なる軸に沿って回転させることができる。ルックアラウンドモジュール326は、指がモバイルデバイスの左側または右側に向かって移動するとき、仮想カメラのヨーを変更することができる。同様に、ルックアラウンドモジュール326は、指がモバイルデバイスの頂部または底部に向かって移動するとき、仮想カメラのピッチを変更することができる。ルックアラウンドモジュール326の操作は、図8および9A〜Bに関して詳細を説明する。実施形態において、ルックアラウンドモジュール326はまた、2本の指の運動に応答して、仮想カメラの配向を変更することもできる。この実施形態は、図12に関して説明する。
ヘリコプタモジュール324は、静止している指の位置が、最初に、移動する指より下にあるとき、仮想カメラを移動させる。実施形態において、タッチレシーバ340が、静止している指が移動する指より下にある、2本の指のタッチを受信するとき、標的モジュール346は、標的場所を決定することができる。標的場所は、静止している指の位置に基づいて、射線を延長することによって決定されてもよい。代替として、標的場所は、仮想カメラの視錐台の中心を通って射線を延長することによって決定されてもよい。標的場所を決定するステップは、図6A〜Bに関して以下に詳細を説明する。
タッチレシーバ340は、移動する指の方向をヘリコプタモジュール324に送信することができる。移動する指の方向に基づいて、ヘリコプタモジュール324は、仮想カメラを異なる方向に移動することができ、標的場所と仮想カメラの位置との間の距離をほぼ一定に保つ。ヘリコプタモジュール324は、距離のわずかな変化を可能にしてもよい。例えば、新しい地形は、距離を変化させるクライアントにストリームされてもよい。
ヘリコプタモジュール324は、標的モジュール346によって決定される標的場所から上向きに射線を延長することができる。移動する指の方向がモバイルデバイスの頂部または底部に向かっているとき、ヘリコプタモジュール324は、射線に対する傾斜角を変更することができる。傾斜角を変更すると、仮想カメラを上または下に移動させることができる。移動する指の方向がモバイルデバイスの左側または右側に向かっているとき、ヘリコプタモジュール324は、射線に対する方位角を変更することができる。方位角を変更すると、一定の高さを維持しながら、仮想カメラを標的場所周囲で移動させることができる。さらに、移動する指の方向が、モバイルデバイスの両方の軸上に構成要素を有するとき、ヘリコプタモジュール324は、傾斜角および方位角の両方を変更することができる。この様式において、ヘリコプタモジュール324は、ユーザに標的場所周囲で容易にナビゲートすることを可能にする。ヘリコプタモジュールはまた、図16Cで説明されるように、モバイルデバイスの画面上で2本の指が回転するとき、仮想カメラを移動させることもできる。
実施形態において、ヘリコプタモジュール324はまた、標的場所と仮想カメラとの間の距離を変更することもできる。例えば、仮想カメラは、標的場所内へ、または標的場所から離れて移動することができる。例えば、初期に静止している指の運動によって、標的に向かって、または標的から離れて仮想カメラを平行移動することになってもよい。
実施形態において、ナビゲーションモジュール318に、重力に対するモバイルデバイスの配向に基づいて傾斜角を変更することを可能にする一方で、ヘリコプタモジュール324は、方位角を変更することができる。ヘリコプタモジュール324の操作は、図10および図11A〜Bに関して詳細を説明する。
ナビゲーションモジュール318は、加速度計342および場所レシーバ344から受信される配向および位置情報に従って、3次元環境内で仮想カメラを配向かつ位置付ける。ナビゲーションモジュール318は、加速度計ナビゲーションモジュール330を含む。実施形態において、加速度計342は、重力に対するモバイルデバイスの配向を受信する。モバイルデバイスの配向に基づいて、加速度計ナビゲーションモジュール330は、仮想カメラの位置または配向を変更する。モバイルデバイスの配向に基づいて、加速度計ナビゲーションモジュール330は、仮想カメラのピッチを変更することができ、仮想カメラを上方および下方に向けさせる。代替として、加速度計ナビゲーションモジュール330は、標的場所に対する仮想カメラの傾斜を変更することができ、仮想カメラを上方または下方に移動させる。
場所レシーバ344は、モバイルデバイスの機首方位値を受信することができる。例えば、場所レシーバ344は、モバイルデバイスが面する基本方位(北、東、南、西)を受信することができる。機首方位に基づいて、ナビゲーションモジュール318は、仮想カメラをモバイルデバイスの方向に配向することができる。さらに、場所レシーバ344は、モバイルデバイスの場所値を受信することができる。例えば、場所レシーバ344は、モバイルデバイスの緯度、経度、および高度を受信することができる。モバイルデバイスの場所に基づいて、ナビゲーションモジュール318は、仮想カメラを3次元環境内で位置付けることができる。3次元環境として、地球の3次元環境を挙げることができる。この様式において、ナビゲーションモジュール318は、実際の地球内のモバイルデバイスの位置および配向に相応するように、仮想カメラを仮想地球内に位置付けかつ配向することができる。ナビゲーションモジュール318は、モバイルデバイスを追跡するように、仮想カメラの位置および配向を継続的に更新することができる。ナビゲーションモジュール318の操作は、図13および図14A〜Bに関して詳細を説明する。
角度ジャンプモジュール312、運動量モジュール316、加速度計ナビゲーションモジュール330、ルックアラウンドモジュール326、およびヘリコプタモジュール324の各々は、ユーザインターフェースジェスチャを受理して、仮想カメラを移動させる。これらのモジュールの各々は、ユーザインターフェースジェスチャが完了した後、仮想カメラの運動を継続するように、運動量モジュール316と協調することができる。運動量モジュール316は、ジェスチャが完了した後、運動を徐々に減速することができる。この様式において、運動量モジュール316は、運動量を有する仮想カメラをシミュレートし、空気抵抗等の摩擦を受けている仮想カメラをシミュレートする。
上述のように、アンカーモジュール316は、タッチレシーバ340が、1本の指は静止状態で、他の指が運動中である、2本の指のタッチを受信するとき、仮想カメラをナビゲートする。さらなる特長に従い、両方の指が運動中であるとき、運動量モジュール316も、仮想カメラをナビゲートすることができる。両方の指が運動中である2本の指のタッチは、本明細書においては、ときにはピンチジェスチャとして説明され、指は相互から離れて移動するか、または相互に向かって移動するかのいずれかである。運動量モジュール316は、指が相互に対して移動する速度を決定することができる。指の速度に基づいて、運動量モジュール316は、仮想カメラの速度を決定することができ、仮想カメラを所定の速度で移動させることができる。指を相互に向かって移動させることによって、仮想カメラを前方に移動させることができ、指を相互から離れて移動させることによって、仮想カメラを後方に移動させることができる。運動量モジュール316は、空気抵抗をシミュレートすることができ、従って、仮想カメラの速度を徐々に減少させることができる。
代替として、仮想カメラは、静止したままにすることができ、地球の3次元モデル等の3次元モデルは、指の速度に従って移動することができる。運動量モジュール316は、指の速度に従って決定される角速度で地球のモデルを回転させることができる。運動量モジュール316の操作は、図15および図16A〜Bに関して詳細を説明する。
地球の3次元モデル等の3次元モデルはまた、パンモジュール348によって回転されてもよい。実施形態において、タッチレシーバ340は、ユーザがモバイルデバイスの表示上の第1の位置に触れ、指を表示上の第2の位置へ移動したこと(タッチアンドドラッグジェスチャ)を示す、ユーザ入力を受信することができる。第1および第2の位置に基づいて、標的モジュール346は、3次元環境内の第1および第2の点を決定することができる。第1および第2の点に基づいて、パンモジュール348は、仮想カメラに対して3次元モデルを移動させることができる。この運動は、本明細書においては「パンニング」と参照されてもよい。実施例において、パンモジュール348は、3次元モデル上の回転軸を決定し、回転軸周囲で3次元モデルを回転させることによって、3次元モデルを移動させることができる。
実施形態において、パンモジュール348の操作は、仮想カメラの配向に従って変更することができる。前述のように、仮想カメラの配向は、重力に対するモバイルデバイスの配向に従って決定されてもよい。実施例において、仮想カメラが地面に面するとき、ユーザは、任意の方向にパンすることができる。しかしながら、仮想カメラが水平線に面するとき、ユーザは、前方および後方にのみパンすることができる。代わりに、左側および右側への指の運動は、カメラを左側または右側に向けることになってもよい。パンモジュール348の操作は、図17、図18A〜B、および図19A〜Cに関して詳細を説明する。
システム300の構成要素の各々は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの任意の組み合わせに実装されてもよい。
以下の項では、角度ジャンプモジュール312、標的モジュール346、アンカーモジュール320、運動量モジュール316、ナビゲーションモジュール318、およびパンモジュール348の操作を詳細に説明する。
(角度ジャンプ)
この項では、図4〜5、6A〜B、および7に関してジャンプ角度ナビゲーションのための方法を説明する。角度ジャンプナビゲーションは、ユーザに、モバイルデバイス上の3次元環境内を容易かつ直感的にナビゲートすることを可能にする。概して、ユーザが場所上をダブルタップすることに応答して、方法は、場所に向けて仮想カメラをナビゲートし、場所に向けて仮想カメラの角度を決める。
図4は、角度ジャンプナビゲーションのための方法400を示すフローチャートである。方法400は、ステップ402で、ユーザが表示の場所をダブルタップしたことを示す、ユーザ入力を受信して開始する。ステップ402は、図5に示される。図5は、モバイルデバイス上の角度ジャンプナビゲーションを示す図500を示す。図500は、表示102を備えるモバイルデバイス100を示す。ユーザは、場所504をダブルタップする。角度ジャンプナビゲーションは、方法400の残りのステップにおいて説明されるように、軌道502に沿ってナビゲートする。
ステップ402で受信されるタップ場所の場所に基づいて、ステップ404で、標的場所が決定される。標的場所を決定するステップは、図6A〜Bに示される。図6Aは、標的場所を決定するように、画面射線を延長するステップを示す図600を示す。図600は、焦点602を備える仮想カメラを示す。仮想カメラは、焦点距離606およびビューポート604を有する。ビューポート604上で、点610は、モバイルデバイスの表示上でユーザによって選択される点に相当する。焦点602から、射線612は、点610を通って延長される。射線612は、3次元モデル616と交差して、標的場所614を決定する。この様式において、標的場所614は、ユーザにより選択される(例えば、ダブルタップされる)点に基づいて決定される。
ユーザにとっては容易であるが、指で表示をダブルタップすることは、不正確であり得る。モバイルデバイスは、小型の表示を有する傾向がある(例えば、ハンドヘルドモバイルデバイスは、概して、4インチ未満の表示を有する場合がある)。この結果、指のタッチは、表示の相当部分を占める場合がある。ユーザが水平線に近い位置を選択するとき、画面の射線は、3次元モデルに対するほぼ接線の場合がある。太い指の位置の小さい変化が、標的場所の大きい変更になる場合がある。この結果、角度ジャンプナビゲーションは不安定な場合がある。
潜在的な不安定性に対処するため、図6Bに示されるように、ユーザ選択がダンピングされてもよい。図6Bは、焦点602、焦点距離606、およびビューポート604を有する仮想カメラを含む図650を示す。ユーザは、水平線に近い、表示上の点を選択する。ユーザによって選択される点は、ビューポート604上の点652に相当する。射線654は、焦点602からビューポート604上の点652を通って延長する。射線654は、点656で凸形の仮想表面658と交差する。点656は、標的場所を決定するように、3次元モデル660上に投影されてもよい。画面射線を仮想表面と交差させることによって、ユーザの選択はダンピングされ、従って、安定性を向上させる。図650は、ユーザ選択をダンピングするための一方法を示すが、当業者に周知であるような他の方法が使用されてもよい。
図4を再び参照すると、標的場所が決定されたら、ステップ406で、仮想カメラが標的場所に向かって移動する。仮想カメラが標的場所に向かって移動するにつれて、ステップ408で、仮想カメラは標的場所に向かって回転する。ステップ406および408は、図7に示される。
図7は、角度ジャンプ軌道を示す図700を示す。図700は、初期位置702での仮想カメラを示す。仮想カメラは、軌道706に沿って移動する。仮想カメラは、初期の前方速度ベクトルを備えて開始することができる。仮想カメラが軌道706上を継続するにつれて、仮想カメラは、標的708に向かって回転する。標的708に向かって回転するステップは、仮想カメラのピッチまたはヨーを変更するステップを含むことができる。仮想カメラが軌道706上を継続するにつれて、仮想カメラは減速することができ、標的708に面する位置704で静止するようになる。仮想カメラが静止するようになるとき、標的708は、表示のほぼ中心に現れることができる。表示のほぼ中心は、中心からのわずかなオフセットが可能とされるように、正確に中心でなくてもよい。
仮想カメラが軌道706に沿って移動するにつれて、仮想カメラは、ロールすることができる。ロールは、着陸先に向かう飛行機のような旋回をシミュレートすることができる。仮想カメラは、ロールのない軌道706を開始することができる。仮想カメラのロールは、軌道706に沿って移動するにつれて増加することができ、軌道706の中間で最大量のロールを獲得することができる。次に、仮想カメラのロールは減少することができ、仮想カメラがその最終位置704に到達するときにゼロに戻る。
この様式において、角度ジャンプナビゲーションは、ユーザに、3次元環境内の標的場所に向かって容易にナビゲートすることを可能にする。加えて、ダブルタッチジェスチャに基づいて標的場所を決定することによって、ユーザは、片手だけで、場所に向かってナビゲートすることが可能である。これは、しばしばユーザは片手でモバイルデバイスを持ち、片手だけが自由で3次元環境内をナビゲートすることから、有用である。
(アンカーナビゲーション)
ナビゲートするために片手が自由な場合、いくつかのユーザインターフェースジェスチャは、2本の指を使用することができる。この項では、アンカールックアラウンドおよびアンカーヘリコプタという、2本の指を使用する2つのユーザインターフェースジェスチャを説明する。各ユーザインターフェースジェスチャでは、1本の指が最初に静止していて、他が移動する。静止している指は、移動する指の前に、画面に触れることができる。静止および移動する指の初期の相対的位置は、ユーザが、アンカールックアラウンドモードまたはアンカーヘリコプタモードに入るかどうかを決定することができる。
図8は、アンカールックアラウンドナビゲーションのための方法800を示すフローチャートである。方法800は、ステップ802で、モバイルデバイスの表示上の2本の指のタッチに対するユーザ入力を受信することによって開始する。2本の指のうちの1本が運動中で、ステップ804で、第2の指の運動の方向(例えば、運動ベクトル)が受信される。2本の指のタッチは、図9Aに示される。
図9Aは図900を示す。図900は、表示102を備えるモバイルデバイス100を示す。ユーザは、指902および指904で表示102に触れた。指902は、最初は静止していて、指904は、最初は運動中である。指902は、指904の前に少なくとも一定時間、画面に触れることができる。指902および904の相対的位置の結果として、ユーザは、アンカールックアラウンドナビゲーションモードに入る。実施形態において、ユーザは、最初に移動する指(指904)が、最初に静止している指(指902)の上にあるとき、アンカーナビゲーションモードに入る。
図8を再び参照すると、第2の指の運動が受信されると、仮想カメラの配向は、第2の指の運動に従って変更される。仮想カメラの配向がどのように変更されるかは、図9Bに示される。
図9Bは、3次元環境内で周囲を見回す仮想カメラを示す図950を示す。図950は、3次元地形210および仮想カメラ202を示す。そのピッチを変更することによって、カメラ202は、矢印952によって示されるように上方および下方を向くことができる。そのヨーを変更することによって、カメラ202は、矢印954によって示されるように左側および右側に向くことができる。
図9Aにおいて、ユーザが、矢印906および908によって示されるように、指904を左側または右側に移動するとき、仮想カメラのヨーは、これに従って左側または右側を向くように変化することができる。同様に、ユーザが、矢印906および908によって示されるように、指904を上方または下方に移動するとき、仮想カメラのピッチは、これに従って上方または下方を向くように変化することができる。ユーザが、矢印920によって示されるように、指を斜めに移動するとき、仮想カメラのピッチおよびヨーの両方が変化することができる。ピッチおよびヨーは、モバイルデバイスの軸に沿って、運動ベクトルの構成要素に従って変化することができる。この様式において、指を移動することによって、ユーザは、仮想カメラを周囲を見回すようにさせることが可能で、異なる視点から3次元環境を視察する。
代替実施形態において、仮想カメラは、モバイルデバイスの配向に基づいて上方および下方を向きながら、ユーザ入力に基づいて左側および右側を向くことができる。重力に対するモバイルデバイスの配向は、モバイルデバイスの加速度計から受信されてもよい。仮想カメラのピッチは、モバイルデバイスの配向に従って変更されてもよい。この様式において、ユーザは、モバイルデバイスを上方および下方の角度に決めることによって、上方および下方を見ることが可能である。
実施形態において、仮想カメラの軸は、第1の静止している指の位置に基づいて決定されてもよい。実施例において、標的場所は、静止している指の位置に基づいて決定されてもよい。軸は、仮想カメラおよび標的場所を結ぶ直線である。この実施形態において、第2の指の運動によって、仮想カメラを軸の周囲で回転させる。
前述のように、ユーザは、静止している指が移動する指より下にあるときに、アンカールックアラウンドモードに入る。しかしながら、静止している指が移動する指より上にあるとき、ユーザは、アンカーヘリコプタモードに入ることができる。アンカーヘリコプタモードは、図10および11A〜Bに関して説明する。
図10は、アンカーヘリコプタナビゲーションのための方法1000を示すフローチャートである。方法1000は、ステップ1002で、モバイルデバイスの表示上の2本の指のタッチに対するユーザ入力を受信することによって開始する。2本の指のうちの1本が運動中で、ステップ1004で、第2の指の運動の方向(例えば、運動ベクトル)が受信される。2本の指のタッチは、図11Aに示される。
図11Aは、図1100を示す。図1100は、表示102を備えるモバイルデバイス100を示す。ユーザは、指1102および指1104で表示102に触れた。指1102は、最初は静止しており、指1104は、最初は運動中である。ユーザは、指1104で表示に触れる一定時間前に、指1102で表示102に触れることができる。指1102および1104の相対的位置の結果として、ユーザは、アンカーヘリコプタモードに入る。前述のように、ユーザは、最初に移動する指(指1104)が、最初に静止している指(指1102)より下にあるとき、アンカーヘリコプタモードに入る。
ここで再び図10を参照すると、ユーザ入力を受信後、ステップ1004で、標的場所が決定される。実施形態において、標的場所は、第1の静止している指の位置に基づいて決定されてもよい。標的場所は、図6Aにおいて説明されたように、画面射線を延長することによって決定されてもよい。さらに、画面射線は、図6Bに関して説明されるようにダンピングされてもよい。代替として、標的場所は、仮想カメラの視錐台の中心を通って射線を延長することによって決定されてもよい。射線は、標的場所で3次元モデルと交差することができる。これらの実施例は説明目的であって、当業者に周知であるような、標的場所を決定する他の方法が使用されてもよい。
標的場所が決定されると、ステップ1008で、標的場所に対する傾斜または方位角値が、第2の指の運動に従って変更される。ステップ1008は、図11Bに示される。
図11Bは、アンカーヘリコプタナビゲーションを示す図1150を示す。図1150は、3次元地形210に向かって方向付けられた仮想カメラ202を示す。射線1160は、ステップ1006で説明されるように、標的1158を決定するように延長される。標的1158から、上向きに方向付けられたベクトル1162が決定される。ベクトル1162に対して、仮想カメラ202は、傾斜角1156および方位角1154を有する。傾斜角1156を変更すると、仮想カメラを上方または下方に移動させ、方位角1154を変更すると、仮想カメラを一定の高さで標的1158の周囲で周回させる。実施形態において、傾斜角1156および方位角1154を変更しても、仮想カメラ202と標的1158との間の距離を変更することにならない。この様式において、傾斜角1156および方位角1154を変更すると、標的1158への等距離にあるままで、標的1158の周囲で仮想カメラをナビゲートする。
図11Aにおいて、ユーザが、矢印1108および1106によって示されるように、指1104を左側または右側に移動するとき、方位角が変化し、仮想カメラ202を一定の高さで標的1158の周囲で周回させる。同様に、ユーザが、矢印1110および1112によって示されるように、指904を上方または下方に移動するとき、傾斜角が変化することができ、仮想カメラを標的1158に対して上方および下方に移動させる。ユーザが、矢印1116によって示されるように、指を斜めに移動するとき、傾斜角および方位角の両方が変化することができる。傾斜および方位の値は、モバイルデバイスの軸に沿って、運動ベクトルの構成要素に従って変化することができる。この様式において、指を移動することによって、ユーザは、仮想カメラを標的場所の周囲で移動させることが可能で、異なる視点から標的場所を視察する。仮想カメラの配向はまた、仮想カメラが継続して標的に面するように、変化することもできる。
実施例において、ユーザは、指1104を下方および右側へ移動することができる。この実施例において、標的場所に対する傾斜および方位の両方の値は、指の運動に応答して増加することができる。傾斜値が増加するにつれて、仮想カメラは、標的場所の高度に向かって下方に移動する。一方で、方位角が増加すると、仮想カメラを標的場所の周囲で回転させる。仮想カメラが移動している間、仮想カメラは、標的場所に向かった配向のままであってもよい。この様式において、ユーザは、異なる視点から、3次元環境内の地物を容易に視察することが可能である。
実施形態において、仮想カメラと標的場所との間の距離も変化してもよい。例えば、傾斜または方位の値を変更する間に仮想カメラを標的内に移動させることによって、仮想カメラは、標的内に急降下することができる。また、仮想カメラは、傾斜または方位の値を変更する間に、標的から離れて移動することが可能である。
実施形態において、指1104を左側または右側に移動することによって、方位角を変更することができ、一方で、傾斜角度は、モバイルデバイスの配向に従って決定される。重力に対するモバイルデバイスの配向は、モバイルデバイスの加速度計から受信されてもよい。モバイルデバイスの配向に基づいて、傾斜角が決定される。この様式において、ユーザは、モバイルデバイスを上方および下方に移動させることによって、仮想カメラを上方および下方に移動させることができる。
例えば、モバイルデバイスを持ち、ディスプレイを視察しているユーザは、地面に対してデバイスを移動させることができる。デバイスが地面に面するように移動するにつれて、仮想カメラは、標的より上側に移動し、標的に向かって下方へ面することができる。デバイスが地面に対して垂直に移動するにつれて、仮想カメラは、標的の高度まで移動し、地上の視点から標的を視察することができる。
(2本の指によるルックアラウンドナビゲーション)
前述のように、ユーザは、1本の指を移動し、別の指を静止したままにすることによって、仮想カメラに周囲を見回すようにさせることができる。この項では、仮想カメラに周囲を見回すようにさせることができる、別のジェスチャを説明する。この項に説明されるジェスチャは、2本の指でディスプレイに触れることを含む。概して、2本の指は、ほぼ同じ方向にほぼ同じ距離だけ移動し、仮想カメラは、指の移動に従って移動する。
図12は、モバイルデバイス上の三次元環境内で検索するための2つの指ジェスチャを示す図1200である。図1200は、表示102を備えるモバイルデバイス100を示す。表示102に触れるのは、指1202および1204である。ユーザが表示102に触れると、ユーザは、ベクトル1206および1208によって示されるように、表示102上で指1202および1204を移動する。ベクトル1206および1208は、ユーザが指1202および1204を移動する方向および距離を表す。
ベクトル1206および1208は、ほぼ同じ方向であってもよい。ベクトル1206および1208は、正確に平行である必要はない。方向1208と1208との間の小角度は、閾値まで可能にされてもよい。同様に、ベクトル1206および1208は、ほぼ同じ長さを有することができる。ベクトル1206および1208の長さのわずかな差は、閾値まで可能であってもよい。
ユーザが指1202および1204を移動する方向および距離に基づいて、仮想カメラの配向が変化する。指1202および1204は、わずかに異なる方向および距離を移動してから、方向および距離の値は、集合ベクトルを決定するように、組み合わされてもよい。実施例において、ベクトル1206および1208の方向および距離は、集合ベクトルを決定するように、平均されてもよい。ここでは、ベクトルが説明されるが、任意の種類の運動データが使用されてもよい。
指1202および1204の運動に応答して、仮想カメラは、図9Bに示されるようにその配向を変更することができる。図9Bは、3次元地形210および仮想カメラ202を含む図950を示す。図950は、3次元地形210および仮想カメラ202を示す。指運動のベクトルが、モバイルデバイス上の左側または右側を向くとき、仮想カメラのヨーが変化してもよい。仮想カメラのヨーを変更すると、矢印954によって示されるように、仮想カメラを左側または右側に向かせる。同様に、指運動のベクトルがモバイルデバイス上の上方または下方であるとき、仮想カメラのピッチが変化してもよい。仮想カメラのピッチを変更すると、矢印956によって示されるように、仮想カメラを上方または下方に向かせる。
ユーザが指を斜めに移動するとき、仮想カメラのピッチおよびヨーの両方が変化することができる。ピッチおよびヨーは、モバイルデバイスの軸に沿って、指運動のベクトルの構成要素に従って変化することができる。この様式において、2本の指を移動することによって、ユーザは、仮想カメラを周囲を見回すようにさせることが可能で、異なる視点から3次元環境を視察する。
代替実施形態において、仮想カメラは、モバイルデバイスの配向に基づいて上方および下方を向きながら、ユーザ入力に基づいて左側および右側に向くことができる。重力に対するモバイルデバイスの配向は、モバイルデバイスの加速度計から受信されてもよい。仮想カメラのピッチは、モバイルデバイスの配向に従って変更されてもよい。この様式において、ユーザは、モバイルデバイスの角度を上方および下方に決めることによって、上方および下方を見ることが可能である。仮想カメラの配向は、加速度計によって決定されてもよい。次の項では、加速度計ナビゲーションを詳細に説明する。
(加速度計ナビゲーション)
この項では、加速度計を備える仮想カメラをナビゲートするステップを詳細に説明する。図13は、モバイルデバイスの配向に基づいて、仮想カメラをナビゲートするための方法1300を示すフローチャートである。
方法1300は、ステップ1302で、加速度計ナビゲーションを可能にすることで、開始する。加速度計ナビゲーションは、例えば、ユーザが有効にする設定変更を行うとき、またはデフォルトの設定が加速度計ナビゲーションに設定されている場合の開始時に、可能にされてもよい。別の実施例において、アンカーナビゲーションまたはルックアラウンドナビゲーション等のナビゲーションモードに入ることによって、加速度計ナビゲーションを可能にすることができる。また、加速度計ナビゲーションは、モバイルデバイスの配向の変化が閾値を超えるときに可能にされてもよい。このように、配向のわずかな変化は、仮想カメラの視点を誤って変更することがない。また、加速度計ナビゲーションは、重力に対するモバイルデバイスの配向が閾値を超えるときに可能にされてもよい。重力に対するモバイルデバイスの配向が閾値を下回る場合、配向は、「無効範囲」内であってもよい。
加速度計ナビゲーションが可能になった後、ステップ1304で、モバイルデバイスの配向が決定される。実施形態において、加速度計は、重力の方向、および重力に対するモバイルデバイスの配向を決定する。モバイルデバイスの配向に基づいて、ステップ1306で、仮想カメラの位置または配向が変更される。ステップ1304および1306は、図14A〜Cに示される。さらに、加速度計の計測値はダンピングされてもよい。
図14A〜C各々は、異なる配向のモバイルデバイスを示す。図14Aは、地面に面するモバイルデバイス1402の輪郭を示す。モバイルデバイス1402の配向は、モバイルデバイス1402の画面の平面に直交するベクトルに対して定義されると想定する。モバイルデバイスの加速度計は、重力が下向きであることを検出する。つまり、重力は、モバイルデバイス1402の配向に平行である。このため、仮想カメラは、地球の3次元モデル等、3次元モデルで下向きに配向される。地面に面している仮想カメラでは、仮想カメラは、地上の画像1404をキャプチャすることができる。
図14Bは、地面に対する角度で、モバイルデバイス1422の輪郭を示す。モバイルデバイスの加速度計は、重力が、モバイルデバイスの配向に対して角度1426を有することを検出する。この結果、加速カメラのピッチは、角度1426に設定されてもよい。仮想カメラを角度1426で配向すると、仮想カメラによってキャプチャされ、ユーザに表示される画像は、画像1424として現れることができる。
代替として、仮想カメラのピッチは、角度1426に基づいて決定されてもよい。実施形態において、モバイルデバイスの角度の範囲は、仮想カメラの角度の範囲まで円滑に補間することができる。補間は、直線的補間であってもよい。実施例において、モバイルデバイスの角度の範囲が、30度から90度までであると想定する。その範囲は、仮想カメラの角度を0度から90度まで補間する。その実施例において、ユーザがデバイスを60度に保つ場合、仮想カメラの角度は、45度に設定されてもよい。この実施例は、説明に過ぎない。
図14Cは、地面に直交するモバイルデバイス1432の輪郭を示す。モバイルデバイスの加速度計は、重力が、モバイルデバイスに対して角度1436を有することを検出する。この結果、加速カメラのピッチは、角度1436に設定されてもよい。仮想カメラを角度1436で配向すると、仮想カメラによってキャプチャされ、ユーザに表示される画像は、水平線に面する画像1434として現れることができる。
図14A〜Cに示されるように、ユーザがモバイルデバイスの配向を変更するにつれて、仮想カメラの配向が変化する。このように、ユーザが水平線に向けてモバイルデバイスを方向付けると、仮想カメラは、水平線の方を向く。ユーザがモバイルデバイスを空に向けて方向付けると、仮想カメラは空の方を向く。最終的に、ユーザが地面に向けてモバイルデバイスを方向付けると、仮想カメラは、地面の方を向く。
仮想カメラの配向を変更することに加えて、仮想カメラの位置も、仮想カメラの配向に従って変化することができる。実施形態において、標的場所および傾斜角度は、図11A〜Bに関して説明されるように決定されてもよい。モバイルデバイスの配向が変化すると、標的場所に対する仮想カメラの傾斜角が変化してもよい。
この様式において、ユーザは、モバイルデバイスの配向を変更することによって、3次元環境内をナビゲートすることが可能である。
(ピンチ運動量)
アンカーナビゲーションの項では、1本の指が最初に静止したままで、他の指が最初に運動中である2本の指のジェスチャを説明した。この項では、両方の指が最初に運動中である2本の指のジェスチャを説明する。2本の指のジェスチャは、ピンチと称されてもよく、図15および図16A〜Bに関して説明する。ピンチはまた、第1および第2の指が触れるタイミングによって、アンカーナビゲーションから区別されてもよい。例えば、第1の指と第2の指との間のタイミングが閾値を上回るとき、アンカーナビゲーションモードが有効にされてもよい。第1の指と第2の指の間のタイミングが閾値を上回るとき、仮想カメラはピンチ運動量で移動されてもよい。代替実施形態において、アンカーナビゲーションモードは、タイミングが閾値を下回るときに有効にされてもよく、仮想カメラは、タイミングが閾値を上回るときにピンチ運動量で移動されてもよい。
図15は、ピンチを使用して、仮想カメラをナビゲートするための方法1500を示すフローチャートである。方法1500は、1502で、表示上のユーザピンチに対する入力を受信することによって開始する。ユーザピンチは、図16Aに示される。
図16Aは、モバイルデバイス上のピンチジェスチャを示す図1600を示す。図1600は、表示102を備えるモバイルデバイス100を示す。ユーザは、指1604および1602で表示に触れた。両方の指は、運動中で、それらの関連運動は、ステップ1504で決定されるピンチの速度である。矢印1612および1614で示されるように、離れて移動している指1604および1602は、正のピンチ速度となってもよく、一方で、矢印1624および1622で示されるように、合わせて移動している指1604および1602は、負のピンチ速度となってもよい。
ステップ1504で決定されるピンチ速度に基づいて、ステップ1506で、仮想カメラの速度が決定される。ピンチ速度が正の場合、仮想カメラの速度は正(前方)であってもよく、ピンチ速度が負の場合、仮想カメラの速度は負(後方)であってもよい。実施例において、仮想カメラの速度は、ピンチ速度から直線的に補間されてもよい。これは例示的な実施例に過ぎず、これは本発明を制限することを意味しない。
ステップ1508で、仮想カメラは、ステップ1506で決定される速度まで加速する。ステップ1510で、仮想カメラは徐々に減速することができる。仮想カメラを減速するために、仮想カメラの運動量がシミュレーションされてもよく、仮想カメラは、シミュレーションされる空気抵抗にさらされてもよい。ステップ1508および1510は、図16Bに示される。
図16Bは、ピンチ運動量の対象となる仮想カメラを示す図1650を示す。図1650は、位置1652で開始し、位置1654で終了する仮想カメラを示す。図1650は、時間t、t、t、t、t、およびtのいくつかの点での仮想カメラを示す。時間が経過するにつれて、仮想カメラは減速する。
別の実施形態において、両方の指が最初に運動中である必要はない。1本または両方の指が最初に静止している可能性がある。さらに、ピンチは、仮想カメラを平行移動、または、運動量が全くなく、仮想カメラをズームさせることができる。その実施形態において、仮想カメラは、ピンチの距離または速度に従って、ズームまたは平行移動する。ピンチジェスチャが完了した後、仮想カメラは、ズームまたは平行移動を停止することができる。
実施形態において、仮想カメラは、直線に平行移動されてもよい。代替として、仮想カメラが静止したままであってもよく、3次元モデルが移動することができる。実施例において、3次元モデルは回転することができる。仮想カメラに対する3次元モデルのこの運動は、「パンニング」と称されてもよい。
別の実施形態において、仮想カメラは、ズーム(または平行移動)および回転の両方が行われる。カメラの回転は、2本の指の間の角度に基づき、ズームは2本の指の間の距離に基づく。これらの2つの動作は同時に実行され得る。このジェスチャのためには、どちらの指も固定される必要はないが、いずれかの指が固定されてもよい。この実施形態は、図16Cに示される。
図16Cにおいて、指1および指2は、同時に表面と接触する。さらに、指1および指2は、同時に運動中であってもよい。指1および指2を矢印1671および1673によって示されるように回転すると、カメラを標的点の周囲で回転させることになってもよい。標的場所は、図6A〜Bにおいて説明されるように、画面射線を延長することによって決定されてもよい。実施例において、画面射線は、第1の指が画面に触れるように、指のうちの1本の場所に基づいて決定されてもよい。代替として、画面射線は、指の間の中点に基づいて決定されてもよい。この様式において、標的点は、ディスプレイ上のユーザの指のうちの1本によって覆われない。
標的点が決定された後、カメラは標的点の周囲を回転することができる。一実施形態において、カメラは、図11Bに対して説明されるように、方位値を変更することによって、標的点の周囲で回転することができる。この様式において、カメラは、標的点の周囲をヘリコプタ飛行することができ、異なる視点から標的を視察する。
一実施形態において、「不可視」直線は、指1および指2を接続して決定されてもよい。ユーザが、矢印1671および1673によって示されるように、指1および指2を回転させると、不可視直線とモバイルデバイスのディスプレイとの間の角度も変化する。不可視直線とモバイルデバイスのディスプレイとの間の角度が変化すると、標的点に対する方位角も変化することができる。一実施形態において、方位角は、不可視直線とモバイルデバイスのディスプレイとの間の角度と同じ量、またはほぼ同じ量変化することができる。この様式において、ユーザがモバイルデバイスのディスプレイ上で2本の指を360度回転させるとき、仮想カメラは、標的点の周囲を360度ヘリコプタ飛行することができる。
さらに、矢印1679で示されるように、指1と指2との間の距離を変更すると、例えば、仮想カメラをズームまたは平行移動させることによって、仮想カメラの範囲を変更することができる。一実施例において、指1および2を接続する不可視直線は上記のように決定される。不可視線の長さが減少するとき、カメラは標的点から離れて移動することができる。同様に、不可視線の長さが増加するとき、カメラは、標的点に向かって移動、またはその逆であってもよい。範囲を変更するステップは、図16A〜Bに関して説明する。さらに、上記のようにジェスチャを継続するように、運動量は適用されてもよい。回転、ズームのいずれか、または両方の速度は、指を離した後、ジェスチャの終了時点での速度に基づいて、徐々に減速することができる。
一例示的操作において、ユーザは、指1および2を反時計回りに90度回転することができ、指1および2を離して移動することができる。その実施例において、仮想カメラは、反時計回りに90度、標的点の周囲をヘリコプタ飛行することができ、標的点に近づいて平行移動することができる。別の例示的操作において、ユーザは、指1および2を時計回りに45度回転することができ、指1および2をより近づけて移動することができる。その実施例において、仮想カメラは、時計回りに45度、標的点の周囲をヘリコプタ飛行することができ、標的点から離れて平行移動することができる。
単一のユーザインターフェースジェスチャにおいてズームおよび回転することによって、実施形態は、ユーザに、標的点の周囲で容易にナビゲートし、異なる視点から標的を視察することを可能にする。
(角度パンニング)
本項は、モバイルデバイス上の3次元環境内で仮想カメラをパンニングすることを説明する。概して、ユーザは、指で、モバイルデバイスの表示上の位置を選択することによって、パンする。選択される位置に基づいて、標的場所が決定される。ユーザが指をドラッグするにつれて、仮想カメラに対する3次元モデルの位置は、標的場所を辿るように移動する。これは、タッチアンドドラッグジェスチャとして称され得る。実施形態において、3次元モデルは、タッチアンドドラッグジェスチャに応答して、ユーザの指を辿るように回転する。
図17は、モバイルデバイス上のパンニングのための方法1700を示すフローチャートである。方法1700は、モバイルデバイスのユーザによって選択される、第1および第2の位置を受信することで、ステップ1702を開始する。第1および第2の位置を選択するステップは、図18Aに示される。第1および第2の位置の各々は、表示上のXおよびY座標によって定義されてもよい。図18Aは、モバイルデバイス上のパンニングを示す図1800を示す。図1800は、表示102を備えるモバイルデバイス100を示す。ユーザが、指で位置1802に触れて、指を新しい位置1804へドラッグする。
位置1802および位置1804に基づいて、第1および第2の標的点は、ステップ1704で決定される。第1および第2の標的点は、図6A〜Bに関して説明されるように、射線で決定されてもよい。射線が、3次元モデルのほぼ接線である場合、標的点は、図6Bに関して説明されるようにダンピングされることが必要であってもよい。各標的点は、例えば、緯度、経度、および高度によって定義されてもよい。緯度(本明細書において意味される用語として)は、標的点から3次元モデルの中心までの距離であってもよい。実施形態において、第1の標的点は、射線を3次元モデルと交差させることによって決定され、第2の標的点は、射線を仮想表面球体と交差させることによって決定される。標的点を決定するステップは、図18Bに示される。
図18Bは、仮想カメラ202が3次元地形210に面している図1800を示す。前述のように、3次元地形210は、3次元モデルの一部であってもよい。実施形態において、第1の標的点(標的点1854)は、3次元地形210での3次元モデルと交差するように、射線1852を延長することによって決定されてもよい。標的点1854に基づいて、仮想球体表面1862が決定される。仮想球体表面1862は、3次元モデルの中心に中心を有することができ、接線標的点1854であってもよい。第2の射線1864を仮想球体表面1862と交差させることによって、標的点1856が決定される。代替として、仮想表面が使用されなくてもよく、第2の標的点は、射線を3次元モデルと交差させることによって決定されてもよい。これらの2つの点、標的点1854および標的点1856は、3次元モデルの中心に対する地心ベクトルを形成する。
図17をもう一度参照すると、標的点が決定された後、ステップ1706で回転軸が決定される。回転軸を演算するために、2つの標的点のクロス積が決定されてもよい。図18Bを参照すると、2つの標的点は、2つのベクトルV1′およびV1によって定義されてもよい。回転軸は、V1′とV1とのクロス積(V1′×V1)をとることによって演算される。回転軸が決定された後、ステップ1708で、3次元モデルは回転される。3次元モデルは、2つのベクトルV1′とV1との間のドット積を演算することによって決定される(α=V1′・V1)、角度α分回転される。角度αおよび回転軸に基づいて、開眼行列が演算される。最終的に、回転行列に基づいて、3次元モデルが回転される。
パンニング運動の完了後、指の最後の画面空間位置が記録されてもよい。さらに、パンニング運動は、ユーザのジェスチャが完了された後継続してもよい。これによって、ユーザが地球を回転させている感覚をユーザに与える。回転の速度は、摩擦をシミュレーションするように、徐々に減少することができる。
この様式において、指でユーザによって掴まれる標的は、ユーザの指運動を辿る。ユーザにとっては、自分が地球に触れ、操作しているかのような感覚を味わうことができる。表示のサイズのため、指の第1および第2の位置は、あまり離れることができない。これによって、ユーザがパンできる速度を制限し、パンジェスチャの安定性を向上させる。
いくつかのパンニングモードが存在してもよい。加速度計ナビゲーションが有効で、モバイルデバイスの角度が一定値未満である場合、タッチアンドドラッグジェスチャは、異なる動作を有することができる。この場合、縦方向のタッチアンドドラッグジェスチャは、図17に関する上記の説明のようにパンニングさせることができ、水平方向のタッチアンドドラッグジェスチャは、仮想カメラに周囲を見回すようにさせることができる。これは、図19A〜Cに示される。
図19Aは、モバイルデバイス1904を示す図1900を示す。モバイルデバイス1904は、重力に対するその角度βを検出する加速度計を有する。モバイルデバイスの角度βが閾値αを上回る場合、ユーザは、図19Bの図1930に示されるように、全方向にパンすることが可能である。モバイルデバイスのβが閾値αを下回る場合、左および右へのタッチアンドグラフジェスチャは、パンしないが、図19Cの図1960に示されるように、仮想カメラに左側および右側を向かせる。仮想カメラは、仮想カメラのヨー値を変更することによって、左側および右側を向くことができる。
結論
前述の実施形態の説明は、タッチ画面と接触を行う指に関して、明確化を目的として説明されたことに注意されたい。しかしながら、スタイラス等の当業者には周知であるような任意の他の物体が使用されてもよい。
要約および概要の項は、1つ以上を記述してもよいが、本発明人によって検討される本発明の全ての例示的実施形態を記述しなくてもよく、したがって、本発明および添付の請求項をいかなる様式にも制限することを意図しない。
本発明は、その規定の機能および関係の実装を示す機能構築ブロックを用いて上記に説明してきた。これらの機能構築ブロックの境界は、説明の便宜のために、本明細書において任意に定義してきた。その規定の機能および関係が好適に実施される限り、代替の境界が定義され得る。
特定の実施形態の前述の説明は、他者が、当技術分野内の知識を適用することによって、本発明の一般的な概念から逸脱することなく、過度の実験を行わずに、特定の実施形態等の多様な用途のために容易に変形および/または適合することが可能である、本発明の一般的な性質を最も完全に明らかにするであろう。したがって、このような適合および変形は、本明細書に提示される教示および指針に基づいて、開示される実施形態の相当物の意義および領域内であることを意図する。本発明の仕様の用語または表現が教示および指針の点から当業者によって解釈されるように、本明細書内の表現または用語は、説明の目的のためであって、制限の目的ではないことを理解されたい。
本発明の広さおよび範囲は、上記の例示的な実施形態のうちのいずれによっても制限されてはならず、以下の特許請求の範囲およびそれらの均等物に従ってのみ定義されるものである。

Claims (113)

  1. タッチ画面を有するモバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのコンピュータ実装方法であって、
    (a)第1の物体が前記モバイルデバイスのタッチ画面上でほぼ静止していることを示す、第1のユーザ入力を受信することと、
    (b)第2の物体が前記タッチ画面上を移動したことを示す、第2のユーザ入力を受信することと、
    (c)前記第2のユーザ入力に従って、前記仮想カメラの配向を変更することと
    を含む、方法。
  2. 前記受信すること(a)は、第1の指が前記タッチ画面上でほぼ静止状態していることを示す、前記第1のユーザ入力を受信することを含み、
    前記受信すること(b)は、第2の指が前記タッチ画面上を移動したことを示す、前記第2のユーザ入力を受信することを含む、
    請求項1に記載の方法。
  3. 前記受信すること(b)は、前記第2の指の運動の方向を受信することを含む、請求項2に記載の方法。
  4. 前記変更すること(c)は、前記方向が前記モバイルデバイスの左側または右側に向かっているとき、前記仮想カメラのヨーを変更することを含む、請求項3に記載の方法。
  5. 前記変更すること(c)は、前記方向が前記モバイルデバイスの頂部または底部に向かっているとき、前記仮想カメラのピッチを変更することを含む、請求項3に記載の方法。
  6. (d)前記モバイルデバイスの加速度計から前記モバイルデバイスの配向を受信することと、
    (e)前記モバイルデバイスの前記配向に従って、前記仮想カメラの配向を変更することと、
    を含む、請求項2に記載の方法。
  7. 前記変更すること(c)は、前記第1の指の位置が、最初に前記第2の指の位置より下にあるとき、前記仮想カメラの前記配向を変更することを含み、
    (d)前記3次元環境内の標的場所を決定することと、
    (e)前記第1の指の前記位置が前記第2の指の前記位置より上にあるとき、前記第2のユーザ入力に従って、前記仮想カメラの位置を変更することと、をさらに含み、前記標的場所と前記仮想カメラの前記位置との間の距離は、ほぼ一定のままである、
    請求項2に記載の方法。
  8. (d)前記第1のユーザ入力に基づいて、前記仮想カメラの軸を決定することをさらに含み、
    前記変更すること(c)は、前記仮想カメラを前記軸の周囲で回転させることを含む、
    請求項1に記載の方法。
  9. モバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのシステムであって、
    第1の物体が前記モバイルデバイスのタッチ画面上でほぼ静止していることを示す、第1のユーザ入力を受信し、第2の物体が前記タッチ画面上を移動したことを示す、第2のユーザ入力を受信する、タッチレシーバと、
    前記第2のユーザ入力に従って、前記仮想カメラの配向を変更するルックアラウンドモジュールと、
    を備える、システム。
  10. 前記第1および第2の物体は、指である、請求項9に記載のシステム。
  11. 前記第2のユーザ入力は、前記第2の指の運動の方向を含む、請求項10に記載のシステム。
  12. 前記ルックアラウンドモジュールは、前記方向が前記モバイルデバイスの左側または右側に向かっているとき、前記仮想カメラのヨーを変更する、請求項10に記載のシステム。
  13. 前記ルックアラウンドモジュールは、前記方向が前記モバイルデバイスの頂部または底部に向かっているとき、前記仮想カメラのピッチを変更する、請求項10に記載のシステム。
  14. 前記モバイルデバイスの加速度計から前記モバイルデバイスの配向を受信する加速度計と、
    前記モバイルデバイスの前記配向に従って、前記仮想カメラの配向を変更するナビゲーションモジュールと、
    をさらに備える、請求項10に記載のシステム。
  15. 前記ルックアラウンドモジュールは、前記第1の指の位置が前記第2の指の位置より上にあるとき、前記仮想カメラの前記配向を変更し、
    前記3次元環境内の標的場所を決定する標的モジュールと、
    前記第1の指の前記位置が前記第2の指の前記位置より下にあるとき、前記第2のユーザ入力に従って、前記仮想カメラの位置を変更するヘリコプタモジュールと、をさらに備え、前記標的場所と前記仮想カメラの前記位置との間の距離は、ほぼ一定のままである、
    請求項10に記載のシステム。
  16. タッチ画面を有するモバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのコンピュータ実装方法であって、
    (a)第1の物体が前記モバイルデバイスのタッチ画面上でほぼ静止していることを示す、第1のユーザ入力を受信することと、
    (b)第2の物体が前記タッチ画面上を移動したことを示す、第2のユーザ入力を受信することと、
    (c)前記3次元環境内の標的場所を決定することと、
    (d)前記第2のユーザ入力に従って、前記仮想カメラの位置を変更することであって、前記標的場所と前記仮想カメラの前記位置との間の距離は、ほぼ一定のままである、こととを含む、
    方法。
  17. 前記受信すること(a)は、第1の指が前記タッチ画面上でほぼ静止していることを示す、前記第1のユーザ入力を受信することを含み、
    前記受信すること(b)は、第2の指が前記タッチ画面上を移動したことを示す、前記第2のユーザ入力を受信することを含む、
    請求項16に記載の方法。
  18. 前記受信すること(b)は、前記第2の指の運動の方向を受信することを含む、請求項17に記載の方法。
  19. 前記変更すること(d)は、前記方向が前記モバイルデバイスの左または右側に向かっているとき、前記標的から上向きに方向付けられたベクトルに対する方位角を変更することを含む、請求項18に記載の方法。
  20. 前記変更すること(d)は、前記方向が前記モバイルデバイスの頂部または底部に向かっているとき、前記標的から上向きに方向付けられたベクトルに対する傾斜を変更することを含む、請求項18に記載の方法。
  21. (e)前記モバイルデバイスの加速度計から前記モバイルデバイスの配向を受信することと、
    (f)前記モバイルデバイスの前記第2の配向に従って、前記仮想カメラの位置を変更することであって、前記標的場所と前記仮想カメラの前記位置との間の距離は、ほぼ一定のままである、ことと、
    をさらに含む、請求項17に記載の方法。
  22. 前記変更すること(d)は、前記第1の指の位置が、最初に前記第2の指の前記位置より上にあるとき、前記仮想カメラの前記位置を変更することを含み、
    (e)前記第1の指の前記位置が前記第2の指の前記位置より下にあるとき、前記第2のユーザ入力に従って、前記仮想カメラの配向を変更することをさらに含む、
    請求項17に記載の方法。
  23. 前記決定すること(c)は、前記タッチ画面上の前記第1の指の位置に基づいて、前記標的場所を決定することを含む、請求項17に記載の方法。
  24. 前記決定すること(c)は、前記第1の指の前記位置がほぼ水平線に近いとき、前記標的場所をダンピングすることをさらに含む、請求項23に記載の方法。
  25. 前記決定すること(c)は、
    (i)前記仮想カメラの位置および前記指の位置に基づいて、射線を延長することと、
    (ii)前記標的場所を決定するように、前記射線を前記3次元環境内の3次元モデルと交差させることと、
    を含む、請求項17に記載の方法。
  26. (e)前記第2の入力に基づいて、前記仮想カメラの移動速度を決定することをさらに含み、前記変更すること(d)は、前記第2の物体の移動が完了した後、(e)において決定される前記速度で前記仮想カメラの前記位置を変更することを含む、請求項17に記載の方法。
  27. (f)前記仮想カメラを徐々に減速することをさらに含む、請求項26に記載の方法。
  28. モバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのシステムであって、
    第1の物体が前記モバイルデバイスのタッチ画面上でほぼ静止していることを示す、第1のユーザ入力、および第2の物体が前記タッチ画面上を移動したことを示す、第2のユーザ入力を受信する、タッチレシーバと、
    前記3次元環境内の標的場所を決定する標的モジュールと、
    前記第2のユーザ入力に従って、前記仮想カメラの位置を変更するヘリコプタモジュールであって、前記標的場所と前記仮想カメラの前記位置との間の距離は、ほぼ一定のままである、ヘリコプタモジュールとを備える、
    システム。
  29. 前記第1および第2の物体は、指である、請求項28に記載のシステム。
  30. 前記第2のユーザ入力は、前記第2の指の運動の方向を含む、請求項29に記載のシステム。
  31. 前記ヘリコプタモジュールは、前記方向が前記モバイルデバイスの左側または右側に向かっているとき、前記標的から上向きに方向付けられたベクトルに対する方位角を変更する、請求項30に記載のシステム。
  32. 前記ヘリコプタモジュールは、前記方向が前記モバイルデバイスの頂部または底部に向かっているとき、前記標的から上向きに方向付けられたベクトルに対する傾斜を変更する、請求項30に記載のシステム。

  33. 前記モバイルデバイスの配向を受信する加速度計と、
    前記第2のユーザ入力に従って、前記仮想カメラの位置を変更するナビゲーションモジュールであって、前記標的場所と前記仮想カメラの前記位置との間の距離は、ほぼ一定のままである、ナビゲーションモジュールと、
    をさらに備える、請求項29に記載のシステム。
  34. 前記ヘリコプタモジュールは、前記第1の指の前記位置が前記第2の指の前記位置より上にあるとき、前記仮想カメラの前記位置を変更し、
    前記第1の指の前記位置が前記第2の指の前記位置より下にあるとき、前記第2のユーザ入力に従って、前記仮想カメラの配向を変更するヘリコプタモジュールをさらに備える、
    請求項29に記載のシステム。
  35. 前記標的モジュールは、前記タッチ画面上の前記第1の指の位置に基づいて、前記標的場所を決定する、請求項29に記載のシステム。
  36. 前記標的モジュールは、前記第1の指の前記位置が水平線に近いとき、前記標的場所をダンピングする、請求項35に記載のシステム。
  37. 前記標的モジュールは、前記仮想カメラの位置および前記指の位置に基づいて、射線を延長し、前記標的場所を決定するように、前記射線を前記3次元環境と交差させる、請求項29に記載のシステム。
  38. タッチ画面を有するモバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのコンピュータ実装方法であって、
    (a)第1の物体が前記モバイルデバイスのタッチ画面上でほぼ静止していることを示す、第1のユーザ入力を受信することと、
    (b)第2の物体が前記タッチ画面上を移動したことを示す、第2のユーザ入力を受信することと、
    (c)前記3次元環境内の標的場所を決定することと、
    (d)前記標的場所から上向きに方向付けられたベクトルに対する前記仮想カメラの傾斜値を変更することと、
    (e)前記標的場所から上向きに方向付けられたベクトルに対する前記仮想カメラの方位角値を変更することと、
    を含む、方法。
  39. タッチ画面を有するモバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのコンピュータ実装方法であって、
    (a)第1の物体がモバイルデバイスのタッチ画面上の第1の点に触れたことを示す、第1のユーザ入力を受信することと、
    (b)前記第1の物体が前記画面上の前記第1の点に触れた後、第2の物体が、前記タッチ画面上の前記第2の点に触れたことを示す、第2のユーザ入力を受信することと、
    (c)前記第2の点に対する前記第1の点の前記位置に基づいて、複数のナビゲーションモードからナビゲーションモードを決定することと、を含む、方法。
  40. 前記決定すること(c)は、前記複数のナビゲーションモードから前記ナビゲーションモードを決定することを含み、前記複数のナビゲーションモードは、前記仮想カメラの位置を変更する第1のナビゲーションモード、および前記仮想カメラの配向を変更する第2のナビゲーションモードを含む、請求項39に記載の方法。
  41. タッチ画面を有するモバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのコンピュータ実装方法であって、
    (a)第1の物体がモバイルデバイスのタッチ画面上の第1の点に触れたことを示す、第1のユーザ入力を受信することと、
    (b)前記第1の物体が前記画面上の前記第1の点に触れた後、第2の物体が、前記タッチ画面上の前記第2の点に触れたことを示す、第2のユーザ入力を受信することと、
    (c)前記第2の点に対する前記第1の点の前記位置に基づいて、複数のナビゲーションモードからナビゲーションモードを決定することと、
    を含む、方法。
  42. タッチ画面を有するモバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのコンピュータ実装方法であって、
    (a)2つの物体がモバイルデバイスの前記タッチ画面に触れたこと、および前記2つの物体が前記タッチ画面上をほぼ同じ方向にほぼ同じ距離を移動したことを示す、ユーザ入力を受信することと、
    (b)前記タッチ画面上の前記2つの物体の運動を表す、運動データを決定することと、
    (c)(b)において決定される前記運動データ従って、前記仮想カメラの配向を変更することと、
    を含む、方法。
  43. 前記決定すること(b)は、前記タッチ画面上の前記2つの物体の運動を表すベクトルを決定することを含む、請求項42に記載の方法。
  44. 前記変更すること(c)は、
    (i)前記モバイルデバイスの左右軸上の前記ベクトルの構成要素に基づいて、前記仮想カメラのヨーを変更することを含む、請求項43に記載の方法。
  45. 前記変更すること(c)は、
    (ii)前記モバイルデバイスの上下軸上の前記ベクトルの構成要素に基づいて、前記仮想カメラのピッチを変更することをさらに含む、請求項44に記載の方法。
  46. (d)前記モバイルデバイスの配向に基づいて、前記仮想カメラのピッチを変更することをさらに含む、請求項44に記載の方法。
  47. タッチ画面を有するモバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのコンピュータ実装方法であって、
    (a)2つの物体が前記モバイルデバイスの表示に触れたこと、および前記2つの物体が相互に移動したことを示すユーザ入力を受信することと、
    (b)前記ユーザ入力に基づいて、前記物体が相互に対して移動した速度を決定することと、
    (c)前記物体が相互から離れて移動した前記物体の前記速度に基づいて、前記仮想カメラの速度を決定することと、
    (d)(c)において決定される前記仮想カメラの前記速度に従って、前記3次元環境内で前記仮想カメラを移動させることと、
    を含む、方法。
  48. 前記受信すること(a)は、2つの指が前記表示に触れたこと、および前記2つの指が相互に対して移動したことを示す、前記ユーザ入力を受信することを含む、請求項47に記載の方法。
  49. (e)前記仮想カメラを徐々に減速することをさらに含む、請求項48に記載の方法。
  50. 前記減速すること(e)は、仮想カメラを減速するように、空気抵抗をシミュレートすることを含む、請求項49に記載の方法。
  51. 前記移動させること(d)は、前記仮想カメラを平行移動させることを含む、請求項49に記載の方法。
  52. 前記移動させること(d)は、前記仮想カメラをズームすることを含む、請求項48に記載の方法。
  53. 前記3次元環境は、地球の3次元モデルを含み、前記移動させること(d)は、地球の前記3次元モデルを回転させることを含む、請求項52に記載の方法。
  54. (e)前記2つの物体が相互に対して回転したことを示す、ユーザ入力を受信することと、
    (f)(e)において受信される前記ユーザ入力に基づいて、前記物体が前記モバイルデバイスに対して回転した角度を決定することと、
    (g)(f)において決定される前記角度に従って、前記仮想カメラの前記位置または配向を変更することと、
    をさらに含む、請求項47に記載の方法。
  55. (h)標的場所を決定することをさらに含み、
    前記変更すること(g)は、前記仮想カメラの位置と前記標的場所との間の方位角が、(f)において決定される前記角度に従って変化するように、前記仮想カメラを移動させることを含む、
    請求項54に記載の方法。
  56. モバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのシステムであって、
    2つの物体が前記モバイルデバイスの表示に触れたこと、および前記2つの物体が相互に対して移動したことを示す、ユーザ入力を受信するタッチレシーバと、
    前記ユーザ入力に基づいて前記物体の速度を決定し、前記物体の前記速度に基づいて前記仮想カメラの速度を決定し、前記仮想カメラの前記速度に従って、前記3次元環境に対して前記仮想カメラを移動させる、運動量モジュールと、
    を備える、システム。
  57. 前記2つの物体は、指である、請求項56に記載のシステム。
  58. 前記運動量モジュールは、前記仮想カメラを徐々に減速する、請求項57に記載のシステム。
  59. 前記運動量モジュールは、仮想カメラを減速するように、空気抵抗をシミュレートする、請求項58に記載のシステム。
  60. 運動量モジュールは、前記仮想カメラを平行移動させる、請求項57に記載のシステム。
  61. 前記運動量モジュールは、前記仮想カメラをズームする、請求項57に記載のシステム。
  62. 前記3次元環境は、地球の3次元モデルを含み、前記運動量モジュールは、地球の前記3次元モデルを回転させる、請求項57に記載のシステム。
  63. 前記タッチレシーバは、前記2つの物体が相互に回転したことを示すユーザ入力を受信し、
    前記2つの物体が回転したことを示す前記ユーザ入力に基づいて、前記物体が前記モバイルデバイスに対して回転した角度を決定し、前記物体が回転した前記角度に従って、前記仮想カメラの前記位置または配向を変更する、ヘリコプタモジュールをさらに備える、
    請求項56に記載のシステム。
  64. 標的場所を決定する標的モジュールをさらに備え、
    前記ヘリコプタモジュールは、前記仮想カメラの位置と前記標的場所との間の方位角が、(f)において決定される前記角度に従って変化するように、前記仮想カメラを移動させる、
    請求項63に記載のシステム。
  65. タッチ画面を有するモバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのコンピュータ実装方法であって、
    (a)ユーザが前記モバイルデバイスの表示上の位置を選択したことを示す、ユーザ入力を受信することと、
    (b)前記ユーザによって選択される前記モバイルデバイスの前記表示の前記位置に基づいて、標的場所を決定することと、
    (c)前記3次元環境内の前記仮想カメラを前記標的場所に向かって移動させることと、
    (d)前記3次元環境内の前記仮想カメラを前記標的場所に向かって回転させることと、
    を含む、方法。
  66. 前記受信すること(a)は、前記ユーザが前記モバイルデバイスの前記表示上の前記位置をダブルタップしたことを示す、ユーザ入力を受信することを含む、請求項65に記載の方法。
  67. 前記回転させること(d)は、前記標的場所が前記表示のほぼ中心に現れるように、前記仮想カメラを配向することを含む、請求項65に記載の方法。
  68. 前記回転させること(d)は、前記仮想カメラのヨーを変更することを含む、請求項65に記載の方法。
  69. 前記決定すること(b)は、前記ユーザによって選択される前記位置が水平線に近いとき、前記標的場所をダンピングすることをさらに含む、請求項65に記載の方法。
  70. 前記決定すること(b)は、
    (i)前記仮想カメラの位置および前記指の位置に基づいて、射線を延長することと、
    (ii)前記標的場所を決定するように、前記射線を前記3次元環境と交差させることと、
    を含む、請求項65に記載の方法。
  71. 前記移動させること(c)は、仮想カメラを移動させながら、前記仮想カメラのロールを変更することを含む、請求項65に記載の方法。
  72. モバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのシステムであって、
    ユーザが前記モバイルデバイスの表示上の位置を選択したことを示す、ユーザ入力を受信するタッチレシーバと、
    前記ユーザによって選択される前記モバイルデバイスの前記表示の前記位置に基づいて、標的場所を決定する標的モジュールと、
    前記標的場所に向かって、前記3次元環境内の前記仮想カメラを移動させ、前記標的場所に向かって、前記3次元環境内の前記仮想カメラを回転させる、角度ジャンプモジュールと、
    を備える、システム。
  73. 前記ユーザ入力は、前記ユーザが前記モバイルデバイスの前記表示上の前記位置をダブルタップしたことを示す、請求項72に記載のシステム。
  74. 前記角度ジャンプモジュールは、前記標的場所が前記表示のほぼ中心に現れるように、前記仮想カメラを配向する、請求項72に記載のシステム。
  75. 前記角度ジャンプモジュールは、前記仮想カメラのヨーを変更する、請求項72に記載のシステム。
  76. 前記標的モジュールは、前記ユーザによって選択される前記表示の前記位置に基づいて、前記標的場所を決定する、請求項72に記載のシステム。
  77. 前記標的モジュールは、前記仮想カメラの位置および前記指の位置に基づいて、射線を延長し、前記標的場所を決定するように、前記射線を前記3次元環境と交差させる、請求項72に記載のシステム。
  78. 前記標的モジュールは、前記仮想カメラの位置および前記指の位置に基づいて、射線を延長し、前記標的場所を決定するように、前記射線を前記3次元環境と交差させる、請求項72に記載のシステム。
  79. 前記角度ジャンプモジュールは、仮想カメラの運動中に前記仮想カメラのロールを変更する、請求項72に記載のシステム。
  80. タッチ画面を有するモバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのコンピュータ実装方法であって、
    (a)物体が前記モバイルデバイスの画面上の第1の点に触れたこと、および前記物体が前記タッチ画面上の第2の点にドラッグされたことを示すユーザ入力を受信することと、
    (b)前記タッチ画面上の前記第1の点に基づいて、前記3次元環境内の第1の標的場所を決定することと、
    (c)前記タッチ画面上の前記第2の点に基づいて、前記3次元環境内の第2の標的場所を決定することと、
    (d)前記第1および第2の標的場所に従って、前記仮想カメラに対して前記3次元環境内の3次元モデルを移動させることと、
    を含む、方法。
  81. 前記決定すること(b)は、
    (i)前記仮想カメラの位置および前記タッチ画面上の前記第1の位置に基づいて、射線を延長することと、
    (ii)前記第1の標的場所を決定するように、前記射線を前記3次元環境内の3次元モデルと交差させることと、を含む、請求項80に記載の方法。
  82. (e)前記第1の標的場所に基づいて、仮想表面を決定することをさらに含む、請求項81に記載の方法。
  83. 前記決定すること(c)は、
    (i)前記仮想カメラの位置および前記タッチ画面上の前記第2の位置に基づいて、射線を延長することと、
    (ii)前記第2の標的場所を決定するように、前記射線を前記3次元環境と交差させることと、
    を含む、請求項82に記載の方法。
  84. 前記決定すること(e)は、前記仮想表面を決定するように、前記第1の標的場所に接線し、かつ前記3次元モデルの中心に中心がある、球体を作図することを含む、請求項83に記載の方法。
  85. 前記移動させること(d)は、前記3次元モデルを回転させることを含む、請求項80に記載の方法。
  86. (e)回転軸を決定するように、前記第1および第2の標的場所のクロス積を決定することと、
    (e)回転角度を決定するように、前記第1および第2の標的場所のドット積を決定することと、をさらに含む、
    請求項85に記載の方法。
  87. (g)前記回転軸および前記回転角度に基づいて、回転行列を決定することをさらに含み、
    前記移動させること(d)は、前記回転行列に従って、前記3次元モデルを回転させることをさらに含む、請求項86に記載の方法。
  88. モバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのシステムであって、
    物体が前記モバイルデバイスのタッチ画面上の第1の点に触れたこと、および前記物体が前記タッチ画面上の第2の点にドラッグされたことを示す、ユーザ入力を受信するタッチレシーバと、
    前記タッチ画面上の前記第1の点に基づいて前記3次元環境内の第1の標的場所を決定し、前記タッチ画面上の前記第2の点に基づいて前記3次元環境内の第2の標的場所を決定する、標的モジュールと、
    前記第1および第2の標的場所に従って、前記仮想カメラに対して前記3次元環境内の3次元モデルを移動させるパンモジュールと、
    を備える、システム。
  89. 前記標的モジュールは、前記仮想カメラの位置および前記タッチ画面上の前記第1の点に基づいて、射線を延長し、前記第1の標的場所を決定するように、前記射線を3次元モデルと交差させる、請求項88に記載のシステム。
  90. 前記パンモジュールは、前記第1の標的場所に基づいて、仮想表面を決定する、請求項89に記載のシステム。
  91. 前記標的モジュールは、前記仮想カメラの位置および前記タッチ画面上の前記第2の点に基づいて、射線を延長し、前記第2の標的場所を決定するように、前記射線を前記仮想表面と交差させる、請求項90に記載のシステム。
  92. 前記仮想表面は、前記第1の標的場所に接線し、かつ前記3次元モデルの中心に中心がある、球体である、請求項91に記載のシステム。
  93. 前記パンモジュールは、前記3次元モデルを回転させる、請求項92に記載のシステム。
  94. 前記パンモジュールは、回転軸を決定するように、前記第1および第2の標的場所のクロス積を決定し、回転角度を決定するように、前記第1および第2の標的場所のドット積を決定する、請求項93に記載のシステム。
  95. 前記パンモジュールは、前記回転軸および前記回転角度に基づいて、回転行列を決定し、前記回転行列に従って、前記3次元モデルを回転させる、請求項94に記載のシステム。
  96. タッチ画面を有するモバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのコンピュータ実装方法であって、
    (a)物体が前記モバイルデバイスの画面上の第1の点に触れたこと、および前記物体が前記タッチ画面上の第2の点にドラッグされたことを示す、ユーザ入力を受信することと、
    (b)前記モバイルデバイスの配向を受信することと、
    (c)前記モバイルデバイスの前記配向に基づいて、複数のパンニングモードからパンニングモードを決定することと、
    を含む、方法。
  97. 前記決定すること(c)は、前記モバイルデバイスの前記配向が下向きに面しているとき、第1のパンニングモードを選択することと、前記モバイルデバイスの前記配向が水平線に向かって面しているとき、第2のパンニングモードを選択することとを含む、請求項96に記載の方法。
  98. (d)前記第2のパンニングモードが(c)において決定されるとき、前記物体を辿るように3次元モデルを移動させることをさらに含む、請求項97に記載の方法。
  99. 前記第1のパンニングモードが(c)において決定されるとき、前記タッチ画面上で前記物体の移動を上方または下方に辿るように3次元モデルを移動させることと、
    (e)前記第1のパンニングモードが(c)において決定されるとき、前記タッチ画面の左側または右側の前記物体の移動に従って、前記仮想カメラの配向を変更することと、
    をさらに含む、請求項98に記載の方法。
  100. モバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのコンピュータ実装方法であって、
    (a)前記モバイルデバイスの配向情報を受信することと、
    (b)前記配向情報に従って、前記3次元環境内で前記仮想カメラを配向することと、を含む、方法。
  101. 前記受信すること(a)は、重力に対する前記モバイルデバイスの配向を受信することを含む、請求項100に記載の方法。
  102. 前記配向すること(b)は、重力に対する前記モバイルデバイスの前記配向に従って、仮想カメラのピッチを変更することを含む、請求項101に記載の方法。
  103. 前記受信すること(a)は、前記モバイルデバイスの機首方位を受信することを含み、前記配向すること(b)は、前記モバイルデバイスの前記機首方位に従って、仮想カメラのヨーを変更することを含む、請求項100に記載の方法。
  104. (c)前記モバイルデバイスの場所を受信することと、
    (d)前記モバイルデバイスの前記場所に従って、前記仮想カメラを位置付けることと、を含む、請求項100に記載の方法。
  105. (e)前記モバイルデバイスを追跡するようにこと(a)から(d)を繰り返すことをさらに含む、請求項104に記載の方法。
  106. 前記3次元環境は、地球の3次元モデルを含む、請求項105に記載の方法。
  107. モバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのシステムであって、
    前記モバイルデバイスの配向情報を受信するセンサと、
    前記配向情報に従って、前記3次元環境内で前記仮想カメラを配向するナビゲーションモジュールと、
    を備える、システム。
  108. 前記センサは、重力に対する前記モバイルデバイスの配向を受信する、請求項107に記載のシステム。
  109. 前記ナビゲーションモデルは、重力に対する前記モバイルデバイスの前記配向に従って、仮想カメラのピッチを変更する、請求項108に記載のシステム。
  110. 前記センサは、前記モバイルデバイスの機首方位を受信し、前記ナビゲーションモデルは、前記モバイルデバイスの前記機首方位に従って、仮想カメラのヨーを変更する、請求項107に記載のシステム。
  111. 前記モバイルデバイスの場所を受信する、場所レシーバをさらに備え、
    前記ナビゲーションモジュールは、前記モバイルデバイスの前記場所に従って、前記仮想カメラを位置付ける、
    請求項107に記載のシステム。
  112. 前記3次元環境は、地球の3次元モデルを含む、請求項111に記載のシステム。
  113. 前記ナビゲーションモジュールは、前記地球の前記3次元モデル内で前記モバイルデバイスを追跡する、請求項112に記載のシステム。
JP2011524067A 2008-08-22 2009-08-24 モバイルデバイス上の3次元環境内でのナビゲーション Pending JP2012501016A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US9123408P 2008-08-22 2008-08-22
US61/091,234 2008-08-22
PCT/US2009/054727 WO2010022386A2 (en) 2008-08-22 2009-08-24 Navigation in a three dimensional environment on a mobile device

Publications (1)

Publication Number Publication Date
JP2012501016A true JP2012501016A (ja) 2012-01-12

Family

ID=41695929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011524067A Pending JP2012501016A (ja) 2008-08-22 2009-08-24 モバイルデバイス上の3次元環境内でのナビゲーション

Country Status (8)

Country Link
US (7) US9310992B2 (ja)
EP (1) EP2327010A2 (ja)
JP (1) JP2012501016A (ja)
KR (1) KR101665034B1 (ja)
CN (3) CN111522493A (ja)
AU (1) AU2009282724B2 (ja)
CA (1) CA2734987A1 (ja)
WO (1) WO2010022386A2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014511534A (ja) * 2011-03-02 2014-05-15 ザ・ボーイング・カンパニー 多入力インタフェースを用いて三次元環境を航行するためのシステムおよび方法
JP2016502171A (ja) * 2012-10-16 2016-01-21 ジョン、ジェ ウンJEON, Jae Woong 3次元の仮想空間内で仮想カメラを制御するための方法、システムおよびコンピュータ読取可能な記録媒体
JP2016193216A (ja) * 2016-06-20 2016-11-17 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、及びビデオゲーム処理プログラム
JP2018526716A (ja) * 2015-06-16 2018-09-13 ノキア テクノロジーズ オーユー 媒介現実
JP2019037877A (ja) * 2018-12-13 2019-03-14 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、及びビデオゲーム処理プログラム
JP2020113314A (ja) * 2020-03-25 2020-07-27 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2020534592A (ja) * 2017-09-19 2020-11-26 キヤノン株式会社 仮想カメラを制御するシステム及び方法
WO2021020143A1 (ja) * 2019-07-30 2021-02-04 ソニー株式会社 画像処理装置、画像処理方法、及び記録媒体
JP2022505457A (ja) * 2019-01-30 2022-01-14 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 仮想環境において建築物を建設する方法、装置、機器及びプログラム

Families Citing this family (199)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9286941B2 (en) 2001-05-04 2016-03-15 Legend3D, Inc. Image sequence enhancement and motion picture project management system
US8239132B2 (en) * 2008-01-22 2012-08-07 Maran Ma Systems, apparatus and methods for delivery of location-oriented information
CA2725542C (en) * 2008-05-28 2016-12-13 Google Inc. Motion-controlled views on mobile computing devices
US9310992B2 (en) 2008-08-22 2016-04-12 Google Inc. Panning in a three dimensional environment on a mobile device
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US20100088632A1 (en) * 2008-10-08 2010-04-08 Research In Motion Limited Method and handheld electronic device having dual mode touchscreen-based navigation
US8294766B2 (en) 2009-01-28 2012-10-23 Apple Inc. Generating a three-dimensional model using a portable electronic device recording
US8108147B1 (en) * 2009-02-06 2012-01-31 The United States Of America As Represented By The Secretary Of The Navy Apparatus and method for automatic omni-directional visual motion-based collision avoidance
US20100223093A1 (en) * 2009-02-27 2010-09-02 Hubbard Robert B System and method for intelligently monitoring subscriber's response to multimedia content
US9007379B1 (en) * 2009-05-29 2015-04-14 Two Pic Mc Llc Methods and apparatus for interactive user control of virtual cameras
US8933925B2 (en) * 2009-06-15 2015-01-13 Microsoft Corporation Piecewise planar reconstruction of three-dimensional scenes
US8723988B2 (en) * 2009-07-17 2014-05-13 Sony Corporation Using a touch sensitive display to control magnification and capture of digital images by an electronic device
CN101996021B (zh) * 2009-08-12 2013-02-13 幻音科技(深圳)有限公司 手持式电子设备及其控制显示内容的方法
JP5304544B2 (ja) * 2009-08-28 2013-10-02 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
KR20110026066A (ko) * 2009-09-07 2011-03-15 삼성전자주식회사 휴대용 단말기에서 화면 상태를 전환시키기 위한 장치 및 방법
JP5464955B2 (ja) * 2009-09-29 2014-04-09 株式会社ソニー・コンピュータエンタテインメント パノラマ画像表示装置
US8814686B2 (en) 2010-02-03 2014-08-26 Nintendo Co., Ltd. Display device, game system, and game method
EP2392391B1 (en) 2010-02-03 2017-06-28 Nintendo Co. Ltd. Display device, game system, and game processing method
US8913009B2 (en) 2010-02-03 2014-12-16 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
US8339364B2 (en) 2010-02-03 2012-12-25 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
US20110199386A1 (en) * 2010-02-12 2011-08-18 Honeywell International Inc. Overlay feature to provide user assistance in a multi-touch interactive display environment
US8570286B2 (en) * 2010-02-12 2013-10-29 Honeywell International Inc. Gestures on a touch-sensitive display
US8638371B2 (en) * 2010-02-12 2014-01-28 Honeywell International Inc. Method of manipulating assets shown on a touch-sensitive display
US8516063B2 (en) 2010-02-12 2013-08-20 Mary Anne Fletcher Mobile device streaming media application
US20110199516A1 (en) * 2010-02-12 2011-08-18 Honeywell International Inc. Method of showing video on a touch-sensitive display
EP2362302B1 (en) * 2010-02-26 2018-06-06 Alcatel Lucent Method for controlling motions of an object in a 3-dimensional virtual environment
JP2011197777A (ja) * 2010-03-17 2011-10-06 Sony Corp 情報処理装置、情報処理方法およびプログラム
US8756522B2 (en) * 2010-03-19 2014-06-17 Blackberry Limited Portable electronic device and method of controlling same
US8937592B2 (en) * 2010-05-20 2015-01-20 Samsung Electronics Co., Ltd. Rendition of 3D content on a handheld device
WO2011145469A1 (ja) * 2010-05-21 2011-11-24 日本電気株式会社 タッチパネルの指示位置確定装置、タッチパネル装置、それを備えた電子機器、タッチパネルの指示位置確定方法およびコンピュータプログラム記憶媒体
US8378985B2 (en) * 2010-05-26 2013-02-19 Sony Mobile Communications Ab Touch interface for three-dimensional display control
US20110298887A1 (en) * 2010-06-02 2011-12-08 Maglaque Chad L Apparatus Using an Accelerometer to Capture Photographic Images
US8640020B2 (en) * 2010-06-02 2014-01-28 Microsoft Corporation Adjustable and progressive mobile device street view
US20120326975A1 (en) * 2010-06-03 2012-12-27 PixArt Imaging Incorporation, R.O.C. Input device and input method
US8977987B1 (en) 2010-06-14 2015-03-10 Google Inc. Motion-based interface control on computing device
JP2012002568A (ja) * 2010-06-15 2012-01-05 Brother Ind Ltd ナビゲーションシステム、携帯機器及び携帯機器用プログラム
US8907943B2 (en) * 2010-07-07 2014-12-09 Apple Inc. Sensor based display environment
KR20120005124A (ko) * 2010-07-08 2012-01-16 삼성전자주식회사 휴대용 단말기에서 움직임에 따른 동작을 수행하기 위한 장치 및 방법
US9626786B1 (en) 2010-07-19 2017-04-18 Lucasfilm Entertainment Company Ltd. Virtual-scene control device
KR101259598B1 (ko) * 2010-07-30 2013-04-30 주식회사 팬택 로드뷰 제공 장치 및 방법
JP6243586B2 (ja) 2010-08-06 2017-12-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
US8451192B2 (en) 2010-08-13 2013-05-28 T-Mobile Usa, Inc. Utilization of interactive device-adjacent ambiently displayed images
US8449118B2 (en) * 2010-08-13 2013-05-28 T-Mobile Usa, Inc. Device-adjacent ambiently displayed image
JP6184658B2 (ja) 2010-08-20 2017-08-23 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
US10150033B2 (en) 2010-08-20 2018-12-11 Nintendo Co., Ltd. Position calculation system, position calculation device, storage medium storing position calculation program, and position calculation method
JP5840386B2 (ja) 2010-08-30 2016-01-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
JP5840385B2 (ja) 2010-08-30 2016-01-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
JP5664036B2 (ja) 2010-09-07 2015-02-04 ソニー株式会社 情報処理装置、プログラム及び制御方法
JP5609508B2 (ja) * 2010-10-04 2014-10-22 富士通株式会社 オブジェクト操作装置、オブジェクト操作方法、およびオブジェクト操作プログラム
DE102010047779A1 (de) 2010-10-08 2012-04-12 Hicat Gmbh Computer und Verfahren zur visuellen Navigation in einem dreidimensionalen Bilddatensatz
GB2487039A (en) * 2010-10-11 2012-07-11 Michele Sciolette Visualizing Illustrated Books And Comics On Digital Devices
US8780174B1 (en) 2010-10-12 2014-07-15 The Boeing Company Three-dimensional vision system for displaying images taken from a moving vehicle
US9001053B2 (en) * 2010-10-28 2015-04-07 Honeywell International Inc. Display system for controlling a selector symbol within an image
US9026359B2 (en) * 2010-11-01 2015-05-05 Nokia Corporation Visually representing a three-dimensional environment
KR101492310B1 (ko) 2010-11-01 2015-02-11 닌텐도가부시키가이샤 조작 장치 및 정보 처리 장치
US9342998B2 (en) 2010-11-16 2016-05-17 Microsoft Technology Licensing, Llc Techniques to annotate street view images with contextual information
US8380427B2 (en) 2010-12-03 2013-02-19 Google Inc. Showing realistic horizons on mobile computing devices
US20120194556A1 (en) * 2011-01-28 2012-08-02 L3 Communications Avionics Systems, Inc. 3d avionics viewpoint control system
US8791911B2 (en) 2011-02-09 2014-07-29 Robotzone, Llc Multichannel controller
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
US9407904B2 (en) 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US9241147B2 (en) 2013-05-01 2016-01-19 Legend3D, Inc. External depth map transformation method for conversion of two-dimensional images to stereoscopic images
US9282321B2 (en) 2011-02-17 2016-03-08 Legend3D, Inc. 3D model multi-reviewer system
JP5792971B2 (ja) 2011-03-08 2015-10-14 任天堂株式会社 情報処理システム、情報処理プログラム、および情報処理方法
EP2497543A3 (en) 2011-03-08 2012-10-03 Nintendo Co., Ltd. Information processing program, information processing system, and information processing method
US9539511B2 (en) 2011-03-08 2017-01-10 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method for operating objects in a virtual world based on orientation data related to an orientation of a device
EP2497544A3 (en) 2011-03-08 2012-10-03 Nintendo Co., Ltd. Information processing program, information processing system, and information processing method
EP2497547B1 (en) 2011-03-08 2018-06-27 Nintendo Co., Ltd. Information processing program, information processing apparatus, information processing system, and information processing method
EP2497546A3 (en) 2011-03-08 2012-10-03 Nintendo Co., Ltd. Information processing program, information processing system, and information processing method
US8836802B2 (en) 2011-03-21 2014-09-16 Honeywell International Inc. Method of defining camera scan movements using gestures
WO2016057997A1 (en) * 2014-10-10 2016-04-14 Pantomime Corporation Support based 3d navigation
GB2489685B (en) * 2011-03-31 2017-01-25 Geovs Ltd A Display System
JP5689014B2 (ja) 2011-04-07 2015-03-25 任天堂株式会社 入力システム、情報処理装置、情報処理プログラム、および3次元位置算出方法
US8760275B2 (en) * 2011-04-15 2014-06-24 Avaya Inc. Obstacle warning system and method
JP5918618B2 (ja) 2011-06-03 2016-05-18 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP5591281B2 (ja) * 2011-06-03 2014-09-17 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラム、および動画再生制御方法
US8675049B2 (en) * 2011-06-09 2014-03-18 Microsoft Corporation Navigation model to render centered objects using images
US9390617B2 (en) 2011-06-10 2016-07-12 Robotzone, Llc Camera motion control system with variable autonomy
US9508002B2 (en) * 2011-06-14 2016-11-29 Google Inc. Generating cinematic flyby sequences following paths and GPS tracks
US8914037B2 (en) 2011-08-11 2014-12-16 Qualcomm Incorporated Numerically stable computation of heading without a reference axis
TWI475471B (zh) * 2011-09-19 2015-03-01 Acer Inc 利用觸控螢幕輔助視訊壓縮的方法及監控系統
JP2013084029A (ja) * 2011-10-06 2013-05-09 Sony Corp 表示制御装置
JP5160680B1 (ja) * 2011-10-26 2013-03-13 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理装置の制御方法、及びプログラム
WO2013060085A1 (en) * 2011-10-27 2013-05-02 The Hong Kong University Of Science And Technology System and method for constrained manipulations of 3d objects by multitouch inputs
US9026951B2 (en) * 2011-12-21 2015-05-05 Apple Inc. Device, method, and graphical user interface for selection of views in a three-dimensional map based on gesture inputs
US9335888B2 (en) 2011-12-27 2016-05-10 Intel Corporation Full 3D interaction on mobile devices
US9208698B2 (en) * 2011-12-27 2015-12-08 Apple Inc. Device, method, and graphical user interface for manipulating a three-dimensional map view based on a device orientation
US10191641B2 (en) 2011-12-29 2019-01-29 Apple Inc. Device, method, and graphical user interface for navigation of information in a map-based interface
US9124800B2 (en) * 2012-02-13 2015-09-01 Htc Corporation Auto burst image capture method applied to a mobile device, method for tracking an object applied to a mobile device, and related mobile device
US9594487B2 (en) 2012-02-27 2017-03-14 Autodesk, Inc Systems and methods for manipulating a 3D object in a 3D model using a software widget and surface constraints
US8626434B1 (en) * 2012-03-01 2014-01-07 Google Inc. Automatic adjustment of a camera view for a three-dimensional navigation system
US8630458B2 (en) * 2012-03-21 2014-01-14 Google Inc. Using camera input to determine axis of rotation and navigation
JP5959047B2 (ja) * 2012-04-04 2016-08-02 任天堂株式会社 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置
TW201343227A (zh) * 2012-04-25 2013-11-01 Fu Li Ye Internat Corp 具有觸控面板裝置媒體的互動遊戲控制方法
US8983778B2 (en) 2012-06-05 2015-03-17 Apple Inc. Generation of intersection information by a mapping service
US9200919B2 (en) * 2012-06-05 2015-12-01 Apple Inc. Method, system and apparatus for selectively obtaining map image data according to virtual camera velocity
US9886794B2 (en) 2012-06-05 2018-02-06 Apple Inc. Problem reporting in maps
US9092900B2 (en) * 2012-06-05 2015-07-28 Google Inc. Terrain-based virtual camera tilting, and applications thereof
US9418672B2 (en) 2012-06-05 2016-08-16 Apple Inc. Navigation application with adaptive instruction text
US10176633B2 (en) 2012-06-05 2019-01-08 Apple Inc. Integrated mapping and navigation application
US9311750B2 (en) * 2012-06-05 2016-04-12 Apple Inc. Rotation operations in a mapping application
US9230556B2 (en) 2012-06-05 2016-01-05 Apple Inc. Voice instructions during navigation
US9482296B2 (en) 2012-06-05 2016-11-01 Apple Inc. Rendering road signs during navigation
US8965696B2 (en) 2012-06-05 2015-02-24 Apple Inc. Providing navigation instructions while operating navigation application in background
US9159153B2 (en) 2012-06-05 2015-10-13 Apple Inc. Method, system and apparatus for providing visual feedback of a map view change
US9997069B2 (en) 2012-06-05 2018-06-12 Apple Inc. Context-aware voice guidance
EP2859535A4 (en) * 2012-06-06 2016-01-20 Google Inc SYSTEM AND METHOD FOR PROVIDING CONTENTS FOR A RELEVANT POINT
US10127722B2 (en) 2015-06-30 2018-11-13 Matterport, Inc. Mobile capture visualization incorporating three-dimensional and two-dimensional imagery
US10163261B2 (en) 2014-03-19 2018-12-25 Matterport, Inc. Selecting two-dimensional imagery data for display within a three-dimensional model
US9786097B2 (en) 2012-06-22 2017-10-10 Matterport, Inc. Multi-modal method for interacting with 3D models
US10139985B2 (en) 2012-06-22 2018-11-27 Matterport, Inc. Defining, displaying and interacting with tags in a three-dimensional model
KR20150034255A (ko) 2012-07-15 2015-04-02 애플 인크. 3d 상호작용을 위한 멀티터치 제스처 인식의 명확화
US9021387B2 (en) 2012-07-31 2015-04-28 Hewlett-Packard Development Company, L.P. Re-sizing user interface object on touch sensitive display
US9025860B2 (en) 2012-08-06 2015-05-05 Microsoft Technology Licensing, Llc Three-dimensional object browsing in documents
GB2505404B (en) * 2012-08-07 2016-08-31 Samsung Electronics Co Ltd Portable apparatus with a GUI
US9507513B2 (en) 2012-08-17 2016-11-29 Google Inc. Displaced double tap gesture
US8777743B2 (en) * 2012-08-31 2014-07-15 DeNA Co., Ltd. System and method for facilitating interaction with a virtual space via a touch sensitive surface
US9886795B2 (en) * 2012-09-05 2018-02-06 Here Global B.V. Method and apparatus for transitioning from a partial map view to an augmented reality view
US20150040073A1 (en) * 2012-09-24 2015-02-05 Google Inc. Zoom, Rotate, and Translate or Pan In A Single Gesture
US10492053B2 (en) * 2012-10-01 2019-11-26 Scott R. Copeland System for a monitored and reconstructible personal rendezvous session
US10178188B2 (en) * 2012-10-01 2019-01-08 Scott R. Copeland System for a monitored and reconstructible personal rendezvous session
US20140109016A1 (en) * 2012-10-16 2014-04-17 Yu Ouyang Gesture-based cursor control
US9547937B2 (en) 2012-11-30 2017-01-17 Legend3D, Inc. Three-dimensional annotation system and method
CN103853471B (zh) * 2012-12-03 2017-05-10 昆达电脑科技(昆山)有限公司 基于用户触控行为的地图显示方法
US9606709B2 (en) 2012-12-27 2017-03-28 Google Inc. System and method for geographic data layer management in a geographic information system
US10140765B2 (en) 2013-02-25 2018-11-27 Google Llc Staged camera traversal for three dimensional environment
US9773346B1 (en) * 2013-03-12 2017-09-26 Amazon Technologies, Inc. Displaying three-dimensional virtual content
US20140267600A1 (en) * 2013-03-14 2014-09-18 Microsoft Corporation Synth packet for interactive view navigation of a scene
US9712746B2 (en) 2013-03-14 2017-07-18 Microsoft Technology Licensing, Llc Image capture and ordering
US9007404B2 (en) * 2013-03-15 2015-04-14 Legend3D, Inc. Tilt-based look around effect image enhancement method
GB2512628A (en) * 2013-04-04 2014-10-08 Sony Corp Method and apparatus
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
US9417835B2 (en) 2013-05-10 2016-08-16 Google Inc. Multiplayer game for display across multiple devices
US9786075B2 (en) * 2013-06-07 2017-10-10 Microsoft Technology Licensing, Llc Image extraction and image-based rendering for manifolds of terrestrial and aerial visualizations
US9329750B2 (en) * 2013-09-10 2016-05-03 Google Inc. Three-dimensional tilt and pan navigation using a single gesture
WO2015066560A1 (en) * 2013-11-01 2015-05-07 InvenSense, Incorporated Systems and methods for optical sensor navigation
WO2015089451A1 (en) * 2013-12-14 2015-06-18 Handscape Inc. Method for detecting user gestures from alternative touchpads of a handheld computerized device
ITCO20130068A1 (it) * 2013-12-18 2015-06-19 Nu Tech S A S Di De Michele Marco & Co Metodo per fornire comandi d'utente ad un elaboratore elettronico e relativi programma per elaborare e circuito elettronico.
TWI497188B (zh) * 2014-02-14 2015-08-21 Dayu Optoelectronics Co Ltd 立體影像產生方法及立體影像攝像裝置
CN104849953B (zh) * 2014-02-19 2017-09-12 大昱光电股份有限公司 立体影像产生方法及立体影像摄像装置
US9851880B2 (en) * 2014-03-14 2017-12-26 Adobe Systems Incorporated Image rotation based on touch gestures
EP3130994A4 (en) * 2014-04-07 2018-01-03 Sony Corporation Display control device, display control method, and program
US9332285B1 (en) 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
AU2015270559A1 (en) * 2014-06-02 2016-11-24 Apelab Sarl A method and system for providing interactivity within a virtual environment
CN106415671B (zh) 2014-06-03 2020-05-19 苹果公司 用于呈现与真实对象相关的数字信息的方法和***
US9575564B2 (en) * 2014-06-17 2017-02-21 Chief Architect Inc. Virtual model navigation methods and apparatus
US9595130B2 (en) * 2014-06-17 2017-03-14 Chief Architect Inc. Virtual model navigation methods and apparatus
US9589354B2 (en) 2014-06-17 2017-03-07 Chief Architect Inc. Virtual model viewing methods and apparatus
US10724864B2 (en) 2014-06-17 2020-07-28 Chief Architect Inc. Step detection methods and apparatus
US9726463B2 (en) 2014-07-16 2017-08-08 Robtozone, LLC Multichannel controller for target shooting range
US9430142B2 (en) 2014-07-17 2016-08-30 Facebook, Inc. Touch-based gesture recognition and application navigation
US10007419B2 (en) 2014-07-17 2018-06-26 Facebook, Inc. Touch-based gesture recognition and application navigation
FR3028330B1 (fr) * 2014-11-07 2017-12-08 Thales Sa Procede et dispositif de changement de point de vue d'une carte 3d ou d'une image d'un objet physique 3d par reconnaissance d'une gestuelle sur ecran tactile
CN104680588B (zh) * 2015-02-13 2017-11-24 上海同筑信息科技有限公司 基于bim的事件标示方法和***
CN104965653A (zh) * 2015-06-15 2015-10-07 联想(北京)有限公司 一种控制方法及电子设备
US9679413B2 (en) 2015-08-13 2017-06-13 Google Inc. Systems and methods to transition between viewpoints in a three-dimensional environment
US11504623B2 (en) * 2015-08-17 2022-11-22 Lego A/S Method of creating a virtual game environment and interactive game system employing the method
TW201710646A (zh) * 2015-09-02 2017-03-16 湯姆生特許公司 描繪大視場內容一部份時,決定導航資訊之方法和裝置,以及大視場內容描繪器
US9609307B1 (en) 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning
CN105915877A (zh) * 2015-12-27 2016-08-31 乐视致新电子科技(天津)有限公司 一种三维视频的自由观影方法及设备
FR3046229A1 (fr) * 2015-12-29 2017-06-30 Thales Sa Procede de representation graphique d'une vue synthetique tridimensionnelle du paysage exterieur dans un systeme de visualisation de bord pour aeronef
CN107038682B (zh) * 2016-02-03 2020-06-26 上海源胜文化传播有限公司 一种三维人体模型的缩放***及方法
WO2017161192A1 (en) * 2016-03-16 2017-09-21 Nils Forsblom Immersive virtual experience using a mobile communication device
US10198861B2 (en) * 2016-03-31 2019-02-05 Intel Corporation User interactive controls for a priori path navigation in virtual environment
US10739157B2 (en) 2016-06-12 2020-08-11 Apple Inc. Grouping maneuvers for display in a navigation presentation
US20170374276A1 (en) * 2016-06-23 2017-12-28 Intel Corporation Controlling capturing of a multimedia stream with user physical responses
US10726673B2 (en) 2016-09-20 2020-07-28 Acres Technology Automatic application of a bonus to an electronic gaming device responsive to player interaction with a mobile computing device
US10041800B2 (en) 2016-09-23 2018-08-07 Qualcomm Incorporated Pedestrian sensor assistance in a mobile device during typical device motions
WO2018067130A1 (en) * 2016-10-04 2018-04-12 Hewlett-Packard Development Company, L.P. Three-dimensional input device
US11061557B2 (en) 2016-12-22 2021-07-13 ReScan, Inc. Dynamic single touch point navigation
US10373342B1 (en) * 2017-01-10 2019-08-06 Lucasfilm Entertainment Company Ltd. Content generation in an immersive environment
EP3596587A4 (en) * 2017-03-13 2021-01-27 Rescan, Inc. NAVIGATION SYSTEM
CN108984087B (zh) * 2017-06-02 2021-09-14 腾讯科技(深圳)有限公司 基于三维虚拟形象的社交互动方法及装置
AU2017204099A1 (en) * 2017-06-16 2019-01-17 Canon Kabushiki Kaisha System and method of configuring a virtual camera
CN107436745B (zh) * 2017-06-19 2021-01-08 广州励丰文化科技股份有限公司 基于数字艺术景观装置的三维模型的图片显示方法及装置
US10663298B2 (en) * 2017-06-25 2020-05-26 Invensense, Inc. Method and apparatus for characterizing platform motion
US20190007672A1 (en) 2017-06-30 2019-01-03 Bobby Gene Burrough Method and Apparatus for Generating Dynamic Real-Time 3D Environment Projections
AU2017204643B2 (en) 2017-07-07 2020-05-14 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding video data
CN107506038B (zh) * 2017-08-28 2020-02-25 荆门程远电子科技有限公司 一种基于移动终端的三维虚拟地球交互方法
JP6419278B1 (ja) * 2017-09-19 2018-11-07 キヤノン株式会社 制御装置、制御方法、及びプログラム
CN109550246B (zh) * 2017-09-25 2022-03-25 腾讯科技(深圳)有限公司 游戏客户端的控制方法、装置、存储介质和电子装置
CN108363531A (zh) * 2018-01-17 2018-08-03 网易(杭州)网络有限公司 一种游戏中的交互方法及装置
WO2019164514A1 (en) * 2018-02-23 2019-08-29 Google Llc Transitioning between map view and augmented reality view
JP7045218B2 (ja) * 2018-02-28 2022-03-31 キヤノン株式会社 情報処理装置および情報処理方法、プログラム
CN108379844B (zh) * 2018-03-30 2020-10-23 腾讯科技(深圳)有限公司 控制虚拟对象移动的方法、装置、电子装置及存储介质
CN108509139B (zh) * 2018-03-30 2019-09-10 腾讯科技(深圳)有限公司 虚拟对象的移动控制方法、装置、电子装置及存储介质
US10964110B2 (en) * 2018-05-07 2021-03-30 Vmware, Inc. Managed actions using augmented reality
JP6916150B2 (ja) * 2018-06-05 2021-08-11 任天堂株式会社 ゲームシステム、ゲームプログラム、ゲーム装置、およびゲーム処理方法
CN110610523B (zh) * 2018-06-15 2023-04-25 杭州海康威视数字技术股份有限公司 汽车环视标定方法及装置、计算机可读存储介质
US11216149B2 (en) * 2019-03-15 2022-01-04 Samsung Electronics Co., Ltd. 360° video viewer control using smart device
CN112130551A (zh) * 2019-06-25 2020-12-25 北京百度网讯科技有限公司 无人驾驶车辆的行进路径和速度决策规划方法及装置
CN110523085A (zh) * 2019-08-30 2019-12-03 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、终端及存储介质
CN111324253B (zh) * 2020-02-12 2021-08-03 腾讯科技(深圳)有限公司 虚拟物品交互方法、装置、计算机设备及存储介质
EP3865984B1 (en) * 2020-02-13 2023-09-27 Honeywell International Inc. Methods and systems for searchlight control for aerial vehicles
US11625037B2 (en) 2020-02-13 2023-04-11 Honeywell International Inc. Methods and systems for searchlight control for aerial vehicles
CN112087575B (zh) * 2020-08-24 2022-03-08 广州启量信息科技有限公司 一种虚拟相机控制方法
BR112022001065A2 (pt) * 2020-11-13 2022-07-05 Tencent Tech Shenzhen Co Ltd Método e aparelho de controle de objeto virtual, meio de armazenamento e dispositivo eletrônico
CN112354179B (zh) * 2020-11-23 2023-09-05 浙江中控信息产业股份有限公司 一种三维地理信息内容的显示与交互方法
US11899204B2 (en) * 2021-06-09 2024-02-13 Snap Inc. Soft follow and pitch angle effects for VR/AR interface

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004005272A (ja) * 2002-05-31 2004-01-08 Cad Center:Kk 仮想空間移動制御装置及び制御方法並びに制御プログラム

Family Cites Families (129)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5111288A (en) * 1988-03-02 1992-05-05 Diamond Electronics, Inc. Surveillance camera system
US5276785A (en) * 1990-08-02 1994-01-04 Xerox Corporation Moving viewpoint with respect to a target in a three-dimensional workspace
JP2827612B2 (ja) * 1991-10-07 1998-11-25 富士通株式会社 タッチパネル装置およびタッチパネル装置におけるオブジェクトの表示方法。
CA2077173C (en) * 1991-11-22 2003-04-22 Michael Chen Method and apparatus for direct manipulation of 3-d objects on computer displays
US6597347B1 (en) * 1991-11-26 2003-07-22 Itu Research Inc. Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom
US5483261A (en) * 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5880411A (en) * 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5557714A (en) * 1993-01-29 1996-09-17 Microsoft Corporation Method and system for rotating a three-dimensional model about two orthogonal axes
JPH0764754A (ja) * 1993-08-24 1995-03-10 Hitachi Ltd 小型情報処理装置
US5689628A (en) * 1994-04-14 1997-11-18 Xerox Corporation Coupling a display object to a viewpoint in a navigable workspace
GB9606791D0 (en) * 1996-03-29 1996-06-05 British Telecomm Control interface
US5808613A (en) * 1996-05-28 1998-09-15 Silicon Graphics, Inc. Network navigator with enhanced navigational abilities
GB9616184D0 (en) * 1996-08-01 1996-09-11 Philips Electronics Nv Virtual environment navigation
JPH1049290A (ja) * 1996-08-05 1998-02-20 Sony Corp 情報処理装置および方法
JP4332231B2 (ja) * 1997-04-21 2009-09-16 ソニー株式会社 撮像装置コントローラおよび撮像システム
GB9721667D0 (en) * 1997-10-14 1997-12-10 Philips Electronics Nv Virtual environment navigation aid
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
EP2256605B1 (en) * 1998-01-26 2017-12-06 Apple Inc. Method and apparatus for integrating manual input
US7663607B2 (en) * 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US6347290B1 (en) * 1998-06-24 2002-02-12 Compaq Information Technologies Group, L.P. Apparatus and method for detecting and executing positional and gesture commands corresponding to movement of handheld computing device
US6029854A (en) * 1998-09-16 2000-02-29 Wissen; William T. Portable liquid dispenser
US6400376B1 (en) * 1998-12-21 2002-06-04 Ericsson Inc. Display control for hand-held data processing device
US7119819B1 (en) * 1999-04-06 2006-10-10 Microsoft Corporation Method and apparatus for supporting two-dimensional windows in a three-dimensional environment
US6288704B1 (en) * 1999-06-08 2001-09-11 Vega, Vista, Inc. Motion detection and tracking system to control navigation and display of object viewers
US6466198B1 (en) * 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
US6388655B1 (en) * 1999-11-08 2002-05-14 Wing-Keung Leung Method of touch control of an input device and such a device
US6980690B1 (en) * 2000-01-20 2005-12-27 Canon Kabushiki Kaisha Image processing apparatus
US6636210B1 (en) * 2000-03-03 2003-10-21 Muse Corporation Method and system for auto-navigation in a three dimensional viewing environment
US7142205B2 (en) * 2000-03-29 2006-11-28 Autodesk, Inc. Single gesture map navigation graphical user interface for a personal digital assistant
US6326846B1 (en) * 2000-04-11 2001-12-04 National Semiconductor Corporation Low voltage fet differential amplifier and method
US7027642B2 (en) * 2000-04-28 2006-04-11 Orametrix, Inc. Methods for registration of three-dimensional frames to create three-dimensional virtual models of objects
US6864886B1 (en) * 2000-08-10 2005-03-08 Sportvision, Inc. Enhancing video using a virtual surface
DE50014953D1 (de) * 2000-08-24 2008-03-20 Siemens Vdo Automotive Ag Verfahren und Navigationsgerät zum Abfragen von Zielinformation und zum Navigieren in einer Kartenansicht
US6600475B2 (en) * 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US6834249B2 (en) * 2001-03-29 2004-12-21 Arraycomm, Inc. Method and apparatus for controlling a computing system
US6987512B2 (en) * 2001-03-29 2006-01-17 Microsoft Corporation 3D navigation techniques
US6798429B2 (en) * 2001-03-29 2004-09-28 Intel Corporation Intuitive mobile device interface to virtual spaces
FI117488B (fi) * 2001-05-16 2006-10-31 Myorigo Sarl Informaation selaus näytöllä
US6452544B1 (en) * 2001-05-24 2002-09-17 Nokia Corporation Portable map display system for presenting a 3D map image and method thereof
US6907579B2 (en) * 2001-10-30 2005-06-14 Hewlett-Packard Development Company, L.P. User interface and method for interacting with a three-dimensional graphical environment
US7159194B2 (en) * 2001-11-30 2007-01-02 Palm, Inc. Orientation dependent functionality of an electronic device
KR100433628B1 (ko) * 2001-12-27 2004-05-31 주식회사 케이티 FoIP에 있어서 네트워크 상태 적응형 오류 제어 방법
US6690387B2 (en) * 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
US20030132913A1 (en) * 2002-01-11 2003-07-17 Anton Issinski Touchless computer input device to control display cursor mark position by using stereovision input from two video cameras
US7411594B2 (en) * 2002-01-15 2008-08-12 Canon Kabushiki Kaisha Information processing apparatus and method
CN1360283A (zh) * 2002-01-15 2002-07-24 天津大学 真人头像三维模型建立***
US7324085B2 (en) * 2002-01-25 2008-01-29 Autodesk, Inc. Techniques for pointing to locations within a volumetric display
US7107285B2 (en) * 2002-03-16 2006-09-12 Questerra Corporation Method, system, and program for an improved enterprise spatial system
GB2387519B (en) * 2002-04-08 2005-06-22 Canon Europa Nv Viewing controller for three-dimensional computer graphics
JP4096622B2 (ja) * 2002-05-21 2008-06-04 株式会社セガ 画像処理方法及び装置、並びにプログラム及び記録媒体
JP3090450U (ja) * 2002-06-04 2002-12-13 株式会社ワコー 方位表示機能をもった携帯型情報処理装置
US7042449B2 (en) * 2002-06-28 2006-05-09 Autodesk Canada Co. Push-tumble three dimensional navigation system
EP1413895B1 (en) * 2002-10-23 2005-08-24 Siemens Aktiengesellschaft A method and apparatus for generating a GPS simulation scenario
US7589732B2 (en) * 2002-11-05 2009-09-15 Autodesk, Inc. System and method of integrated spatial and temporal navigation
US6975959B2 (en) * 2002-12-03 2005-12-13 Robert Bosch Gmbh Orientation and navigation for a mobile device using inertial sensors
US20040125114A1 (en) * 2002-12-31 2004-07-01 Hauke Schmidt Multiresolution image synthesis for navigation
DE10300527A1 (de) * 2003-01-09 2004-07-22 Realtime Technology Ag System und Verfahren zur Darstellung von virtuellen Szenen auf einer Bilddarstellungseinheit
JP4100195B2 (ja) * 2003-02-26 2008-06-11 ソニー株式会社 3次元オブジェクトの表示処理装置、表示処理方法、およびコンピュータプログラム
US7259778B2 (en) * 2003-07-01 2007-08-21 L-3 Communications Corporation Method and apparatus for placing sensors using 3D models
US7190496B2 (en) * 2003-07-24 2007-03-13 Zebra Imaging, Inc. Enhanced environment visualization using holographic stereograms
JP4297804B2 (ja) * 2004-02-19 2009-07-15 任天堂株式会社 ゲーム装置及びゲームプログラム
JP4772789B2 (ja) * 2004-06-22 2011-09-14 サーノフ コーポレーション カメラ・ポーズを決定する方法および装置
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
JP4167263B2 (ja) * 2004-07-15 2008-10-15 株式会社シーアンドエヌ 携帯端末装置
US7719523B2 (en) * 2004-08-06 2010-05-18 Touchtable, Inc. Bounding box gesture recognition on a touch detecting interactive display
US7728821B2 (en) * 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
JP2006122241A (ja) * 2004-10-27 2006-05-18 Nintendo Co Ltd ゲーム装置およびゲームプログラム
JP4515221B2 (ja) * 2004-10-29 2010-07-28 任天堂株式会社 ゲームプログラム
JP4801674B2 (ja) * 2004-12-10 2011-10-26 エー. ヴィ. カスタム スタイル ビー. ヴィ. 迅速交換式アーバ
KR100641182B1 (ko) * 2004-12-30 2006-11-02 엘지전자 주식회사 휴대단말기에서의 가상화면 이동장치 및 방법
US20060164382A1 (en) * 2005-01-25 2006-07-27 Technology Licensing Company, Inc. Image manipulation in response to a movement of a display
US20080300780A1 (en) * 2005-02-07 2008-12-04 Dmitry Domnin Method for automating task with portable device
US7605804B2 (en) * 2005-04-29 2009-10-20 Microsoft Corporation System and method for fine cursor positioning using a low resolution imaging touch screen
US20060271281A1 (en) 2005-05-20 2006-11-30 Myron Ahn Geographic information knowledge systems
JP5063871B2 (ja) * 2005-06-15 2012-10-31 株式会社デンソー 携帯機用地図表示システム
US7933929B1 (en) * 2005-06-27 2011-04-26 Google Inc. Network link for providing dynamic data layer in a geographic information system
JP4783603B2 (ja) * 2005-08-26 2011-09-28 株式会社デンソー 地図表示装置、地図表示方法、地図表示プログラム、及びそのプログラムを記録した記録媒体
US20070046661A1 (en) * 2005-08-31 2007-03-01 Siemens Medical Solutions Usa, Inc. Three or four-dimensional medical imaging navigation methods and systems
JP4404830B2 (ja) * 2005-09-28 2010-01-27 シャープ株式会社 操作システム
JP4246195B2 (ja) * 2005-11-01 2009-04-02 パナソニック株式会社 カーナビゲーションシステム
US7587684B2 (en) * 2006-01-23 2009-09-08 Nokia Corporation Mobile communication terminal and method therefore
US9070402B2 (en) * 2006-03-13 2015-06-30 Autodesk, Inc. 3D model presentation system with motion and transitions at each camera view point of interest (POI) with imageless jumps to each POI
JP2007280212A (ja) * 2006-04-10 2007-10-25 Sony Corp 表示制御装置、表示制御方法及び表示制御プログラム
US8077153B2 (en) * 2006-04-19 2011-12-13 Microsoft Corporation Precise selection techniques for multi-touch screens
JP2009535727A (ja) * 2006-05-02 2009-10-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 凍結及び再開機能を備える3d入力/ナビゲーションデバイス
US20070257891A1 (en) * 2006-05-03 2007-11-08 Esenther Alan W Method and system for emulating a mouse on a multi-touch sensitive surface
US7707516B2 (en) * 2006-05-26 2010-04-27 Google Inc. Embedded navigation interface
US7643673B2 (en) * 2006-06-12 2010-01-05 Google Inc. Markup language for interactive geographic information system
US20080062126A1 (en) * 2006-07-06 2008-03-13 Algreatly Cherif A 3D method and system for hand-held devices
WO2008014486A2 (en) * 2006-07-28 2008-01-31 Accelerated Pictures, Inc. Improved camera control
JP4725526B2 (ja) * 2006-08-28 2011-07-13 ソニー株式会社 情報処理装置、撮像装置、情報処理システム、装置制御方法及びプログラム
US8106856B2 (en) * 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
US8277316B2 (en) * 2006-09-14 2012-10-02 Nintendo Co., Ltd. Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting
US8698735B2 (en) 2006-09-15 2014-04-15 Lucasfilm Entertainment Company Ltd. Constrained virtual camera control
US8130203B2 (en) * 2007-01-03 2012-03-06 Apple Inc. Multi-touch input discrimination
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
WO2008095132A2 (en) * 2007-01-31 2008-08-07 Perceptive Pixel, Inc. Methods of interfacing with multi-point input devices and multi-point input systems employing interfacing techniques
US7752555B2 (en) * 2007-01-31 2010-07-06 Microsoft Corporation Controlling multiple map application operations with a single gesture
CN101030982A (zh) * 2007-03-22 2007-09-05 宇龙计算机通信科技(深圳)有限公司 自动调整显示屏内容显示方向的装置及方法
US9037599B1 (en) * 2007-05-29 2015-05-19 Google Inc. Registering photos in a geographic information system, and applications thereof
US8681104B2 (en) * 2007-06-13 2014-03-25 Apple Inc. Pinch-throw and translation gestures
US8302033B2 (en) * 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
TW200907764A (en) * 2007-08-01 2009-02-16 Unique Instr Co Ltd Three-dimensional virtual input and simulation apparatus
US20090046110A1 (en) * 2007-08-16 2009-02-19 Motorola, Inc. Method and apparatus for manipulating a displayed image
US10504285B2 (en) * 2007-09-26 2019-12-10 Autodesk, Inc. Navigation system for a 3D virtual scene
US8686991B2 (en) * 2007-09-26 2014-04-01 Autodesk, Inc. Navigation system for a 3D virtual scene
JP5390115B2 (ja) * 2008-03-31 2014-01-15 株式会社バンダイナムコゲームス プログラム、ゲームシステム
US8089479B2 (en) * 2008-04-11 2012-01-03 Apple Inc. Directing camera behavior in 3-D imaging system
WO2009128899A1 (en) * 2008-04-14 2009-10-22 Google Inc. Swoop navigation
AU2009238631B2 (en) * 2008-04-14 2014-10-30 Google Llc Panning using virtual surfaces
US10180714B1 (en) * 2008-04-24 2019-01-15 Pixar Two-handed multi-stroke marking menus for multi-touch devices
US8799821B1 (en) * 2008-04-24 2014-08-05 Pixar Method and apparatus for user inputs for three-dimensional animation
US8375336B2 (en) * 2008-05-23 2013-02-12 Microsoft Corporation Panning content utilizing a drag operation
US20090303251A1 (en) * 2008-06-10 2009-12-10 Andras Balogh Displaying, processing and storing geo-located information
US8700301B2 (en) * 2008-06-19 2014-04-15 Microsoft Corporation Mobile computing devices, architecture and user interfaces based on dynamic direction information
US9310992B2 (en) * 2008-08-22 2016-04-12 Google Inc. Panning in a three dimensional environment on a mobile device
KR20100041006A (ko) * 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
KR20100050103A (ko) * 2008-11-05 2010-05-13 엘지전자 주식회사 맵 상에서의 3차원 개체 제어방법과 이를 이용한 이동 단말기
US8788977B2 (en) * 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
US8294766B2 (en) * 2009-01-28 2012-10-23 Apple Inc. Generating a three-dimensional model using a portable electronic device recording
US20100188397A1 (en) * 2009-01-28 2010-07-29 Apple Inc. Three dimensional navigation using deterministic movement of an electronic device
US20100208033A1 (en) * 2009-02-13 2010-08-19 Microsoft Corporation Personal Media Landscapes in Mixed Reality
US20110205229A1 (en) 2010-02-23 2011-08-25 Google Inc. Portable Globe Creation for a Geographical Information System
US8683387B2 (en) * 2010-03-03 2014-03-25 Cast Group Of Companies Inc. System and method for visualizing virtual objects on a mobile device
US8321166B2 (en) * 2010-03-17 2012-11-27 Qualcomm Incorporated Methods and systems for wireless platform attitude determination
US9134799B2 (en) * 2010-07-16 2015-09-15 Qualcomm Incorporated Interacting with a projected user interface using orientation sensors
US20120019522A1 (en) * 2010-07-25 2012-01-26 Raytheon Company ENHANCED SITUATIONAL AWARENESS AND TARGETING (eSAT) SYSTEM

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004005272A (ja) * 2002-05-31 2004-01-08 Cad Center:Kk 仮想空間移動制御装置及び制御方法並びに制御プログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9632677B2 (en) 2011-03-02 2017-04-25 The Boeing Company System and method for navigating a 3-D environment using a multi-input interface
JP2014511534A (ja) * 2011-03-02 2014-05-15 ザ・ボーイング・カンパニー 多入力インタフェースを用いて三次元環境を航行するためのシステムおよび方法
JP2016502171A (ja) * 2012-10-16 2016-01-21 ジョン、ジェ ウンJEON, Jae Woong 3次元の仮想空間内で仮想カメラを制御するための方法、システムおよびコンピュータ読取可能な記録媒体
JP2018526716A (ja) * 2015-06-16 2018-09-13 ノキア テクノロジーズ オーユー 媒介現実
US10884576B2 (en) 2015-06-16 2021-01-05 Nokia Technologies Oy Mediated reality
JP2016193216A (ja) * 2016-06-20 2016-11-17 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、及びビデオゲーム処理プログラム
JP7348895B2 (ja) 2017-09-19 2023-09-21 キヤノン株式会社 仮想カメラを制御するシステム及び方法
JP2020534592A (ja) * 2017-09-19 2020-11-26 キヤノン株式会社 仮想カメラを制御するシステム及び方法
JP2019037877A (ja) * 2018-12-13 2019-03-14 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、及びビデオゲーム処理プログラム
US11675488B2 (en) 2019-01-30 2023-06-13 Tencent Technology (Shenzhen) Company Limited Method and apparatus for constructing building in virtual environment, device, and storage medium
JP2022505457A (ja) * 2019-01-30 2022-01-14 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 仮想環境において建築物を建設する方法、装置、機器及びプログラム
JP7224459B2 (ja) 2019-01-30 2023-02-17 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 仮想環境において建築物を建設する方法、装置、機器及びプログラム
WO2021020143A1 (ja) * 2019-07-30 2021-02-04 ソニー株式会社 画像処理装置、画像処理方法、及び記録媒体
JP2020113314A (ja) * 2020-03-25 2020-07-27 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法

Also Published As

Publication number Publication date
US20100045667A1 (en) 2010-02-25
AU2009282724B2 (en) 2014-12-04
EP2327010A2 (en) 2011-06-01
US20100053219A1 (en) 2010-03-04
CN111522493A (zh) 2020-08-11
US10942618B2 (en) 2021-03-09
AU2009282724A1 (en) 2010-02-25
US20220100350A1 (en) 2022-03-31
US8847992B2 (en) 2014-09-30
US11054964B2 (en) 2021-07-06
WO2010022386A2 (en) 2010-02-25
US9310992B2 (en) 2016-04-12
CA2734987A1 (en) 2010-02-25
KR101665034B1 (ko) 2016-10-24
US20100045666A1 (en) 2010-02-25
CN102187309A (zh) 2011-09-14
KR20110049873A (ko) 2011-05-12
US20190196691A1 (en) 2019-06-27
US20190205009A1 (en) 2019-07-04
US20160224204A1 (en) 2016-08-04
WO2010022386A3 (en) 2010-11-04
CN103324386A (zh) 2013-09-25
US20100045703A1 (en) 2010-02-25
US10222931B2 (en) 2019-03-05

Similar Documents

Publication Publication Date Title
US10942618B2 (en) Panning in a three dimensional environment on a mobile device
US20150040073A1 (en) Zoom, Rotate, and Translate or Pan In A Single Gesture
EP3042275B1 (en) Tilting to scroll
US9507431B2 (en) Viewing images with tilt-control on a hand-held device
US8294766B2 (en) Generating a three-dimensional model using a portable electronic device recording
EP3688726B1 (en) Cooperative augmented reality map interface
US20100188397A1 (en) Three dimensional navigation using deterministic movement of an electronic device
US9936168B2 (en) System and methods for controlling a surveying device
KR20110104096A (ko) 모바일 디바이스들을 위한 사용자 인터페이스
EP2558924B1 (en) Apparatus, method and computer program for user input using a camera
US20150169119A1 (en) Major-Axis Pinch Navigation In A Three-Dimensional Environment On A Mobile Device
US10984242B1 (en) Virtual proximity compass for navigating artificial reality environments
Goh et al. An inertial device-based user interaction with occlusion-free object handling in a handheld augmented reality
US12032802B2 (en) Panning in a three dimensional environment on a mobile device
JP3161662U (ja) プラネタリウム装置
Buchholz University of Potsdam, Hasso-Plattner-Institute, Helmert-Straße 2-3, Potsdam, Germany {buchholz, bohnet, doellner}@ hpi. uni-potsdam. de

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140425

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140526

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141105