JP2012501016A - モバイルデバイス上の3次元環境内でのナビゲーション - Google Patents
モバイルデバイス上の3次元環境内でのナビゲーション Download PDFInfo
- Publication number
- JP2012501016A JP2012501016A JP2011524067A JP2011524067A JP2012501016A JP 2012501016 A JP2012501016 A JP 2012501016A JP 2011524067 A JP2011524067 A JP 2011524067A JP 2011524067 A JP2011524067 A JP 2011524067A JP 2012501016 A JP2012501016 A JP 2012501016A
- Authority
- JP
- Japan
- Prior art keywords
- virtual camera
- mobile device
- finger
- module
- touch screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/163—Indexing scheme relating to constructional details of the computer
- G06F2200/1637—Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、概して、3次元環境内でのナビゲーションに関する。
3次元データを表示するための3次元環境内をナビゲーションするためのシステムが存在する。3次元環境として、どの3次元データを表示するかを定義する仮想カメラが挙げられる。仮想カメラは、その位置および配向に従って視点を有する。仮想カメラの視点を変更することによって、ユーザは、3次元環境内をナビゲートすることが可能である。
本明細書に開示される実施形態は、モバイルデバイス上の3次元環境内でナビゲートするための方法およびシステムに関する。いくつかの実施形態は、モバイルデバイスの配向を使用する、3次元環境のナビゲーションに関する。いくつかの実施形態は、モバイルデバイス上で仮想カメラを移動させるためのユーザインターフェースジェスチャに関する。いくつかの実施形態は、ピンチング、回転、ダブルタッチズーム等のモバイルデバイス上で仮想カメラを移動させるためのユーザインターフェースジェスチャに関する。いくつかの実施形態は、モバイルデバイス上の3次元環境内のパンニングに関する。最後に、いくつかの実施形態は、モバイルデバイス上の3次元環境内のアンカーナビゲーションに関する。
モバイルデバイス上の3次元環境内でのナビゲーションのための本発明の実施形態を提供する。以下の実施形態の詳細説明において、「一実施形態」、「実施形態」、「例示的実施形態」等への参照は、説明される実施形態が、特定の特長、構造、または特性を含むことができるが、あらゆる実施形態が、必ずしも、特定の特長、構造、または特性を含まなくてもよいことを示す。さらに、このような語句は、必ずしも同じ実施形態を参照していない。その上、特定の特長、構造、または特性が、実施形態に関係して説明されるとき、明示的に説明されているかどうかに関わらず、このような特長、構造、または特性を他の実施形態に関係して達成することは、当業者の知識の範囲内であると考えられる。
この項では、モバイルデバイス上の3次元環境内でのナビゲーションの概要を提供する。図1は、3次元環境内をナビゲートすることが可能なモバイルデバイス100を示す図である。実施形態において、モバイルデバイス100は、PDA、携帯電話、携帯ゲーム機、または当業者には周知の他のハンドヘルドモバイルデバイスであり得る。実施例において、モバイルデバイス100は、Apple Inc.から販売されているIPHONEデバイスであってもよい。別の実施例において、モバイルデバイス100は、Google Inc.から入手可能なANDROIDプラットフォームを稼動しているデバイスであってもよい。他の実施形態において、モバイルデバイス100は、タブレットコンピュータ、ノートパソコン、またはハンドヘルドモバイルデバイスより大型であるが、依然としてユーザによって容易に携帯される他のモバイルデバイスであってもよい。これらの例は、説明のためであって、本発明を制限することを意味しない。
本項では、ユーザインターフェースジェスチャに応答して、モバイルデバイス上の3次元環境内で仮想カメラをナビゲートするシステムを説明する。図3は、モバイルデバイス上の3次元環境内でのナビゲーションのために、ユーザインターフェースジェスチャを受理するシステム300を示す図である。
この項では、図4〜5、6A〜B、および7に関してジャンプ角度ナビゲーションのための方法を説明する。角度ジャンプナビゲーションは、ユーザに、モバイルデバイス上の3次元環境内を容易かつ直感的にナビゲートすることを可能にする。概して、ユーザが場所上をダブルタップすることに応答して、方法は、場所に向けて仮想カメラをナビゲートし、場所に向けて仮想カメラの角度を決める。
ナビゲートするために片手が自由な場合、いくつかのユーザインターフェースジェスチャは、2本の指を使用することができる。この項では、アンカールックアラウンドおよびアンカーヘリコプタという、2本の指を使用する2つのユーザインターフェースジェスチャを説明する。各ユーザインターフェースジェスチャでは、1本の指が最初に静止していて、他が移動する。静止している指は、移動する指の前に、画面に触れることができる。静止および移動する指の初期の相対的位置は、ユーザが、アンカールックアラウンドモードまたはアンカーヘリコプタモードに入るかどうかを決定することができる。
前述のように、ユーザは、1本の指を移動し、別の指を静止したままにすることによって、仮想カメラに周囲を見回すようにさせることができる。この項では、仮想カメラに周囲を見回すようにさせることができる、別のジェスチャを説明する。この項に説明されるジェスチャは、2本の指でディスプレイに触れることを含む。概して、2本の指は、ほぼ同じ方向にほぼ同じ距離だけ移動し、仮想カメラは、指の移動に従って移動する。
この項では、加速度計を備える仮想カメラをナビゲートするステップを詳細に説明する。図13は、モバイルデバイスの配向に基づいて、仮想カメラをナビゲートするための方法1300を示すフローチャートである。
アンカーナビゲーションの項では、1本の指が最初に静止したままで、他の指が最初に運動中である2本の指のジェスチャを説明した。この項では、両方の指が最初に運動中である2本の指のジェスチャを説明する。2本の指のジェスチャは、ピンチと称されてもよく、図15および図16A〜Bに関して説明する。ピンチはまた、第1および第2の指が触れるタイミングによって、アンカーナビゲーションから区別されてもよい。例えば、第1の指と第2の指との間のタイミングが閾値を上回るとき、アンカーナビゲーションモードが有効にされてもよい。第1の指と第2の指の間のタイミングが閾値を上回るとき、仮想カメラはピンチ運動量で移動されてもよい。代替実施形態において、アンカーナビゲーションモードは、タイミングが閾値を下回るときに有効にされてもよく、仮想カメラは、タイミングが閾値を上回るときにピンチ運動量で移動されてもよい。
本項は、モバイルデバイス上の3次元環境内で仮想カメラをパンニングすることを説明する。概して、ユーザは、指で、モバイルデバイスの表示上の位置を選択することによって、パンする。選択される位置に基づいて、標的場所が決定される。ユーザが指をドラッグするにつれて、仮想カメラに対する3次元モデルの位置は、標的場所を辿るように移動する。これは、タッチアンドドラッグジェスチャとして称され得る。実施形態において、3次元モデルは、タッチアンドドラッグジェスチャに応答して、ユーザの指を辿るように回転する。
結論
前述の実施形態の説明は、タッチ画面と接触を行う指に関して、明確化を目的として説明されたことに注意されたい。しかしながら、スタイラス等の当業者には周知であるような任意の他の物体が使用されてもよい。
Claims (113)
- タッチ画面を有するモバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのコンピュータ実装方法であって、
(a)第1の物体が前記モバイルデバイスのタッチ画面上でほぼ静止していることを示す、第1のユーザ入力を受信することと、
(b)第2の物体が前記タッチ画面上を移動したことを示す、第2のユーザ入力を受信することと、
(c)前記第2のユーザ入力に従って、前記仮想カメラの配向を変更することと
を含む、方法。 - 前記受信すること(a)は、第1の指が前記タッチ画面上でほぼ静止状態していることを示す、前記第1のユーザ入力を受信することを含み、
前記受信すること(b)は、第2の指が前記タッチ画面上を移動したことを示す、前記第2のユーザ入力を受信することを含む、
請求項1に記載の方法。 - 前記受信すること(b)は、前記第2の指の運動の方向を受信することを含む、請求項2に記載の方法。
- 前記変更すること(c)は、前記方向が前記モバイルデバイスの左側または右側に向かっているとき、前記仮想カメラのヨーを変更することを含む、請求項3に記載の方法。
- 前記変更すること(c)は、前記方向が前記モバイルデバイスの頂部または底部に向かっているとき、前記仮想カメラのピッチを変更することを含む、請求項3に記載の方法。
- (d)前記モバイルデバイスの加速度計から前記モバイルデバイスの配向を受信することと、
(e)前記モバイルデバイスの前記配向に従って、前記仮想カメラの配向を変更することと、
を含む、請求項2に記載の方法。 - 前記変更すること(c)は、前記第1の指の位置が、最初に前記第2の指の位置より下にあるとき、前記仮想カメラの前記配向を変更することを含み、
(d)前記3次元環境内の標的場所を決定することと、
(e)前記第1の指の前記位置が前記第2の指の前記位置より上にあるとき、前記第2のユーザ入力に従って、前記仮想カメラの位置を変更することと、をさらに含み、前記標的場所と前記仮想カメラの前記位置との間の距離は、ほぼ一定のままである、
請求項2に記載の方法。 - (d)前記第1のユーザ入力に基づいて、前記仮想カメラの軸を決定することをさらに含み、
前記変更すること(c)は、前記仮想カメラを前記軸の周囲で回転させることを含む、
請求項1に記載の方法。 - モバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのシステムであって、
第1の物体が前記モバイルデバイスのタッチ画面上でほぼ静止していることを示す、第1のユーザ入力を受信し、第2の物体が前記タッチ画面上を移動したことを示す、第2のユーザ入力を受信する、タッチレシーバと、
前記第2のユーザ入力に従って、前記仮想カメラの配向を変更するルックアラウンドモジュールと、
を備える、システム。 - 前記第1および第2の物体は、指である、請求項9に記載のシステム。
- 前記第2のユーザ入力は、前記第2の指の運動の方向を含む、請求項10に記載のシステム。
- 前記ルックアラウンドモジュールは、前記方向が前記モバイルデバイスの左側または右側に向かっているとき、前記仮想カメラのヨーを変更する、請求項10に記載のシステム。
- 前記ルックアラウンドモジュールは、前記方向が前記モバイルデバイスの頂部または底部に向かっているとき、前記仮想カメラのピッチを変更する、請求項10に記載のシステム。
- 前記モバイルデバイスの加速度計から前記モバイルデバイスの配向を受信する加速度計と、
前記モバイルデバイスの前記配向に従って、前記仮想カメラの配向を変更するナビゲーションモジュールと、
をさらに備える、請求項10に記載のシステム。 - 前記ルックアラウンドモジュールは、前記第1の指の位置が前記第2の指の位置より上にあるとき、前記仮想カメラの前記配向を変更し、
前記3次元環境内の標的場所を決定する標的モジュールと、
前記第1の指の前記位置が前記第2の指の前記位置より下にあるとき、前記第2のユーザ入力に従って、前記仮想カメラの位置を変更するヘリコプタモジュールと、をさらに備え、前記標的場所と前記仮想カメラの前記位置との間の距離は、ほぼ一定のままである、
請求項10に記載のシステム。 - タッチ画面を有するモバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのコンピュータ実装方法であって、
(a)第1の物体が前記モバイルデバイスのタッチ画面上でほぼ静止していることを示す、第1のユーザ入力を受信することと、
(b)第2の物体が前記タッチ画面上を移動したことを示す、第2のユーザ入力を受信することと、
(c)前記3次元環境内の標的場所を決定することと、
(d)前記第2のユーザ入力に従って、前記仮想カメラの位置を変更することであって、前記標的場所と前記仮想カメラの前記位置との間の距離は、ほぼ一定のままである、こととを含む、
方法。 - 前記受信すること(a)は、第1の指が前記タッチ画面上でほぼ静止していることを示す、前記第1のユーザ入力を受信することを含み、
前記受信すること(b)は、第2の指が前記タッチ画面上を移動したことを示す、前記第2のユーザ入力を受信することを含む、
請求項16に記載の方法。 - 前記受信すること(b)は、前記第2の指の運動の方向を受信することを含む、請求項17に記載の方法。
- 前記変更すること(d)は、前記方向が前記モバイルデバイスの左または右側に向かっているとき、前記標的から上向きに方向付けられたベクトルに対する方位角を変更することを含む、請求項18に記載の方法。
- 前記変更すること(d)は、前記方向が前記モバイルデバイスの頂部または底部に向かっているとき、前記標的から上向きに方向付けられたベクトルに対する傾斜を変更することを含む、請求項18に記載の方法。
- (e)前記モバイルデバイスの加速度計から前記モバイルデバイスの配向を受信することと、
(f)前記モバイルデバイスの前記第2の配向に従って、前記仮想カメラの位置を変更することであって、前記標的場所と前記仮想カメラの前記位置との間の距離は、ほぼ一定のままである、ことと、
をさらに含む、請求項17に記載の方法。 - 前記変更すること(d)は、前記第1の指の位置が、最初に前記第2の指の前記位置より上にあるとき、前記仮想カメラの前記位置を変更することを含み、
(e)前記第1の指の前記位置が前記第2の指の前記位置より下にあるとき、前記第2のユーザ入力に従って、前記仮想カメラの配向を変更することをさらに含む、
請求項17に記載の方法。 - 前記決定すること(c)は、前記タッチ画面上の前記第1の指の位置に基づいて、前記標的場所を決定することを含む、請求項17に記載の方法。
- 前記決定すること(c)は、前記第1の指の前記位置がほぼ水平線に近いとき、前記標的場所をダンピングすることをさらに含む、請求項23に記載の方法。
- 前記決定すること(c)は、
(i)前記仮想カメラの位置および前記指の位置に基づいて、射線を延長することと、
(ii)前記標的場所を決定するように、前記射線を前記3次元環境内の3次元モデルと交差させることと、
を含む、請求項17に記載の方法。 - (e)前記第2の入力に基づいて、前記仮想カメラの移動速度を決定することをさらに含み、前記変更すること(d)は、前記第2の物体の移動が完了した後、(e)において決定される前記速度で前記仮想カメラの前記位置を変更することを含む、請求項17に記載の方法。
- (f)前記仮想カメラを徐々に減速することをさらに含む、請求項26に記載の方法。
- モバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのシステムであって、
第1の物体が前記モバイルデバイスのタッチ画面上でほぼ静止していることを示す、第1のユーザ入力、および第2の物体が前記タッチ画面上を移動したことを示す、第2のユーザ入力を受信する、タッチレシーバと、
前記3次元環境内の標的場所を決定する標的モジュールと、
前記第2のユーザ入力に従って、前記仮想カメラの位置を変更するヘリコプタモジュールであって、前記標的場所と前記仮想カメラの前記位置との間の距離は、ほぼ一定のままである、ヘリコプタモジュールとを備える、
システム。 - 前記第1および第2の物体は、指である、請求項28に記載のシステム。
- 前記第2のユーザ入力は、前記第2の指の運動の方向を含む、請求項29に記載のシステム。
- 前記ヘリコプタモジュールは、前記方向が前記モバイルデバイスの左側または右側に向かっているとき、前記標的から上向きに方向付けられたベクトルに対する方位角を変更する、請求項30に記載のシステム。
- 前記ヘリコプタモジュールは、前記方向が前記モバイルデバイスの頂部または底部に向かっているとき、前記標的から上向きに方向付けられたベクトルに対する傾斜を変更する、請求項30に記載のシステム。
-
前記モバイルデバイスの配向を受信する加速度計と、
前記第2のユーザ入力に従って、前記仮想カメラの位置を変更するナビゲーションモジュールであって、前記標的場所と前記仮想カメラの前記位置との間の距離は、ほぼ一定のままである、ナビゲーションモジュールと、
をさらに備える、請求項29に記載のシステム。 - 前記ヘリコプタモジュールは、前記第1の指の前記位置が前記第2の指の前記位置より上にあるとき、前記仮想カメラの前記位置を変更し、
前記第1の指の前記位置が前記第2の指の前記位置より下にあるとき、前記第2のユーザ入力に従って、前記仮想カメラの配向を変更するヘリコプタモジュールをさらに備える、
請求項29に記載のシステム。 - 前記標的モジュールは、前記タッチ画面上の前記第1の指の位置に基づいて、前記標的場所を決定する、請求項29に記載のシステム。
- 前記標的モジュールは、前記第1の指の前記位置が水平線に近いとき、前記標的場所をダンピングする、請求項35に記載のシステム。
- 前記標的モジュールは、前記仮想カメラの位置および前記指の位置に基づいて、射線を延長し、前記標的場所を決定するように、前記射線を前記3次元環境と交差させる、請求項29に記載のシステム。
- タッチ画面を有するモバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのコンピュータ実装方法であって、
(a)第1の物体が前記モバイルデバイスのタッチ画面上でほぼ静止していることを示す、第1のユーザ入力を受信することと、
(b)第2の物体が前記タッチ画面上を移動したことを示す、第2のユーザ入力を受信することと、
(c)前記3次元環境内の標的場所を決定することと、
(d)前記標的場所から上向きに方向付けられたベクトルに対する前記仮想カメラの傾斜値を変更することと、
(e)前記標的場所から上向きに方向付けられたベクトルに対する前記仮想カメラの方位角値を変更することと、
を含む、方法。 - タッチ画面を有するモバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのコンピュータ実装方法であって、
(a)第1の物体がモバイルデバイスのタッチ画面上の第1の点に触れたことを示す、第1のユーザ入力を受信することと、
(b)前記第1の物体が前記画面上の前記第1の点に触れた後、第2の物体が、前記タッチ画面上の前記第2の点に触れたことを示す、第2のユーザ入力を受信することと、
(c)前記第2の点に対する前記第1の点の前記位置に基づいて、複数のナビゲーションモードからナビゲーションモードを決定することと、を含む、方法。 - 前記決定すること(c)は、前記複数のナビゲーションモードから前記ナビゲーションモードを決定することを含み、前記複数のナビゲーションモードは、前記仮想カメラの位置を変更する第1のナビゲーションモード、および前記仮想カメラの配向を変更する第2のナビゲーションモードを含む、請求項39に記載の方法。
- タッチ画面を有するモバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのコンピュータ実装方法であって、
(a)第1の物体がモバイルデバイスのタッチ画面上の第1の点に触れたことを示す、第1のユーザ入力を受信することと、
(b)前記第1の物体が前記画面上の前記第1の点に触れた後、第2の物体が、前記タッチ画面上の前記第2の点に触れたことを示す、第2のユーザ入力を受信することと、
(c)前記第2の点に対する前記第1の点の前記位置に基づいて、複数のナビゲーションモードからナビゲーションモードを決定することと、
を含む、方法。 - タッチ画面を有するモバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのコンピュータ実装方法であって、
(a)2つの物体がモバイルデバイスの前記タッチ画面に触れたこと、および前記2つの物体が前記タッチ画面上をほぼ同じ方向にほぼ同じ距離を移動したことを示す、ユーザ入力を受信することと、
(b)前記タッチ画面上の前記2つの物体の運動を表す、運動データを決定することと、
(c)(b)において決定される前記運動データ従って、前記仮想カメラの配向を変更することと、
を含む、方法。 - 前記決定すること(b)は、前記タッチ画面上の前記2つの物体の運動を表すベクトルを決定することを含む、請求項42に記載の方法。
- 前記変更すること(c)は、
(i)前記モバイルデバイスの左右軸上の前記ベクトルの構成要素に基づいて、前記仮想カメラのヨーを変更することを含む、請求項43に記載の方法。 - 前記変更すること(c)は、
(ii)前記モバイルデバイスの上下軸上の前記ベクトルの構成要素に基づいて、前記仮想カメラのピッチを変更することをさらに含む、請求項44に記載の方法。 - (d)前記モバイルデバイスの配向に基づいて、前記仮想カメラのピッチを変更することをさらに含む、請求項44に記載の方法。
- タッチ画面を有するモバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのコンピュータ実装方法であって、
(a)2つの物体が前記モバイルデバイスの表示に触れたこと、および前記2つの物体が相互に移動したことを示すユーザ入力を受信することと、
(b)前記ユーザ入力に基づいて、前記物体が相互に対して移動した速度を決定することと、
(c)前記物体が相互から離れて移動した前記物体の前記速度に基づいて、前記仮想カメラの速度を決定することと、
(d)(c)において決定される前記仮想カメラの前記速度に従って、前記3次元環境内で前記仮想カメラを移動させることと、
を含む、方法。 - 前記受信すること(a)は、2つの指が前記表示に触れたこと、および前記2つの指が相互に対して移動したことを示す、前記ユーザ入力を受信することを含む、請求項47に記載の方法。
- (e)前記仮想カメラを徐々に減速することをさらに含む、請求項48に記載の方法。
- 前記減速すること(e)は、仮想カメラを減速するように、空気抵抗をシミュレートすることを含む、請求項49に記載の方法。
- 前記移動させること(d)は、前記仮想カメラを平行移動させることを含む、請求項49に記載の方法。
- 前記移動させること(d)は、前記仮想カメラをズームすることを含む、請求項48に記載の方法。
- 前記3次元環境は、地球の3次元モデルを含み、前記移動させること(d)は、地球の前記3次元モデルを回転させることを含む、請求項52に記載の方法。
- (e)前記2つの物体が相互に対して回転したことを示す、ユーザ入力を受信することと、
(f)(e)において受信される前記ユーザ入力に基づいて、前記物体が前記モバイルデバイスに対して回転した角度を決定することと、
(g)(f)において決定される前記角度に従って、前記仮想カメラの前記位置または配向を変更することと、
をさらに含む、請求項47に記載の方法。 - (h)標的場所を決定することをさらに含み、
前記変更すること(g)は、前記仮想カメラの位置と前記標的場所との間の方位角が、(f)において決定される前記角度に従って変化するように、前記仮想カメラを移動させることを含む、
請求項54に記載の方法。 - モバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのシステムであって、
2つの物体が前記モバイルデバイスの表示に触れたこと、および前記2つの物体が相互に対して移動したことを示す、ユーザ入力を受信するタッチレシーバと、
前記ユーザ入力に基づいて前記物体の速度を決定し、前記物体の前記速度に基づいて前記仮想カメラの速度を決定し、前記仮想カメラの前記速度に従って、前記3次元環境に対して前記仮想カメラを移動させる、運動量モジュールと、
を備える、システム。 - 前記2つの物体は、指である、請求項56に記載のシステム。
- 前記運動量モジュールは、前記仮想カメラを徐々に減速する、請求項57に記載のシステム。
- 前記運動量モジュールは、仮想カメラを減速するように、空気抵抗をシミュレートする、請求項58に記載のシステム。
- 運動量モジュールは、前記仮想カメラを平行移動させる、請求項57に記載のシステム。
- 前記運動量モジュールは、前記仮想カメラをズームする、請求項57に記載のシステム。
- 前記3次元環境は、地球の3次元モデルを含み、前記運動量モジュールは、地球の前記3次元モデルを回転させる、請求項57に記載のシステム。
- 前記タッチレシーバは、前記2つの物体が相互に回転したことを示すユーザ入力を受信し、
前記2つの物体が回転したことを示す前記ユーザ入力に基づいて、前記物体が前記モバイルデバイスに対して回転した角度を決定し、前記物体が回転した前記角度に従って、前記仮想カメラの前記位置または配向を変更する、ヘリコプタモジュールをさらに備える、
請求項56に記載のシステム。 - 標的場所を決定する標的モジュールをさらに備え、
前記ヘリコプタモジュールは、前記仮想カメラの位置と前記標的場所との間の方位角が、(f)において決定される前記角度に従って変化するように、前記仮想カメラを移動させる、
請求項63に記載のシステム。 - タッチ画面を有するモバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのコンピュータ実装方法であって、
(a)ユーザが前記モバイルデバイスの表示上の位置を選択したことを示す、ユーザ入力を受信することと、
(b)前記ユーザによって選択される前記モバイルデバイスの前記表示の前記位置に基づいて、標的場所を決定することと、
(c)前記3次元環境内の前記仮想カメラを前記標的場所に向かって移動させることと、
(d)前記3次元環境内の前記仮想カメラを前記標的場所に向かって回転させることと、
を含む、方法。 - 前記受信すること(a)は、前記ユーザが前記モバイルデバイスの前記表示上の前記位置をダブルタップしたことを示す、ユーザ入力を受信することを含む、請求項65に記載の方法。
- 前記回転させること(d)は、前記標的場所が前記表示のほぼ中心に現れるように、前記仮想カメラを配向することを含む、請求項65に記載の方法。
- 前記回転させること(d)は、前記仮想カメラのヨーを変更することを含む、請求項65に記載の方法。
- 前記決定すること(b)は、前記ユーザによって選択される前記位置が水平線に近いとき、前記標的場所をダンピングすることをさらに含む、請求項65に記載の方法。
- 前記決定すること(b)は、
(i)前記仮想カメラの位置および前記指の位置に基づいて、射線を延長することと、
(ii)前記標的場所を決定するように、前記射線を前記3次元環境と交差させることと、
を含む、請求項65に記載の方法。 - 前記移動させること(c)は、仮想カメラを移動させながら、前記仮想カメラのロールを変更することを含む、請求項65に記載の方法。
- モバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのシステムであって、
ユーザが前記モバイルデバイスの表示上の位置を選択したことを示す、ユーザ入力を受信するタッチレシーバと、
前記ユーザによって選択される前記モバイルデバイスの前記表示の前記位置に基づいて、標的場所を決定する標的モジュールと、
前記標的場所に向かって、前記3次元環境内の前記仮想カメラを移動させ、前記標的場所に向かって、前記3次元環境内の前記仮想カメラを回転させる、角度ジャンプモジュールと、
を備える、システム。 - 前記ユーザ入力は、前記ユーザが前記モバイルデバイスの前記表示上の前記位置をダブルタップしたことを示す、請求項72に記載のシステム。
- 前記角度ジャンプモジュールは、前記標的場所が前記表示のほぼ中心に現れるように、前記仮想カメラを配向する、請求項72に記載のシステム。
- 前記角度ジャンプモジュールは、前記仮想カメラのヨーを変更する、請求項72に記載のシステム。
- 前記標的モジュールは、前記ユーザによって選択される前記表示の前記位置に基づいて、前記標的場所を決定する、請求項72に記載のシステム。
- 前記標的モジュールは、前記仮想カメラの位置および前記指の位置に基づいて、射線を延長し、前記標的場所を決定するように、前記射線を前記3次元環境と交差させる、請求項72に記載のシステム。
- 前記標的モジュールは、前記仮想カメラの位置および前記指の位置に基づいて、射線を延長し、前記標的場所を決定するように、前記射線を前記3次元環境と交差させる、請求項72に記載のシステム。
- 前記角度ジャンプモジュールは、仮想カメラの運動中に前記仮想カメラのロールを変更する、請求項72に記載のシステム。
- タッチ画面を有するモバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのコンピュータ実装方法であって、
(a)物体が前記モバイルデバイスの画面上の第1の点に触れたこと、および前記物体が前記タッチ画面上の第2の点にドラッグされたことを示すユーザ入力を受信することと、
(b)前記タッチ画面上の前記第1の点に基づいて、前記3次元環境内の第1の標的場所を決定することと、
(c)前記タッチ画面上の前記第2の点に基づいて、前記3次元環境内の第2の標的場所を決定することと、
(d)前記第1および第2の標的場所に従って、前記仮想カメラに対して前記3次元環境内の3次元モデルを移動させることと、
を含む、方法。 - 前記決定すること(b)は、
(i)前記仮想カメラの位置および前記タッチ画面上の前記第1の位置に基づいて、射線を延長することと、
(ii)前記第1の標的場所を決定するように、前記射線を前記3次元環境内の3次元モデルと交差させることと、を含む、請求項80に記載の方法。 - (e)前記第1の標的場所に基づいて、仮想表面を決定することをさらに含む、請求項81に記載の方法。
- 前記決定すること(c)は、
(i)前記仮想カメラの位置および前記タッチ画面上の前記第2の位置に基づいて、射線を延長することと、
(ii)前記第2の標的場所を決定するように、前記射線を前記3次元環境と交差させることと、
を含む、請求項82に記載の方法。 - 前記決定すること(e)は、前記仮想表面を決定するように、前記第1の標的場所に接線し、かつ前記3次元モデルの中心に中心がある、球体を作図することを含む、請求項83に記載の方法。
- 前記移動させること(d)は、前記3次元モデルを回転させることを含む、請求項80に記載の方法。
- (e)回転軸を決定するように、前記第1および第2の標的場所のクロス積を決定することと、
(e)回転角度を決定するように、前記第1および第2の標的場所のドット積を決定することと、をさらに含む、
請求項85に記載の方法。 - (g)前記回転軸および前記回転角度に基づいて、回転行列を決定することをさらに含み、
前記移動させること(d)は、前記回転行列に従って、前記3次元モデルを回転させることをさらに含む、請求項86に記載の方法。 - モバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのシステムであって、
物体が前記モバイルデバイスのタッチ画面上の第1の点に触れたこと、および前記物体が前記タッチ画面上の第2の点にドラッグされたことを示す、ユーザ入力を受信するタッチレシーバと、
前記タッチ画面上の前記第1の点に基づいて前記3次元環境内の第1の標的場所を決定し、前記タッチ画面上の前記第2の点に基づいて前記3次元環境内の第2の標的場所を決定する、標的モジュールと、
前記第1および第2の標的場所に従って、前記仮想カメラに対して前記3次元環境内の3次元モデルを移動させるパンモジュールと、
を備える、システム。 - 前記標的モジュールは、前記仮想カメラの位置および前記タッチ画面上の前記第1の点に基づいて、射線を延長し、前記第1の標的場所を決定するように、前記射線を3次元モデルと交差させる、請求項88に記載のシステム。
- 前記パンモジュールは、前記第1の標的場所に基づいて、仮想表面を決定する、請求項89に記載のシステム。
- 前記標的モジュールは、前記仮想カメラの位置および前記タッチ画面上の前記第2の点に基づいて、射線を延長し、前記第2の標的場所を決定するように、前記射線を前記仮想表面と交差させる、請求項90に記載のシステム。
- 前記仮想表面は、前記第1の標的場所に接線し、かつ前記3次元モデルの中心に中心がある、球体である、請求項91に記載のシステム。
- 前記パンモジュールは、前記3次元モデルを回転させる、請求項92に記載のシステム。
- 前記パンモジュールは、回転軸を決定するように、前記第1および第2の標的場所のクロス積を決定し、回転角度を決定するように、前記第1および第2の標的場所のドット積を決定する、請求項93に記載のシステム。
- 前記パンモジュールは、前記回転軸および前記回転角度に基づいて、回転行列を決定し、前記回転行列に従って、前記3次元モデルを回転させる、請求項94に記載のシステム。
- タッチ画面を有するモバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのコンピュータ実装方法であって、
(a)物体が前記モバイルデバイスの画面上の第1の点に触れたこと、および前記物体が前記タッチ画面上の第2の点にドラッグされたことを示す、ユーザ入力を受信することと、
(b)前記モバイルデバイスの配向を受信することと、
(c)前記モバイルデバイスの前記配向に基づいて、複数のパンニングモードからパンニングモードを決定することと、
を含む、方法。 - 前記決定すること(c)は、前記モバイルデバイスの前記配向が下向きに面しているとき、第1のパンニングモードを選択することと、前記モバイルデバイスの前記配向が水平線に向かって面しているとき、第2のパンニングモードを選択することとを含む、請求項96に記載の方法。
- (d)前記第2のパンニングモードが(c)において決定されるとき、前記物体を辿るように3次元モデルを移動させることをさらに含む、請求項97に記載の方法。
- 前記第1のパンニングモードが(c)において決定されるとき、前記タッチ画面上で前記物体の移動を上方または下方に辿るように3次元モデルを移動させることと、
(e)前記第1のパンニングモードが(c)において決定されるとき、前記タッチ画面の左側または右側の前記物体の移動に従って、前記仮想カメラの配向を変更することと、
をさらに含む、請求項98に記載の方法。 - モバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのコンピュータ実装方法であって、
(a)前記モバイルデバイスの配向情報を受信することと、
(b)前記配向情報に従って、前記3次元環境内で前記仮想カメラを配向することと、を含む、方法。 - 前記受信すること(a)は、重力に対する前記モバイルデバイスの配向を受信することを含む、請求項100に記載の方法。
- 前記配向すること(b)は、重力に対する前記モバイルデバイスの前記配向に従って、仮想カメラのピッチを変更することを含む、請求項101に記載の方法。
- 前記受信すること(a)は、前記モバイルデバイスの機首方位を受信することを含み、前記配向すること(b)は、前記モバイルデバイスの前記機首方位に従って、仮想カメラのヨーを変更することを含む、請求項100に記載の方法。
- (c)前記モバイルデバイスの場所を受信することと、
(d)前記モバイルデバイスの前記場所に従って、前記仮想カメラを位置付けることと、を含む、請求項100に記載の方法。 - (e)前記モバイルデバイスを追跡するようにこと(a)から(d)を繰り返すことをさらに含む、請求項104に記載の方法。
- 前記3次元環境は、地球の3次元モデルを含む、請求項105に記載の方法。
- モバイルデバイス上の3次元環境内で仮想カメラをナビゲートするためのシステムであって、
前記モバイルデバイスの配向情報を受信するセンサと、
前記配向情報に従って、前記3次元環境内で前記仮想カメラを配向するナビゲーションモジュールと、
を備える、システム。 - 前記センサは、重力に対する前記モバイルデバイスの配向を受信する、請求項107に記載のシステム。
- 前記ナビゲーションモデルは、重力に対する前記モバイルデバイスの前記配向に従って、仮想カメラのピッチを変更する、請求項108に記載のシステム。
- 前記センサは、前記モバイルデバイスの機首方位を受信し、前記ナビゲーションモデルは、前記モバイルデバイスの前記機首方位に従って、仮想カメラのヨーを変更する、請求項107に記載のシステム。
- 前記モバイルデバイスの場所を受信する、場所レシーバをさらに備え、
前記ナビゲーションモジュールは、前記モバイルデバイスの前記場所に従って、前記仮想カメラを位置付ける、
請求項107に記載のシステム。 - 前記3次元環境は、地球の3次元モデルを含む、請求項111に記載のシステム。
- 前記ナビゲーションモジュールは、前記地球の前記3次元モデル内で前記モバイルデバイスを追跡する、請求項112に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US9123408P | 2008-08-22 | 2008-08-22 | |
US61/091,234 | 2008-08-22 | ||
PCT/US2009/054727 WO2010022386A2 (en) | 2008-08-22 | 2009-08-24 | Navigation in a three dimensional environment on a mobile device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012501016A true JP2012501016A (ja) | 2012-01-12 |
Family
ID=41695929
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011524067A Pending JP2012501016A (ja) | 2008-08-22 | 2009-08-24 | モバイルデバイス上の3次元環境内でのナビゲーション |
Country Status (8)
Country | Link |
---|---|
US (7) | US9310992B2 (ja) |
EP (1) | EP2327010A2 (ja) |
JP (1) | JP2012501016A (ja) |
KR (1) | KR101665034B1 (ja) |
CN (3) | CN111522493A (ja) |
AU (1) | AU2009282724B2 (ja) |
CA (1) | CA2734987A1 (ja) |
WO (1) | WO2010022386A2 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014511534A (ja) * | 2011-03-02 | 2014-05-15 | ザ・ボーイング・カンパニー | 多入力インタフェースを用いて三次元環境を航行するためのシステムおよび方法 |
JP2016502171A (ja) * | 2012-10-16 | 2016-01-21 | ジョン、ジェ ウンJEON, Jae Woong | 3次元の仮想空間内で仮想カメラを制御するための方法、システムおよびコンピュータ読取可能な記録媒体 |
JP2016193216A (ja) * | 2016-06-20 | 2016-11-17 | 株式会社スクウェア・エニックス | ビデオゲーム処理装置、ビデオゲーム処理方法、及びビデオゲーム処理プログラム |
JP2018526716A (ja) * | 2015-06-16 | 2018-09-13 | ノキア テクノロジーズ オーユー | 媒介現実 |
JP2019037877A (ja) * | 2018-12-13 | 2019-03-14 | 株式会社スクウェア・エニックス | ビデオゲーム処理装置、ビデオゲーム処理方法、及びビデオゲーム処理プログラム |
JP2020113314A (ja) * | 2020-03-25 | 2020-07-27 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 |
JP2020534592A (ja) * | 2017-09-19 | 2020-11-26 | キヤノン株式会社 | 仮想カメラを制御するシステム及び方法 |
WO2021020143A1 (ja) * | 2019-07-30 | 2021-02-04 | ソニー株式会社 | 画像処理装置、画像処理方法、及び記録媒体 |
JP2022505457A (ja) * | 2019-01-30 | 2022-01-14 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | 仮想環境において建築物を建設する方法、装置、機器及びプログラム |
Families Citing this family (199)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9286941B2 (en) | 2001-05-04 | 2016-03-15 | Legend3D, Inc. | Image sequence enhancement and motion picture project management system |
US8239132B2 (en) * | 2008-01-22 | 2012-08-07 | Maran Ma | Systems, apparatus and methods for delivery of location-oriented information |
CA2725542C (en) * | 2008-05-28 | 2016-12-13 | Google Inc. | Motion-controlled views on mobile computing devices |
US9310992B2 (en) | 2008-08-22 | 2016-04-12 | Google Inc. | Panning in a three dimensional environment on a mobile device |
US20100053151A1 (en) * | 2008-09-02 | 2010-03-04 | Samsung Electronics Co., Ltd | In-line mediation for manipulating three-dimensional content on a display device |
US20100088632A1 (en) * | 2008-10-08 | 2010-04-08 | Research In Motion Limited | Method and handheld electronic device having dual mode touchscreen-based navigation |
US8294766B2 (en) | 2009-01-28 | 2012-10-23 | Apple Inc. | Generating a three-dimensional model using a portable electronic device recording |
US8108147B1 (en) * | 2009-02-06 | 2012-01-31 | The United States Of America As Represented By The Secretary Of The Navy | Apparatus and method for automatic omni-directional visual motion-based collision avoidance |
US20100223093A1 (en) * | 2009-02-27 | 2010-09-02 | Hubbard Robert B | System and method for intelligently monitoring subscriber's response to multimedia content |
US9007379B1 (en) * | 2009-05-29 | 2015-04-14 | Two Pic Mc Llc | Methods and apparatus for interactive user control of virtual cameras |
US8933925B2 (en) * | 2009-06-15 | 2015-01-13 | Microsoft Corporation | Piecewise planar reconstruction of three-dimensional scenes |
US8723988B2 (en) * | 2009-07-17 | 2014-05-13 | Sony Corporation | Using a touch sensitive display to control magnification and capture of digital images by an electronic device |
CN101996021B (zh) * | 2009-08-12 | 2013-02-13 | 幻音科技(深圳)有限公司 | 手持式电子设备及其控制显示内容的方法 |
JP5304544B2 (ja) * | 2009-08-28 | 2013-10-02 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
KR20110026066A (ko) * | 2009-09-07 | 2011-03-15 | 삼성전자주식회사 | 휴대용 단말기에서 화면 상태를 전환시키기 위한 장치 및 방법 |
JP5464955B2 (ja) * | 2009-09-29 | 2014-04-09 | 株式会社ソニー・コンピュータエンタテインメント | パノラマ画像表示装置 |
US8814686B2 (en) | 2010-02-03 | 2014-08-26 | Nintendo Co., Ltd. | Display device, game system, and game method |
EP2392391B1 (en) | 2010-02-03 | 2017-06-28 | Nintendo Co. Ltd. | Display device, game system, and game processing method |
US8913009B2 (en) | 2010-02-03 | 2014-12-16 | Nintendo Co., Ltd. | Spatially-correlated multi-display human-machine interface |
US8339364B2 (en) | 2010-02-03 | 2012-12-25 | Nintendo Co., Ltd. | Spatially-correlated multi-display human-machine interface |
US20110199386A1 (en) * | 2010-02-12 | 2011-08-18 | Honeywell International Inc. | Overlay feature to provide user assistance in a multi-touch interactive display environment |
US8570286B2 (en) * | 2010-02-12 | 2013-10-29 | Honeywell International Inc. | Gestures on a touch-sensitive display |
US8638371B2 (en) * | 2010-02-12 | 2014-01-28 | Honeywell International Inc. | Method of manipulating assets shown on a touch-sensitive display |
US8516063B2 (en) | 2010-02-12 | 2013-08-20 | Mary Anne Fletcher | Mobile device streaming media application |
US20110199516A1 (en) * | 2010-02-12 | 2011-08-18 | Honeywell International Inc. | Method of showing video on a touch-sensitive display |
EP2362302B1 (en) * | 2010-02-26 | 2018-06-06 | Alcatel Lucent | Method for controlling motions of an object in a 3-dimensional virtual environment |
JP2011197777A (ja) * | 2010-03-17 | 2011-10-06 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
US8756522B2 (en) * | 2010-03-19 | 2014-06-17 | Blackberry Limited | Portable electronic device and method of controlling same |
US8937592B2 (en) * | 2010-05-20 | 2015-01-20 | Samsung Electronics Co., Ltd. | Rendition of 3D content on a handheld device |
WO2011145469A1 (ja) * | 2010-05-21 | 2011-11-24 | 日本電気株式会社 | タッチパネルの指示位置確定装置、タッチパネル装置、それを備えた電子機器、タッチパネルの指示位置確定方法およびコンピュータプログラム記憶媒体 |
US8378985B2 (en) * | 2010-05-26 | 2013-02-19 | Sony Mobile Communications Ab | Touch interface for three-dimensional display control |
US20110298887A1 (en) * | 2010-06-02 | 2011-12-08 | Maglaque Chad L | Apparatus Using an Accelerometer to Capture Photographic Images |
US8640020B2 (en) * | 2010-06-02 | 2014-01-28 | Microsoft Corporation | Adjustable and progressive mobile device street view |
US20120326975A1 (en) * | 2010-06-03 | 2012-12-27 | PixArt Imaging Incorporation, R.O.C. | Input device and input method |
US8977987B1 (en) | 2010-06-14 | 2015-03-10 | Google Inc. | Motion-based interface control on computing device |
JP2012002568A (ja) * | 2010-06-15 | 2012-01-05 | Brother Ind Ltd | ナビゲーションシステム、携帯機器及び携帯機器用プログラム |
US8907943B2 (en) * | 2010-07-07 | 2014-12-09 | Apple Inc. | Sensor based display environment |
KR20120005124A (ko) * | 2010-07-08 | 2012-01-16 | 삼성전자주식회사 | 휴대용 단말기에서 움직임에 따른 동작을 수행하기 위한 장치 및 방법 |
US9626786B1 (en) | 2010-07-19 | 2017-04-18 | Lucasfilm Entertainment Company Ltd. | Virtual-scene control device |
KR101259598B1 (ko) * | 2010-07-30 | 2013-04-30 | 주식회사 팬택 | 로드뷰 제공 장치 및 방법 |
JP6243586B2 (ja) | 2010-08-06 | 2017-12-06 | 任天堂株式会社 | ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法 |
US8451192B2 (en) | 2010-08-13 | 2013-05-28 | T-Mobile Usa, Inc. | Utilization of interactive device-adjacent ambiently displayed images |
US8449118B2 (en) * | 2010-08-13 | 2013-05-28 | T-Mobile Usa, Inc. | Device-adjacent ambiently displayed image |
JP6184658B2 (ja) | 2010-08-20 | 2017-08-23 | 任天堂株式会社 | ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法 |
US10150033B2 (en) | 2010-08-20 | 2018-12-11 | Nintendo Co., Ltd. | Position calculation system, position calculation device, storage medium storing position calculation program, and position calculation method |
JP5840386B2 (ja) | 2010-08-30 | 2016-01-06 | 任天堂株式会社 | ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法 |
JP5840385B2 (ja) | 2010-08-30 | 2016-01-06 | 任天堂株式会社 | ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法 |
JP5664036B2 (ja) | 2010-09-07 | 2015-02-04 | ソニー株式会社 | 情報処理装置、プログラム及び制御方法 |
JP5609508B2 (ja) * | 2010-10-04 | 2014-10-22 | 富士通株式会社 | オブジェクト操作装置、オブジェクト操作方法、およびオブジェクト操作プログラム |
DE102010047779A1 (de) | 2010-10-08 | 2012-04-12 | Hicat Gmbh | Computer und Verfahren zur visuellen Navigation in einem dreidimensionalen Bilddatensatz |
GB2487039A (en) * | 2010-10-11 | 2012-07-11 | Michele Sciolette | Visualizing Illustrated Books And Comics On Digital Devices |
US8780174B1 (en) | 2010-10-12 | 2014-07-15 | The Boeing Company | Three-dimensional vision system for displaying images taken from a moving vehicle |
US9001053B2 (en) * | 2010-10-28 | 2015-04-07 | Honeywell International Inc. | Display system for controlling a selector symbol within an image |
US9026359B2 (en) * | 2010-11-01 | 2015-05-05 | Nokia Corporation | Visually representing a three-dimensional environment |
KR101492310B1 (ko) | 2010-11-01 | 2015-02-11 | 닌텐도가부시키가이샤 | 조작 장치 및 정보 처리 장치 |
US9342998B2 (en) | 2010-11-16 | 2016-05-17 | Microsoft Technology Licensing, Llc | Techniques to annotate street view images with contextual information |
US8380427B2 (en) | 2010-12-03 | 2013-02-19 | Google Inc. | Showing realistic horizons on mobile computing devices |
US20120194556A1 (en) * | 2011-01-28 | 2012-08-02 | L3 Communications Avionics Systems, Inc. | 3d avionics viewpoint control system |
US8791911B2 (en) | 2011-02-09 | 2014-07-29 | Robotzone, Llc | Multichannel controller |
US9288476B2 (en) | 2011-02-17 | 2016-03-15 | Legend3D, Inc. | System and method for real-time depth modification of stereo images of a virtual reality environment |
US9407904B2 (en) | 2013-05-01 | 2016-08-02 | Legend3D, Inc. | Method for creating 3D virtual reality from 2D images |
US9241147B2 (en) | 2013-05-01 | 2016-01-19 | Legend3D, Inc. | External depth map transformation method for conversion of two-dimensional images to stereoscopic images |
US9282321B2 (en) | 2011-02-17 | 2016-03-08 | Legend3D, Inc. | 3D model multi-reviewer system |
JP5792971B2 (ja) | 2011-03-08 | 2015-10-14 | 任天堂株式会社 | 情報処理システム、情報処理プログラム、および情報処理方法 |
EP2497543A3 (en) | 2011-03-08 | 2012-10-03 | Nintendo Co., Ltd. | Information processing program, information processing system, and information processing method |
US9539511B2 (en) | 2011-03-08 | 2017-01-10 | Nintendo Co., Ltd. | Computer-readable storage medium, information processing system, and information processing method for operating objects in a virtual world based on orientation data related to an orientation of a device |
EP2497544A3 (en) | 2011-03-08 | 2012-10-03 | Nintendo Co., Ltd. | Information processing program, information processing system, and information processing method |
EP2497547B1 (en) | 2011-03-08 | 2018-06-27 | Nintendo Co., Ltd. | Information processing program, information processing apparatus, information processing system, and information processing method |
EP2497546A3 (en) | 2011-03-08 | 2012-10-03 | Nintendo Co., Ltd. | Information processing program, information processing system, and information processing method |
US8836802B2 (en) | 2011-03-21 | 2014-09-16 | Honeywell International Inc. | Method of defining camera scan movements using gestures |
WO2016057997A1 (en) * | 2014-10-10 | 2016-04-14 | Pantomime Corporation | Support based 3d navigation |
GB2489685B (en) * | 2011-03-31 | 2017-01-25 | Geovs Ltd | A Display System |
JP5689014B2 (ja) | 2011-04-07 | 2015-03-25 | 任天堂株式会社 | 入力システム、情報処理装置、情報処理プログラム、および3次元位置算出方法 |
US8760275B2 (en) * | 2011-04-15 | 2014-06-24 | Avaya Inc. | Obstacle warning system and method |
JP5918618B2 (ja) | 2011-06-03 | 2016-05-18 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 |
JP5591281B2 (ja) * | 2011-06-03 | 2014-09-17 | 任天堂株式会社 | 情報処理システム、情報処理装置、情報処理プログラム、および動画再生制御方法 |
US8675049B2 (en) * | 2011-06-09 | 2014-03-18 | Microsoft Corporation | Navigation model to render centered objects using images |
US9390617B2 (en) | 2011-06-10 | 2016-07-12 | Robotzone, Llc | Camera motion control system with variable autonomy |
US9508002B2 (en) * | 2011-06-14 | 2016-11-29 | Google Inc. | Generating cinematic flyby sequences following paths and GPS tracks |
US8914037B2 (en) | 2011-08-11 | 2014-12-16 | Qualcomm Incorporated | Numerically stable computation of heading without a reference axis |
TWI475471B (zh) * | 2011-09-19 | 2015-03-01 | Acer Inc | 利用觸控螢幕輔助視訊壓縮的方法及監控系統 |
JP2013084029A (ja) * | 2011-10-06 | 2013-05-09 | Sony Corp | 表示制御装置 |
JP5160680B1 (ja) * | 2011-10-26 | 2013-03-13 | 株式会社コナミデジタルエンタテインメント | 画像処理装置、画像処理装置の制御方法、及びプログラム |
WO2013060085A1 (en) * | 2011-10-27 | 2013-05-02 | The Hong Kong University Of Science And Technology | System and method for constrained manipulations of 3d objects by multitouch inputs |
US9026951B2 (en) * | 2011-12-21 | 2015-05-05 | Apple Inc. | Device, method, and graphical user interface for selection of views in a three-dimensional map based on gesture inputs |
US9335888B2 (en) | 2011-12-27 | 2016-05-10 | Intel Corporation | Full 3D interaction on mobile devices |
US9208698B2 (en) * | 2011-12-27 | 2015-12-08 | Apple Inc. | Device, method, and graphical user interface for manipulating a three-dimensional map view based on a device orientation |
US10191641B2 (en) | 2011-12-29 | 2019-01-29 | Apple Inc. | Device, method, and graphical user interface for navigation of information in a map-based interface |
US9124800B2 (en) * | 2012-02-13 | 2015-09-01 | Htc Corporation | Auto burst image capture method applied to a mobile device, method for tracking an object applied to a mobile device, and related mobile device |
US9594487B2 (en) | 2012-02-27 | 2017-03-14 | Autodesk, Inc | Systems and methods for manipulating a 3D object in a 3D model using a software widget and surface constraints |
US8626434B1 (en) * | 2012-03-01 | 2014-01-07 | Google Inc. | Automatic adjustment of a camera view for a three-dimensional navigation system |
US8630458B2 (en) * | 2012-03-21 | 2014-01-14 | Google Inc. | Using camera input to determine axis of rotation and navigation |
JP5959047B2 (ja) * | 2012-04-04 | 2016-08-02 | 任天堂株式会社 | 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置 |
TW201343227A (zh) * | 2012-04-25 | 2013-11-01 | Fu Li Ye Internat Corp | 具有觸控面板裝置媒體的互動遊戲控制方法 |
US8983778B2 (en) | 2012-06-05 | 2015-03-17 | Apple Inc. | Generation of intersection information by a mapping service |
US9200919B2 (en) * | 2012-06-05 | 2015-12-01 | Apple Inc. | Method, system and apparatus for selectively obtaining map image data according to virtual camera velocity |
US9886794B2 (en) | 2012-06-05 | 2018-02-06 | Apple Inc. | Problem reporting in maps |
US9092900B2 (en) * | 2012-06-05 | 2015-07-28 | Google Inc. | Terrain-based virtual camera tilting, and applications thereof |
US9418672B2 (en) | 2012-06-05 | 2016-08-16 | Apple Inc. | Navigation application with adaptive instruction text |
US10176633B2 (en) | 2012-06-05 | 2019-01-08 | Apple Inc. | Integrated mapping and navigation application |
US9311750B2 (en) * | 2012-06-05 | 2016-04-12 | Apple Inc. | Rotation operations in a mapping application |
US9230556B2 (en) | 2012-06-05 | 2016-01-05 | Apple Inc. | Voice instructions during navigation |
US9482296B2 (en) | 2012-06-05 | 2016-11-01 | Apple Inc. | Rendering road signs during navigation |
US8965696B2 (en) | 2012-06-05 | 2015-02-24 | Apple Inc. | Providing navigation instructions while operating navigation application in background |
US9159153B2 (en) | 2012-06-05 | 2015-10-13 | Apple Inc. | Method, system and apparatus for providing visual feedback of a map view change |
US9997069B2 (en) | 2012-06-05 | 2018-06-12 | Apple Inc. | Context-aware voice guidance |
EP2859535A4 (en) * | 2012-06-06 | 2016-01-20 | Google Inc | SYSTEM AND METHOD FOR PROVIDING CONTENTS FOR A RELEVANT POINT |
US10127722B2 (en) | 2015-06-30 | 2018-11-13 | Matterport, Inc. | Mobile capture visualization incorporating three-dimensional and two-dimensional imagery |
US10163261B2 (en) | 2014-03-19 | 2018-12-25 | Matterport, Inc. | Selecting two-dimensional imagery data for display within a three-dimensional model |
US9786097B2 (en) | 2012-06-22 | 2017-10-10 | Matterport, Inc. | Multi-modal method for interacting with 3D models |
US10139985B2 (en) | 2012-06-22 | 2018-11-27 | Matterport, Inc. | Defining, displaying and interacting with tags in a three-dimensional model |
KR20150034255A (ko) | 2012-07-15 | 2015-04-02 | 애플 인크. | 3d 상호작용을 위한 멀티터치 제스처 인식의 명확화 |
US9021387B2 (en) | 2012-07-31 | 2015-04-28 | Hewlett-Packard Development Company, L.P. | Re-sizing user interface object on touch sensitive display |
US9025860B2 (en) | 2012-08-06 | 2015-05-05 | Microsoft Technology Licensing, Llc | Three-dimensional object browsing in documents |
GB2505404B (en) * | 2012-08-07 | 2016-08-31 | Samsung Electronics Co Ltd | Portable apparatus with a GUI |
US9507513B2 (en) | 2012-08-17 | 2016-11-29 | Google Inc. | Displaced double tap gesture |
US8777743B2 (en) * | 2012-08-31 | 2014-07-15 | DeNA Co., Ltd. | System and method for facilitating interaction with a virtual space via a touch sensitive surface |
US9886795B2 (en) * | 2012-09-05 | 2018-02-06 | Here Global B.V. | Method and apparatus for transitioning from a partial map view to an augmented reality view |
US20150040073A1 (en) * | 2012-09-24 | 2015-02-05 | Google Inc. | Zoom, Rotate, and Translate or Pan In A Single Gesture |
US10492053B2 (en) * | 2012-10-01 | 2019-11-26 | Scott R. Copeland | System for a monitored and reconstructible personal rendezvous session |
US10178188B2 (en) * | 2012-10-01 | 2019-01-08 | Scott R. Copeland | System for a monitored and reconstructible personal rendezvous session |
US20140109016A1 (en) * | 2012-10-16 | 2014-04-17 | Yu Ouyang | Gesture-based cursor control |
US9547937B2 (en) | 2012-11-30 | 2017-01-17 | Legend3D, Inc. | Three-dimensional annotation system and method |
CN103853471B (zh) * | 2012-12-03 | 2017-05-10 | 昆达电脑科技(昆山)有限公司 | 基于用户触控行为的地图显示方法 |
US9606709B2 (en) | 2012-12-27 | 2017-03-28 | Google Inc. | System and method for geographic data layer management in a geographic information system |
US10140765B2 (en) | 2013-02-25 | 2018-11-27 | Google Llc | Staged camera traversal for three dimensional environment |
US9773346B1 (en) * | 2013-03-12 | 2017-09-26 | Amazon Technologies, Inc. | Displaying three-dimensional virtual content |
US20140267600A1 (en) * | 2013-03-14 | 2014-09-18 | Microsoft Corporation | Synth packet for interactive view navigation of a scene |
US9712746B2 (en) | 2013-03-14 | 2017-07-18 | Microsoft Technology Licensing, Llc | Image capture and ordering |
US9007404B2 (en) * | 2013-03-15 | 2015-04-14 | Legend3D, Inc. | Tilt-based look around effect image enhancement method |
GB2512628A (en) * | 2013-04-04 | 2014-10-08 | Sony Corp | Method and apparatus |
US9438878B2 (en) | 2013-05-01 | 2016-09-06 | Legend3D, Inc. | Method of converting 2D video to 3D video using 3D object models |
US9417835B2 (en) | 2013-05-10 | 2016-08-16 | Google Inc. | Multiplayer game for display across multiple devices |
US9786075B2 (en) * | 2013-06-07 | 2017-10-10 | Microsoft Technology Licensing, Llc | Image extraction and image-based rendering for manifolds of terrestrial and aerial visualizations |
US9329750B2 (en) * | 2013-09-10 | 2016-05-03 | Google Inc. | Three-dimensional tilt and pan navigation using a single gesture |
WO2015066560A1 (en) * | 2013-11-01 | 2015-05-07 | InvenSense, Incorporated | Systems and methods for optical sensor navigation |
WO2015089451A1 (en) * | 2013-12-14 | 2015-06-18 | Handscape Inc. | Method for detecting user gestures from alternative touchpads of a handheld computerized device |
ITCO20130068A1 (it) * | 2013-12-18 | 2015-06-19 | Nu Tech S A S Di De Michele Marco & Co | Metodo per fornire comandi d'utente ad un elaboratore elettronico e relativi programma per elaborare e circuito elettronico. |
TWI497188B (zh) * | 2014-02-14 | 2015-08-21 | Dayu Optoelectronics Co Ltd | 立體影像產生方法及立體影像攝像裝置 |
CN104849953B (zh) * | 2014-02-19 | 2017-09-12 | 大昱光电股份有限公司 | 立体影像产生方法及立体影像摄像装置 |
US9851880B2 (en) * | 2014-03-14 | 2017-12-26 | Adobe Systems Incorporated | Image rotation based on touch gestures |
EP3130994A4 (en) * | 2014-04-07 | 2018-01-03 | Sony Corporation | Display control device, display control method, and program |
US9332285B1 (en) | 2014-05-28 | 2016-05-03 | Lucasfilm Entertainment Company Ltd. | Switching modes of a media content item |
AU2015270559A1 (en) * | 2014-06-02 | 2016-11-24 | Apelab Sarl | A method and system for providing interactivity within a virtual environment |
CN106415671B (zh) | 2014-06-03 | 2020-05-19 | 苹果公司 | 用于呈现与真实对象相关的数字信息的方法和*** |
US9575564B2 (en) * | 2014-06-17 | 2017-02-21 | Chief Architect Inc. | Virtual model navigation methods and apparatus |
US9595130B2 (en) * | 2014-06-17 | 2017-03-14 | Chief Architect Inc. | Virtual model navigation methods and apparatus |
US9589354B2 (en) | 2014-06-17 | 2017-03-07 | Chief Architect Inc. | Virtual model viewing methods and apparatus |
US10724864B2 (en) | 2014-06-17 | 2020-07-28 | Chief Architect Inc. | Step detection methods and apparatus |
US9726463B2 (en) | 2014-07-16 | 2017-08-08 | Robtozone, LLC | Multichannel controller for target shooting range |
US9430142B2 (en) | 2014-07-17 | 2016-08-30 | Facebook, Inc. | Touch-based gesture recognition and application navigation |
US10007419B2 (en) | 2014-07-17 | 2018-06-26 | Facebook, Inc. | Touch-based gesture recognition and application navigation |
FR3028330B1 (fr) * | 2014-11-07 | 2017-12-08 | Thales Sa | Procede et dispositif de changement de point de vue d'une carte 3d ou d'une image d'un objet physique 3d par reconnaissance d'une gestuelle sur ecran tactile |
CN104680588B (zh) * | 2015-02-13 | 2017-11-24 | 上海同筑信息科技有限公司 | 基于bim的事件标示方法和*** |
CN104965653A (zh) * | 2015-06-15 | 2015-10-07 | 联想(北京)有限公司 | 一种控制方法及电子设备 |
US9679413B2 (en) | 2015-08-13 | 2017-06-13 | Google Inc. | Systems and methods to transition between viewpoints in a three-dimensional environment |
US11504623B2 (en) * | 2015-08-17 | 2022-11-22 | Lego A/S | Method of creating a virtual game environment and interactive game system employing the method |
TW201710646A (zh) * | 2015-09-02 | 2017-03-16 | 湯姆生特許公司 | 描繪大視場內容一部份時,決定導航資訊之方法和裝置,以及大視場內容描繪器 |
US9609307B1 (en) | 2015-09-17 | 2017-03-28 | Legend3D, Inc. | Method of converting 2D video to 3D video using machine learning |
CN105915877A (zh) * | 2015-12-27 | 2016-08-31 | 乐视致新电子科技(天津)有限公司 | 一种三维视频的自由观影方法及设备 |
FR3046229A1 (fr) * | 2015-12-29 | 2017-06-30 | Thales Sa | Procede de representation graphique d'une vue synthetique tridimensionnelle du paysage exterieur dans un systeme de visualisation de bord pour aeronef |
CN107038682B (zh) * | 2016-02-03 | 2020-06-26 | 上海源胜文化传播有限公司 | 一种三维人体模型的缩放***及方法 |
WO2017161192A1 (en) * | 2016-03-16 | 2017-09-21 | Nils Forsblom | Immersive virtual experience using a mobile communication device |
US10198861B2 (en) * | 2016-03-31 | 2019-02-05 | Intel Corporation | User interactive controls for a priori path navigation in virtual environment |
US10739157B2 (en) | 2016-06-12 | 2020-08-11 | Apple Inc. | Grouping maneuvers for display in a navigation presentation |
US20170374276A1 (en) * | 2016-06-23 | 2017-12-28 | Intel Corporation | Controlling capturing of a multimedia stream with user physical responses |
US10726673B2 (en) | 2016-09-20 | 2020-07-28 | Acres Technology | Automatic application of a bonus to an electronic gaming device responsive to player interaction with a mobile computing device |
US10041800B2 (en) | 2016-09-23 | 2018-08-07 | Qualcomm Incorporated | Pedestrian sensor assistance in a mobile device during typical device motions |
WO2018067130A1 (en) * | 2016-10-04 | 2018-04-12 | Hewlett-Packard Development Company, L.P. | Three-dimensional input device |
US11061557B2 (en) | 2016-12-22 | 2021-07-13 | ReScan, Inc. | Dynamic single touch point navigation |
US10373342B1 (en) * | 2017-01-10 | 2019-08-06 | Lucasfilm Entertainment Company Ltd. | Content generation in an immersive environment |
EP3596587A4 (en) * | 2017-03-13 | 2021-01-27 | Rescan, Inc. | NAVIGATION SYSTEM |
CN108984087B (zh) * | 2017-06-02 | 2021-09-14 | 腾讯科技(深圳)有限公司 | 基于三维虚拟形象的社交互动方法及装置 |
AU2017204099A1 (en) * | 2017-06-16 | 2019-01-17 | Canon Kabushiki Kaisha | System and method of configuring a virtual camera |
CN107436745B (zh) * | 2017-06-19 | 2021-01-08 | 广州励丰文化科技股份有限公司 | 基于数字艺术景观装置的三维模型的图片显示方法及装置 |
US10663298B2 (en) * | 2017-06-25 | 2020-05-26 | Invensense, Inc. | Method and apparatus for characterizing platform motion |
US20190007672A1 (en) | 2017-06-30 | 2019-01-03 | Bobby Gene Burrough | Method and Apparatus for Generating Dynamic Real-Time 3D Environment Projections |
AU2017204643B2 (en) | 2017-07-07 | 2020-05-14 | Canon Kabushiki Kaisha | Method, apparatus and system for encoding and decoding video data |
CN107506038B (zh) * | 2017-08-28 | 2020-02-25 | 荆门程远电子科技有限公司 | 一种基于移动终端的三维虚拟地球交互方法 |
JP6419278B1 (ja) * | 2017-09-19 | 2018-11-07 | キヤノン株式会社 | 制御装置、制御方法、及びプログラム |
CN109550246B (zh) * | 2017-09-25 | 2022-03-25 | 腾讯科技(深圳)有限公司 | 游戏客户端的控制方法、装置、存储介质和电子装置 |
CN108363531A (zh) * | 2018-01-17 | 2018-08-03 | 网易(杭州)网络有限公司 | 一种游戏中的交互方法及装置 |
WO2019164514A1 (en) * | 2018-02-23 | 2019-08-29 | Google Llc | Transitioning between map view and augmented reality view |
JP7045218B2 (ja) * | 2018-02-28 | 2022-03-31 | キヤノン株式会社 | 情報処理装置および情報処理方法、プログラム |
CN108379844B (zh) * | 2018-03-30 | 2020-10-23 | 腾讯科技(深圳)有限公司 | 控制虚拟对象移动的方法、装置、电子装置及存储介质 |
CN108509139B (zh) * | 2018-03-30 | 2019-09-10 | 腾讯科技(深圳)有限公司 | 虚拟对象的移动控制方法、装置、电子装置及存储介质 |
US10964110B2 (en) * | 2018-05-07 | 2021-03-30 | Vmware, Inc. | Managed actions using augmented reality |
JP6916150B2 (ja) * | 2018-06-05 | 2021-08-11 | 任天堂株式会社 | ゲームシステム、ゲームプログラム、ゲーム装置、およびゲーム処理方法 |
CN110610523B (zh) * | 2018-06-15 | 2023-04-25 | 杭州海康威视数字技术股份有限公司 | 汽车环视标定方法及装置、计算机可读存储介质 |
US11216149B2 (en) * | 2019-03-15 | 2022-01-04 | Samsung Electronics Co., Ltd. | 360° video viewer control using smart device |
CN112130551A (zh) * | 2019-06-25 | 2020-12-25 | 北京百度网讯科技有限公司 | 无人驾驶车辆的行进路径和速度决策规划方法及装置 |
CN110523085A (zh) * | 2019-08-30 | 2019-12-03 | 腾讯科技(深圳)有限公司 | 虚拟对象的控制方法、装置、终端及存储介质 |
CN111324253B (zh) * | 2020-02-12 | 2021-08-03 | 腾讯科技(深圳)有限公司 | 虚拟物品交互方法、装置、计算机设备及存储介质 |
EP3865984B1 (en) * | 2020-02-13 | 2023-09-27 | Honeywell International Inc. | Methods and systems for searchlight control for aerial vehicles |
US11625037B2 (en) | 2020-02-13 | 2023-04-11 | Honeywell International Inc. | Methods and systems for searchlight control for aerial vehicles |
CN112087575B (zh) * | 2020-08-24 | 2022-03-08 | 广州启量信息科技有限公司 | 一种虚拟相机控制方法 |
BR112022001065A2 (pt) * | 2020-11-13 | 2022-07-05 | Tencent Tech Shenzhen Co Ltd | Método e aparelho de controle de objeto virtual, meio de armazenamento e dispositivo eletrônico |
CN112354179B (zh) * | 2020-11-23 | 2023-09-05 | 浙江中控信息产业股份有限公司 | 一种三维地理信息内容的显示与交互方法 |
US11899204B2 (en) * | 2021-06-09 | 2024-02-13 | Snap Inc. | Soft follow and pitch angle effects for VR/AR interface |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004005272A (ja) * | 2002-05-31 | 2004-01-08 | Cad Center:Kk | 仮想空間移動制御装置及び制御方法並びに制御プログラム |
Family Cites Families (129)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5111288A (en) * | 1988-03-02 | 1992-05-05 | Diamond Electronics, Inc. | Surveillance camera system |
US5276785A (en) * | 1990-08-02 | 1994-01-04 | Xerox Corporation | Moving viewpoint with respect to a target in a three-dimensional workspace |
JP2827612B2 (ja) * | 1991-10-07 | 1998-11-25 | 富士通株式会社 | タッチパネル装置およびタッチパネル装置におけるオブジェクトの表示方法。 |
CA2077173C (en) * | 1991-11-22 | 2003-04-22 | Michael Chen | Method and apparatus for direct manipulation of 3-d objects on computer displays |
US6597347B1 (en) * | 1991-11-26 | 2003-07-22 | Itu Research Inc. | Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom |
US5483261A (en) * | 1992-02-14 | 1996-01-09 | Itu Research, Inc. | Graphical input controller and method with rear screen image detection |
US5880411A (en) * | 1992-06-08 | 1999-03-09 | Synaptics, Incorporated | Object position detector with edge motion feature and gesture recognition |
US5557714A (en) * | 1993-01-29 | 1996-09-17 | Microsoft Corporation | Method and system for rotating a three-dimensional model about two orthogonal axes |
JPH0764754A (ja) * | 1993-08-24 | 1995-03-10 | Hitachi Ltd | 小型情報処理装置 |
US5689628A (en) * | 1994-04-14 | 1997-11-18 | Xerox Corporation | Coupling a display object to a viewpoint in a navigable workspace |
GB9606791D0 (en) * | 1996-03-29 | 1996-06-05 | British Telecomm | Control interface |
US5808613A (en) * | 1996-05-28 | 1998-09-15 | Silicon Graphics, Inc. | Network navigator with enhanced navigational abilities |
GB9616184D0 (en) * | 1996-08-01 | 1996-09-11 | Philips Electronics Nv | Virtual environment navigation |
JPH1049290A (ja) * | 1996-08-05 | 1998-02-20 | Sony Corp | 情報処理装置および方法 |
JP4332231B2 (ja) * | 1997-04-21 | 2009-09-16 | ソニー株式会社 | 撮像装置コントローラおよび撮像システム |
GB9721667D0 (en) * | 1997-10-14 | 1997-12-10 | Philips Electronics Nv | Virtual environment navigation aid |
US8479122B2 (en) * | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
EP2256605B1 (en) * | 1998-01-26 | 2017-12-06 | Apple Inc. | Method and apparatus for integrating manual input |
US7663607B2 (en) * | 2004-05-06 | 2010-02-16 | Apple Inc. | Multipoint touchscreen |
US6347290B1 (en) * | 1998-06-24 | 2002-02-12 | Compaq Information Technologies Group, L.P. | Apparatus and method for detecting and executing positional and gesture commands corresponding to movement of handheld computing device |
US6029854A (en) * | 1998-09-16 | 2000-02-29 | Wissen; William T. | Portable liquid dispenser |
US6400376B1 (en) * | 1998-12-21 | 2002-06-04 | Ericsson Inc. | Display control for hand-held data processing device |
US7119819B1 (en) * | 1999-04-06 | 2006-10-10 | Microsoft Corporation | Method and apparatus for supporting two-dimensional windows in a three-dimensional environment |
US6288704B1 (en) * | 1999-06-08 | 2001-09-11 | Vega, Vista, Inc. | Motion detection and tracking system to control navigation and display of object viewers |
US6466198B1 (en) * | 1999-11-05 | 2002-10-15 | Innoventions, Inc. | View navigation and magnification of a hand-held device with a display |
US6388655B1 (en) * | 1999-11-08 | 2002-05-14 | Wing-Keung Leung | Method of touch control of an input device and such a device |
US6980690B1 (en) * | 2000-01-20 | 2005-12-27 | Canon Kabushiki Kaisha | Image processing apparatus |
US6636210B1 (en) * | 2000-03-03 | 2003-10-21 | Muse Corporation | Method and system for auto-navigation in a three dimensional viewing environment |
US7142205B2 (en) * | 2000-03-29 | 2006-11-28 | Autodesk, Inc. | Single gesture map navigation graphical user interface for a personal digital assistant |
US6326846B1 (en) * | 2000-04-11 | 2001-12-04 | National Semiconductor Corporation | Low voltage fet differential amplifier and method |
US7027642B2 (en) * | 2000-04-28 | 2006-04-11 | Orametrix, Inc. | Methods for registration of three-dimensional frames to create three-dimensional virtual models of objects |
US6864886B1 (en) * | 2000-08-10 | 2005-03-08 | Sportvision, Inc. | Enhancing video using a virtual surface |
DE50014953D1 (de) * | 2000-08-24 | 2008-03-20 | Siemens Vdo Automotive Ag | Verfahren und Navigationsgerät zum Abfragen von Zielinformation und zum Navigieren in einer Kartenansicht |
US6600475B2 (en) * | 2001-01-22 | 2003-07-29 | Koninklijke Philips Electronics N.V. | Single camera system for gesture-based input and target indication |
US7030861B1 (en) * | 2001-02-10 | 2006-04-18 | Wayne Carl Westerman | System and method for packing multi-touch gestures onto a hand |
US6834249B2 (en) * | 2001-03-29 | 2004-12-21 | Arraycomm, Inc. | Method and apparatus for controlling a computing system |
US6987512B2 (en) * | 2001-03-29 | 2006-01-17 | Microsoft Corporation | 3D navigation techniques |
US6798429B2 (en) * | 2001-03-29 | 2004-09-28 | Intel Corporation | Intuitive mobile device interface to virtual spaces |
FI117488B (fi) * | 2001-05-16 | 2006-10-31 | Myorigo Sarl | Informaation selaus näytöllä |
US6452544B1 (en) * | 2001-05-24 | 2002-09-17 | Nokia Corporation | Portable map display system for presenting a 3D map image and method thereof |
US6907579B2 (en) * | 2001-10-30 | 2005-06-14 | Hewlett-Packard Development Company, L.P. | User interface and method for interacting with a three-dimensional graphical environment |
US7159194B2 (en) * | 2001-11-30 | 2007-01-02 | Palm, Inc. | Orientation dependent functionality of an electronic device |
KR100433628B1 (ko) * | 2001-12-27 | 2004-05-31 | 주식회사 케이티 | FoIP에 있어서 네트워크 상태 적응형 오류 제어 방법 |
US6690387B2 (en) * | 2001-12-28 | 2004-02-10 | Koninklijke Philips Electronics N.V. | Touch-screen image scrolling system and method |
US20030132913A1 (en) * | 2002-01-11 | 2003-07-17 | Anton Issinski | Touchless computer input device to control display cursor mark position by using stereovision input from two video cameras |
US7411594B2 (en) * | 2002-01-15 | 2008-08-12 | Canon Kabushiki Kaisha | Information processing apparatus and method |
CN1360283A (zh) * | 2002-01-15 | 2002-07-24 | 天津大学 | 真人头像三维模型建立*** |
US7324085B2 (en) * | 2002-01-25 | 2008-01-29 | Autodesk, Inc. | Techniques for pointing to locations within a volumetric display |
US7107285B2 (en) * | 2002-03-16 | 2006-09-12 | Questerra Corporation | Method, system, and program for an improved enterprise spatial system |
GB2387519B (en) * | 2002-04-08 | 2005-06-22 | Canon Europa Nv | Viewing controller for three-dimensional computer graphics |
JP4096622B2 (ja) * | 2002-05-21 | 2008-06-04 | 株式会社セガ | 画像処理方法及び装置、並びにプログラム及び記録媒体 |
JP3090450U (ja) * | 2002-06-04 | 2002-12-13 | 株式会社ワコー | 方位表示機能をもった携帯型情報処理装置 |
US7042449B2 (en) * | 2002-06-28 | 2006-05-09 | Autodesk Canada Co. | Push-tumble three dimensional navigation system |
EP1413895B1 (en) * | 2002-10-23 | 2005-08-24 | Siemens Aktiengesellschaft | A method and apparatus for generating a GPS simulation scenario |
US7589732B2 (en) * | 2002-11-05 | 2009-09-15 | Autodesk, Inc. | System and method of integrated spatial and temporal navigation |
US6975959B2 (en) * | 2002-12-03 | 2005-12-13 | Robert Bosch Gmbh | Orientation and navigation for a mobile device using inertial sensors |
US20040125114A1 (en) * | 2002-12-31 | 2004-07-01 | Hauke Schmidt | Multiresolution image synthesis for navigation |
DE10300527A1 (de) * | 2003-01-09 | 2004-07-22 | Realtime Technology Ag | System und Verfahren zur Darstellung von virtuellen Szenen auf einer Bilddarstellungseinheit |
JP4100195B2 (ja) * | 2003-02-26 | 2008-06-11 | ソニー株式会社 | 3次元オブジェクトの表示処理装置、表示処理方法、およびコンピュータプログラム |
US7259778B2 (en) * | 2003-07-01 | 2007-08-21 | L-3 Communications Corporation | Method and apparatus for placing sensors using 3D models |
US7190496B2 (en) * | 2003-07-24 | 2007-03-13 | Zebra Imaging, Inc. | Enhanced environment visualization using holographic stereograms |
JP4297804B2 (ja) * | 2004-02-19 | 2009-07-15 | 任天堂株式会社 | ゲーム装置及びゲームプログラム |
JP4772789B2 (ja) * | 2004-06-22 | 2011-09-14 | サーノフ コーポレーション | カメラ・ポーズを決定する方法および装置 |
US7519223B2 (en) * | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
US7743348B2 (en) * | 2004-06-30 | 2010-06-22 | Microsoft Corporation | Using physical objects to adjust attributes of an interactive display application |
JP4167263B2 (ja) * | 2004-07-15 | 2008-10-15 | 株式会社シーアンドエヌ | 携帯端末装置 |
US7719523B2 (en) * | 2004-08-06 | 2010-05-18 | Touchtable, Inc. | Bounding box gesture recognition on a touch detecting interactive display |
US7728821B2 (en) * | 2004-08-06 | 2010-06-01 | Touchtable, Inc. | Touch detecting interactive display |
JP2006122241A (ja) * | 2004-10-27 | 2006-05-18 | Nintendo Co Ltd | ゲーム装置およびゲームプログラム |
JP4515221B2 (ja) * | 2004-10-29 | 2010-07-28 | 任天堂株式会社 | ゲームプログラム |
JP4801674B2 (ja) * | 2004-12-10 | 2011-10-26 | エー. ヴィ. カスタム スタイル ビー. ヴィ. | 迅速交換式アーバ |
KR100641182B1 (ko) * | 2004-12-30 | 2006-11-02 | 엘지전자 주식회사 | 휴대단말기에서의 가상화면 이동장치 및 방법 |
US20060164382A1 (en) * | 2005-01-25 | 2006-07-27 | Technology Licensing Company, Inc. | Image manipulation in response to a movement of a display |
US20080300780A1 (en) * | 2005-02-07 | 2008-12-04 | Dmitry Domnin | Method for automating task with portable device |
US7605804B2 (en) * | 2005-04-29 | 2009-10-20 | Microsoft Corporation | System and method for fine cursor positioning using a low resolution imaging touch screen |
US20060271281A1 (en) | 2005-05-20 | 2006-11-30 | Myron Ahn | Geographic information knowledge systems |
JP5063871B2 (ja) * | 2005-06-15 | 2012-10-31 | 株式会社デンソー | 携帯機用地図表示システム |
US7933929B1 (en) * | 2005-06-27 | 2011-04-26 | Google Inc. | Network link for providing dynamic data layer in a geographic information system |
JP4783603B2 (ja) * | 2005-08-26 | 2011-09-28 | 株式会社デンソー | 地図表示装置、地図表示方法、地図表示プログラム、及びそのプログラムを記録した記録媒体 |
US20070046661A1 (en) * | 2005-08-31 | 2007-03-01 | Siemens Medical Solutions Usa, Inc. | Three or four-dimensional medical imaging navigation methods and systems |
JP4404830B2 (ja) * | 2005-09-28 | 2010-01-27 | シャープ株式会社 | 操作システム |
JP4246195B2 (ja) * | 2005-11-01 | 2009-04-02 | パナソニック株式会社 | カーナビゲーションシステム |
US7587684B2 (en) * | 2006-01-23 | 2009-09-08 | Nokia Corporation | Mobile communication terminal and method therefore |
US9070402B2 (en) * | 2006-03-13 | 2015-06-30 | Autodesk, Inc. | 3D model presentation system with motion and transitions at each camera view point of interest (POI) with imageless jumps to each POI |
JP2007280212A (ja) * | 2006-04-10 | 2007-10-25 | Sony Corp | 表示制御装置、表示制御方法及び表示制御プログラム |
US8077153B2 (en) * | 2006-04-19 | 2011-12-13 | Microsoft Corporation | Precise selection techniques for multi-touch screens |
JP2009535727A (ja) * | 2006-05-02 | 2009-10-01 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 凍結及び再開機能を備える3d入力/ナビゲーションデバイス |
US20070257891A1 (en) * | 2006-05-03 | 2007-11-08 | Esenther Alan W | Method and system for emulating a mouse on a multi-touch sensitive surface |
US7707516B2 (en) * | 2006-05-26 | 2010-04-27 | Google Inc. | Embedded navigation interface |
US7643673B2 (en) * | 2006-06-12 | 2010-01-05 | Google Inc. | Markup language for interactive geographic information system |
US20080062126A1 (en) * | 2006-07-06 | 2008-03-13 | Algreatly Cherif A | 3D method and system for hand-held devices |
WO2008014486A2 (en) * | 2006-07-28 | 2008-01-31 | Accelerated Pictures, Inc. | Improved camera control |
JP4725526B2 (ja) * | 2006-08-28 | 2011-07-13 | ソニー株式会社 | 情報処理装置、撮像装置、情報処理システム、装置制御方法及びプログラム |
US8106856B2 (en) * | 2006-09-06 | 2012-01-31 | Apple Inc. | Portable electronic device for photo management |
US8277316B2 (en) * | 2006-09-14 | 2012-10-02 | Nintendo Co., Ltd. | Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting |
US8698735B2 (en) | 2006-09-15 | 2014-04-15 | Lucasfilm Entertainment Company Ltd. | Constrained virtual camera control |
US8130203B2 (en) * | 2007-01-03 | 2012-03-06 | Apple Inc. | Multi-touch input discrimination |
US7877707B2 (en) * | 2007-01-06 | 2011-01-25 | Apple Inc. | Detecting and interpreting real-world and security gestures on touch and hover sensitive devices |
WO2008095132A2 (en) * | 2007-01-31 | 2008-08-07 | Perceptive Pixel, Inc. | Methods of interfacing with multi-point input devices and multi-point input systems employing interfacing techniques |
US7752555B2 (en) * | 2007-01-31 | 2010-07-06 | Microsoft Corporation | Controlling multiple map application operations with a single gesture |
CN101030982A (zh) * | 2007-03-22 | 2007-09-05 | 宇龙计算机通信科技(深圳)有限公司 | 自动调整显示屏内容显示方向的装置及方法 |
US9037599B1 (en) * | 2007-05-29 | 2015-05-19 | Google Inc. | Registering photos in a geographic information system, and applications thereof |
US8681104B2 (en) * | 2007-06-13 | 2014-03-25 | Apple Inc. | Pinch-throw and translation gestures |
US8302033B2 (en) * | 2007-06-22 | 2012-10-30 | Apple Inc. | Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information |
TW200907764A (en) * | 2007-08-01 | 2009-02-16 | Unique Instr Co Ltd | Three-dimensional virtual input and simulation apparatus |
US20090046110A1 (en) * | 2007-08-16 | 2009-02-19 | Motorola, Inc. | Method and apparatus for manipulating a displayed image |
US10504285B2 (en) * | 2007-09-26 | 2019-12-10 | Autodesk, Inc. | Navigation system for a 3D virtual scene |
US8686991B2 (en) * | 2007-09-26 | 2014-04-01 | Autodesk, Inc. | Navigation system for a 3D virtual scene |
JP5390115B2 (ja) * | 2008-03-31 | 2014-01-15 | 株式会社バンダイナムコゲームス | プログラム、ゲームシステム |
US8089479B2 (en) * | 2008-04-11 | 2012-01-03 | Apple Inc. | Directing camera behavior in 3-D imaging system |
WO2009128899A1 (en) * | 2008-04-14 | 2009-10-22 | Google Inc. | Swoop navigation |
AU2009238631B2 (en) * | 2008-04-14 | 2014-10-30 | Google Llc | Panning using virtual surfaces |
US10180714B1 (en) * | 2008-04-24 | 2019-01-15 | Pixar | Two-handed multi-stroke marking menus for multi-touch devices |
US8799821B1 (en) * | 2008-04-24 | 2014-08-05 | Pixar | Method and apparatus for user inputs for three-dimensional animation |
US8375336B2 (en) * | 2008-05-23 | 2013-02-12 | Microsoft Corporation | Panning content utilizing a drag operation |
US20090303251A1 (en) * | 2008-06-10 | 2009-12-10 | Andras Balogh | Displaying, processing and storing geo-located information |
US8700301B2 (en) * | 2008-06-19 | 2014-04-15 | Microsoft Corporation | Mobile computing devices, architecture and user interfaces based on dynamic direction information |
US9310992B2 (en) * | 2008-08-22 | 2016-04-12 | Google Inc. | Panning in a three dimensional environment on a mobile device |
KR20100041006A (ko) * | 2008-10-13 | 2010-04-22 | 엘지전자 주식회사 | 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법 |
KR20100050103A (ko) * | 2008-11-05 | 2010-05-13 | 엘지전자 주식회사 | 맵 상에서의 3차원 개체 제어방법과 이를 이용한 이동 단말기 |
US8788977B2 (en) * | 2008-11-20 | 2014-07-22 | Amazon Technologies, Inc. | Movement recognition as input mechanism |
US8294766B2 (en) * | 2009-01-28 | 2012-10-23 | Apple Inc. | Generating a three-dimensional model using a portable electronic device recording |
US20100188397A1 (en) * | 2009-01-28 | 2010-07-29 | Apple Inc. | Three dimensional navigation using deterministic movement of an electronic device |
US20100208033A1 (en) * | 2009-02-13 | 2010-08-19 | Microsoft Corporation | Personal Media Landscapes in Mixed Reality |
US20110205229A1 (en) | 2010-02-23 | 2011-08-25 | Google Inc. | Portable Globe Creation for a Geographical Information System |
US8683387B2 (en) * | 2010-03-03 | 2014-03-25 | Cast Group Of Companies Inc. | System and method for visualizing virtual objects on a mobile device |
US8321166B2 (en) * | 2010-03-17 | 2012-11-27 | Qualcomm Incorporated | Methods and systems for wireless platform attitude determination |
US9134799B2 (en) * | 2010-07-16 | 2015-09-15 | Qualcomm Incorporated | Interacting with a projected user interface using orientation sensors |
US20120019522A1 (en) * | 2010-07-25 | 2012-01-26 | Raytheon Company | ENHANCED SITUATIONAL AWARENESS AND TARGETING (eSAT) SYSTEM |
-
2009
- 2009-08-24 US US12/546,261 patent/US9310992B2/en active Active
- 2009-08-24 US US12/546,245 patent/US20100045703A1/en not_active Abandoned
- 2009-08-24 KR KR1020117006535A patent/KR101665034B1/ko active IP Right Grant
- 2009-08-24 JP JP2011524067A patent/JP2012501016A/ja active Pending
- 2009-08-24 CA CA2734987A patent/CA2734987A1/en not_active Abandoned
- 2009-08-24 US US12/546,293 patent/US8847992B2/en active Active
- 2009-08-24 CN CN201911350849.0A patent/CN111522493A/zh active Pending
- 2009-08-24 CN CN2009801413564A patent/CN102187309A/zh active Pending
- 2009-08-24 WO PCT/US2009/054727 patent/WO2010022386A2/en active Application Filing
- 2009-08-24 US US12/546,274 patent/US20100045666A1/en not_active Abandoned
- 2009-08-24 AU AU2009282724A patent/AU2009282724B2/en not_active Ceased
- 2009-08-24 CN CN201310095018XA patent/CN103324386A/zh active Pending
- 2009-08-24 EP EP09791827A patent/EP2327010A2/en not_active Withdrawn
-
2016
- 2016-04-11 US US15/095,442 patent/US10222931B2/en active Active
-
2019
- 2019-03-04 US US16/291,063 patent/US10942618B2/en active Active
- 2019-03-04 US US16/291,067 patent/US11054964B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004005272A (ja) * | 2002-05-31 | 2004-01-08 | Cad Center:Kk | 仮想空間移動制御装置及び制御方法並びに制御プログラム |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9632677B2 (en) | 2011-03-02 | 2017-04-25 | The Boeing Company | System and method for navigating a 3-D environment using a multi-input interface |
JP2014511534A (ja) * | 2011-03-02 | 2014-05-15 | ザ・ボーイング・カンパニー | 多入力インタフェースを用いて三次元環境を航行するためのシステムおよび方法 |
JP2016502171A (ja) * | 2012-10-16 | 2016-01-21 | ジョン、ジェ ウンJEON, Jae Woong | 3次元の仮想空間内で仮想カメラを制御するための方法、システムおよびコンピュータ読取可能な記録媒体 |
JP2018526716A (ja) * | 2015-06-16 | 2018-09-13 | ノキア テクノロジーズ オーユー | 媒介現実 |
US10884576B2 (en) | 2015-06-16 | 2021-01-05 | Nokia Technologies Oy | Mediated reality |
JP2016193216A (ja) * | 2016-06-20 | 2016-11-17 | 株式会社スクウェア・エニックス | ビデオゲーム処理装置、ビデオゲーム処理方法、及びビデオゲーム処理プログラム |
JP7348895B2 (ja) | 2017-09-19 | 2023-09-21 | キヤノン株式会社 | 仮想カメラを制御するシステム及び方法 |
JP2020534592A (ja) * | 2017-09-19 | 2020-11-26 | キヤノン株式会社 | 仮想カメラを制御するシステム及び方法 |
JP2019037877A (ja) * | 2018-12-13 | 2019-03-14 | 株式会社スクウェア・エニックス | ビデオゲーム処理装置、ビデオゲーム処理方法、及びビデオゲーム処理プログラム |
US11675488B2 (en) | 2019-01-30 | 2023-06-13 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for constructing building in virtual environment, device, and storage medium |
JP2022505457A (ja) * | 2019-01-30 | 2022-01-14 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | 仮想環境において建築物を建設する方法、装置、機器及びプログラム |
JP7224459B2 (ja) | 2019-01-30 | 2023-02-17 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | 仮想環境において建築物を建設する方法、装置、機器及びプログラム |
WO2021020143A1 (ja) * | 2019-07-30 | 2021-02-04 | ソニー株式会社 | 画像処理装置、画像処理方法、及び記録媒体 |
JP2020113314A (ja) * | 2020-03-25 | 2020-07-27 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
US20100045667A1 (en) | 2010-02-25 |
AU2009282724B2 (en) | 2014-12-04 |
EP2327010A2 (en) | 2011-06-01 |
US20100053219A1 (en) | 2010-03-04 |
CN111522493A (zh) | 2020-08-11 |
US10942618B2 (en) | 2021-03-09 |
AU2009282724A1 (en) | 2010-02-25 |
US20220100350A1 (en) | 2022-03-31 |
US8847992B2 (en) | 2014-09-30 |
US11054964B2 (en) | 2021-07-06 |
WO2010022386A2 (en) | 2010-02-25 |
US9310992B2 (en) | 2016-04-12 |
CA2734987A1 (en) | 2010-02-25 |
KR101665034B1 (ko) | 2016-10-24 |
US20100045666A1 (en) | 2010-02-25 |
CN102187309A (zh) | 2011-09-14 |
KR20110049873A (ko) | 2011-05-12 |
US20190196691A1 (en) | 2019-06-27 |
US20190205009A1 (en) | 2019-07-04 |
US20160224204A1 (en) | 2016-08-04 |
WO2010022386A3 (en) | 2010-11-04 |
CN103324386A (zh) | 2013-09-25 |
US20100045703A1 (en) | 2010-02-25 |
US10222931B2 (en) | 2019-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10942618B2 (en) | Panning in a three dimensional environment on a mobile device | |
US20150040073A1 (en) | Zoom, Rotate, and Translate or Pan In A Single Gesture | |
EP3042275B1 (en) | Tilting to scroll | |
US9507431B2 (en) | Viewing images with tilt-control on a hand-held device | |
US8294766B2 (en) | Generating a three-dimensional model using a portable electronic device recording | |
EP3688726B1 (en) | Cooperative augmented reality map interface | |
US20100188397A1 (en) | Three dimensional navigation using deterministic movement of an electronic device | |
US9936168B2 (en) | System and methods for controlling a surveying device | |
KR20110104096A (ko) | 모바일 디바이스들을 위한 사용자 인터페이스 | |
EP2558924B1 (en) | Apparatus, method and computer program for user input using a camera | |
US20150169119A1 (en) | Major-Axis Pinch Navigation In A Three-Dimensional Environment On A Mobile Device | |
US10984242B1 (en) | Virtual proximity compass for navigating artificial reality environments | |
Goh et al. | An inertial device-based user interaction with occlusion-free object handling in a handheld augmented reality | |
US12032802B2 (en) | Panning in a three dimensional environment on a mobile device | |
JP3161662U (ja) | プラネタリウム装置 | |
Buchholz | University of Potsdam, Hasso-Plattner-Institute, Helmert-Straße 2-3, Potsdam, Germany {buchholz, bohnet, doellner}@ hpi. uni-potsdam. de |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140128 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140425 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140526 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20141105 |