JP2019083033A - 仮想現実環境においてナビゲートする方法、システム、および装置 - Google Patents

仮想現実環境においてナビゲートする方法、システム、および装置 Download PDF

Info

Publication number
JP2019083033A
JP2019083033A JP2018244584A JP2018244584A JP2019083033A JP 2019083033 A JP2019083033 A JP 2019083033A JP 2018244584 A JP2018244584 A JP 2018244584A JP 2018244584 A JP2018244584 A JP 2018244584A JP 2019083033 A JP2019083033 A JP 2019083033A
Authority
JP
Japan
Prior art keywords
user
scene
composite
angle
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018244584A
Other languages
English (en)
Other versions
JP6810125B2 (ja
Inventor
グロッシンガー、ナダブ
Grosinger Nadav
アロン、エミル
alon Emil
デイビッド、イド バル
Bar David Iddo
デイビッド、イド バル
ソロドニク、エフラット
Solodnik Efrat
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meta Platforms Inc
Original Assignee
Facebook Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Facebook Inc filed Critical Facebook Inc
Publication of JP2019083033A publication Critical patent/JP2019083033A/ja
Application granted granted Critical
Publication of JP6810125B2 publication Critical patent/JP6810125B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】身体部分のジェスチャおよび姿勢を用いて、仮想現実シーンにおいてナビゲートするための方法、システム、および装置を提供する。【解決手段】方法は、ユーザに仮想現実ビューを提示するために、ニアアイディスプレイを介してユーザの両目に合成3Dシーンを投影すること、ユーザの少なくとも1つの身体部分によって実行される少なくとも1つのジェスチャまたは姿勢を識別すること、検出されたジェスチャまたは姿勢に関連付けられたベクトルの少なくとも1つのメトリックを測定すること、測定されたメトリックに基づいて、仮想現実環境にユーザの移動または動きを適用すること、仮想現実環境におけるユーザの移動または動きを反映するために仮想現実ビューを修正することを含み得る。【選択図】 図4

Description

本発明は、概して仮想現実(VR)環境に関し、特に、VR環境においてナビゲートするための方法、システム、および装置に関する。
本発明の背景技術の記載に先立って、以下で用いる用語の定義を記載する。
本明細書で使用する用語「仮想現実」(VR)は、現実世界または仮想世界のある場所における物理的存在をシミュレート可能なコンピュータシミュレーション環境として定義される。仮想現実は、仮想の味覚、視覚、嗅覚、聴覚、触覚などの感覚体験を再現可能である。多くの従来のVRシステムは三次元(3D)仮想環境を提示するニアアイ(near eye)ディスプレイを使用する。
本明細書で使用する用語「拡張現実」(AR)は、物理的な現実世界の環境の生の直接的または間接的な視野として定義され、この物理的現実世界の環境の要素は、音声、動画、画像、GPSデータなどのコンピュータにより生成された知覚入力によって拡張(補足)される。これは、より一般的な概念として、コンピュータにより現実の視野が修正(場合によっては拡張ではなく減少)される媒介現実(mediated reality)に関する。
本明細書で使用する用語「ニアアイディスプレイ」は、着用可能な投影ディスプレイを含む装置として定義され、通常は、3D視覚を生成するために僅かに異なる視野がそれぞれの目に提示されるという意味で立体視である。
用語「仮想現実ヘッドセット」は「ゴーグル」とも呼ばれ、コンピュータ出力を表示する湾曲型(wrap-around)ビジュアルインターフェースである。一般に、コンピュータディスプレイ情報は、現実世界環境の3次元表現として提示される。ゴーグルは、コンピュータディスプレイ(スマートフォンの形態を取り得る)を単に保持する構造のみに加えて光学系を含んでいても含んでいなくてもよい。
本明細書で使用する用語「仮想現実ナビゲーション」は、ユーザの目に投影されたシーンの各変化をもたらす仮想環境全体の動きとして定義される。VRシステムは、現実世界の動きと仮想世界の動きとの間に、通常、1対1の比率を維持しない(例えば、現実世界で一歩前進することは必ずしも仮想世界で一歩前進することを意味しない)。したがって、ユーザによるVRナビゲーションを可能にするために、あらゆるタイプの入力装置が使用される。
図1は、ユーザ10が、ユーザ10の各目に対してシーン(例えば、タージマハル)の合成画像15A,15Bを投影するヘッドマウント立体ディスプレイ12(例えば、Oculus Rift(商標))を着用した場合の従来の仮想現実(VR)システムを示す。各目に対し僅かに異なる角度で合成シーンが入力されることで、ユーザの脳内に3D知覚が生成される。また、ユーザの視角または視線方向をリアルタイムで検出することができる加速度計またはジャイロスコープ(図示略)などのセンサがヘッドマウントディスプレイ12に備えられてもよい。これにより、VRシステムは、ユーザの新たな頭の向きに合うように画像15A,15Bを調節することができる。このような調整がリアルタイムで実行されることにより、現実世界における頭の動きを模倣する仮想現実の錯覚が実現され得る。
上述のようにユーザの視点を追跡する以外にも、VRシステムは、ジョイスティック14(あるいは、マウス、タッチパッド、またはキーボード)などの入力装置を介して仮想世界とのさらなる相互作用を提供する。このような入力装置は、ユーザ10が視覚的インジケータを使用してVRナビゲーションを実行することを可能にする。例えば、VRシーンの立体画像15A,15Bに示されたカーソル16A,16Bなどをユーザが移動させることが可能な視覚インジケータをユーザに提示することができる。そして、ジョイスティック14でトリガを引くなどのユーザ10による次の動作に応答して、ユーザは、カーソルで指し示した位置に向かって仮想環境内を進むことができる。ユーザ10が現実世界を一歩か二歩移動することに限定されているとき、仮想世界でユーザは長距離を歩き回ることができる。上述したような入力装置は、現在、仮想世界におけるナビゲーション問題に対処するために使用されている。必然的に、そのような従来の入力装置の使用は、ユーザによる全体的なVR体験を損なわせる。
本発明の一実施形態によれば、姿勢および/またはジェスチャを用いて仮想現実シーンにおいてナビゲートするための入力装置として機能するシステムが提供される。システムは、ユーザの両目に合成3Dシーンを投影して仮想現実環境を生成するように構成されたニアアイディスプレイと、前記ユーザの少なくとも1つの身体部分のジェスチャを導出するように構成されたジェスチャ及び姿勢取得装置と、前記合成3Dシーンにおいて、前記導出された前記身体部分のジェスチャを前記ユーザの移動または動きに変換し、前記変換された移動または動きに基づいて、前記仮想現実環境の前記ユーザの視点を修正するように構成されたコンピュータプロセッサとを含み得る。
本発明の他の実施形態によれば、姿勢およびジェスチャを用いて仮想現実シーンにおいてナビゲートするための方法が提供される。方法は、ユーザに仮想現実ビューを提示するために、ニアアイディスプレイを介して前記ユーザの両目に合成3Dシーンを投影すること、前記ユーザの少なくとも1つの身体部分によって実行される少なくとも1つのジェスチャまたは姿勢を識別すること、検出されたジェスチャまたは姿勢に関連付けられたベクトルの少なくとも1つのメトリックを測定すること、前記測定されたメトリックに基づいて、仮想現実環境に前記ユーザの移動または動きを適用すること、前記仮想現実環境における前記ユーザの移動または動きを反映するために前記仮想現実ビューを修正することを含み得る。
本発明のこれらの、付加的な、および/または他の態様および/または実施形態の利点は以下の詳細な説明で説明され、それらは、以下の詳細な説明から推測可能であり、および/または本発明の実施形態の実施よって理解可能である。
従来技術による仮想現実システムを例示する概略図。 本発明のいくつかの実施形態による仮想現実システムを例示する概略図。 A〜Cは、本発明のいくつかの実施形態による仮想現実システムの態様を例示する図。 本発明の実施形態の仮想現実システムにおいて取り得る構造を例示するブロック図。 本発明の実施形態における方法を例示するフローチャート。 AおよびBは、本発明のいくつかの実施形態による更なる態様を例示する図。 本発明のいくつかの実施形態の別の態様を例示する概略図。 本発明のいくつかの実施形態の更に別の態様を例示する図。 本発明のいくつかの実施形態の更に別の態様を例示する図。 本発明のいくつかの実施形態による方法の更に別の態様を例示するフローチャート。 本発明のいくつかの実施形態の更に別の態様を例示する図。
本発明の実施形態をより良く理解し、どのように実施することができるかを示すために一例として添付図面を参照する。なお、図面において、同様の符号は対応する要素または部分を示す。
以下、図面を参照して詳細に説明するが、図示する詳細は単なる例示であり、本技術の好ましい実施形態の説明のみを目的としたものであり、本技術の原理および概念的側面の最も有用で容易に理解される説明として提供される。この点において、本技術の基本的な理解に必要なもの以外について本技術の構造的な詳細を示すことはしていない。図面とともに以下の説明を参照することにより、本発明の種々の形態を実際にどのように実施することができるかについて当業者に明らかとなる。
本技術の少なくとも1つの実施形態を詳細に説明するが、本発明はその適用において、以下に説明または図示する構成要素による詳細な構成および配置に限定されない。本技術は、他の実施形態に適用可能であるかまたは様々な方法で実施または実行される。また、本明細書で使用する表現および用語は、説明を目的としたものであり、限定とみなされるべきではない。
本発明のいくつかの実施形態は、ユーザに直感的な種々の身体姿勢および/またはジェスチャを実行することによって仮想現実環境でナビゲートするための方法、システム、および装置を提供する。具体的には、ユーザは、予め設定されたナビゲーションコマンドに本発明の実施形態によってリアルタイムで変換される方法でユーザ自身の身体または身体部分を動かすことができる。したがって、現実世界における特定の姿勢および/またはジェスチャによって、仮想現実世界における対応する動きを引き起こすことができる。
本発明のいくつかの実施形態は、ユーザによって適用された予め設定された姿勢またはジェスチャを最初に検出し、次いで、そのジェスチャまたは姿勢に関連付けられた定量的メトリックの測定を行う。これらのメトリックは、姿勢またはジェスチャに関連付けられたベクトルに関連し得るものであり、ベクトルの長さおよび空間的な角度を含み得る。いくつかの実施形態では、ベクトルのメトリックは、通常は連続的に仮想現実世界の定量的ナビゲーションコマンドに変換される。したがって、仮想現実におけるナビゲーションコマンドは、予め設定された終了動作がユーザによって実行されない限り変更されない。そのような終了動作は、基本姿勢または何らかの手操作を再開することを含み得る。
図2は、スマートフォン220などのモバイル装置とともに使用するように構成された仮想現実(VR)ヘッドセット240(ゴーグル)などの周辺環境200に取り付けられて一体化された本発明のいくつかの実施形態による装置210の斜視図である。装置210は、赤外線(IR)パターン照明器212などの照明器(例えば、レーザ送信機)と、IRカメラ214などのカメラとを含み得る。また、装置210は、初期画像処理を行うように構成されたプリプロセッサ(図示略)を含み得る。また、装置210は、VRヘッドセットをともに構成するスマートフォン220やニアアイディスプレイ240と物理的および電子的にインターフェースするように構成されている。このようなVRヘッドセット(ゴーグル)は、当該技術分野で知られているように、スマートフォンとともに使用するように構成することができ、通常は、スマートフォンのディスプレイ(図示しない反対側の面)と通信可能な光学機器と、カメラ222を含み得るスマートフォン220を収容するためのスリーブ250と、VRヘッドセット(ゴーグル)をユーザの頭部に固定するためのストラップ230とを含む。ただし、装置210は、Google Glass(商標)やOculus Rift(商標)などのニアアイディスプレイとインターフェースすることも可能である。
動作時に、装置210は、以下に詳述するように、ユーザの1つまたは複数の身体部分の直観的な姿勢およびジェスチャを使用してVRナビゲーションコマンドを供給する手段として機能し得る。
図3A〜図3Cは、本発明のいくつかの実施形態による仮想現実システムの態様を例示する図である。図3Aは、本発明の一実施形態による動作時のVRナビゲーション装置300を例示する概略図である。ユーザ10は、ニアアイディスプレイ330を装着しており、VRナビゲーション装置300は、排他的ではないが上述したように拡張機能(アドオン)として取り付けられ得る。VRナビゲーション装置300は、視野(FOV)322を有する照明器(例えば、レーザ送信器)320と、FOV312を有する撮像部(例えば、カメラ)310とを含み得る。両方のFOVはユーザの周辺の環境を網羅するのに十分大きいことが有利である。実用的には、両FOVは、両手を身体の両側に広げて開く場合などを含む両手の動きをカバーすることが重要である。これにより、「縦方向」の向きも可能であるが、照明器とカメラの両方の「横方向」の向きにも有益となる。非限定的な構成として、「横方向」の向きに対しては55°の水平FOVおよび43°の垂直FOVを含むことができ、「縦方向」の向きに対しては55°の垂直FOVおよび43°の水平FOVを含むことができる。
動作時、ニアアイディスプレイ330は、例えば、モバイル装置(図示略)などの外部コンピュータプロセッサを介してユーザ10の両目に合成シーンを投影するように構成することができる。照明器320は、ユーザ10および/またはその近傍にパターン光324を照射することができる。このパターン光の反射を撮像部310で撮像した後、コンピュータプロセッサ(ここでは図示せず)によって分析することができる。コンピュータプロセッサは、ユーザ10により実行されている姿勢またはジェスチャのタイプを導出することができる。ここでは、ユーザ10の手12の垂直上向きの指示指(pointing finger)14が、ベクトル340に沿って位置14Aから位置14Bに下げられる。このように指示指が下げられたことが検出されると、ベクトル340に関連付けられたメトリックがさらに分析されることにより、方向や変位などの(現実世界における)ベクトルのメトリックが(仮想世界における)対応するナビゲーション動作に変換される。図3Bは、ユーザの指示指が位置14Aにあるときにユーザ10が見ているものを示し、図3Bは、ユーザ10の指示指が位置14Bに移動したとき仮想世界で前進したことを示す。
図4は、本発明のいくつかの実施形態によるVRシステム400Bを示すブロック図である。システム400Bは、ジェスチャ及び姿勢取得装置402Bを含むかまたはそれに関連付けて動作可能とされ得る。このジェスチャ及び姿勢取得装置402Bは、ユーザの様々な身体部分やユーザが保持する物体の位置および向きにおける種々の経時的な変化を取得するように構成され得る。本明細書では、位置および向きを「姿勢」といい、姿勢の経時変化を「ジェスチャ」という。
非限定的な一つの例では、ジェスチャ及び姿勢取得装置402Bは、シーンの立体視を撮像する1つまたは複数の可視光カメラに基づき得る。このビデオ画像は、ユーザの動きを導出するためにプロセッサ404Bによって実行される種々の画像処理アルゴリズムを使用して処理される。別の可能な実施態様では、上述したパターン光が使用される。この場合、シーンから戻ってくるパターン光の反射が、姿勢および/またはジェスチャが推定される深さマップを生成するために分析される。
プロセッサ404Bは、ジェスチャ及び姿勢取得装置402Bからの生データ(技術によっては、複数のビデオ画像やパターン反射など)を受信し、そのプロセッサ上で実行される分類アルゴリズムを使用して、予め設定された基準(またはデータベース)に基づいて姿勢またはジェスチャを識別するように構成され得る。特定の姿勢またはジェスチャが識別されると、その検出された姿勢またはジェスチャにどの形式のVR移動またはVRナビゲーション動作が関連付けられているかを判断するために、姿勢及びジェスチャ・リポジトリ408Bを使用することができる。
したがって、姿勢及びジェスチャ・リポジトリ408Bに格納された辞書に基づいて、プロセッサ404Bは、ユーザに提示されるVRシーンの視点を調整して対応するVRナビゲーション動作に適合させるようにニアアイディスプレイ409Bに指示することができる。例えば、ユーザ410Bがジェスチャ420Bで手を振る場合、そのジェスチャ420Bは、プロセッサ404Bおよびリポジトリ208BによってVRシーンで「前進」と解釈され得る。その結果、プロセッサ204Bは、ニアアイディスプレイ409Bによって見るユーザ410Bの視点を前方に進めるように、ニアアイディスプレイ209Bに指示することができる。なお、以下で詳細に説明するように、手420Bを振ることは、VR世界で前進することを模倣する任意の他の操作(例えば、水泳の動き)に置き換えることができる。また、ジェスチャを使用してVRナビゲーション動作を引き起こすだけでなく、予め設定された静的な姿勢もVRナビゲーション動作を引き起こすために用いることができる。例えば、ユーザ410Bの手の振りは、手が特定の角度で上方に傾いたときに終了する。この姿勢は、「進む」を意味するナビゲーション動作コマンド(予めそのように設定されている場合)として解釈され、手がほぼその特定の角度で傾斜している限り、ユーザはVR世界で前進し続ける。上述したように、少なくともいくつかの実施形態では、ジェスチャ及び姿勢取得装置402Bはシステム400Bの外部にあり、遠隔地から位置および方向に関する生データを提供することができる。
図5は、本発明のいくつかの実施形態による方法500を示すフローチャートである。処理が開始されると、物体510の姿勢が識別される。姿勢が検出されると、検出された姿勢を空間的に表すベクトルが物体から導出される。このベクトルを仮想現実におけるナビゲーション動作に移行することで、そのベクトルの長さと角度に基づく連続的な動きが仮想世界530に適用される。次いで、方法は、終了動作またはトリガが識別されたかどうかを繰り返しチェックする(540)。終了動作が識別された場合、仮想世界での動きが終了する(550)。終了動作が識別されていない場合、その終了動作が識別されるまで、連続的な動きが繰り返し適用される(530)。なお、上記説明は、姿勢だけでなくジェスチャにも適用可能である。静的な姿勢であっても仮想世界の動きを引き起こすという点で姿勢の適用は優れている。
図6Aは、本発明の実施形態のVRシステムによる姿勢に関する態様を示す図である。一連の胴体の傾斜が示されている。姿勢611Cは、他のすべてのジェスチャまたは姿勢の元となる基本姿勢である。姿勢612Cにおいて、ユーザは現実世界で前方に傾き、この動作は、VRナビゲーション領域においてVRナビゲーションコマンドとして解釈され得る。上述のように、このコマンドは、611Cから612Cへの移行(例えば、ジェスチャ)であってもよいし、所定のVRナビゲーション動作を引き起こす角度αを規定する212C(例えば、姿勢)の単なる静的事象であってもよい。
同様に、姿勢613Cにおける前方への更なる傾きは、すでに発生しているVRナビゲーション動作の促進因子として働き、ここでは角度βが角度αよりも大きくなるにつれて動きがより速くなる。基本姿勢614Cに戻ると、終了動作とみなされ、通常は、VRナビゲーション動作がその状況に基づいて除去されるか、または少なくともその影響が低減される。
図6Bは、本発明のVRシステムの実施形態による姿勢に関する別の態様を示す図である。ここでは、基本姿勢は、互いに離間して特定の距離D1に配置された2つの手のひら621Dである。姿勢の種類(例えば、2つの手のひらが横並びに伸びた状態)が識別されると、その距離の測定値が姿勢622DでD2となることでVRナビゲーション動作が引き起こされ得る。この場合、D2の絶対値またはD1とD2との差が、上述したリポジトリによって予め設定されたVRナビゲーション動作に対応するメトリックとして機能する。
姿勢623Dでは、両手の間の距離D2は同じままである。いくつかの実施形態によれば、この場合、手は静的であり全く動かないものの、進行中のナビゲーションコマンドと解釈され得る。姿勢624Dでは、両手の間の横方向の距離D3が、VRナビゲーション動作に変換されるメトリックとして使用される。2つ以上の身体部分の間の比率、距離、および角度はすべて、対応するVRナビゲーションコマンドまたは動作として解釈されるメトリックとして使用することができる。
図7は、ユーザ700Aが仮想世界における動きまたは変位を引き起こし得るさらに別の方法を示す。ユーザ700Aは、身体を位置720から、前傾角度αを規定する位置710まで前方に傾ける。現実世界における前傾動作は、例えばセグウェイ(商標)を制御する場合と同様の方法で、仮想世界における前進動作に変換され得る。
具体的には、ユーザ700Aの胴体が位置710と基本位置720との間の非ゼロ角度αを規定する限り、仮想世界における前進動作が継続する。角度αの値は、前進の速度に影響を及ぼし得る。グラフ700Bに示されるように、現実世界の動きと、対応する仮想世界の動きとは線形関係を示していない。むしろグラフ700Bに示されるように、胴体の小さな傾きは仮想世界には影響を与えず、仮想世界での動きは、予め設定された角度αを超えた場合にのみ開始される。そして、仮想世界での動きが開始されると、仮想世界で前進するのに小さな傾きでも十分となる。特定の角度を超えると胴体の傾斜に対する感度が再び低下することで、前進速度の上限が効果的に付与される。
いくつかの実施形態では、使用される胴体の傾きは、位置722で装置によって生成された深さマップと、位置712で装置によって生成された深さマップとの差を分析することによって検出される。具体的には、位置720から位置710への移動中に現実世界の視点が変化すると、装置によって生成される深さマップも同様に変化する。深さマップの変化を分析することにより、胴体の傾きを間接的に推定することができる。なお、そのようなジェスチャは、ユーザを見る遠隔外部カメラ(ここでは図示せず)を必要とする場合もある。
図8Aおよび8Bは、本発明のいくつかの実施形態のさらに別の態様を示す図である。図8Aは、位置800Aにおけるユーザを示しており、2つの手810A,820Aが前方に互いに隣接して延びている。図8Bは、位置800Bにおけるユーザを示しており、2つの手810B,820Bがそれらの間に角度γを規定している。前方に延びた2つの手の姿勢の種類が認識されると、角度γの対応するメトリックが測定され、仮想世界におけるナビゲーションコマンドのガイダンスとして使用され得る。
図9は、本発明のいくつかの実施形態のさらに別の態様を示す図である。ここでは、仮想現実ナビゲーションは、ユーザ900の肩を、例えば、位置920から、変位930を規定する位置910に持ち上げることによって引き起こされ、この変位930が測定されることで仮想現実世界の対応するナビゲーションコマンドに変換される。なお、本明細書で説明するこのようなジェスチャは、シーン内に位置してユーザ900に向けられた遠隔カメラ940を必要とする場合もある。
図10は、本発明のいくつかの実施形態による態様を示す高レベルのフローチャートである。本発明の実施形態の一つの課題は、視線方向または頭の向きにおける変化と、頭部の位置に影響を及ぼしVRナビゲーションコマンドとして解釈されるべき意図的なジェスチャまたは姿勢とを区別することにある。この区別は、視点を変更する目的のみのためにユーザの頭が動いていることに関連していると認識されるものを身体全体のジェスチャから減算することによって実行され得る。
本発明のいくつかの実施形態によれば、パターン光の反射を分析することは、ユーザの頭部に対して身体部分のジェスチャを取り出すために、ユーザの頭の動きに関連する動き成分を減算することを含み得る。取得された動きは、望ましくない頭の動きを除去した、いわゆる「純粋なジェスチャ」となる。
非限定的な可能な実施形態によれば、反射に基づいて動きが識別されると(1010)、ユーザの頭が動いたかどうかがチェックされる(1020)。ユーザの頭が動いた場合は、手が同様に動いたかどうかがさらにチェックされる(1022)。手が動いた場合は、何も動作を行う必要がない(1030)。頭と手で異なる動きが行われた場合は、頭の動きと手の動きとの減算が行われる(1040)。頭が動かなかった場合には、手が動いたかどうかがチェックされる(1024)。手が動かなかった場合は、何も動作が行われない(1030)。手が動いた場合は、頭の動きと手の動きとの減算が行われる(1040)。
図11は、本発明の一実施形態によるシステムおよび環境を例示する概略図である。ユーザ10は、照明器1120および撮像装置1110をさらに含むニアアイディスプレイ1100を着用している。動作中、ニアアイディスプレイ1130は、ユーザ10の両目に合成シーンを投影するように構成されている。照明器1110は、ユーザ10自身および/またはユーザ10の近傍をパターン光1122にて照明し、そのパターン光の反射が撮像装置1110によって撮像され、ニアアイディスプレイ1100内のコンピュータプロセッサ1130によって分析されることで、リアルタイムで変化する位置および向きが取得される。ユーザ10が所定のジェスチャを行う場合、ジョイスティック18A/18Bなどの仮想入力装置が画像内に現れる。ユーザは、仮想世界で仮想ジョイスティックを掴み、現実世界におけるジェスチャを用いてその仮想ジョイスティックを制御することができる。すると、そのジョイスティックの向きの変化が20A/20Bで示されるように画像19A,19B内に現れる。ここでは、実際のジョイスティックが含まれておらず、むしろ、完全に仮想化されたジョイスティックが含まれている点に着目することが重要である。なお、任意の入力装置を仮想化することができる。この実施形態の焦点は、ジョイスティックを把持し制御することを模倣するユーザによって姿勢およびジェスチャが実行される点にあり、これにより、直感的な身体ジェスチャが可能となる。
以上の説明において、一つの実施形態は本発明の一例または実現例であり、「一実施形態」や「実施形態」や「いくつかの実施形態」などの記載は、必ずしもすべてが同じ実施形態を指すとは限らない。
本発明の種々の特徴が単一の実施形態の文脈で説明されている場合でも、それらの特徴を別々にまたは任意の適切な組み合わせで提供することもできる。あるいは、明瞭化のために別々の実施形態の文脈で本発明が説明されている場合でも、本発明を単一の実施形態で実施することもできる。
本明細書において、「いくつかの実施形態」や「一実施形態」や「他の実施形態」などは、それらの実施形態に関連して説明されている特定の特徴、構造、または特性が少なくともいくつかの実施形態において含まれていることを意味し、必ずしも本発明のすべての実施形態に含まれていることを意味しない。
本明細書で使用する表現および用語は、限定として解釈されるべきでなく、説明のみを目的とする。
本発明の教示の原理および使用は、実施例や添付の図面を参照することによって、より良く理解され得る。
本明細書で説明する詳細は、本発明の適用に対する限定を意図しない。
また、本発明は種々の方法で実行または実施することができ、上述した説明以外の実施形態でも実施することができる。
用語「含む」、「備える」、「からなる」やその変形表現は、1つまたは複数の構成要素、特徴、ステップ、あるいは整数またはグループの追加を排除するものではなく、構成要素、特徴、ステップまたは整数を特定するものと解釈されるべきである。
明細書または特許請求の範囲が「追加」の要素を指す場合、その追加の要素が2つ以上存在することを排除しない。
明細書または特許請求の範囲が「一つ」の要素を参照する場合、そのような参照は、その要素が1つのみ存在すると解釈されるべきではない。
本明細書において、構成要素、特徴、構造、または特性が含まれ「得る」と述べる場合、その特定の構成要素、特徴、構造、または特性が含まれることが必須とされるわけではない。
適用可能な場合には、実施形態を説明するために状態図、フローチャート、またはその両方を使用する場合があるが、本発明はこれらの図または対応する説明に限定されるものではない。例えば、処理の流れは、それぞれ図示したボックスや状態を通じて行う必要はなく、また、図示し説明したものと全く同じ順序で行う必要はない。
本発明の方法は、手動で、自動で、またはそれらの組み合わせで、選択されたステップまたは処理を実行または完了することによって実施することができる。
特許請求の範囲および明細書に記載した説明、実施例、方法および材料は、限定として解釈されるべきでなく、単に例示として解釈されるべきである。
本明細書で使用する技術用語および科学用語の意味は、他に定義されない限り、本発明が属する技術分野の当業者によって一般的に理解される意味である。
本発明は、本明細書で説明するものと同等または類似の方法および材料を用いて試験または実施において実施することができる。
本発明を限定された数の実施形態に関して説明したが、これらは本発明の範囲を限定するものではなく、むしろ、好ましい実施形態のいくつかの例示として解釈されるべきである。他の可能な変形、変更、および適用もまた本発明の範囲内に含まれる。したがって、本発明の範囲は、上記説明したものによって限定されるべきではなく、添付の特許請求の範囲およびそれらの同等物によって限定されるべきである。

Claims (20)

  1. 方法であって、
    合成3Dシーンを表示するステップと、
    ユーザの少なくとも1つの身体部分によって実行されるユーザの動きを識別するステップと、
    識別された動きを空間的に表すベクトルを導出するステップと、
    前記ベクトルの角度に基づいて、前記ベクトルを、ユーザが前記識別された動きを実行している間に生じる前記合成3Dシーン内の連続的な動きに変換するステップと、
    前記合成3Dシーン内の動きを反映するように前記合成3Dシーンを修正するステップと
    を含む方法。
  2. ユーザの動きを識別するステップは、ユーザの少なくとも1つのジェスチャまたは姿勢を識別することを含む、請求項1に記載の方法。
  3. 前記合成3Dシーン内の動きの速度は、前記角度の値によって影響を受ける、請求項1に記載の方法。
  4. 前記合成3Dシーン内の動きは、前記角度が所定の閾値角度より大きいことに基づいて引き起こされる、請求項1に記載の方法。
  5. 前記角度の値と所定の閾値角度との間の差に基づいて前記合成3Dシーン内の動きを加速させるステップをさらに含む、請求項4に記載の方法。
  6. 前記角度が前記所定の閾値角度と上限角度との間にあるとき、ユーザの前記識別された動きと前記合成3Dシーン内の動きとが非線形の関係を示す、請求項4に記載の方法。
  7. 前記合成3Dシーン内の動きに関して、前記上限角度を超える角度の値に基づいて、ユーザの動きに対する感度を低減させるステップをさらに含む、請求項6に記載の方法。
  8. ユーザの動きによって生じた角度の値の変化を、前記合成3Dシーン内の距離に亘る前記合成3Dシーン内の動きに変換するステップをさらに含み、前記距離および前記角度の値の変化は非線形の関係を示す、請求項1に記載の方法。
  9. ユーザの前記識別された動きは、ユーザの少なくとも2つの身体部分の間の空間関係によって定義され、前記方法はさらに、
    前記少なくとも2つの身体部分の間の角度を決定するステップと、
    決定された角度を前記合成3Dシーン内の連続的な動きに変換するステップと
    を含む、請求項1に記載の方法。
  10. ユーザの動きを識別するステップは、ユーザの頭部の動きに対して前記少なくとも1つの身体部分の姿勢およびジェスチャのみを得るために、ユーザの頭部の動きに関連する動き成分を除去することをさらに含む、請求項1に記載の方法。
  11. 仮想ユーザインタフェース物体を前記合成3Dシーンに重ね合わせて、ユーザが前記仮想ユーザインタフェース物体に対してジェスチャおよび姿勢を適用することを可能にするステップをさらに含む、請求項1に記載の方法。
  12. システムであって、
    合成3Dシーンを表示するように構成された装置と、
    コンピュータプロセッサであって、
    ユーザの少なくとも1つの身体部分によって実行されるユーザの動きを識別し、
    識別された動きを空間的に表すベクトルを導出し、
    前記ベクトルの角度に基づいて、前記ベクトルを、ユーザが前記識別された動きを実行している間に生じる前記合成3Dシーン内の連続的な動きに変換し、
    前記合成3Dシーン内の動きを反映するように前記合成3Dシーンを修正するように構成されたコンピュータプロセッサと
    を備えるシステム。
  13. 前記コンピュータプロセッサは、ユーザの少なくとも1つのジェスチャまたは姿勢を識別することによってユーザの動きを識別するようにさらに構成されている、請求項12に記載のシステム。
  14. 前記合成3Dシーン内の動きは、前記角度が所定の閾値角度より大きいことに基づいて引き起こされる、請求項12に記載のシステム。
  15. 前記コンピュータプロセッサは、前記角度の値と所定の閾値角度との間の差に基づいて前記合成3Dシーン内の動きを加速させるようにさらに構成されている、請求項14に記載のシステム。
  16. 前記角度が前記所定の閾値角度と上限角度との間にあるとき、ユーザの前記識別された動きと前記合成3Dシーン内の動きとが非線形の関係を示す、請求項14に記載のシステム。
  17. 前記コンピュータプロセッサは、前記合成3Dシーン内の動きに関して、前記上限角度を超える角度の値に基づいて、ユーザの動きに対する感度を低減させるようにさらに構成されている、請求項16に記載のシステム。
  18. 前記コンピュータプロセッサは、ユーザの動きによって生じた角度の値の変化を、前記合成3Dシーン内の距離に亘る前記合成3Dシーン内の動きに変換するようにさらに構成され、前記距離および前記角度の値の変化は非線形の関係を示す、請求項12に記載のシステム。
  19. 前記コンピュータプロセッサは、ユーザの頭部の動きに対して前記少なくとも1つの身体部分の姿勢およびジェスチャのみを得るために、ユーザの頭部の動きに関連する動き成分を除去するようにさらに構成されている、請求項12に記載のシステム。
  20. 前記コンピュータプロセッサは、仮想ユーザインタフェース物体を前記合成3Dシーンに重ね合わせて、ユーザが前記仮想ユーザインタフェース物体に対してジェスチャおよび姿勢を適用することを可能にするようにさらに構成されている、請求項12に記載のシステム。
JP2018244584A 2014-12-18 2018-12-27 仮想現実環境においてナビゲートする方法、システム、および装置 Active JP6810125B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201462093493P 2014-12-18 2014-12-18
US62/093,493 2014-12-18

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017532919A Division JP6554631B2 (ja) 2014-12-18 2015-12-18 仮想現実環境においてナビゲートする方法、システム、および装置

Publications (2)

Publication Number Publication Date
JP2019083033A true JP2019083033A (ja) 2019-05-30
JP6810125B2 JP6810125B2 (ja) 2021-01-06

Family

ID=56127742

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017532919A Active JP6554631B2 (ja) 2014-12-18 2015-12-18 仮想現実環境においてナビゲートする方法、システム、および装置
JP2018244584A Active JP6810125B2 (ja) 2014-12-18 2018-12-27 仮想現実環境においてナビゲートする方法、システム、および装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017532919A Active JP6554631B2 (ja) 2014-12-18 2015-12-18 仮想現実環境においてナビゲートする方法、システム、および装置

Country Status (6)

Country Link
US (2) US9659413B2 (ja)
EP (1) EP3234741A4 (ja)
JP (2) JP6554631B2 (ja)
KR (4) KR102284821B1 (ja)
CN (2) CN107209561A (ja)
WO (1) WO2016100931A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9507411B2 (en) * 2009-09-22 2016-11-29 Facebook, Inc. Hand tracker for device with display
EP3234741A4 (en) * 2014-12-18 2018-08-22 Facebook, Inc. Method, system and device for navigating in a virtual reality environment
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
JP5981591B1 (ja) * 2015-03-17 2016-08-31 株式会社コロプラ 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
EP3106963B1 (en) 2015-06-16 2019-07-24 Nokia Technologies Oy Mediated reality
JP6203346B1 (ja) * 2016-08-16 2017-09-27 株式会社コロプラ 仮想空間を提供する方法、プログラム、および記録媒体
US10650621B1 (en) 2016-09-13 2020-05-12 Iocurrents, Inc. Interfacing with a vehicular controller area network
KR102497449B1 (ko) 2016-11-25 2023-02-07 센소릭스 아게 웨어러블 모션 트래킹 시스템
US10055028B2 (en) * 2016-12-05 2018-08-21 Google Llc End of session detection in an augmented and/or virtual reality environment
CN106775245B (zh) * 2016-12-19 2020-02-14 传线网络科技(上海)有限公司 基于虚拟现实的用户属性设置方法及装置
US11157131B2 (en) 2017-02-24 2021-10-26 Vrad Inc. Virtual reality-based radiology practice apparatus and method
US10388077B2 (en) 2017-04-25 2019-08-20 Microsoft Technology Licensing, Llc Three-dimensional environment authoring and generation
US10417827B2 (en) 2017-05-04 2019-09-17 Microsoft Technology Licensing, Llc Syndication of direct and indirect interactions in a computer-mediated reality environment
FR3069936B1 (fr) 2017-08-03 2019-09-27 Renault S.A.S Interaction tactile avec des ihm dans un environnement immersif
JP7073481B2 (ja) * 2018-03-08 2022-05-23 塁 佐藤 画像表示システム
US11386604B2 (en) * 2018-09-27 2022-07-12 Apple Inc. Moving an avatar based on real-world data
US11410398B2 (en) 2018-11-21 2022-08-09 Hewlett-Packard Development Company, L.P. Augmenting live images of a scene for occlusion
CN110221690B (zh) * 2019-05-13 2022-01-04 Oppo广东移动通信有限公司 基于ar场景的手势交互方法及装置、存储介质、通信终端
EP3942401A1 (en) 2019-06-20 2022-01-26 Dirtt Environmental Solutions Ltd. Voice communication system within a mixed-reality environment
US11462000B2 (en) * 2019-08-26 2022-10-04 Apple Inc. Image-based detection of surfaces that provide specular reflections and reflection modification
KR102464437B1 (ko) 2022-05-04 2022-11-09 주식회사 엠펀치 기가 픽셀 미디어 객체 감상 및 거래를 제공하는 메타버스 기반 크로스 플랫폼 서비스 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001229394A (ja) * 2000-02-17 2001-08-24 Nippon Telegr & Teleph Corp <Ntt> 仮想空間制御方法、仮想空間制御装置、および仮想空間制御プログラムを記録した記録媒体
JP2006506737A (ja) * 2002-11-19 2006-02-23 モトローラ・インコーポレイテッド 身体中心的な仮想対話型装置および方法
JP2006323769A (ja) * 2005-05-20 2006-11-30 Tokai Univ 対面入力装置
JP2009266241A (ja) * 2006-05-04 2009-11-12 Sony Computer Entertainment America Inc 1つ以上の視覚、音響、慣性およびミックスデータに基づく入力にギアリング効果を与える方法ならびに装置
WO2013175701A1 (ja) * 2012-05-25 2013-11-28 株式会社ソニー・コンピュータエンタテインメント 映像解析装置、映像解析方法、および注視点表示システム

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6181343B1 (en) * 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
JPH11305907A (ja) * 1998-04-21 1999-11-05 Nippon Telegr & Teleph Corp <Ntt> 仮想現実空間内移動インタフェース装置及び情報生成方法並びに情報生成プログラムを記録した記録媒体
JP2001250123A (ja) * 2000-03-06 2001-09-14 Nippon Telegr & Teleph Corp <Ntt> 仮想空間制御方法、仮想空間制御装置、および仮想空間制御プログラムを記録した記録媒体
JP2002157607A (ja) 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
US7774075B2 (en) * 2002-11-06 2010-08-10 Lin Julius J Y Audio-visual three-dimensional input/output
US7529690B2 (en) * 2004-05-22 2009-05-05 Altaf Hadi System and method for delivering real time remote buying, selling, meeting, and interacting in a virtual reality environment
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US8633890B2 (en) * 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
US9366862B2 (en) * 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US8488246B2 (en) * 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US9134534B2 (en) * 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
EP2539759A1 (en) 2010-02-28 2013-01-02 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US20110317871A1 (en) * 2010-06-29 2011-12-29 Microsoft Corporation Skeletal joint recognition and tracking system
US8582867B2 (en) * 2010-09-16 2013-11-12 Primesense Ltd Learning-based pose estimation from depth maps
US8657683B2 (en) * 2011-05-31 2014-02-25 Microsoft Corporation Action selection gesturing
US20120320080A1 (en) 2011-06-14 2012-12-20 Microsoft Corporation Motion based virtual object navigation
US9002099B2 (en) * 2011-09-11 2015-04-07 Apple Inc. Learning-based estimation of hand and finger pose
EP2761362A4 (en) * 2011-09-26 2014-08-06 Microsoft Corp VIDEO DISPLAY CHANGE BASED ON SENSOR INPUT FOR TRANSPARENT EYE DISPLAY
US20130137076A1 (en) 2011-11-30 2013-05-30 Kathryn Stone Perez Head-mounted display based education and instruction
CN104603673B (zh) 2012-09-03 2017-03-15 Smi创新传感技术有限公司 头戴式***以及使用头戴式***计算和渲染数字图像流的方法
JP6066676B2 (ja) 2012-11-06 2017-01-25 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイおよび映像提示システム
US9477313B2 (en) * 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US9977492B2 (en) * 2012-12-06 2018-05-22 Microsoft Technology Licensing, Llc Mixed reality presentation
US9202313B2 (en) * 2013-01-21 2015-12-01 Microsoft Technology Licensing, Llc Virtual interaction with image projection
US10133342B2 (en) * 2013-02-14 2018-11-20 Qualcomm Incorporated Human-body-gesture-based region and volume selection for HMD
JP5696908B2 (ja) * 2013-02-15 2015-04-08 コニカミノルタ株式会社 操作表示システム
US20140282275A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Detection of a zooming gesture
US9443354B2 (en) * 2013-04-29 2016-09-13 Microsoft Technology Licensing, Llc Mixed reality interactions
US9367960B2 (en) * 2013-05-22 2016-06-14 Microsoft Technology Licensing, Llc Body-locked placement of augmented reality objects
JP2014235634A (ja) * 2013-06-04 2014-12-15 国立大学法人 筑波大学 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム
KR101347037B1 (ko) * 2013-07-31 2014-01-03 주식회사 장 자동화 종류가 상이한 식물종자가 부착되는 종자붙임 멀칭재 제조 방법 및 종자붙임 멀칭재
US9285872B1 (en) * 2013-12-12 2016-03-15 Google Inc. Using head gesture and eye position to wake a head mounted device
EP3234741A4 (en) * 2014-12-18 2018-08-22 Facebook, Inc. Method, system and device for navigating in a virtual reality environment
US9588593B2 (en) * 2015-06-30 2017-03-07 Ariadne's Thread (Usa), Inc. Virtual reality system with control command gestures

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001229394A (ja) * 2000-02-17 2001-08-24 Nippon Telegr & Teleph Corp <Ntt> 仮想空間制御方法、仮想空間制御装置、および仮想空間制御プログラムを記録した記録媒体
JP2006506737A (ja) * 2002-11-19 2006-02-23 モトローラ・インコーポレイテッド 身体中心的な仮想対話型装置および方法
JP2006323769A (ja) * 2005-05-20 2006-11-30 Tokai Univ 対面入力装置
JP2009266241A (ja) * 2006-05-04 2009-11-12 Sony Computer Entertainment America Inc 1つ以上の視覚、音響、慣性およびミックスデータに基づく入力にギアリング効果を与える方法ならびに装置
WO2013175701A1 (ja) * 2012-05-25 2013-11-28 株式会社ソニー・コンピュータエンタテインメント 映像解析装置、映像解析方法、および注視点表示システム

Also Published As

Publication number Publication date
JP2018501570A (ja) 2018-01-18
KR20210099163A (ko) 2021-08-11
WO2016100931A8 (en) 2017-07-13
JP6810125B2 (ja) 2021-01-06
US20160180595A1 (en) 2016-06-23
JP6554631B2 (ja) 2019-08-07
CN113050802A (zh) 2021-06-29
KR20210097818A (ko) 2021-08-09
CN107209561A (zh) 2017-09-26
KR20180088754A (ko) 2018-08-06
EP3234741A4 (en) 2018-08-22
KR102284821B1 (ko) 2021-08-03
WO2016100931A1 (en) 2016-06-23
US20170169618A1 (en) 2017-06-15
US9659413B2 (en) 2017-05-23
US9972136B2 (en) 2018-05-15
EP3234741A1 (en) 2017-10-25
KR20170081272A (ko) 2017-07-11

Similar Documents

Publication Publication Date Title
JP6810125B2 (ja) 仮想現実環境においてナビゲートする方法、システム、および装置
CN110022470B (zh) 使用合成图像训练对象检测算法的方法和***和存储介质
JP6090140B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN107004279B (zh) 自然用户界面相机校准
US20140015831A1 (en) Apparatus and method for processing manipulation of 3d virtual object
JP2023507867A (ja) 人工現実コンテンツの可変焦点ディスプレイを有する人工現実システム
WO2016205046A1 (en) Three-dimensional user input
US10139902B2 (en) Method and apparatus for changing a field of view without synchronization with movement of a head-mounted display
US20130050069A1 (en) Method and system for use in providing three dimensional user interface
JP2018526716A (ja) 媒介現実
EP3021206B1 (en) Method and device for refocusing multiple depth intervals, and electronic device
WO2021242451A1 (en) Hand gesture-based emojis
JP6499384B2 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
KR101892735B1 (ko) 직관적인 상호작용 장치 및 방법
US20150277570A1 (en) Providing Onscreen Visualizations of Gesture Movements
JPWO2017122270A1 (ja) 画像表示装置
US20220155881A1 (en) Sensing movement of a hand-held controller
JPWO2020080107A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN110895433A (zh) 用于增强现实中用户交互的方法和装置
JP2024500740A (ja) オブジェクトの選択の方法及びシステム
CN117716327A (zh) 用于管理用户界面与物理对象的交互的方法和设备
CA3058447A1 (en) A system for generating and displaying interactive mixed-reality video on mobile devices
Reiners et al. Blurry (Sticky) Finger: Proprioceptive Pointing and Selection of Distant Objects for Optical See-through based Augmented Reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181227

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190517

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190604

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200407

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200928

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200928

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20201007

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20201013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201210

R150 Certificate of patent or registration of utility model

Ref document number: 6810125

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250