JP2017529635A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2017529635A5 JP2017529635A5 JP2017518040A JP2017518040A JP2017529635A5 JP 2017529635 A5 JP2017529635 A5 JP 2017529635A5 JP 2017518040 A JP2017518040 A JP 2017518040A JP 2017518040 A JP2017518040 A JP 2017518040A JP 2017529635 A5 JP2017529635 A5 JP 2017529635A5
- Authority
- JP
- Japan
- Prior art keywords
- item
- virtual
- user
- totem
- user interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000875 corresponding Effects 0.000 claims description 31
- 230000003993 interaction Effects 0.000 claims description 17
- 238000009877 rendering Methods 0.000 claims description 13
- 230000003190 augmentative Effects 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 8
- 238000004891 communication Methods 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims 2
- 210000003811 Fingers Anatomy 0.000 description 38
- 238000004458 analytical method Methods 0.000 description 14
- 238000010606 normalization Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000037081 physical activity Effects 0.000 description 4
- 230000000704 physical effect Effects 0.000 description 4
- 230000001953 sensory Effects 0.000 description 4
- 210000001747 Pupil Anatomy 0.000 description 3
- 210000003813 Thumb Anatomy 0.000 description 2
- 230000005057 finger movement Effects 0.000 description 2
- 239000003973 paint Substances 0.000 description 2
- 230000001737 promoting Effects 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 238000001356 surgical procedure Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 238000005755 formation reaction Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006011 modification reaction Methods 0.000 description 1
- 230000035764 nutrition Effects 0.000 description 1
- 235000016709 nutrition Nutrition 0.000 description 1
- 230000003287 optical Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
Description
本発明の付加的ならびに他の目的、特徴、および利点は、詳細な説明、図、および請求項に説明される。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
マップデータを生成する方法であって、
1つ以上の画像に関連付けられたマップ点の集合を識別することと、
低密度点の集合および高密度点の集合を前記識別されたマップ点から決定することと、
前記それぞれの低密度点および高密度点の集合の正規化を行うことと
を含む、方法。
(項目2)
前記それぞれの低密度点および高密度点の集合のための低密度および高密度点記述子を生成することと、
前記低密度点記述子および高密度点記述子を組み合わせ、マップデータとして記憶することと
をさらに含む、項目1に記載の方法。
(項目3)
前記低密度点の集合は、固有の特徴に対応する、項目1に記載の方法。
(項目4)
前記固有の特徴は、角、円形、三角形、およびテキストから成る群から選択される、項目3に記載の方法。
(項目5)
前記高密度点の集合は、視野内の3D点に対応する、項目1に記載の方法。
(項目6)
前記高密度点の集合はまた、色値を含む、項目5に記載の方法。
(項目7)
前記正規化は、スケール正規化を備えている、項目1に記載の方法。
(項目8)
前記正規化は、共通原点に対する座標正規化を備えている、項目1に記載の方法。
(項目9)
前記正規化は、機械学習を使用して実装される、項目1に記載の方法。
(項目10)
前記低密度および高密度点記述子は、前記それぞれの低密度および高密度点の集合の各低密度および高密度点に対応する、項目1に記載の方法。
(項目11)
各低密度および高密度点記述子は、スケール、配向、パッチデータ、およびテクスチャから成る群から選択される、それぞれの低密度および高密度点に関する情報を含む、項目10に記載の方法。
(項目12)
ユーザ入力を決定する方法であって、
ユーザの視野の画像を捕捉することであって、前記画像は、前記ユーザによって作成されたジェスチャを含む、ことと、
前記捕捉された画像を分析し、前記ジェスチャに関連付けられた点の集合を識別することと、
前記識別された点の集合を所定のジェスチャのデータベースに関連付けられた点の集合と比較することと、
認識されたジェスチャに基づいて、ユーザ入力を決定することと
を含む、方法。
(項目13)
前記比較に基づいて、前記識別された点の集合のためのスコア化値を生成することをさらに含む、項目12に記載の方法。
(項目14)
前記スコア化値が閾値を超えている場合、前記ジェスチャを認識することをさらに含む、項目13に記載の方法。
(項目15)
前記所定のジェスチャをデータベース内に記憶することをさらに含む、項目12に記載の方法。
(項目16)
ネットワーク化されたメモリにアクセスし、前記所定のジェスチャのデータベースにアクセスすることをさらに含む、項目15に記載の方法。
(項目17)
前記ジェスチャは、手のジェスチャである、項目12に記載の方法。
(項目18)
前記ジェスチャは、指ジェスチャである、項目12に記載の方法。
(項目19)
前記ジェスチャは、指間相互作用である、項目12に記載の方法。
(項目20)
前記ジェスチャは、指間相互作用、指示、タップ、および摩擦から成る群から選択される、項目12に記載の方法。
(項目21)
前記決定されたユーザ入力に少なくとも部分的に基づいて、1つ以上の仮想オブジェクトを前記ユーザに表示することをさらに含む、項目12に記載の方法。
(項目22)
前記1つ以上の仮想オブジェクトは、仮想ユーザインターフェースを備えている、項目21に記載の方法。
(項目23)
方法であって、
ユーザの視野に対応する1つ以上の画像を捕捉することと、
前記捕捉された1つ以上の画像を分析し、前記ユーザによって作成された1つ以上のジェスチャを識別することであって、前記分析は、複数の段階を有するカスケード機構を利用することを含む、ことと
を含む、方法。
(項目24)
前記カスケード機構は、複数のノードを備え、各ノードは、前記複数の段階のうちのある段階に対応する、項目23に記載の方法。
(項目25)
前記カスケード機構は、一連のパーミッシブ型分析ノードを備えている、項目23に記載の方法。
(項目26)
前記カスケード機構の前記複数の段階のうちの前の段階は、前記カスケード機構の前記複数の段階のうちの後の段階と比較して少ない処理電力を消費する、項目23に記載の方法。
(項目27)
非ジェスチャは、前記カスケード機構の前記前の段階において捕捉された画像の分析に基づいて、除去される、項目26に記載の方法。
(項目28)
前記複数の段階のうちの前記後の段階は、前記捕捉された画像に少なくとも部分的に基づいて、より複雑なジェスチャを決定する、項目26に記載の方法。
(項目29)
前記捕捉された画像の分析は、前記捕捉された画像内の種々の形状の輪郭の鮮鋭度がジェスチャを構成するために十分に鮮鋭であるかどうかを決定することを含む、項目26に記載の方法。
(項目30)
前記カスケード機構の前記後の段階は、異なるジェスチャ間で区別するために利用される、項目26に記載の方法。
(項目31)
前記分析に少なくとも部分的に基づいて、スコアを生成することをさらに含む、項目23に記載の方法。
(項目32)
前記生成されたスコアが最小閾値より低い場合、候補画像を検討から除くことをさらに含む、項目31に記載の方法。
(項目33)
前記生成されたスコアが最小閾値より高い場合、前記カスケード機構の前記後の段階に前進することをさらに含む、項目31に記載の方法。
(項目34)
方法であって、
ユーザのそれぞれの視野の複数の画像を捕捉することと、
前記複数の画像を分析し、複数のジェスチャ候補を生成することと、
前記複数の分析値に対応する分析値を生成することであって、ジェスチャが、前記分析値に少なくとも部分的に基づいて、認識される、ことと
を含む、方法。
(項目35)
前記それぞれの分析値に少なくとも部分的に基づいて、前記ジェスチャ候補をソートすることをさらに含む、項目34に記載の方法。
(項目36)
最小閾値より低い分析値を有するジェスチャ候補を排除することをさらに含む、項目34に記載の方法。
(項目37)
前記分析値が最小閾値より高い場合、前記ジェスチャ候補を処理の次の段階に前進させることをさらに含む、項目34に記載の方法。
(項目38)
ジェスチャを分類する方法であって、
ユーザの視野の画像を捕捉することと、
深度区画化を前記捕捉された画像に行い、深度マップを生成することと、
前記生成された深度マップに少なくとも部分的に基づいて、ジェスチャを識別することと
を含む、方法。
(項目39)
分類機構を使用して、前記深度マップを分析し、前記深度マップ内の点に対応する手の一部を識別することをさらに含む、項目38に記載の方法。
(項目40)
前記手の一部の識別に基づいて、前記深度マップを骨格化することをさらに含む、項目39に記載の方法。
(項目41)
前記骨格化された深度マップに基づいて、前記画像をジェスチャとして分類することをさらに含む、項目40に記載の方法。
(項目42)
前記深度区画化は、線検索を備えている、項目38に記載の方法。
(項目43)
カスケード分析を前記深度マップに行い、前記画像を前記ジェスチャとして分類することをさらに含む、項目38に記載の方法。
(項目44)
深度拡張を前記深度マップに行うことをさらに含む、項目38に記載の方法。
(項目45)
表面正規化を前記深度マップに行うことをさらに含む、項目38に記載の方法。
(項目46)
配向正規化を前記深度マップに行うことをさらに含む、項目38に記載の方法。
(項目47)
背景減算を前記深度マップに行うことをさらに含む、項目38に記載の方法。
(項目48)
深度比較を前記深度マップに行うことをさらに含む、項目38に記載の方法。
(項目49)
前記骨格化された深度マップおよび以前の情報に基づいて、前記画像をジェスチャとして分類することをさらに含む、項目38に記載の方法。
(項目50)
前記分類機構は、決定森である、項目38に記載の方法。
(項目51)
ユーザ入力を決定する方法であって、
1つ以上のユーザの視野の画像を捕捉することであって、前記画像は、少なくとも所定の物理オブジェクトを備えている、ことと、
前記画像を分析し、前記所定の物理オブジェクトに関係する前記ユーザの移動を検出することと、
前記所定の物理オブジェクトに関係する前記移動の分析に少なくとも部分的に基づいて、ユーザ入力を決定することと
を含む、方法。
(項目52)
前記所定の物理オブジェクトを認識することをさらに含む、項目51に記載の方法。
(項目53)
前記所定の物理オブジェクトは、前記所定の物理オブジェクトの捕捉された画像と所定の物理オブジェクトのデータベースとの間の画像比較に少なくとも部分的に基づいて、認識される、項目52に記載の方法。
(項目54)
前記所定の物理オブジェクトに関係する前記ユーザの前記移動は、パターンを生成するために使用される、項目51に記載の方法。
(項目55)
前記生成されたパターンを所定のパターンのデータベースと比較することをさらに含む、項目54に記載の方法。
(項目56)
前記比較に基づいて、前記認識されたパターンのためのスコア化値を生成することをさらに含む、項目51に記載の方法。
(項目57)
前記スコア化値が閾値を超えている場合、前記ユーザ入力を決定することをさらに含む、項目56に記載の方法。
(項目58)
前記所定の物理オブジェクトに関係する前記移動を視覚的に追跡し、ビデオ録画を生成することをさらに含む、項目51に記載の方法。
(項目59)
前記ビデオ録画は、前記ユーザ入力を決定するために分析される、項目58に記載の方法。
(項目60)
ネットワーク化されたメモリを通して、前記所定のパターンのデータベースにアクセスすることをさらに含む、項目55に記載の方法。
(項目61)
前記所定の物理オブジェクトは、前記視野内の既存の構造、能動的にマークされたトーテム、受動的にマークされたトーテム、カメラ/センサに統合されたオブジェクト、およびトーテムコントローラオブジェクトから成る群から選択される、項目51に記載の方法。
(項目62)
前記所定の物理オブジェクトに関係する前記移動は、基準フレームに対する前記所定の物理オブジェクトの位置、配向、および移動から成る群から選択される、項目51に記載の方法。
(項目63)
前記所定の物理オブジェクトは、前記ユーザの手のうちの第1の手を備え、前記第1の手に関係する移動は、前記ユーザの手のうちの第2の手を用いた前記第1の手の操作を備えている、項目51に記載の方法。
(項目64)
前記所定の物理オブジェクトは、軟質硬度表面を有し、前記所定の物理オブジェクトに関係する移動は、前記ユーザによる前記軟質硬度表面の押下を備えている、項目51に記載の方法。
(項目65)
前記ユーザのための前記所定の物理オブジェクトに関連付けられた仮想インターフェース要素をレンダリングすることをさらに含む、項目51に記載の方法。
(項目66)
前記仮想インターフェース要素は、前記ユーザによって視認されると、前記仮想インターフェース要素が、前記所定の物理オブジェクトに関係する修正に少なくとも部分的に基づいて、修正されるように、前記所定の物理オブジェクトに関係して表示される、項目65に記載の方法。
(項目67)
前記所定の物理オブジェクトは、電子入力デバイスを備え、ユーザ入力は、前記所定の物理オブジェクトの認識された移動に基づいて、決定され、前記電子入力デバイスから入力される、項目51に記載の方法。
(項目68)
前記決定されたユーザ入力に少なくとも部分的に基づいて、前記ユーザに表示される仮想コンテンツの少なくとも1つの特性を修正することをさらに含む、項目51に記載の方法。
(項目69)
仮想ユーザインターフェースを生成する方法であって、
ユーザ入力に基づいて、ユーザに表示されるべき仮想ユーザインターフェースを識別することと、
前記ユーザに関連付けられた場所を得ることと、
前記得られた場所に少なくとも部分的に基づいて、前記識別された仮想ユーザインターフェースを表示すべき座標点の集合を決定することと、
前記決定された座標点において、前記仮想ユーザインターフェースを前記ユーザに表示することと
を含む、方法。
(項目70)
前記ユーザ入力は、認識されたジェスチャに少なくとも部分的に基づいて、決定される、項目69に記載の方法。
(項目71)
前記ユーザ入力は、音声コマンドに少なくとも部分的に基づいて、決定される、項目69に記載の方法。
(項目72)
前記ユーザ入力は、所定の物理オブジェクトとの相互作用に少なくとも部分的に基づいて、決定される、項目69に記載の方法。
(項目73)
前記識別されたユーザ仮想ユーザインターフェースをユーザインターフェースのライブラリから読み出すことをさらに含む、項目69に記載の方法。
(項目74)
前記識別された仮想ユーザインターフェースは、基準フレームに関連付けられている、項目69に記載の方法。
(項目75)
前記基準フレームは、身体中心基準フレームである、項目74に記載の方法。
(項目76)
前記基準フレームは、頭部中心基準フレームである、項目74に記載の方法。
(項目77)
前記基準フレームは、手中心基準フレームである、項目74に記載の方法。
(項目78)
前記基準フレームは、世界中心基準フレームである、項目74に記載の方法。
(項目79)
前記識別された仮想ユーザインターフェースに関連付けられた基準フレームと前記世界に関係する前記ユーザの得られた場所との間の変換を行い、前記仮想ユーザインターフェースの座標点の集合を決定することをさらに含む、項目69に記載の方法。
(項目80)
前記世界内の前記ユーザの場所は、前記ユーザのGPS場所に基づいて、決定される、項目69に記載の方法。
(項目81)
前記世界内の前記ユーザの場所は、前記ユーザに関連付けられたマップ点の集合に基づいて、決定される、項目69に記載の方法。
(項目82)
前記仮想ユーザインターフェースは、前記ユーザが移動する場合、静止しているように見える、項目69に記載の方法。
(項目83)
前記仮想ユーザインターフェースは、前記ユーザの移動に関係して移動する、項目69に記載の方法。
(項目84)
前記識別された仮想ユーザインターフェースに関連付けられた基準フレームを決定することと、
前記世界基準フレームに関係する前記基準フレームの場所を決定することと、
前記決定された場所を原点として設定することと、
前記原点に関係する前記座標点の集合を決定することと
をさらに含む、項目69に記載の方法。
(項目85)
前記マップ点の集合をネットワーク化されたメモリから読み出すことをさらに含む、項目69に記載の方法。
(項目86)
前記ユーザ入力は、前記仮想ユーザインターフェースが表示されるべき空間内の場所を備えている、項目69に記載の方法。
(項目87)
前記空間内の場所は、前記ユーザの場所における物理エンティティに関連付けられている、項目86に記載の方法。
(項目88)
前記ユーザ入力は、壁を示す投げる入力を含むジェスチャを含む、項目69に記載の方法。
(項目89)
前記ユーザ入力は、前記仮想ユーザインターフェースを生成するための命令の終了を意味するジェスチャを含む、項目69に記載の方法。
(項目90)
仮想ユーザインターフェースを生成する方法であって、
所定の物理オブジェクトの操作を検出することと、
前記検出された操作に基づいて、仮想ユーザインターフェースを作成するためのコマンドを認識することと、
仮想世界モデルから、前記所定の物理オブジェクトの位置に関連付けられたマップ点の集合を決定することと、
前記仮想ユーザインターフェースが前記ユーザによって視認されると、前記所定の物理オブジェクトの位置に静止しているように見えるように、前記仮想ユーザインターフェースを前記トーテムの位置に関連付けられた前記決定されたマップ点にリアルタイムでレンダリングすることと
を含む、方法。
(項目91)
前記所定の物理オブジェクトの操作は、前記所定の物理オブジェクトの表面上で前記ユーザの手によって挟んだ状態を広げるジェスチャを含む、項目90に記載の方法。
(項目92)
前記仮想ユーザインターフェースは、前記ユーザによって視認されると、前記所定の物理オブジェクトの表面の一部を覆うように見え、前記部分は、前記挟んだ状態を広げるジェスチャの形成中の前記ユーザの手の場所に対応する、項目91に記載の方法。
(項目93)
前記所定の物理オブジェクトは、前記ユーザの手である、項目90に記載の方法。
(項目94)
前記所定の物理オブジェクトの操作は、前記ユーザが手を広げること、前記ユーザが手のひらを広げて見せること、および前記ユーザが手を挙げることから成る群から選択される、アクションを備えている、項目93に記載の方法。
(項目95)
前記仮想ユーザインターフェースは、前記ユーザによって視認されると、前記手の表面の一部を覆うように見える、項目94に記載の方法。
(項目96)
前記仮想ユーザインターフェースは、前記手の指または親指によって選択可能な複数の第1のレベルのメニューアイテムを備えている、項目95に記載の方法。
(項目97)
前記手のさらなる操作を検出することと、
前記検出されたさらなる操作に基づいて、第2の仮想ユーザインターフェースを作成するためのコマンドを認識することと、
前記ユーザによって視認されると、前記仮想ユーザインターフェースが前記所定の物理オブジェクトの位置において静止しているように見えるように、前記所定の物理オブジェクトの位置に関連付けられた前記決定されたマップ点に前記第2の仮想ユーザインターフェースをリアルタイムでレンダリングすることと
をさらに含む、項目96に記載の方法。
(項目98)
前記手のさらなる操作は、前記手の指が離れるように広げることを含む、項目97に記載の方法。
(項目99)
前記第2の仮想ユーザインターフェースは、前記手の指または親指によって選択可能な複数の第2のレベルのメニューアイテムを備え、前記第2のレベルは、前記第1のレベルより低い、項目98に記載の方法。
(項目100)
前記トーテムのさらなる操作は、前記ユーザの手のうちの第2の手からの指を用いて、前記手のひらに円を描写する運動を行なうことを含む、項目97に記載の方法。
(項目101)
前記第2の仮想ユーザインターフェースは、弧に配列された複数のメニューアイテムを備え、前記メニューアイテムは、前記第2の手の指によってスクロール可能かつ選択可能である、項目100に記載の方法。
(項目102)
仮想世界を更新する方法であって、
第1の入力を第1のユーザの第1のデバイスから受信することであって、前記第1の入力は、前記第1のユーザの物理環境に対応する、ことと、
前記受信された第1の入力に基づいて、仮想世界モデルを更新することであって、前記仮想世界モデルは、前記第1のユーザの物理環境に対応する、ことと、
前記仮想世界モデルの第1の部分に対応する第1の更新された情報を第2のユーザに伝送することと
を含み、
前記第1の更新された情報は、前記第1の更新された情報の任意の部分が前記第2のユーザに表示される必要があるかどうかを示す、方法。
(項目103)
前記仮想世界モデルは、ネットワーク化されたメモリ上に常駐する、項目102に記載の方法。
(項目104)
第1のユーザおよび前記第2のユーザは、それぞれの異なる場所に位置する、項目102に記載の方法。
(項目105)
前記第1のユーザの第1のデバイスは、FOVカメラ、他のカメラ、センサ、眼追跡用の第1のデバイス、およびオーディオ用の第1のデバイスから成る群から選択される、項目102に記載の方法。
(項目106)
前記仮想世界モデルの第1の部分に対応する前記第1の更新された情報を前記第1のユーザに伝送することをさらに含み、前記第1の更新された情報は、前記第1の更新された情報の任意の部分が前記第1のユーザに表示される必要があるかどうかを示す、項目102に記載の方法。
(項目107)
前記仮想世界モデルの第1の部分に対応する前記第1の更新された情報を複数の他のユーザに伝送することをさらに含み、前記第1の更新された情報は、前記第1の更新された情報の任意の部分が前記複数の他のユーザの各々に表示される必要があるかどうかを示す、項目102に記載の方法。
(項目108)
複数の入力を複数の他のユーザのそれぞれの第1のデバイスから受信することであって、前記複数の入力は、前記第1のユーザの物理環境に対応する、ことと、
前記受信された複数の入力に基づいて、前記仮想世界モデルを更新することと、
前記仮想世界モデルのそれぞれの追加の部分に対応する追加の更新された情報を前記第2のユーザに伝送することと
をさらに含み、
前記追加の更新された情報は、前記追加の更新された情報の任意の部分が前記第2のユーザに表示される必要があるかどうかを示す、項目102に記載の方法。
(項目109)
前記仮想世界モデルの前記部分に対応する前記追加の更新された情報を前記第1のユーザに伝送することをさらに含み、前記追加の更新された情報は、前記追加の更新された情報の任意の部分が前記第1のユーザに表示される必要があるかどうかを示す、項目108に記載の方法。
(項目110)
前記仮想世界モデルのそれぞれの追加の部分に対応する前記追加の更新された情報を前記複数の他のユーザに伝送することをさらに含み、前記追加の更新された情報は、前記追加の更新された情報の任意の部分が前記複数の他のユーザの各々に表示される必要があるかどうかを示す、項目108に記載の方法。
(項目111)
第2の入力を前記第2のユーザの第2のデバイスから受信することであって、前記第2の入力は、前記第2のユーザの物理環境に対応する、ことと、
前記受信された前記第2の入力に基づいて、前記仮想世界モデルを更新することであって、前記仮想世界モデルは、前記第1のユーザの物理環境に対応する、ことと、
前記仮想世界モデルの第2の部分に対応する第2の更新された情報を前記第1のユーザに伝送することと
をさらに含み、
前記第2の更新された情報は、前記第2の更新された情報の任意の部分が前記第1のユーザに表示される必要があるかどうかを示す、項目102に記載の方法。
(項目112)
前記第2の更新された情報は、前記仮想世界モデルの前記第2の部分内の前記第2のユーザのアバタの移動に対応する、項目111に記載の方法。
(項目113)
方法であって、
光パターンを空間上に投影することと、
カメラを用いて、前記光パターンの第1および第2の部分を検出し、前記パターンの前記第1および第2の部分に対応する第1および第2のデータ点を生成することと、
三角測量分析を行い、前記第1および第2のデータ点に少なくとも部分的に基づいて、前記光パターンの前記第1および第2の部分の場所を決定することと
を含む、方法。
(項目114)
前記パターンの複数の部分を投影し、検出し、三角測量するステップを繰り返し、前記空間の追加のテクスチャデータを取得することをさらに含む、項目113に記載の方法。
(項目115)
前記光を空間上に投影することは、ファイバベースのプロジェクタを使用して、前記光を前記空間上に投影することを含む、項目113に記載の方法。
(項目116)
前記光が前記空間上に投影される前に、光学要素を用いて前記光を修正し、光線の束を形成することをさらに含む、項目113に記載の方法。
(項目117)
前記光パターンは、構造化された光に対応し、前記光パターンは、動的である、項目113に記載の方法。
(項目118)
前記光パターンは、パターン化された光に対応し、前記光パターンは、複数の点を含む、項目113に記載の方法。
(項目119)
前記光パターンは、テクスチャ化された光に対応し、前記光パターンは、不規則である、項目113に記載の方法。
(項目120)
前記光パターンの前記第1および第2の部分は、前記光パターンのそれぞれの画素である、項目113に記載の方法。
(項目130)
仮想部屋を生成する方法であって、
ユーザに表示されるべき仮想部屋を識別することと、
前記仮想部屋に関連付けられた第1のマップ点の集合を得ることであって、前記第1のマップ点の集合は、前記ユーザの場所における第1の物理部屋に対応する、ことと、
前記仮想部屋を前記第1のマップ点の集合にテザリングすることと、
前記ユーザによって視認されると、前記仮想部屋が前記第1のマップ点の集合において静止しているように見えるように、前記仮想部屋を前記ユーザに表示することと
を含む、方法。
(項目131)
ユーザ入力に基づいて、前記仮想部屋を識別することをさらに含む、項目130に記載の方法。
(項目132)
前記ユーザ入力は、ジェスチャ、視覚的データ、聴覚的データ、感覚データ、直接コマンド、音声コマンド、眼追跡、および物理ボタンの選択から成る群から選択される、項目131に記載の方法。
(項目133)
前記仮想部屋は、前記ユーザによって事前決定される、項目131に記載の方法。
(項目134)
前記第1のマップ点の集合をネットワーク化されたメモリから読み出すことをさらに含む、項目131に記載の方法。
(項目135)
前記仮想部屋に関連付けられた第2のマップ点の集合を得ることであって、前記第2のマップ点の集合は、前記ユーザが前記第1の物理部屋から移動した後の前記ユーザの場所における第2の物理部屋に対応する、ことと、
前記仮想部屋を前記第2のマップ点の集合にテザリングすることと、
前記ユーザによって視認されると、前記仮想部屋が前記第2のマップ点の集合において静止しているように見えるように、前記仮想部屋を前記ユーザに表示することと
をさらに含む、項目131に記載の方法。
(項目136)
前記仮想部屋はまた、第1および第2の仮想オブジェクトを含み、前記方法は、前記仮想部屋が前記第2のマップ点の集合にテザリングされている場合、前記第1のマップ点の集合に対応する前記第1の仮想オブジェクトと第2の仮想オブジェクトとの間の相対的空間位置を保つことをさらに含む、項目135に記載の方法。
(項目137)
前記ユーザによって視認されると、前記仮想部屋が前記第1の物理部屋の一部に対して静止しているように見えるように、前記仮想部屋を前記ユーザに表示することをさらに含む、項目131に記載の方法。
(項目138)
前記仮想部屋はまた、選択可能仮想装飾を含む、項目131に記載の方法。
(項目139)
小売体験を作成する方法であって、
小売店舗内のユーザの場所を認識することと、
前記小売店舗に対応するデータを読み出すことと、
前記読み出されたデータに基づいて、前記小売店舗に関連する仮想コンテンツを生成することと、
仮想ユーザインターフェースを前記ユーザの視野内に作成することと、
前記ユーザが前記小売店舗内で小売アクティビティに従事する間、前記仮想コンテンツを前記仮想ユーザインターフェース上に表示することと
を含む、方法。
(項目140)
前記読み出されたデータは、前記小売店舗に対応するマップ点の集合を備え、
前記仮想ユーザインターフェースは、前記ユーザによって視認されると、前記マップ点の集合において静止しているように見える、項目139に記載の方法。
(項目141)
前記ユーザの場所は、無線周波数識別トランスポンダおよび通信を使用して認識される、項目139に記載の方法。
(項目142)
前記仮想コンテンツは、仮想キャラクタ、仮想クーポン、前記ユーザ場所に基づくゲーム、宣伝アイテムの一覧、栄養情報、アイテムに関連するメタデータ、有名人の登場、クロスセリング広告、前記ユーザに既知の人物からの情報、および電子書籍から成る群から選択される、項目139に記載の方法。
(項目143)
前記ユーザに対応するユーザデータを読み出すことと、
前記読み出されたデータおよび前記読み出されたユーザデータの両方に基づいて、前記仮想コンテンツを生成することと
をさらに含む、項目139に記載の方法。
(項目144)
前記仮想コンテンツは、仮想食料品一覧、仮想クーポン書籍、仮想レシピ書籍、前記ユーザの家内の種々の資材の一覧、および仮想レシピビルダから成る群から選択される、項目143に記載の方法。
(項目145)
ユーザ入力を受信することと、
前記ユーザ入力に基づいて、追加の仮想コンテンツを生成することと、
前記ユーザが前記小売店舗内の小売アクティビティに従事する間、前記追加の仮想コンテンツを前記仮想ユーザインターフェース上に表示することと
をさらに含む、項目139に記載の方法。
(項目146)
前記ユーザ入力は、ジェスチャ、視覚的データ、聴覚的データ、感覚データ、直接コマンド、音声コマンド、眼追跡、および物理ボタンの選択から成る群から選択される、項目145に記載の方法。
(項目147)
前記仮想コンテンツは、総運営コスト、スマート仮想食料品一覧、前記ユーザ場所に近接するアイテムのインジケータ、および仮想支払システムから成る群から選択される、項目145に記載の方法。
(項目148)
前記生成された仮想コンテンツを表示のためにユーザデバイスに送信することをさらに含む、項目139に記載の方法。
(項目149)
方法であって、
患者の医療履歴に関連する患者データを読み出すことと、
前記読み出された患者データに少なくとも部分的に基づいて、仮想コンテンツを生成することと、
前記第1のユーザの第1の場所に対応する第1のマップ点の集合を読み出すことと、
前記読み出されたマップ点の集合に少なくとも部分的に基づいて、第1の仮想ユーザインターフェースを第1のユーザの視野内に作成することと、
前記第1のユーザによって視認されると、前記第1の仮想ユーザインターフェースが前記第1のマップ点の集合において固定されているように見えるように、前記仮想コンテンツを前記第1の仮想ユーザインターフェース上に表示することと
を含む、方法。
(項目150)
前記仮想コンテンツは、外科手術の標的の3次元画像、患者識別情報、医療画像、患者のバイタルサイン情報、およびカルテから成る群から選択される、項目149に記載の方法。
(項目151)
前記患者データは、ネットワーク化されたメモリから読み出される、項目149に記載の方法。
(項目152)
第2の仮想ユーザインターフェースを生成し、前記第1のユーザと第2のユーザとの間の通信を促進することをさらに含み、前記第2のユーザは、前記第1のユーザの前記第1の場所と異なる第2の場所内に居る、項目149に記載の方法。
(項目153)
前記第2の仮想ユーザインターフェースは、前記第2のユーザの視覚的表現である、項目152に記載の方法。
(項目154)
前記第2のユーザは、上級専門外科医、患者、前記患者に関連する者、および医学生から成る群から選択される、項目152に記載の方法。
(項目155)
前記第2のユーザによって視認されると、前記第1の仮想ユーザインターフェースが前記マップ点の集合において固定されているように見えるように、前記仮想コンテンツを前記第1の仮想ユーザインターフェース上において前記第2のユーザに対して表示することをさらに含む、項目152に記載の方法。
(項目156)
前記仮想コンテンツは、前記外科手術手技中、前記第1のユーザに表示され、前記方法は、
ユーザ入力を受信することと、
前記ユーザ入力に基づいて、追加の仮想コンテンツを生成することと、
前記第1のユーザが前記外科手術手技を行っている間、前記追加の仮想コンテンツを前記第1の仮想ユーザインターフェース上に表示することと
をさらに含む、項目149に記載の方法。
(項目157)
前記ユーザ入力は、ジェスチャ、視覚的データ、聴覚的データ、感覚データ、直接コマンド、音声コマンド、眼追跡、および物理ボタンの選択から成る群から選択される、項目156に記載の方法。
(項目158)
前記ユーザ入力は、前記第1のユーザの視野の画像を備え、前記方法は、前記第2のユーザによって視認されると、前記第1の仮想ユーザインターフェースが前記マップ点の集合において固定されているように見えるように、前記追加の仮想コンテンツを前記第1の仮想ユーザインターフェース上において前記第2のユーザに対して表示することをさらに含む、項目156に記載の方法。
(項目159)
医療リハビリテーションを促進する方法であって、
医療リハビリテーションに関連するユーザ入力を受信することと、
前記受信されたユーザ入力に基づいて、医療リハビリテーションに関連する要求をクラウドサーバに送信することと、
前記要求に基づいて、医療リハビリテーションに関連するデータを前記クラウドサーバに接続されている知識ベースから受信することと、
前記受信されたデータに基づいて、医療リハビリテーションに関連する仮想コンテンツを第1のユーザに表示することと
を含む、方法。
(項目160)
前記ユーザ入力は、視覚的、聴覚的、および感覚入力から成る群から選択される、項目159に記載の方法。
(項目161)
前記要求を前記クラウドサーバに送信する前に、前記ユーザ入力が有効であるかどうかを決定することをさらに含む、項目159に記載の方法。
(項目162)
前記データは、前記クラウドサーバに接続されている複数の知識ベースから受信される、項目159に記載の方法。
(項目163)
前記要求は、前記クラウドサーバに、データを前記知識ベースから読み出すように命令する、項目159に記載の方法。
(項目164)
前記仮想コンテンツは、リラックスさせる環境を含む、項目159に記載の方法。
(項目165)
追加のデータを第2のユーザから受信することと、
前記受信された追加のデータに基づいて、追加の仮想コンテンツを前記第1のユーザに表示することと
をさらに含む、項目159に記載の方法。
(項目166)
前記第1および第2のユーザは、異なる物理場所に位置する、項目165に記載の方法。
(項目167)
前記追加の仮想コンテンツは、前記第2のユーザの視覚的表現である、項目165に記載の方法。
(項目168)
第1のユーザデータを前記第1のユーザから受信することと、
第2のユーザデータを第2のユーザから受信することと、
前記受信された第1および第2のユーザデータに基づいて、前記仮想コンテンツを修正することと、
修正された仮想コンテンツを前記第1および第2のユーザに表示することと
をさらに含む、項目159に記載の方法。
(項目169)
前記第1のユーザは、医療リハビリテーションのための物理アクティビティに従事し、前記仮想コンテンツは、前記物理アクティビティに関連する、項目159に記載の方法。
(項目170)
前記仮想コンテンツは、前記物理アクティビティについての情報、前記第1のユーザのパフォーマンス統計、前記物理アクティビティに対応する仮想体験、および仮想アバタから成る群から選択される、項目169に記載の方法。
(項目171)
前記データは、ネットワーク化されたメモリから読み出される、項目159に記載の方法。
(項目172)
タスクのパフォーマンスを向上させる方法であって、
ユーザによって行われるべきタスクに関連するタスクデータを読み出すことと、
前記タスクデータに基づいて、仮想コンテンツを生成することと、
仮想ユーザインターフェースを前記ユーザの視野内に作成することと、
前記ユーザの場所に対応するマップ点の集合を読み出すことと、
前記ユーザによって視認されると、前記仮想ユーザインターフェースが前記マップ点の集合において固定されているように見えるように、前記ユーザが前記タスクを行っている間、前記仮想コンテンツを前記仮想ユーザインターフェース上に表示することと
を含む、方法。
(項目173)
前記仮想コンテンツは、仮想マップされたパターンを有するゲームであり、前記ゲームは、前記ユーザによる前記タスクのパフォーマンスを改良する、項目172に記載の方法。
(項目174)
前記ゲームは、前記仮想マップされたパターンに従うことに対してポイントを与える、項目173に記載の方法。
(項目175)
前記ゲームは、前記仮想マップされたパターン内の地点に所定の時間内に到達することに対してポイントを倍にする、項目174に記載の方法。
(項目176)
前記ゲームは、前記仮想マップされたパターンから外れることに対してポイントを差し引く、項目175に記載の方法。
(項目177)
前記ゲームは、物理オブジェクトに隣接して移動することに対してポイントを差し引く、項目175に記載の方法。
(項目178)
前記タスクは、造園機械を運転すること、在庫アイテムを読み出すこと、小売棚に陳列すること、および郵便をソートすることから成る群から選択される、項目172に記載の方法。
(項目179)
前記タスクデータは、ネットワーク化されたメモリから読み出される、項目172に記載の方法。
(項目180)
ユーザ入力を受信することと、
前記ユーザ入力に基づいて、追加の仮想コンテンツを生成することと、
前記ユーザが前記タスクを行っている間、前記追加の仮想コンテンツを前記仮想ユーザインターフェース上に表示することと
をさらに含む、項目172に記載の方法。
(項目181)
前記ユーザ入力は、前記タスクのパフォーマンスに関連するユーザアクションを備えている、項目180に記載の方法。
(項目182)
拡張現実ディスプレイシステムにおける遅延を補正する方法であって、
仮想画像をユーザに表示する少なくとも1つの段階における1つ以上のタイミング不一致を決定することと、
予測機構を利用して、前記タイミング不一致を予測的に補正することと、
前記予測機構に少なくとも部分的に基づいて、前記仮想画像のデータに関連する少なくとも1つの特性を補償することと
を含む、方法。
(項目183)
前記タイミング不一致は、1つ以上のセンサによって行われる1つ以上のセンサ測定に関わり、前記1つ以上のセンサは、前記プロセッサに通信可能に結合されている、項目182に記載の方法。
(項目184)
前記タイミング不一致は、着信データを処理するときの処理遅延に関わる、項目182に記載の方法。
(項目185)
前記予測機構は、フィルタを利用して、前記タイミング不一致の影響を補正する、項目182に記載の方法。
(項目186)
前記フィルタは、1つ以上のセンサ測定の相対的スピードを考慮し、前記センサ測定は、前記プロセッサに通信可能に結合されている1つ以上のセンサによって行われる、項目185に記載の方法。
(項目187)
前記予測機構は、カルマン予測子を利用する、項目182に記載の方法。
(項目188)
前記カルマン予測子は、ディスプレイ処理段階中、利用される、項目187に記載の方法。
(項目189)
前記補償は、前記仮想画像に関連付けられたデータのシフトを行うことを含む、項目182に記載の方法。
(項目190)
前記補償は、前記仮想画像に関連付けられた1つ以上の視覚的アーチファクトを平滑化することを含む、項目182に記載の方法。
(項目191)
前記補償は、1つ以上のセンサのセンサ測定の負の影響を補正することを含み、前記1つ以上のセンサは、前記プロセッサに通信可能に結合されている、項目182に記載の方法。
(項目192)
拡張現実システムを較正する方法であって、
仮想画像をユーザに表示することであって、前記仮想画像は、既知の焦点距離に表示され、前記仮想画像は、画素点を備えている、ことと、
前記画素点が前記ユーザに表示されている場所を決定することであって、前記画素の場所は、前記ユーザの眼の瞳孔の場所に少なくとも部分的に基づいて、計算される、ことと、
前記仮想画像の画素点を空間内の既知の点と整列させることと
を含む、方法。
(項目193)
項目331のステップは、複数の画素点に対して繰り返される、項目192に記載の方法。
(項目194)
前記画素点が前記ユーザに表示されている場所は、前記空間内の既知の点の場所に少なくとも部分的に基づいて、計算される、項目192に記載の方法。
(項目195)
前記瞳孔の場所、前記画素点の場所および前記空間内の既知の点の場所は、同一線上にある、項目192に記載の方法。
(項目196)
前記画素点が前記ユーザに表示されている場所は、ユーザ入力に基づいて、修正される、項目192に記載の方法。
(項目197)
複数の画素点が前記ユーザに提示されるように、ゲーム用インターフェースを作成することをさらに含む、項目196に記載の方法。
(項目198)
前記ゲーム用インターフェースは、前記ユーザの眼移動を通してレーザを発射することを含む、項目197に記載の方法。
(項目199)
前記既知の点の場所は、1つ以上の世界カメラから受信されるデータに少なくとも部分的に基づいて、決定される、項目197に記載の方法。
(項目200)
項目1のステップは、前記ユーザの他方の眼に対して繰り返される、項目192に記載の方法。
(項目201)
前記画素点の場所は、前記瞳孔の場所および前記既知の点の場所の関数に少なくとも部分的に基づいて、決定される、項目193に記載の方法。
(項目202)
前記関数は、二次関数を備えている、項目201に記載の方法。
(項目203)
仮想インターフェースを表示する方法であって、
ユーザ入力に基づいて、前記ユーザに表示されるべきユーザインターフェースを識別することと、
少なくとも1つの物理オブジェクトに関係して、アバタユーザインターフェースを表示することであって、前記アバタユーザインターフェースは、少なくとも1つの仮想ユーザインターフェース要素を提示する、ことと、
前記ユーザと前記アバタユーザインターフェースとの間の相互作用に少なくとも部分的に基づいて、少なくとも1つの仮想ユーザインターフェース要素を選択することと
を含む、方法。
(項目204)
前記ユーザ入力は、ジェスチャを含む、項目203に記載の方法。
(項目205)
前記ユーザの拡張現実ディスプレイシステムに関係する前記ジェスチャの場所を決定することをさらに含み、前記仮想ユーザインターフェースは、前記決定された場所に表示される、項目204に記載の方法。
(項目206)
前記アバタは、事前に選択されたアバタである、項目203に記載の方法。
(項目207)
前記アバタは、前記ユーザに似ている、項目203に記載の方法。
(項目208)
前記アバタは、前記物理オブジェクトの上に立っているかのように表示される、項目203に記載の方法。
(項目209)
前記少なくとも1つの仮想要素は、アプリケーションを備えている、項目203に記載の方法。
(項目210)
別のユーザ入力に少なくとも部分的に基づいて、前記少なくとも1つの仮想要素を選択することであって、前記少なくとも1つの仮想要素は、前記ユーザの連絡先を備えている、ことと、
前記アバタ仮想ユーザインターフェースおよび前記物理オブジェクトに関係して、前記ユーザの連絡先を表す別のアバタを表示することであって、前記ユーザと前記ユーザの連絡先との間の相互作用は、前記アバタ仮想ユーザインターフェースと前記ユーザの連絡先を表す他のアバタとの間の仮想相互作用を通して動画化される、ことと
をさらに含む、項目203に記載の方法。
(項目211)
前記相互作用は、データを前記ユーザの拡張現実システムと前記ユーザの連絡先に対応するコンピューティングシステムとの間で伝送することを含む、項目210に記載の方法。
(項目212)
前記ユーザ入力は、音声コマンドを備えている、項目203に記載の方法。
(項目213)
仮想インターフェースを表示する方法であって、
ユーザ入力に基づいて、前記ユーザに表示されるべきユーザインターフェースを識別することと、
少なくとも1つの物理オブジェクトに関係して、1つ以上の選択可能仮想インターフェース要素を備えているフローティング式ユーザインターフェースを表示することであって、前記フローティング式ユーザインターフェースは、前記ユーザ入力が受信された場所から押し出されたように見える、ことと
を含む、方法。
(項目214)
前記ユーザ入力は、前記ユーザの指のジェスチャを含む、項目213に記載の方法。
(項目215)
前記ユーザの指のジェスチャは、前記ユーザの一方の手の指を前記ユーザの他方の手の別の指を用いてタッチすることを含む、項目214に記載の方法。
(項目216)
前記ユーザの一方の手の指を前記ユーザの他方の手の別の指を用いてタッチした場所を決定することをさらに含み、前記フローティング式仮想ユーザインターフェースは、前記決定された場所から生じる、項目215に記載の方法。
(項目217)
前記フローティング式ユーザインターフェースは、3次元ブロックの集合を備え、前記3次元ブロックの集合のうちの3次元ブロックは、前記少なくとも1つの選択可能仮想ユーザインターフェース要素を表す、項目213に記載の方法。
(項目218)
前記フローティング式仮想ユーザインターフェースは、世界基準フレームに少なくとも部分的に基づいて、作成される、項目213に記載の方法。
(項目219)
前記少なくとも1つの選択可能仮想ユーザインターフェース要素は、3次元ブロックのスタックとして存在し、前記3次元ブロックのスタックは、別のユーザ入力に少なくとも部分的に基づいて、回転される、項目213に記載の方法。
(項目220)
前記ユーザから受信される別のユーザ入力に少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素の仮想ユーザインターフェース要素を選択することであって、前記仮想インターフェース要素は、少なくとも1つの他のサブ仮想インターフェース要素に関連付けられている、ことと、
前記少なくとも1つの他のサブ仮想インターフェース要素を前記選択された仮想インターフェース要素の下に表示することと
をさらに含む、項目213に記載の方法。
(項目221)
前記ユーザから受信される別のユーザ入力に少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素の仮想ユーザインターフェース要素を選択することと、
仮想ボックス内に、前記選択された仮想インターフェース要素に関連付けられたコンテンツを表示することであって、前記仮想ボックスは、前記ユーザの視野内に表示されるコンテンツを備えている、ことと
をさらに含む、項目213に記載の方法。
(項目222)
前記仮想ボックスが閉鎖されるべきことを示す第2のユーザ入力を識別することと、
前記第2のユーザ入力に少なくとも部分的に基づいて、前記仮想ボックスを紙をくしゃくしゃに丸めることに似た様式で動画化することと、
前記選択された仮想インターフェース要素に関連付けられたコンテンツを終了させることと
をさらに含む、項目221に記載の方法。
(項目223)
前記第2のユーザ入力は、ジェスチャを含み、前記ジェスチャは、1枚の紙をくしゃくしゃに丸めることに似ている、項目222に記載の方法。
(項目224)
仮想ユーザインターフェースを表示する方法であって、
ユーザ入力に基づいて、前記ユーザに表示されるべきユーザインターフェースを識別することと、
少なくとも1つの物理オブジェクトに関係して、1つ以上の選択可能仮想インターフェース要素を備えているフローティング式ユーザインターフェースを表示することと
を含み、
前記フローティング式ユーザインターフェースは、前記少なくとも1つの物理オブジェクト上に置かれているように見え、前記少なくとも1つの物理オブジェクトの縦軸の周りでの前記少なくとも1つの物理オブジェクトの回転は、追加の選択可能仮想インターフェース要素が表示されることをもたらし、前記追加の選択可能仮想インターフェース要素は、前記少なくとも1つの物理オブジェクトの別の側に置かれているように見える、方法。
(項目225)
前記少なくとも1つの物理オブジェクトは、前記ユーザの腕を備えている、項目224に記載の方法。
(項目226)
前記ユーザ入力は、ジェスチャを含む、項目224に記載の方法。
(項目227)
前記ジェスチャは、前記選択可能仮想インターフェース要素が表示されているように見える、前記ユーザの腕上における前記ユーザの手のカップを形成するような運動を含む、項目226に記載の方法。
(項目228)
前記ユーザの腕上における前記ユーザの手のカップを形成するような運動の場所を決定することをさらに含み、前記フローティング式ユーザインターフェースは、前記決定された場所から生じる、項目227に記載の方法。
(項目229)
別のユーザ入力に少なくとも部分的に基づいて、前記フローティング式仮想ユーザインターフェースのレンダリングを終了させることをさらに含む、項目224に記載の方法。
(項目230)
前記他のユーザ入力は、ジェスチャを含み、前記ジェスチャは、前記物理オブジェクトを横断して前記ユーザのカップ状の手をドラッグする運動を含む、項目229に記載の方法。
(項目231)
前記フローティング式仮想ユーザインターフェースは、手中心基準フレームに少なくとも部分的に基づいて、作成される、項目224に記載の方法。
(項目232)
前記ユーザから受信される別のユーザ入力に少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素の仮想ユーザインターフェース要素を選択することと、
前記選択された仮想インターフェース要素に関連付けられたコンテンツを表示することであって、前記コンテンツは、前記フローティング式仮想インターフェースに関係して表示される、ことと
をさらに含む、項目224に記載の方法。
(項目233)
前記表示されるコンテンツは、前記手中心基準フレームに対応する、項目231に記載の方法。
(項目234)
前記ユーザから受信される入力に少なくとも部分的に基づいて、前記フローティング式仮想ユーザインターフェースが移動している場合、前記表示されるコンテンツが静止したままであるように、前記表示されるコンテンツを前記手中心基準フレームから世界中心基準フレームに移動させることをさらに含む、項目231に記載の方法。
(項目235)
仮想ユーザインターフェースを作成する方法であって、
ユーザ入力に基づいて、前記ユーザに表示されるべきユーザインターフェースを識別することと、
少なくとも1つの物理オブジェクトに関係して、前記少なくとも1つの物理オブジェクトにタッチした場所から生じる仮想ユーザインターフェースを表示することであって、前記仮想ユーザインターフェースは、前記少なくとも1つの物理オブジェクトにタッチした場所から飛び出ているように見え、前記仮想ユーザインターフェースは、前記仮想ユーザインターフェースに取り付けられているように見える少なくとも1つの選択可能仮想ユーザインターフェース要素を備えている、ことと
を含む、方法。
(項目236)
前記少なくとも1つの物理オブジェクトは、水平表面を備えている、項目235に記載の方法。
(項目237)
前記ユーザ入力は、ジェスチャを含む、項目235に記載の方法。
(項目238)
前記ジェスチャは、所定の期間の間、伸ばされた指が前記少なくとも1つの物理オブジェクトをタッチすることを含む、項目237に記載の方法。
(項目239)
前記ユーザの指が前記少なくとも1つの物理オブジェクトにタッチした場所を決定することをさらに含み、前記仮想ユーザインターフェースは、前記決定された場所から生じる、項目235に記載の方法。
(項目240)
別のユーザ入力に少なくとも部分的に基づいて、前記フローティング式仮想ユーザインターフェースのレンダリングを終了させることをさらに含む、項目235に記載の方法。
(項目241)
前記他のユーザ入力は、ジェスチャを含み、前記ジェスチャは、前記レンダリングされた仮想ユーザインターフェースを横断して、前記ユーザの手を用いて切断する運動を含む、項目240に記載の方法。
(項目242)
前記仮想ユーザインターフェースは、前記仮想ユーザインターフェースが前記ユーザの任意の移動に対して静止したままであるように、世界中心基準フレームに少なくとも部分的に基づいて、作成される、項目235に記載の方法。
(項目243)
前記ユーザから受信される別のユーザ入力に少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素の仮想ユーザインターフェース要素を選択することと、
前記少なくとも1つの物理オブジェクトの別の場所に、第2の仮想ユーザインターフェースを生成することであって、前記第2の仮想ユーザインターフェースは、追加の選択可能仮想インターフェース要素を備えている、ことと
をさらに含む、項目235に記載の方法。
(項目244)
前記仮想ユーザインターフェースは、前記少なくとも1つの物理オブジェクトにタッチした場所から生えている木に似ている、項目235に記載の方法。
(項目245)
仮想ユーザインターフェースを表示する方法であって、
ユーザ入力に基づいて、前記ユーザに表示されるべきユーザインターフェースを識別することと、
前記仮想ユーザインターフェースが指の移動を鏡映するように、前記ユーザの前記指の運動を鏡映するような仮想ユーザインターフェースを描写することと、
1つ以上の選択可能ユーザインターフェース要素を前記仮想ユーザインターフェースが描写されているエリア内に表示することと
を含む、方法。
(項目246)
前記指ジェスチャは、所定の期間の間、前記ユーザの手の少なくとも1本の指を用いて指示するジェスチャを含む、項目245に記載の方法。
(項目247)
前記指示ジェスチャの場所を決定することをさらに含み、前記仮想ユーザインターフェースは、前記決定された場所から生じる、項目246に記載の方法。
(項目248)
前記ユーザが前記仮想ユーザインターフェースをもはや描写していないことを検出することをさらに含み、前記仮想ユーザインターフェース要素は、前記検出に少なくとも部分的に基づいて、表示される、項目245に記載の方法。
(項目249)
前記仮想ユーザインターフェースの描写は、空間を横断した前記ユーザの指のドラッグ運動を鏡映する、項目245に記載の方法。
(項目250)
別のユーザ入力に少なくとも部分的に基づいて、フローティング式仮想ユーザインターフェースのレンダリングを終了させることをさらに含む、項目245に記載の方法。
(項目251)
前記他のユーザ入力は、ジェスチャを含み、前記ジェスチャは、前記ユーザの指の連続ドラッグ運動の終了を含む、項目250に記載の方法。
(項目252)
前記仮想ユーザインターフェースは、前記仮想ユーザインターフェースが前記ユーザの任意の移動に対して静止したままであるように、世界中心基準フレームに少なくとも部分的に基づいて、作成される、項目245に記載の方法。
(項目253)
前記ユーザから受信される別のユーザ入力に少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素のうちの仮想ユーザインターフェース要素を選択することと、
前記仮想ユーザインターフェースに関係して前記選択された仮想インターフェース要素に関連付けられたコンテンツを生成することと
をさらに含む、項目245に記載の方法。
(項目254)
前記仮想ユーザインターフェースの形状は、前記ユーザの指によって描写される形状に似ている、項目245に記載の方法。
(項目255)
仮想ユーザインターフェースを作成する方法であって、
ユーザの手のジェスチャに基づいて、前記ユーザに表示されるべきユーザインターフェースを識別することと、
前記手のジェスチャに応答して、前記仮想ユーザインターフェースが前記物理オブジェクトの垂直側面にあるように見えるように、前記手のジェスチャの方向における物理オブジェクトの前記垂直側面に少なくとも1つの選択可能仮想インターフェース要素を有する仮想ユーザインターフェースを表示することと
を含む、方法。
(項目256)
前記手のジェスチャに応答して、塗料の斑点に似た仮想コンテンツの集合を表示することをさらに含み、前記仮想コンテンツは、前記手のジェスチャによって示される点において生じる、項目255に記載の方法。
(項目257)
前記手のジェスチャは、前記物理オブジェクトの前記垂直側面の方向に振り上げられた伸ばされた指を含む、項目255に記載の方法。
(項目258)
前記物理オブジェクトの前記垂直側面の方向に振り上げられた伸ばされた指の場所を決定することをさらに含み、塗料の斑点に似た仮想コンテンツの集合は、前記決定された場所に表示される、項目257に記載の方法。
(項目259)
仮想斑点を前記物理オブジェクトの前記垂直側面に表示することをさらに含み、前記仮想斑点の少なくとも1つの特性は、前記物理オブジェクトの前記垂直側面の方向に振り上げられた伸ばされた指の決定された場所に少なくとも部分的に基づいて、前記物理オブジェクトの前記垂直側面に表示される、項目258に記載の方法。
(項目260)
前記物理オブジェクトは、壁を備えている、項目255に記載の方法。
(項目261)
前記仮想ユーザインターフェースは、前記仮想ユーザインターフェースが前記ユーザの任意の移動に対して静止したままであるように、世界中心基準フレームに少なくとも部分的に基づいて、作成される、項目255に記載の方法。
(項目262)
前記ユーザから受信される別のユーザ入力に少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素のうちの仮想ユーザインターフェース要素を選択することと、
前記物理オブジェクトの別の場所に、前記選択されたユーザインターフェース要素に関連付けられたコンテンツを生成することと
をさらに含む、項目255に記載の方法。
(項目263)
前記選択されたユーザインターフェース要素に関連付けられたコンテンツを縮小形態で記憶することをさらに含み、前記縮小形態は、仮想バンドを備え、前記仮想バンドは、前記ユーザの手の周囲に表示される、項目2622に記載の方法。
(項目264)
前記仮想バンドは、前記仮想バンドが少なくとも部分的に前記手の移動に基づいて移動するように、少なくとも部分的に手中心基準フレームに基づいて、作成される、項目263に記載の方法。
(項目265)
前記ユーザの別のジェスチャに少なくとも部分的に基づいて、前記コンテンツを完全形態で表示することをさらに含む、項目263に記載の方法。
(項目266)
前記他のジェスチャは、前記仮想バンドが表示される前記手の振り上げる運動を含む、項目265に記載の方法。
(項目267)
仮想ユーザインターフェースを作成する方法であって、
ユーザの手のジェスチャに基づいて、前記ユーザに表示されるべきユーザインターフェースを識別することと、
前記手のジェスチャに応答して、仮想ユーザインターフェースを表示することと
を含み、
前記仮想ユーザインターフェースは、少なくとも1つの選択可能仮想インターフェース要素が前記ユーザの別の手のジェスチャに少なくとも部分的に基づいて、移動し、追加の選択可能仮想インターフェース要素を表示するように、前記少なくとも1つの選択可能仮想インターフェース要素を有する水平糸に似ている、方法。
(項目268)
前記手のジェスチャは、前記ユーザの第1の手の第1の指を第2の手の第2の指を用いてタッチする運動を含む、項目267に記載の方法。
(項目269)
前記ジェスチャは、前記第1の指が前記第2の指から離れるように、前記第1の指および前記第2の指の両方を引き離す運動をさらに含む、項目268に記載の方法。
(項目270)
前記仮想糸は、前記第1および第2の指の移動の長さを鏡映し、前記仮想糸の長さは、前記第1および第2の指の移動に少なくとも部分的に基づく、項目269に記載の方法。
(項目271)
前記第1の指と第2の指とのタッチ運動の場所を決定することをさらに含み、前記仮想糸は、前記決定された場所から生じる、項目267に記載の方法。
(項目272)
前記他方の手のジェスチャは、前記ユーザの手の方向転換運動を含み、前記方向転換移動は、前記少なくとも1つの選択可能仮想インターフェース要素に前記方向転換運動の方向に移動させる、項目267に記載の方法。
(項目273)
前記仮想ユーザインターフェースは、前記仮想ユーザインターフェースが前記ユーザの任意の移動に対して静止したままであるように、世界中心基準フレームに少なくとも部分的に基づいて、作成される、項目267に記載の方法。
(項目274)
前記ユーザの別の手のジェスチャに少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素のうちの仮想ユーザインターフェース要素を選択することと、
前記物理オブジェクトの別の場所に、前記選択されたユーザインターフェース要素に関連付けられたコンテンツを生成することと
をさらに含む、項目267に記載の方法。
(項目275)
前記他方の手のジェスチャは、前記ユーザの一方の手を前方に持って来る運動を含む、項目274に記載の方法。
(項目276)
仮想ユーザインターフェースを作成する方法であって、
ユーザの手のジェスチャに基づいて、前記ユーザに表示されるべきユーザインターフェースを識別することと、
前記手のジェスチャに応答して、仮想ユーザインターフェースを表示することと
を含み、
前記仮想ユーザインターフェースは、垂直糸の集合を備え、前記垂直糸の各々は、少なくとも1つの選択可能仮想インターフェース要素に関連付けられている、方法。
(項目277)
前記手のジェスチャは、所定の期間の間、前記ユーザの第1の手を広げるジェスチャを含む、項目276に記載の方法。
(項目278)
別の手のジェスチャに少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素を選択することをさらに含み、前記他方の手のジェスチャは、前記ユーザの2本の指を用いて、前記仮想糸の集合のうちの仮想糸のうちの少なくとも1つを引っ張る運動を含む、項目277に記載の方法。
(項目279)
手のジェスチャに少なくとも部分的に基づいて、第1の仮想糸に関連付けられた第1の仮想要素に関連付けられたデータを第2の仮想糸に関連付けられた第2の仮想要素に伝送することをさらに含む、項目276に記載の方法。
(項目280)
前記他方の手のジェスチャは、前記第2の仮想糸に関連付けられた前記第2の仮想要素を用いた前記第1の仮想糸に関連付けられた前記第1の仮想要素の圧搾運動を含み、前記圧搾運動は、前記ユーザの指によって行われる、項目279に記載の方法。
(項目281)
前記仮想インターフェースは、少なくとも1つの物理オブジェクトに関係して表示される、項目276に記載の方法。
(項目282)
前記少なくとも1つの物理オブジェクトは、壁を備えている、項目281に記載の方法。
(項目283)
手のジェスチャの場所を決定することをさらに含み、前記仮想糸は、前記決定された場所から生じる、項目276に記載の方法。
(項目284)
前記仮想ユーザインターフェースは、前記仮想ユーザインターフェースが前記ユーザの任意の移動に対して静止したままであるように、世界中心基準フレームに少なくとも部分的に基づいて、作成される、項目276に記載の方法。
(項目285)
前記ユーザの別の手のジェスチャに少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素のうちの仮想ユーザインターフェース要素を選択することと、
前記物理オブジェクトの別の場所に、前記選択されたユーザインターフェース要素に関連付けられた仮想コンテンツを生成することと
をさらに含む、項目276に記載の方法。
(項目286)
仮想ユーザインターフェースを作成する方法であって、
ユーザの手のジェスチャに基づいて、前記ユーザに表示されるべきユーザインターフェースを識別することと、
前記手のジェスチャに応答して、仮想ユーザインターフェースを表示することと
を含み、
前記仮想ユーザインターフェースは、垂直糸の集合を備え、前記垂直糸の各々は、少なくとも1つの選択可能仮想インターフェース要素に関連付けられている、方法。
(項目287)
前記手のジェスチャは、所定の期間の間、前記ユーザの第1の手を広げるジェスチャを含む、項目286に記載の方法。
(項目288)
別の手のジェスチャに少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素を選択することをさらに含み、前記他方の手のジェスチャは、前記ユーザの2本の指を用いて、前記仮想糸の集合のうちの仮想糸のうちの少なくとも1つを引っ張る運動を含む、項目287に記載の方法。
(項目289)
手のジェスチャに少なくとも部分的に基づいて、第1の仮想糸に関連付けられた第1の仮想要素に関連付けられたデータを第2の仮想糸に関連付けられた第2の仮想要素に伝送することをさらに含む、項目286に記載の方法。
(項目290)
前記他方の手のジェスチャは、前記第2の仮想糸に関連付けられた前記第2の仮想要素を用いた前記第1の仮想糸に関連付けられた前記第1の仮想要素の圧搾運動を含み、前記圧搾運動は、前記ユーザの指によって行われる、項目289に記載の方法。
(項目291)
前記仮想インターフェースは、少なくとも1つの物理オブジェクトに関係して表示される、項目286に記載の方法。
(項目292)
前記少なくとも1つの物理オブジェクトは、壁を備えている、項目291に記載の方法。
(項目293)
手のジェスチャの場所を決定することをさらに含み、前記仮想糸は、前記決定された場所から生じる、項目286に記載の方法。
(項目294)
前記仮想ユーザインターフェースは、前記仮想ユーザインターフェースが前記ユーザの任意の移動に対して静止したままであるように、世界中心基準フレームに少なくとも部分的に基づいて、作成される、項目286に記載の方法。
(項目295)
前記ユーザの別の手のジェスチャに少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素のうちの仮想ユーザインターフェース要素を選択することと、
前記物理オブジェクトの別の場所に、前記選択されたユーザインターフェース要素に関連付けられた仮想コンテンツを生成することと
をさらに含む、項目286に記載の方法。
(項目296)
仮想ユーザインターフェースを作成する方法であって、
ユーザの手のジェスチャに基づいて、前記ユーザに表示されるべきユーザインターフェースを識別することと、
前記手のジェスチャに応答して、仮想ユーザインターフェースを表示することと
を含み、
前記仮想ユーザインターフェースは、仮想クモの巣に似ており、前記ユーザは、前記仮想クモの巣の仮想糸を引っ張り、前記仮想インターフェースを前記ユーザに近付ける、方法。
(項目297)
前記手のジェスチャは、前記ユーザの手の握り拳を用いて引っ張る運動を含む、項目296に記載の方法。
(項目298)
前記仮想クモの巣の仮想糸は、少なくとも1つの選択可能仮想要素を備えている、項目297に記載の方法。
(項目299)
別の手のジェスチャに少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素を選択することをさらに含み、前記他方の手のジェスチャは、前記仮想糸のうちの少なくとも1つを前記ユーザに向かって引っ張る運動を含む、項目298に記載の方法。
(項目300)
手のジェスチャに少なくとも部分的に基づいて、第1の仮想糸に関連付けられた第1の仮想要素に関連付けられたデータを第2の仮想糸に関連付けられた第2の仮想要素に伝送することをさらに含む、項目296に記載の方法。
(項目301)
前記他方の手のジェスチャは、前記第2の仮想糸に関連付けられた前記第2の仮想要素を用いた前記第1の仮想糸に関連付けられた前記第1の仮想要素の圧搾運動を含み、前記圧搾運動は、前記ユーザの指によって行われる、項目300に記載の方法。
(項目302)
前記仮想インターフェースは、少なくとも1つの物理オブジェクトに関係して表示される、項目296に記載の方法。
(項目303)
前記少なくとも1つの物理オブジェクトは、壁を備えている、項目302に記載の方法。
(項目304)
手のジェスチャの場所を決定することをさらに含み、前記仮想クモの巣は、前記決定された場所から生じる、項目296に記載の方法。
(項目305)
前記仮想ユーザインターフェースは、前記仮想ユーザインターフェースが前記ユーザの任意の移動に対して静止したままであるように、世界中心基準フレームに少なくとも部分的に基づいて、作成される、項目296に記載の方法。
(項目306)
前記ユーザの別の手のジェスチャに少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素のうちの仮想ユーザインターフェース要素を選択することと、
前記物理オブジェクトの別の場所に、前記選択されたユーザインターフェース要素に関連付けられた仮想コンテンツを生成することと
をさらに含む、項目296に記載の方法。
(項目307)
前記方法ステップを実装する手段を有するシステムとして実装される、項目1−306に記載の方法。
(項目308)
前記方法ステップを実行するための実行可能コードを有するコンピュータ使用可能記憶媒体を備えているコンピュータプログラム製品として実装される、項目1−306に記載の方法。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
マップデータを生成する方法であって、
1つ以上の画像に関連付けられたマップ点の集合を識別することと、
低密度点の集合および高密度点の集合を前記識別されたマップ点から決定することと、
前記それぞれの低密度点および高密度点の集合の正規化を行うことと
を含む、方法。
(項目2)
前記それぞれの低密度点および高密度点の集合のための低密度および高密度点記述子を生成することと、
前記低密度点記述子および高密度点記述子を組み合わせ、マップデータとして記憶することと
をさらに含む、項目1に記載の方法。
(項目3)
前記低密度点の集合は、固有の特徴に対応する、項目1に記載の方法。
(項目4)
前記固有の特徴は、角、円形、三角形、およびテキストから成る群から選択される、項目3に記載の方法。
(項目5)
前記高密度点の集合は、視野内の3D点に対応する、項目1に記載の方法。
(項目6)
前記高密度点の集合はまた、色値を含む、項目5に記載の方法。
(項目7)
前記正規化は、スケール正規化を備えている、項目1に記載の方法。
(項目8)
前記正規化は、共通原点に対する座標正規化を備えている、項目1に記載の方法。
(項目9)
前記正規化は、機械学習を使用して実装される、項目1に記載の方法。
(項目10)
前記低密度および高密度点記述子は、前記それぞれの低密度および高密度点の集合の各低密度および高密度点に対応する、項目1に記載の方法。
(項目11)
各低密度および高密度点記述子は、スケール、配向、パッチデータ、およびテクスチャから成る群から選択される、それぞれの低密度および高密度点に関する情報を含む、項目10に記載の方法。
(項目12)
ユーザ入力を決定する方法であって、
ユーザの視野の画像を捕捉することであって、前記画像は、前記ユーザによって作成されたジェスチャを含む、ことと、
前記捕捉された画像を分析し、前記ジェスチャに関連付けられた点の集合を識別することと、
前記識別された点の集合を所定のジェスチャのデータベースに関連付けられた点の集合と比較することと、
認識されたジェスチャに基づいて、ユーザ入力を決定することと
を含む、方法。
(項目13)
前記比較に基づいて、前記識別された点の集合のためのスコア化値を生成することをさらに含む、項目12に記載の方法。
(項目14)
前記スコア化値が閾値を超えている場合、前記ジェスチャを認識することをさらに含む、項目13に記載の方法。
(項目15)
前記所定のジェスチャをデータベース内に記憶することをさらに含む、項目12に記載の方法。
(項目16)
ネットワーク化されたメモリにアクセスし、前記所定のジェスチャのデータベースにアクセスすることをさらに含む、項目15に記載の方法。
(項目17)
前記ジェスチャは、手のジェスチャである、項目12に記載の方法。
(項目18)
前記ジェスチャは、指ジェスチャである、項目12に記載の方法。
(項目19)
前記ジェスチャは、指間相互作用である、項目12に記載の方法。
(項目20)
前記ジェスチャは、指間相互作用、指示、タップ、および摩擦から成る群から選択される、項目12に記載の方法。
(項目21)
前記決定されたユーザ入力に少なくとも部分的に基づいて、1つ以上の仮想オブジェクトを前記ユーザに表示することをさらに含む、項目12に記載の方法。
(項目22)
前記1つ以上の仮想オブジェクトは、仮想ユーザインターフェースを備えている、項目21に記載の方法。
(項目23)
方法であって、
ユーザの視野に対応する1つ以上の画像を捕捉することと、
前記捕捉された1つ以上の画像を分析し、前記ユーザによって作成された1つ以上のジェスチャを識別することであって、前記分析は、複数の段階を有するカスケード機構を利用することを含む、ことと
を含む、方法。
(項目24)
前記カスケード機構は、複数のノードを備え、各ノードは、前記複数の段階のうちのある段階に対応する、項目23に記載の方法。
(項目25)
前記カスケード機構は、一連のパーミッシブ型分析ノードを備えている、項目23に記載の方法。
(項目26)
前記カスケード機構の前記複数の段階のうちの前の段階は、前記カスケード機構の前記複数の段階のうちの後の段階と比較して少ない処理電力を消費する、項目23に記載の方法。
(項目27)
非ジェスチャは、前記カスケード機構の前記前の段階において捕捉された画像の分析に基づいて、除去される、項目26に記載の方法。
(項目28)
前記複数の段階のうちの前記後の段階は、前記捕捉された画像に少なくとも部分的に基づいて、より複雑なジェスチャを決定する、項目26に記載の方法。
(項目29)
前記捕捉された画像の分析は、前記捕捉された画像内の種々の形状の輪郭の鮮鋭度がジェスチャを構成するために十分に鮮鋭であるかどうかを決定することを含む、項目26に記載の方法。
(項目30)
前記カスケード機構の前記後の段階は、異なるジェスチャ間で区別するために利用される、項目26に記載の方法。
(項目31)
前記分析に少なくとも部分的に基づいて、スコアを生成することをさらに含む、項目23に記載の方法。
(項目32)
前記生成されたスコアが最小閾値より低い場合、候補画像を検討から除くことをさらに含む、項目31に記載の方法。
(項目33)
前記生成されたスコアが最小閾値より高い場合、前記カスケード機構の前記後の段階に前進することをさらに含む、項目31に記載の方法。
(項目34)
方法であって、
ユーザのそれぞれの視野の複数の画像を捕捉することと、
前記複数の画像を分析し、複数のジェスチャ候補を生成することと、
前記複数の分析値に対応する分析値を生成することであって、ジェスチャが、前記分析値に少なくとも部分的に基づいて、認識される、ことと
を含む、方法。
(項目35)
前記それぞれの分析値に少なくとも部分的に基づいて、前記ジェスチャ候補をソートすることをさらに含む、項目34に記載の方法。
(項目36)
最小閾値より低い分析値を有するジェスチャ候補を排除することをさらに含む、項目34に記載の方法。
(項目37)
前記分析値が最小閾値より高い場合、前記ジェスチャ候補を処理の次の段階に前進させることをさらに含む、項目34に記載の方法。
(項目38)
ジェスチャを分類する方法であって、
ユーザの視野の画像を捕捉することと、
深度区画化を前記捕捉された画像に行い、深度マップを生成することと、
前記生成された深度マップに少なくとも部分的に基づいて、ジェスチャを識別することと
を含む、方法。
(項目39)
分類機構を使用して、前記深度マップを分析し、前記深度マップ内の点に対応する手の一部を識別することをさらに含む、項目38に記載の方法。
(項目40)
前記手の一部の識別に基づいて、前記深度マップを骨格化することをさらに含む、項目39に記載の方法。
(項目41)
前記骨格化された深度マップに基づいて、前記画像をジェスチャとして分類することをさらに含む、項目40に記載の方法。
(項目42)
前記深度区画化は、線検索を備えている、項目38に記載の方法。
(項目43)
カスケード分析を前記深度マップに行い、前記画像を前記ジェスチャとして分類することをさらに含む、項目38に記載の方法。
(項目44)
深度拡張を前記深度マップに行うことをさらに含む、項目38に記載の方法。
(項目45)
表面正規化を前記深度マップに行うことをさらに含む、項目38に記載の方法。
(項目46)
配向正規化を前記深度マップに行うことをさらに含む、項目38に記載の方法。
(項目47)
背景減算を前記深度マップに行うことをさらに含む、項目38に記載の方法。
(項目48)
深度比較を前記深度マップに行うことをさらに含む、項目38に記載の方法。
(項目49)
前記骨格化された深度マップおよび以前の情報に基づいて、前記画像をジェスチャとして分類することをさらに含む、項目38に記載の方法。
(項目50)
前記分類機構は、決定森である、項目38に記載の方法。
(項目51)
ユーザ入力を決定する方法であって、
1つ以上のユーザの視野の画像を捕捉することであって、前記画像は、少なくとも所定の物理オブジェクトを備えている、ことと、
前記画像を分析し、前記所定の物理オブジェクトに関係する前記ユーザの移動を検出することと、
前記所定の物理オブジェクトに関係する前記移動の分析に少なくとも部分的に基づいて、ユーザ入力を決定することと
を含む、方法。
(項目52)
前記所定の物理オブジェクトを認識することをさらに含む、項目51に記載の方法。
(項目53)
前記所定の物理オブジェクトは、前記所定の物理オブジェクトの捕捉された画像と所定の物理オブジェクトのデータベースとの間の画像比較に少なくとも部分的に基づいて、認識される、項目52に記載の方法。
(項目54)
前記所定の物理オブジェクトに関係する前記ユーザの前記移動は、パターンを生成するために使用される、項目51に記載の方法。
(項目55)
前記生成されたパターンを所定のパターンのデータベースと比較することをさらに含む、項目54に記載の方法。
(項目56)
前記比較に基づいて、前記認識されたパターンのためのスコア化値を生成することをさらに含む、項目51に記載の方法。
(項目57)
前記スコア化値が閾値を超えている場合、前記ユーザ入力を決定することをさらに含む、項目56に記載の方法。
(項目58)
前記所定の物理オブジェクトに関係する前記移動を視覚的に追跡し、ビデオ録画を生成することをさらに含む、項目51に記載の方法。
(項目59)
前記ビデオ録画は、前記ユーザ入力を決定するために分析される、項目58に記載の方法。
(項目60)
ネットワーク化されたメモリを通して、前記所定のパターンのデータベースにアクセスすることをさらに含む、項目55に記載の方法。
(項目61)
前記所定の物理オブジェクトは、前記視野内の既存の構造、能動的にマークされたトーテム、受動的にマークされたトーテム、カメラ/センサに統合されたオブジェクト、およびトーテムコントローラオブジェクトから成る群から選択される、項目51に記載の方法。
(項目62)
前記所定の物理オブジェクトに関係する前記移動は、基準フレームに対する前記所定の物理オブジェクトの位置、配向、および移動から成る群から選択される、項目51に記載の方法。
(項目63)
前記所定の物理オブジェクトは、前記ユーザの手のうちの第1の手を備え、前記第1の手に関係する移動は、前記ユーザの手のうちの第2の手を用いた前記第1の手の操作を備えている、項目51に記載の方法。
(項目64)
前記所定の物理オブジェクトは、軟質硬度表面を有し、前記所定の物理オブジェクトに関係する移動は、前記ユーザによる前記軟質硬度表面の押下を備えている、項目51に記載の方法。
(項目65)
前記ユーザのための前記所定の物理オブジェクトに関連付けられた仮想インターフェース要素をレンダリングすることをさらに含む、項目51に記載の方法。
(項目66)
前記仮想インターフェース要素は、前記ユーザによって視認されると、前記仮想インターフェース要素が、前記所定の物理オブジェクトに関係する修正に少なくとも部分的に基づいて、修正されるように、前記所定の物理オブジェクトに関係して表示される、項目65に記載の方法。
(項目67)
前記所定の物理オブジェクトは、電子入力デバイスを備え、ユーザ入力は、前記所定の物理オブジェクトの認識された移動に基づいて、決定され、前記電子入力デバイスから入力される、項目51に記載の方法。
(項目68)
前記決定されたユーザ入力に少なくとも部分的に基づいて、前記ユーザに表示される仮想コンテンツの少なくとも1つの特性を修正することをさらに含む、項目51に記載の方法。
(項目69)
仮想ユーザインターフェースを生成する方法であって、
ユーザ入力に基づいて、ユーザに表示されるべき仮想ユーザインターフェースを識別することと、
前記ユーザに関連付けられた場所を得ることと、
前記得られた場所に少なくとも部分的に基づいて、前記識別された仮想ユーザインターフェースを表示すべき座標点の集合を決定することと、
前記決定された座標点において、前記仮想ユーザインターフェースを前記ユーザに表示することと
を含む、方法。
(項目70)
前記ユーザ入力は、認識されたジェスチャに少なくとも部分的に基づいて、決定される、項目69に記載の方法。
(項目71)
前記ユーザ入力は、音声コマンドに少なくとも部分的に基づいて、決定される、項目69に記載の方法。
(項目72)
前記ユーザ入力は、所定の物理オブジェクトとの相互作用に少なくとも部分的に基づいて、決定される、項目69に記載の方法。
(項目73)
前記識別されたユーザ仮想ユーザインターフェースをユーザインターフェースのライブラリから読み出すことをさらに含む、項目69に記載の方法。
(項目74)
前記識別された仮想ユーザインターフェースは、基準フレームに関連付けられている、項目69に記載の方法。
(項目75)
前記基準フレームは、身体中心基準フレームである、項目74に記載の方法。
(項目76)
前記基準フレームは、頭部中心基準フレームである、項目74に記載の方法。
(項目77)
前記基準フレームは、手中心基準フレームである、項目74に記載の方法。
(項目78)
前記基準フレームは、世界中心基準フレームである、項目74に記載の方法。
(項目79)
前記識別された仮想ユーザインターフェースに関連付けられた基準フレームと前記世界に関係する前記ユーザの得られた場所との間の変換を行い、前記仮想ユーザインターフェースの座標点の集合を決定することをさらに含む、項目69に記載の方法。
(項目80)
前記世界内の前記ユーザの場所は、前記ユーザのGPS場所に基づいて、決定される、項目69に記載の方法。
(項目81)
前記世界内の前記ユーザの場所は、前記ユーザに関連付けられたマップ点の集合に基づいて、決定される、項目69に記載の方法。
(項目82)
前記仮想ユーザインターフェースは、前記ユーザが移動する場合、静止しているように見える、項目69に記載の方法。
(項目83)
前記仮想ユーザインターフェースは、前記ユーザの移動に関係して移動する、項目69に記載の方法。
(項目84)
前記識別された仮想ユーザインターフェースに関連付けられた基準フレームを決定することと、
前記世界基準フレームに関係する前記基準フレームの場所を決定することと、
前記決定された場所を原点として設定することと、
前記原点に関係する前記座標点の集合を決定することと
をさらに含む、項目69に記載の方法。
(項目85)
前記マップ点の集合をネットワーク化されたメモリから読み出すことをさらに含む、項目69に記載の方法。
(項目86)
前記ユーザ入力は、前記仮想ユーザインターフェースが表示されるべき空間内の場所を備えている、項目69に記載の方法。
(項目87)
前記空間内の場所は、前記ユーザの場所における物理エンティティに関連付けられている、項目86に記載の方法。
(項目88)
前記ユーザ入力は、壁を示す投げる入力を含むジェスチャを含む、項目69に記載の方法。
(項目89)
前記ユーザ入力は、前記仮想ユーザインターフェースを生成するための命令の終了を意味するジェスチャを含む、項目69に記載の方法。
(項目90)
仮想ユーザインターフェースを生成する方法であって、
所定の物理オブジェクトの操作を検出することと、
前記検出された操作に基づいて、仮想ユーザインターフェースを作成するためのコマンドを認識することと、
仮想世界モデルから、前記所定の物理オブジェクトの位置に関連付けられたマップ点の集合を決定することと、
前記仮想ユーザインターフェースが前記ユーザによって視認されると、前記所定の物理オブジェクトの位置に静止しているように見えるように、前記仮想ユーザインターフェースを前記トーテムの位置に関連付けられた前記決定されたマップ点にリアルタイムでレンダリングすることと
を含む、方法。
(項目91)
前記所定の物理オブジェクトの操作は、前記所定の物理オブジェクトの表面上で前記ユーザの手によって挟んだ状態を広げるジェスチャを含む、項目90に記載の方法。
(項目92)
前記仮想ユーザインターフェースは、前記ユーザによって視認されると、前記所定の物理オブジェクトの表面の一部を覆うように見え、前記部分は、前記挟んだ状態を広げるジェスチャの形成中の前記ユーザの手の場所に対応する、項目91に記載の方法。
(項目93)
前記所定の物理オブジェクトは、前記ユーザの手である、項目90に記載の方法。
(項目94)
前記所定の物理オブジェクトの操作は、前記ユーザが手を広げること、前記ユーザが手のひらを広げて見せること、および前記ユーザが手を挙げることから成る群から選択される、アクションを備えている、項目93に記載の方法。
(項目95)
前記仮想ユーザインターフェースは、前記ユーザによって視認されると、前記手の表面の一部を覆うように見える、項目94に記載の方法。
(項目96)
前記仮想ユーザインターフェースは、前記手の指または親指によって選択可能な複数の第1のレベルのメニューアイテムを備えている、項目95に記載の方法。
(項目97)
前記手のさらなる操作を検出することと、
前記検出されたさらなる操作に基づいて、第2の仮想ユーザインターフェースを作成するためのコマンドを認識することと、
前記ユーザによって視認されると、前記仮想ユーザインターフェースが前記所定の物理オブジェクトの位置において静止しているように見えるように、前記所定の物理オブジェクトの位置に関連付けられた前記決定されたマップ点に前記第2の仮想ユーザインターフェースをリアルタイムでレンダリングすることと
をさらに含む、項目96に記載の方法。
(項目98)
前記手のさらなる操作は、前記手の指が離れるように広げることを含む、項目97に記載の方法。
(項目99)
前記第2の仮想ユーザインターフェースは、前記手の指または親指によって選択可能な複数の第2のレベルのメニューアイテムを備え、前記第2のレベルは、前記第1のレベルより低い、項目98に記載の方法。
(項目100)
前記トーテムのさらなる操作は、前記ユーザの手のうちの第2の手からの指を用いて、前記手のひらに円を描写する運動を行なうことを含む、項目97に記載の方法。
(項目101)
前記第2の仮想ユーザインターフェースは、弧に配列された複数のメニューアイテムを備え、前記メニューアイテムは、前記第2の手の指によってスクロール可能かつ選択可能である、項目100に記載の方法。
(項目102)
仮想世界を更新する方法であって、
第1の入力を第1のユーザの第1のデバイスから受信することであって、前記第1の入力は、前記第1のユーザの物理環境に対応する、ことと、
前記受信された第1の入力に基づいて、仮想世界モデルを更新することであって、前記仮想世界モデルは、前記第1のユーザの物理環境に対応する、ことと、
前記仮想世界モデルの第1の部分に対応する第1の更新された情報を第2のユーザに伝送することと
を含み、
前記第1の更新された情報は、前記第1の更新された情報の任意の部分が前記第2のユーザに表示される必要があるかどうかを示す、方法。
(項目103)
前記仮想世界モデルは、ネットワーク化されたメモリ上に常駐する、項目102に記載の方法。
(項目104)
第1のユーザおよび前記第2のユーザは、それぞれの異なる場所に位置する、項目102に記載の方法。
(項目105)
前記第1のユーザの第1のデバイスは、FOVカメラ、他のカメラ、センサ、眼追跡用の第1のデバイス、およびオーディオ用の第1のデバイスから成る群から選択される、項目102に記載の方法。
(項目106)
前記仮想世界モデルの第1の部分に対応する前記第1の更新された情報を前記第1のユーザに伝送することをさらに含み、前記第1の更新された情報は、前記第1の更新された情報の任意の部分が前記第1のユーザに表示される必要があるかどうかを示す、項目102に記載の方法。
(項目107)
前記仮想世界モデルの第1の部分に対応する前記第1の更新された情報を複数の他のユーザに伝送することをさらに含み、前記第1の更新された情報は、前記第1の更新された情報の任意の部分が前記複数の他のユーザの各々に表示される必要があるかどうかを示す、項目102に記載の方法。
(項目108)
複数の入力を複数の他のユーザのそれぞれの第1のデバイスから受信することであって、前記複数の入力は、前記第1のユーザの物理環境に対応する、ことと、
前記受信された複数の入力に基づいて、前記仮想世界モデルを更新することと、
前記仮想世界モデルのそれぞれの追加の部分に対応する追加の更新された情報を前記第2のユーザに伝送することと
をさらに含み、
前記追加の更新された情報は、前記追加の更新された情報の任意の部分が前記第2のユーザに表示される必要があるかどうかを示す、項目102に記載の方法。
(項目109)
前記仮想世界モデルの前記部分に対応する前記追加の更新された情報を前記第1のユーザに伝送することをさらに含み、前記追加の更新された情報は、前記追加の更新された情報の任意の部分が前記第1のユーザに表示される必要があるかどうかを示す、項目108に記載の方法。
(項目110)
前記仮想世界モデルのそれぞれの追加の部分に対応する前記追加の更新された情報を前記複数の他のユーザに伝送することをさらに含み、前記追加の更新された情報は、前記追加の更新された情報の任意の部分が前記複数の他のユーザの各々に表示される必要があるかどうかを示す、項目108に記載の方法。
(項目111)
第2の入力を前記第2のユーザの第2のデバイスから受信することであって、前記第2の入力は、前記第2のユーザの物理環境に対応する、ことと、
前記受信された前記第2の入力に基づいて、前記仮想世界モデルを更新することであって、前記仮想世界モデルは、前記第1のユーザの物理環境に対応する、ことと、
前記仮想世界モデルの第2の部分に対応する第2の更新された情報を前記第1のユーザに伝送することと
をさらに含み、
前記第2の更新された情報は、前記第2の更新された情報の任意の部分が前記第1のユーザに表示される必要があるかどうかを示す、項目102に記載の方法。
(項目112)
前記第2の更新された情報は、前記仮想世界モデルの前記第2の部分内の前記第2のユーザのアバタの移動に対応する、項目111に記載の方法。
(項目113)
方法であって、
光パターンを空間上に投影することと、
カメラを用いて、前記光パターンの第1および第2の部分を検出し、前記パターンの前記第1および第2の部分に対応する第1および第2のデータ点を生成することと、
三角測量分析を行い、前記第1および第2のデータ点に少なくとも部分的に基づいて、前記光パターンの前記第1および第2の部分の場所を決定することと
を含む、方法。
(項目114)
前記パターンの複数の部分を投影し、検出し、三角測量するステップを繰り返し、前記空間の追加のテクスチャデータを取得することをさらに含む、項目113に記載の方法。
(項目115)
前記光を空間上に投影することは、ファイバベースのプロジェクタを使用して、前記光を前記空間上に投影することを含む、項目113に記載の方法。
(項目116)
前記光が前記空間上に投影される前に、光学要素を用いて前記光を修正し、光線の束を形成することをさらに含む、項目113に記載の方法。
(項目117)
前記光パターンは、構造化された光に対応し、前記光パターンは、動的である、項目113に記載の方法。
(項目118)
前記光パターンは、パターン化された光に対応し、前記光パターンは、複数の点を含む、項目113に記載の方法。
(項目119)
前記光パターンは、テクスチャ化された光に対応し、前記光パターンは、不規則である、項目113に記載の方法。
(項目120)
前記光パターンの前記第1および第2の部分は、前記光パターンのそれぞれの画素である、項目113に記載の方法。
(項目130)
仮想部屋を生成する方法であって、
ユーザに表示されるべき仮想部屋を識別することと、
前記仮想部屋に関連付けられた第1のマップ点の集合を得ることであって、前記第1のマップ点の集合は、前記ユーザの場所における第1の物理部屋に対応する、ことと、
前記仮想部屋を前記第1のマップ点の集合にテザリングすることと、
前記ユーザによって視認されると、前記仮想部屋が前記第1のマップ点の集合において静止しているように見えるように、前記仮想部屋を前記ユーザに表示することと
を含む、方法。
(項目131)
ユーザ入力に基づいて、前記仮想部屋を識別することをさらに含む、項目130に記載の方法。
(項目132)
前記ユーザ入力は、ジェスチャ、視覚的データ、聴覚的データ、感覚データ、直接コマンド、音声コマンド、眼追跡、および物理ボタンの選択から成る群から選択される、項目131に記載の方法。
(項目133)
前記仮想部屋は、前記ユーザによって事前決定される、項目131に記載の方法。
(項目134)
前記第1のマップ点の集合をネットワーク化されたメモリから読み出すことをさらに含む、項目131に記載の方法。
(項目135)
前記仮想部屋に関連付けられた第2のマップ点の集合を得ることであって、前記第2のマップ点の集合は、前記ユーザが前記第1の物理部屋から移動した後の前記ユーザの場所における第2の物理部屋に対応する、ことと、
前記仮想部屋を前記第2のマップ点の集合にテザリングすることと、
前記ユーザによって視認されると、前記仮想部屋が前記第2のマップ点の集合において静止しているように見えるように、前記仮想部屋を前記ユーザに表示することと
をさらに含む、項目131に記載の方法。
(項目136)
前記仮想部屋はまた、第1および第2の仮想オブジェクトを含み、前記方法は、前記仮想部屋が前記第2のマップ点の集合にテザリングされている場合、前記第1のマップ点の集合に対応する前記第1の仮想オブジェクトと第2の仮想オブジェクトとの間の相対的空間位置を保つことをさらに含む、項目135に記載の方法。
(項目137)
前記ユーザによって視認されると、前記仮想部屋が前記第1の物理部屋の一部に対して静止しているように見えるように、前記仮想部屋を前記ユーザに表示することをさらに含む、項目131に記載の方法。
(項目138)
前記仮想部屋はまた、選択可能仮想装飾を含む、項目131に記載の方法。
(項目139)
小売体験を作成する方法であって、
小売店舗内のユーザの場所を認識することと、
前記小売店舗に対応するデータを読み出すことと、
前記読み出されたデータに基づいて、前記小売店舗に関連する仮想コンテンツを生成することと、
仮想ユーザインターフェースを前記ユーザの視野内に作成することと、
前記ユーザが前記小売店舗内で小売アクティビティに従事する間、前記仮想コンテンツを前記仮想ユーザインターフェース上に表示することと
を含む、方法。
(項目140)
前記読み出されたデータは、前記小売店舗に対応するマップ点の集合を備え、
前記仮想ユーザインターフェースは、前記ユーザによって視認されると、前記マップ点の集合において静止しているように見える、項目139に記載の方法。
(項目141)
前記ユーザの場所は、無線周波数識別トランスポンダおよび通信を使用して認識される、項目139に記載の方法。
(項目142)
前記仮想コンテンツは、仮想キャラクタ、仮想クーポン、前記ユーザ場所に基づくゲーム、宣伝アイテムの一覧、栄養情報、アイテムに関連するメタデータ、有名人の登場、クロスセリング広告、前記ユーザに既知の人物からの情報、および電子書籍から成る群から選択される、項目139に記載の方法。
(項目143)
前記ユーザに対応するユーザデータを読み出すことと、
前記読み出されたデータおよび前記読み出されたユーザデータの両方に基づいて、前記仮想コンテンツを生成することと
をさらに含む、項目139に記載の方法。
(項目144)
前記仮想コンテンツは、仮想食料品一覧、仮想クーポン書籍、仮想レシピ書籍、前記ユーザの家内の種々の資材の一覧、および仮想レシピビルダから成る群から選択される、項目143に記載の方法。
(項目145)
ユーザ入力を受信することと、
前記ユーザ入力に基づいて、追加の仮想コンテンツを生成することと、
前記ユーザが前記小売店舗内の小売アクティビティに従事する間、前記追加の仮想コンテンツを前記仮想ユーザインターフェース上に表示することと
をさらに含む、項目139に記載の方法。
(項目146)
前記ユーザ入力は、ジェスチャ、視覚的データ、聴覚的データ、感覚データ、直接コマンド、音声コマンド、眼追跡、および物理ボタンの選択から成る群から選択される、項目145に記載の方法。
(項目147)
前記仮想コンテンツは、総運営コスト、スマート仮想食料品一覧、前記ユーザ場所に近接するアイテムのインジケータ、および仮想支払システムから成る群から選択される、項目145に記載の方法。
(項目148)
前記生成された仮想コンテンツを表示のためにユーザデバイスに送信することをさらに含む、項目139に記載の方法。
(項目149)
方法であって、
患者の医療履歴に関連する患者データを読み出すことと、
前記読み出された患者データに少なくとも部分的に基づいて、仮想コンテンツを生成することと、
前記第1のユーザの第1の場所に対応する第1のマップ点の集合を読み出すことと、
前記読み出されたマップ点の集合に少なくとも部分的に基づいて、第1の仮想ユーザインターフェースを第1のユーザの視野内に作成することと、
前記第1のユーザによって視認されると、前記第1の仮想ユーザインターフェースが前記第1のマップ点の集合において固定されているように見えるように、前記仮想コンテンツを前記第1の仮想ユーザインターフェース上に表示することと
を含む、方法。
(項目150)
前記仮想コンテンツは、外科手術の標的の3次元画像、患者識別情報、医療画像、患者のバイタルサイン情報、およびカルテから成る群から選択される、項目149に記載の方法。
(項目151)
前記患者データは、ネットワーク化されたメモリから読み出される、項目149に記載の方法。
(項目152)
第2の仮想ユーザインターフェースを生成し、前記第1のユーザと第2のユーザとの間の通信を促進することをさらに含み、前記第2のユーザは、前記第1のユーザの前記第1の場所と異なる第2の場所内に居る、項目149に記載の方法。
(項目153)
前記第2の仮想ユーザインターフェースは、前記第2のユーザの視覚的表現である、項目152に記載の方法。
(項目154)
前記第2のユーザは、上級専門外科医、患者、前記患者に関連する者、および医学生から成る群から選択される、項目152に記載の方法。
(項目155)
前記第2のユーザによって視認されると、前記第1の仮想ユーザインターフェースが前記マップ点の集合において固定されているように見えるように、前記仮想コンテンツを前記第1の仮想ユーザインターフェース上において前記第2のユーザに対して表示することをさらに含む、項目152に記載の方法。
(項目156)
前記仮想コンテンツは、前記外科手術手技中、前記第1のユーザに表示され、前記方法は、
ユーザ入力を受信することと、
前記ユーザ入力に基づいて、追加の仮想コンテンツを生成することと、
前記第1のユーザが前記外科手術手技を行っている間、前記追加の仮想コンテンツを前記第1の仮想ユーザインターフェース上に表示することと
をさらに含む、項目149に記載の方法。
(項目157)
前記ユーザ入力は、ジェスチャ、視覚的データ、聴覚的データ、感覚データ、直接コマンド、音声コマンド、眼追跡、および物理ボタンの選択から成る群から選択される、項目156に記載の方法。
(項目158)
前記ユーザ入力は、前記第1のユーザの視野の画像を備え、前記方法は、前記第2のユーザによって視認されると、前記第1の仮想ユーザインターフェースが前記マップ点の集合において固定されているように見えるように、前記追加の仮想コンテンツを前記第1の仮想ユーザインターフェース上において前記第2のユーザに対して表示することをさらに含む、項目156に記載の方法。
(項目159)
医療リハビリテーションを促進する方法であって、
医療リハビリテーションに関連するユーザ入力を受信することと、
前記受信されたユーザ入力に基づいて、医療リハビリテーションに関連する要求をクラウドサーバに送信することと、
前記要求に基づいて、医療リハビリテーションに関連するデータを前記クラウドサーバに接続されている知識ベースから受信することと、
前記受信されたデータに基づいて、医療リハビリテーションに関連する仮想コンテンツを第1のユーザに表示することと
を含む、方法。
(項目160)
前記ユーザ入力は、視覚的、聴覚的、および感覚入力から成る群から選択される、項目159に記載の方法。
(項目161)
前記要求を前記クラウドサーバに送信する前に、前記ユーザ入力が有効であるかどうかを決定することをさらに含む、項目159に記載の方法。
(項目162)
前記データは、前記クラウドサーバに接続されている複数の知識ベースから受信される、項目159に記載の方法。
(項目163)
前記要求は、前記クラウドサーバに、データを前記知識ベースから読み出すように命令する、項目159に記載の方法。
(項目164)
前記仮想コンテンツは、リラックスさせる環境を含む、項目159に記載の方法。
(項目165)
追加のデータを第2のユーザから受信することと、
前記受信された追加のデータに基づいて、追加の仮想コンテンツを前記第1のユーザに表示することと
をさらに含む、項目159に記載の方法。
(項目166)
前記第1および第2のユーザは、異なる物理場所に位置する、項目165に記載の方法。
(項目167)
前記追加の仮想コンテンツは、前記第2のユーザの視覚的表現である、項目165に記載の方法。
(項目168)
第1のユーザデータを前記第1のユーザから受信することと、
第2のユーザデータを第2のユーザから受信することと、
前記受信された第1および第2のユーザデータに基づいて、前記仮想コンテンツを修正することと、
修正された仮想コンテンツを前記第1および第2のユーザに表示することと
をさらに含む、項目159に記載の方法。
(項目169)
前記第1のユーザは、医療リハビリテーションのための物理アクティビティに従事し、前記仮想コンテンツは、前記物理アクティビティに関連する、項目159に記載の方法。
(項目170)
前記仮想コンテンツは、前記物理アクティビティについての情報、前記第1のユーザのパフォーマンス統計、前記物理アクティビティに対応する仮想体験、および仮想アバタから成る群から選択される、項目169に記載の方法。
(項目171)
前記データは、ネットワーク化されたメモリから読み出される、項目159に記載の方法。
(項目172)
タスクのパフォーマンスを向上させる方法であって、
ユーザによって行われるべきタスクに関連するタスクデータを読み出すことと、
前記タスクデータに基づいて、仮想コンテンツを生成することと、
仮想ユーザインターフェースを前記ユーザの視野内に作成することと、
前記ユーザの場所に対応するマップ点の集合を読み出すことと、
前記ユーザによって視認されると、前記仮想ユーザインターフェースが前記マップ点の集合において固定されているように見えるように、前記ユーザが前記タスクを行っている間、前記仮想コンテンツを前記仮想ユーザインターフェース上に表示することと
を含む、方法。
(項目173)
前記仮想コンテンツは、仮想マップされたパターンを有するゲームであり、前記ゲームは、前記ユーザによる前記タスクのパフォーマンスを改良する、項目172に記載の方法。
(項目174)
前記ゲームは、前記仮想マップされたパターンに従うことに対してポイントを与える、項目173に記載の方法。
(項目175)
前記ゲームは、前記仮想マップされたパターン内の地点に所定の時間内に到達することに対してポイントを倍にする、項目174に記載の方法。
(項目176)
前記ゲームは、前記仮想マップされたパターンから外れることに対してポイントを差し引く、項目175に記載の方法。
(項目177)
前記ゲームは、物理オブジェクトに隣接して移動することに対してポイントを差し引く、項目175に記載の方法。
(項目178)
前記タスクは、造園機械を運転すること、在庫アイテムを読み出すこと、小売棚に陳列すること、および郵便をソートすることから成る群から選択される、項目172に記載の方法。
(項目179)
前記タスクデータは、ネットワーク化されたメモリから読み出される、項目172に記載の方法。
(項目180)
ユーザ入力を受信することと、
前記ユーザ入力に基づいて、追加の仮想コンテンツを生成することと、
前記ユーザが前記タスクを行っている間、前記追加の仮想コンテンツを前記仮想ユーザインターフェース上に表示することと
をさらに含む、項目172に記載の方法。
(項目181)
前記ユーザ入力は、前記タスクのパフォーマンスに関連するユーザアクションを備えている、項目180に記載の方法。
(項目182)
拡張現実ディスプレイシステムにおける遅延を補正する方法であって、
仮想画像をユーザに表示する少なくとも1つの段階における1つ以上のタイミング不一致を決定することと、
予測機構を利用して、前記タイミング不一致を予測的に補正することと、
前記予測機構に少なくとも部分的に基づいて、前記仮想画像のデータに関連する少なくとも1つの特性を補償することと
を含む、方法。
(項目183)
前記タイミング不一致は、1つ以上のセンサによって行われる1つ以上のセンサ測定に関わり、前記1つ以上のセンサは、前記プロセッサに通信可能に結合されている、項目182に記載の方法。
(項目184)
前記タイミング不一致は、着信データを処理するときの処理遅延に関わる、項目182に記載の方法。
(項目185)
前記予測機構は、フィルタを利用して、前記タイミング不一致の影響を補正する、項目182に記載の方法。
(項目186)
前記フィルタは、1つ以上のセンサ測定の相対的スピードを考慮し、前記センサ測定は、前記プロセッサに通信可能に結合されている1つ以上のセンサによって行われる、項目185に記載の方法。
(項目187)
前記予測機構は、カルマン予測子を利用する、項目182に記載の方法。
(項目188)
前記カルマン予測子は、ディスプレイ処理段階中、利用される、項目187に記載の方法。
(項目189)
前記補償は、前記仮想画像に関連付けられたデータのシフトを行うことを含む、項目182に記載の方法。
(項目190)
前記補償は、前記仮想画像に関連付けられた1つ以上の視覚的アーチファクトを平滑化することを含む、項目182に記載の方法。
(項目191)
前記補償は、1つ以上のセンサのセンサ測定の負の影響を補正することを含み、前記1つ以上のセンサは、前記プロセッサに通信可能に結合されている、項目182に記載の方法。
(項目192)
拡張現実システムを較正する方法であって、
仮想画像をユーザに表示することであって、前記仮想画像は、既知の焦点距離に表示され、前記仮想画像は、画素点を備えている、ことと、
前記画素点が前記ユーザに表示されている場所を決定することであって、前記画素の場所は、前記ユーザの眼の瞳孔の場所に少なくとも部分的に基づいて、計算される、ことと、
前記仮想画像の画素点を空間内の既知の点と整列させることと
を含む、方法。
(項目193)
項目331のステップは、複数の画素点に対して繰り返される、項目192に記載の方法。
(項目194)
前記画素点が前記ユーザに表示されている場所は、前記空間内の既知の点の場所に少なくとも部分的に基づいて、計算される、項目192に記載の方法。
(項目195)
前記瞳孔の場所、前記画素点の場所および前記空間内の既知の点の場所は、同一線上にある、項目192に記載の方法。
(項目196)
前記画素点が前記ユーザに表示されている場所は、ユーザ入力に基づいて、修正される、項目192に記載の方法。
(項目197)
複数の画素点が前記ユーザに提示されるように、ゲーム用インターフェースを作成することをさらに含む、項目196に記載の方法。
(項目198)
前記ゲーム用インターフェースは、前記ユーザの眼移動を通してレーザを発射することを含む、項目197に記載の方法。
(項目199)
前記既知の点の場所は、1つ以上の世界カメラから受信されるデータに少なくとも部分的に基づいて、決定される、項目197に記載の方法。
(項目200)
項目1のステップは、前記ユーザの他方の眼に対して繰り返される、項目192に記載の方法。
(項目201)
前記画素点の場所は、前記瞳孔の場所および前記既知の点の場所の関数に少なくとも部分的に基づいて、決定される、項目193に記載の方法。
(項目202)
前記関数は、二次関数を備えている、項目201に記載の方法。
(項目203)
仮想インターフェースを表示する方法であって、
ユーザ入力に基づいて、前記ユーザに表示されるべきユーザインターフェースを識別することと、
少なくとも1つの物理オブジェクトに関係して、アバタユーザインターフェースを表示することであって、前記アバタユーザインターフェースは、少なくとも1つの仮想ユーザインターフェース要素を提示する、ことと、
前記ユーザと前記アバタユーザインターフェースとの間の相互作用に少なくとも部分的に基づいて、少なくとも1つの仮想ユーザインターフェース要素を選択することと
を含む、方法。
(項目204)
前記ユーザ入力は、ジェスチャを含む、項目203に記載の方法。
(項目205)
前記ユーザの拡張現実ディスプレイシステムに関係する前記ジェスチャの場所を決定することをさらに含み、前記仮想ユーザインターフェースは、前記決定された場所に表示される、項目204に記載の方法。
(項目206)
前記アバタは、事前に選択されたアバタである、項目203に記載の方法。
(項目207)
前記アバタは、前記ユーザに似ている、項目203に記載の方法。
(項目208)
前記アバタは、前記物理オブジェクトの上に立っているかのように表示される、項目203に記載の方法。
(項目209)
前記少なくとも1つの仮想要素は、アプリケーションを備えている、項目203に記載の方法。
(項目210)
別のユーザ入力に少なくとも部分的に基づいて、前記少なくとも1つの仮想要素を選択することであって、前記少なくとも1つの仮想要素は、前記ユーザの連絡先を備えている、ことと、
前記アバタ仮想ユーザインターフェースおよび前記物理オブジェクトに関係して、前記ユーザの連絡先を表す別のアバタを表示することであって、前記ユーザと前記ユーザの連絡先との間の相互作用は、前記アバタ仮想ユーザインターフェースと前記ユーザの連絡先を表す他のアバタとの間の仮想相互作用を通して動画化される、ことと
をさらに含む、項目203に記載の方法。
(項目211)
前記相互作用は、データを前記ユーザの拡張現実システムと前記ユーザの連絡先に対応するコンピューティングシステムとの間で伝送することを含む、項目210に記載の方法。
(項目212)
前記ユーザ入力は、音声コマンドを備えている、項目203に記載の方法。
(項目213)
仮想インターフェースを表示する方法であって、
ユーザ入力に基づいて、前記ユーザに表示されるべきユーザインターフェースを識別することと、
少なくとも1つの物理オブジェクトに関係して、1つ以上の選択可能仮想インターフェース要素を備えているフローティング式ユーザインターフェースを表示することであって、前記フローティング式ユーザインターフェースは、前記ユーザ入力が受信された場所から押し出されたように見える、ことと
を含む、方法。
(項目214)
前記ユーザ入力は、前記ユーザの指のジェスチャを含む、項目213に記載の方法。
(項目215)
前記ユーザの指のジェスチャは、前記ユーザの一方の手の指を前記ユーザの他方の手の別の指を用いてタッチすることを含む、項目214に記載の方法。
(項目216)
前記ユーザの一方の手の指を前記ユーザの他方の手の別の指を用いてタッチした場所を決定することをさらに含み、前記フローティング式仮想ユーザインターフェースは、前記決定された場所から生じる、項目215に記載の方法。
(項目217)
前記フローティング式ユーザインターフェースは、3次元ブロックの集合を備え、前記3次元ブロックの集合のうちの3次元ブロックは、前記少なくとも1つの選択可能仮想ユーザインターフェース要素を表す、項目213に記載の方法。
(項目218)
前記フローティング式仮想ユーザインターフェースは、世界基準フレームに少なくとも部分的に基づいて、作成される、項目213に記載の方法。
(項目219)
前記少なくとも1つの選択可能仮想ユーザインターフェース要素は、3次元ブロックのスタックとして存在し、前記3次元ブロックのスタックは、別のユーザ入力に少なくとも部分的に基づいて、回転される、項目213に記載の方法。
(項目220)
前記ユーザから受信される別のユーザ入力に少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素の仮想ユーザインターフェース要素を選択することであって、前記仮想インターフェース要素は、少なくとも1つの他のサブ仮想インターフェース要素に関連付けられている、ことと、
前記少なくとも1つの他のサブ仮想インターフェース要素を前記選択された仮想インターフェース要素の下に表示することと
をさらに含む、項目213に記載の方法。
(項目221)
前記ユーザから受信される別のユーザ入力に少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素の仮想ユーザインターフェース要素を選択することと、
仮想ボックス内に、前記選択された仮想インターフェース要素に関連付けられたコンテンツを表示することであって、前記仮想ボックスは、前記ユーザの視野内に表示されるコンテンツを備えている、ことと
をさらに含む、項目213に記載の方法。
(項目222)
前記仮想ボックスが閉鎖されるべきことを示す第2のユーザ入力を識別することと、
前記第2のユーザ入力に少なくとも部分的に基づいて、前記仮想ボックスを紙をくしゃくしゃに丸めることに似た様式で動画化することと、
前記選択された仮想インターフェース要素に関連付けられたコンテンツを終了させることと
をさらに含む、項目221に記載の方法。
(項目223)
前記第2のユーザ入力は、ジェスチャを含み、前記ジェスチャは、1枚の紙をくしゃくしゃに丸めることに似ている、項目222に記載の方法。
(項目224)
仮想ユーザインターフェースを表示する方法であって、
ユーザ入力に基づいて、前記ユーザに表示されるべきユーザインターフェースを識別することと、
少なくとも1つの物理オブジェクトに関係して、1つ以上の選択可能仮想インターフェース要素を備えているフローティング式ユーザインターフェースを表示することと
を含み、
前記フローティング式ユーザインターフェースは、前記少なくとも1つの物理オブジェクト上に置かれているように見え、前記少なくとも1つの物理オブジェクトの縦軸の周りでの前記少なくとも1つの物理オブジェクトの回転は、追加の選択可能仮想インターフェース要素が表示されることをもたらし、前記追加の選択可能仮想インターフェース要素は、前記少なくとも1つの物理オブジェクトの別の側に置かれているように見える、方法。
(項目225)
前記少なくとも1つの物理オブジェクトは、前記ユーザの腕を備えている、項目224に記載の方法。
(項目226)
前記ユーザ入力は、ジェスチャを含む、項目224に記載の方法。
(項目227)
前記ジェスチャは、前記選択可能仮想インターフェース要素が表示されているように見える、前記ユーザの腕上における前記ユーザの手のカップを形成するような運動を含む、項目226に記載の方法。
(項目228)
前記ユーザの腕上における前記ユーザの手のカップを形成するような運動の場所を決定することをさらに含み、前記フローティング式ユーザインターフェースは、前記決定された場所から生じる、項目227に記載の方法。
(項目229)
別のユーザ入力に少なくとも部分的に基づいて、前記フローティング式仮想ユーザインターフェースのレンダリングを終了させることをさらに含む、項目224に記載の方法。
(項目230)
前記他のユーザ入力は、ジェスチャを含み、前記ジェスチャは、前記物理オブジェクトを横断して前記ユーザのカップ状の手をドラッグする運動を含む、項目229に記載の方法。
(項目231)
前記フローティング式仮想ユーザインターフェースは、手中心基準フレームに少なくとも部分的に基づいて、作成される、項目224に記載の方法。
(項目232)
前記ユーザから受信される別のユーザ入力に少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素の仮想ユーザインターフェース要素を選択することと、
前記選択された仮想インターフェース要素に関連付けられたコンテンツを表示することであって、前記コンテンツは、前記フローティング式仮想インターフェースに関係して表示される、ことと
をさらに含む、項目224に記載の方法。
(項目233)
前記表示されるコンテンツは、前記手中心基準フレームに対応する、項目231に記載の方法。
(項目234)
前記ユーザから受信される入力に少なくとも部分的に基づいて、前記フローティング式仮想ユーザインターフェースが移動している場合、前記表示されるコンテンツが静止したままであるように、前記表示されるコンテンツを前記手中心基準フレームから世界中心基準フレームに移動させることをさらに含む、項目231に記載の方法。
(項目235)
仮想ユーザインターフェースを作成する方法であって、
ユーザ入力に基づいて、前記ユーザに表示されるべきユーザインターフェースを識別することと、
少なくとも1つの物理オブジェクトに関係して、前記少なくとも1つの物理オブジェクトにタッチした場所から生じる仮想ユーザインターフェースを表示することであって、前記仮想ユーザインターフェースは、前記少なくとも1つの物理オブジェクトにタッチした場所から飛び出ているように見え、前記仮想ユーザインターフェースは、前記仮想ユーザインターフェースに取り付けられているように見える少なくとも1つの選択可能仮想ユーザインターフェース要素を備えている、ことと
を含む、方法。
(項目236)
前記少なくとも1つの物理オブジェクトは、水平表面を備えている、項目235に記載の方法。
(項目237)
前記ユーザ入力は、ジェスチャを含む、項目235に記載の方法。
(項目238)
前記ジェスチャは、所定の期間の間、伸ばされた指が前記少なくとも1つの物理オブジェクトをタッチすることを含む、項目237に記載の方法。
(項目239)
前記ユーザの指が前記少なくとも1つの物理オブジェクトにタッチした場所を決定することをさらに含み、前記仮想ユーザインターフェースは、前記決定された場所から生じる、項目235に記載の方法。
(項目240)
別のユーザ入力に少なくとも部分的に基づいて、前記フローティング式仮想ユーザインターフェースのレンダリングを終了させることをさらに含む、項目235に記載の方法。
(項目241)
前記他のユーザ入力は、ジェスチャを含み、前記ジェスチャは、前記レンダリングされた仮想ユーザインターフェースを横断して、前記ユーザの手を用いて切断する運動を含む、項目240に記載の方法。
(項目242)
前記仮想ユーザインターフェースは、前記仮想ユーザインターフェースが前記ユーザの任意の移動に対して静止したままであるように、世界中心基準フレームに少なくとも部分的に基づいて、作成される、項目235に記載の方法。
(項目243)
前記ユーザから受信される別のユーザ入力に少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素の仮想ユーザインターフェース要素を選択することと、
前記少なくとも1つの物理オブジェクトの別の場所に、第2の仮想ユーザインターフェースを生成することであって、前記第2の仮想ユーザインターフェースは、追加の選択可能仮想インターフェース要素を備えている、ことと
をさらに含む、項目235に記載の方法。
(項目244)
前記仮想ユーザインターフェースは、前記少なくとも1つの物理オブジェクトにタッチした場所から生えている木に似ている、項目235に記載の方法。
(項目245)
仮想ユーザインターフェースを表示する方法であって、
ユーザ入力に基づいて、前記ユーザに表示されるべきユーザインターフェースを識別することと、
前記仮想ユーザインターフェースが指の移動を鏡映するように、前記ユーザの前記指の運動を鏡映するような仮想ユーザインターフェースを描写することと、
1つ以上の選択可能ユーザインターフェース要素を前記仮想ユーザインターフェースが描写されているエリア内に表示することと
を含む、方法。
(項目246)
前記指ジェスチャは、所定の期間の間、前記ユーザの手の少なくとも1本の指を用いて指示するジェスチャを含む、項目245に記載の方法。
(項目247)
前記指示ジェスチャの場所を決定することをさらに含み、前記仮想ユーザインターフェースは、前記決定された場所から生じる、項目246に記載の方法。
(項目248)
前記ユーザが前記仮想ユーザインターフェースをもはや描写していないことを検出することをさらに含み、前記仮想ユーザインターフェース要素は、前記検出に少なくとも部分的に基づいて、表示される、項目245に記載の方法。
(項目249)
前記仮想ユーザインターフェースの描写は、空間を横断した前記ユーザの指のドラッグ運動を鏡映する、項目245に記載の方法。
(項目250)
別のユーザ入力に少なくとも部分的に基づいて、フローティング式仮想ユーザインターフェースのレンダリングを終了させることをさらに含む、項目245に記載の方法。
(項目251)
前記他のユーザ入力は、ジェスチャを含み、前記ジェスチャは、前記ユーザの指の連続ドラッグ運動の終了を含む、項目250に記載の方法。
(項目252)
前記仮想ユーザインターフェースは、前記仮想ユーザインターフェースが前記ユーザの任意の移動に対して静止したままであるように、世界中心基準フレームに少なくとも部分的に基づいて、作成される、項目245に記載の方法。
(項目253)
前記ユーザから受信される別のユーザ入力に少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素のうちの仮想ユーザインターフェース要素を選択することと、
前記仮想ユーザインターフェースに関係して前記選択された仮想インターフェース要素に関連付けられたコンテンツを生成することと
をさらに含む、項目245に記載の方法。
(項目254)
前記仮想ユーザインターフェースの形状は、前記ユーザの指によって描写される形状に似ている、項目245に記載の方法。
(項目255)
仮想ユーザインターフェースを作成する方法であって、
ユーザの手のジェスチャに基づいて、前記ユーザに表示されるべきユーザインターフェースを識別することと、
前記手のジェスチャに応答して、前記仮想ユーザインターフェースが前記物理オブジェクトの垂直側面にあるように見えるように、前記手のジェスチャの方向における物理オブジェクトの前記垂直側面に少なくとも1つの選択可能仮想インターフェース要素を有する仮想ユーザインターフェースを表示することと
を含む、方法。
(項目256)
前記手のジェスチャに応答して、塗料の斑点に似た仮想コンテンツの集合を表示することをさらに含み、前記仮想コンテンツは、前記手のジェスチャによって示される点において生じる、項目255に記載の方法。
(項目257)
前記手のジェスチャは、前記物理オブジェクトの前記垂直側面の方向に振り上げられた伸ばされた指を含む、項目255に記載の方法。
(項目258)
前記物理オブジェクトの前記垂直側面の方向に振り上げられた伸ばされた指の場所を決定することをさらに含み、塗料の斑点に似た仮想コンテンツの集合は、前記決定された場所に表示される、項目257に記載の方法。
(項目259)
仮想斑点を前記物理オブジェクトの前記垂直側面に表示することをさらに含み、前記仮想斑点の少なくとも1つの特性は、前記物理オブジェクトの前記垂直側面の方向に振り上げられた伸ばされた指の決定された場所に少なくとも部分的に基づいて、前記物理オブジェクトの前記垂直側面に表示される、項目258に記載の方法。
(項目260)
前記物理オブジェクトは、壁を備えている、項目255に記載の方法。
(項目261)
前記仮想ユーザインターフェースは、前記仮想ユーザインターフェースが前記ユーザの任意の移動に対して静止したままであるように、世界中心基準フレームに少なくとも部分的に基づいて、作成される、項目255に記載の方法。
(項目262)
前記ユーザから受信される別のユーザ入力に少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素のうちの仮想ユーザインターフェース要素を選択することと、
前記物理オブジェクトの別の場所に、前記選択されたユーザインターフェース要素に関連付けられたコンテンツを生成することと
をさらに含む、項目255に記載の方法。
(項目263)
前記選択されたユーザインターフェース要素に関連付けられたコンテンツを縮小形態で記憶することをさらに含み、前記縮小形態は、仮想バンドを備え、前記仮想バンドは、前記ユーザの手の周囲に表示される、項目2622に記載の方法。
(項目264)
前記仮想バンドは、前記仮想バンドが少なくとも部分的に前記手の移動に基づいて移動するように、少なくとも部分的に手中心基準フレームに基づいて、作成される、項目263に記載の方法。
(項目265)
前記ユーザの別のジェスチャに少なくとも部分的に基づいて、前記コンテンツを完全形態で表示することをさらに含む、項目263に記載の方法。
(項目266)
前記他のジェスチャは、前記仮想バンドが表示される前記手の振り上げる運動を含む、項目265に記載の方法。
(項目267)
仮想ユーザインターフェースを作成する方法であって、
ユーザの手のジェスチャに基づいて、前記ユーザに表示されるべきユーザインターフェースを識別することと、
前記手のジェスチャに応答して、仮想ユーザインターフェースを表示することと
を含み、
前記仮想ユーザインターフェースは、少なくとも1つの選択可能仮想インターフェース要素が前記ユーザの別の手のジェスチャに少なくとも部分的に基づいて、移動し、追加の選択可能仮想インターフェース要素を表示するように、前記少なくとも1つの選択可能仮想インターフェース要素を有する水平糸に似ている、方法。
(項目268)
前記手のジェスチャは、前記ユーザの第1の手の第1の指を第2の手の第2の指を用いてタッチする運動を含む、項目267に記載の方法。
(項目269)
前記ジェスチャは、前記第1の指が前記第2の指から離れるように、前記第1の指および前記第2の指の両方を引き離す運動をさらに含む、項目268に記載の方法。
(項目270)
前記仮想糸は、前記第1および第2の指の移動の長さを鏡映し、前記仮想糸の長さは、前記第1および第2の指の移動に少なくとも部分的に基づく、項目269に記載の方法。
(項目271)
前記第1の指と第2の指とのタッチ運動の場所を決定することをさらに含み、前記仮想糸は、前記決定された場所から生じる、項目267に記載の方法。
(項目272)
前記他方の手のジェスチャは、前記ユーザの手の方向転換運動を含み、前記方向転換移動は、前記少なくとも1つの選択可能仮想インターフェース要素に前記方向転換運動の方向に移動させる、項目267に記載の方法。
(項目273)
前記仮想ユーザインターフェースは、前記仮想ユーザインターフェースが前記ユーザの任意の移動に対して静止したままであるように、世界中心基準フレームに少なくとも部分的に基づいて、作成される、項目267に記載の方法。
(項目274)
前記ユーザの別の手のジェスチャに少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素のうちの仮想ユーザインターフェース要素を選択することと、
前記物理オブジェクトの別の場所に、前記選択されたユーザインターフェース要素に関連付けられたコンテンツを生成することと
をさらに含む、項目267に記載の方法。
(項目275)
前記他方の手のジェスチャは、前記ユーザの一方の手を前方に持って来る運動を含む、項目274に記載の方法。
(項目276)
仮想ユーザインターフェースを作成する方法であって、
ユーザの手のジェスチャに基づいて、前記ユーザに表示されるべきユーザインターフェースを識別することと、
前記手のジェスチャに応答して、仮想ユーザインターフェースを表示することと
を含み、
前記仮想ユーザインターフェースは、垂直糸の集合を備え、前記垂直糸の各々は、少なくとも1つの選択可能仮想インターフェース要素に関連付けられている、方法。
(項目277)
前記手のジェスチャは、所定の期間の間、前記ユーザの第1の手を広げるジェスチャを含む、項目276に記載の方法。
(項目278)
別の手のジェスチャに少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素を選択することをさらに含み、前記他方の手のジェスチャは、前記ユーザの2本の指を用いて、前記仮想糸の集合のうちの仮想糸のうちの少なくとも1つを引っ張る運動を含む、項目277に記載の方法。
(項目279)
手のジェスチャに少なくとも部分的に基づいて、第1の仮想糸に関連付けられた第1の仮想要素に関連付けられたデータを第2の仮想糸に関連付けられた第2の仮想要素に伝送することをさらに含む、項目276に記載の方法。
(項目280)
前記他方の手のジェスチャは、前記第2の仮想糸に関連付けられた前記第2の仮想要素を用いた前記第1の仮想糸に関連付けられた前記第1の仮想要素の圧搾運動を含み、前記圧搾運動は、前記ユーザの指によって行われる、項目279に記載の方法。
(項目281)
前記仮想インターフェースは、少なくとも1つの物理オブジェクトに関係して表示される、項目276に記載の方法。
(項目282)
前記少なくとも1つの物理オブジェクトは、壁を備えている、項目281に記載の方法。
(項目283)
手のジェスチャの場所を決定することをさらに含み、前記仮想糸は、前記決定された場所から生じる、項目276に記載の方法。
(項目284)
前記仮想ユーザインターフェースは、前記仮想ユーザインターフェースが前記ユーザの任意の移動に対して静止したままであるように、世界中心基準フレームに少なくとも部分的に基づいて、作成される、項目276に記載の方法。
(項目285)
前記ユーザの別の手のジェスチャに少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素のうちの仮想ユーザインターフェース要素を選択することと、
前記物理オブジェクトの別の場所に、前記選択されたユーザインターフェース要素に関連付けられた仮想コンテンツを生成することと
をさらに含む、項目276に記載の方法。
(項目286)
仮想ユーザインターフェースを作成する方法であって、
ユーザの手のジェスチャに基づいて、前記ユーザに表示されるべきユーザインターフェースを識別することと、
前記手のジェスチャに応答して、仮想ユーザインターフェースを表示することと
を含み、
前記仮想ユーザインターフェースは、垂直糸の集合を備え、前記垂直糸の各々は、少なくとも1つの選択可能仮想インターフェース要素に関連付けられている、方法。
(項目287)
前記手のジェスチャは、所定の期間の間、前記ユーザの第1の手を広げるジェスチャを含む、項目286に記載の方法。
(項目288)
別の手のジェスチャに少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素を選択することをさらに含み、前記他方の手のジェスチャは、前記ユーザの2本の指を用いて、前記仮想糸の集合のうちの仮想糸のうちの少なくとも1つを引っ張る運動を含む、項目287に記載の方法。
(項目289)
手のジェスチャに少なくとも部分的に基づいて、第1の仮想糸に関連付けられた第1の仮想要素に関連付けられたデータを第2の仮想糸に関連付けられた第2の仮想要素に伝送することをさらに含む、項目286に記載の方法。
(項目290)
前記他方の手のジェスチャは、前記第2の仮想糸に関連付けられた前記第2の仮想要素を用いた前記第1の仮想糸に関連付けられた前記第1の仮想要素の圧搾運動を含み、前記圧搾運動は、前記ユーザの指によって行われる、項目289に記載の方法。
(項目291)
前記仮想インターフェースは、少なくとも1つの物理オブジェクトに関係して表示される、項目286に記載の方法。
(項目292)
前記少なくとも1つの物理オブジェクトは、壁を備えている、項目291に記載の方法。
(項目293)
手のジェスチャの場所を決定することをさらに含み、前記仮想糸は、前記決定された場所から生じる、項目286に記載の方法。
(項目294)
前記仮想ユーザインターフェースは、前記仮想ユーザインターフェースが前記ユーザの任意の移動に対して静止したままであるように、世界中心基準フレームに少なくとも部分的に基づいて、作成される、項目286に記載の方法。
(項目295)
前記ユーザの別の手のジェスチャに少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素のうちの仮想ユーザインターフェース要素を選択することと、
前記物理オブジェクトの別の場所に、前記選択されたユーザインターフェース要素に関連付けられた仮想コンテンツを生成することと
をさらに含む、項目286に記載の方法。
(項目296)
仮想ユーザインターフェースを作成する方法であって、
ユーザの手のジェスチャに基づいて、前記ユーザに表示されるべきユーザインターフェースを識別することと、
前記手のジェスチャに応答して、仮想ユーザインターフェースを表示することと
を含み、
前記仮想ユーザインターフェースは、仮想クモの巣に似ており、前記ユーザは、前記仮想クモの巣の仮想糸を引っ張り、前記仮想インターフェースを前記ユーザに近付ける、方法。
(項目297)
前記手のジェスチャは、前記ユーザの手の握り拳を用いて引っ張る運動を含む、項目296に記載の方法。
(項目298)
前記仮想クモの巣の仮想糸は、少なくとも1つの選択可能仮想要素を備えている、項目297に記載の方法。
(項目299)
別の手のジェスチャに少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素を選択することをさらに含み、前記他方の手のジェスチャは、前記仮想糸のうちの少なくとも1つを前記ユーザに向かって引っ張る運動を含む、項目298に記載の方法。
(項目300)
手のジェスチャに少なくとも部分的に基づいて、第1の仮想糸に関連付けられた第1の仮想要素に関連付けられたデータを第2の仮想糸に関連付けられた第2の仮想要素に伝送することをさらに含む、項目296に記載の方法。
(項目301)
前記他方の手のジェスチャは、前記第2の仮想糸に関連付けられた前記第2の仮想要素を用いた前記第1の仮想糸に関連付けられた前記第1の仮想要素の圧搾運動を含み、前記圧搾運動は、前記ユーザの指によって行われる、項目300に記載の方法。
(項目302)
前記仮想インターフェースは、少なくとも1つの物理オブジェクトに関係して表示される、項目296に記載の方法。
(項目303)
前記少なくとも1つの物理オブジェクトは、壁を備えている、項目302に記載の方法。
(項目304)
手のジェスチャの場所を決定することをさらに含み、前記仮想クモの巣は、前記決定された場所から生じる、項目296に記載の方法。
(項目305)
前記仮想ユーザインターフェースは、前記仮想ユーザインターフェースが前記ユーザの任意の移動に対して静止したままであるように、世界中心基準フレームに少なくとも部分的に基づいて、作成される、項目296に記載の方法。
(項目306)
前記ユーザの別の手のジェスチャに少なくとも部分的に基づいて、前記少なくとも1つの選択可能仮想インターフェース要素のうちの仮想ユーザインターフェース要素を選択することと、
前記物理オブジェクトの別の場所に、前記選択されたユーザインターフェース要素に関連付けられた仮想コンテンツを生成することと
をさらに含む、項目296に記載の方法。
(項目307)
前記方法ステップを実装する手段を有するシステムとして実装される、項目1−306に記載の方法。
(項目308)
前記方法ステップを実行するための実行可能コードを有するコンピュータ使用可能記憶媒体を備えているコンピュータプログラム製品として実装される、項目1−306に記載の方法。
Claims (15)
- 仮想または拡張現実システムにおいてユーザ入力を決定する方法であって、前記方法は、
仮想または拡張現実システムを通してユーザの視野に対応する1つ以上の画像を捕捉することであって、前記1つ以上の画像は、トーテムの少なくとも1つの画像を備え、前記トーテムは、物理オブジェクトを備える、ことと、
前記1つ以上の画像を分析し、前記トーテムに関係する前記ユーザの少なくとも一部の移動を検出することと、
前記トーテムに関係する前記ユーザの移動に少なくとも部分的に基づいてユーザ入力を決定することと
を含む、方法。 - 少なくとも、前記物理オブジェクト上の1つ以上の特徴点を識別することによって、および前記1つ以上の特徴点をコンテキストとして前記トーテムに提供することによって、前記仮想または拡張現実システムを用いて前記トーテムを認識することをさらに含む、請求項1に記載の方法。
- 前記トーテムは、前記1つ以上の画像とデータベース内の複数のトーテムとの間の比較に少なくとも部分的に基づいて、仮想または拡張システムによって認識される、請求項1または2に記載の方法。
- 少なくとも、前記トーテムに関係する前記ユーザの少なくとも一部の移動を使用することによって、パターンを決定することをさらに含む、請求項1〜3のいずれかに記載の方法。
- 前記パターンを1つ以上の所定の相互作用と比較することによって、前記仮想または拡張現実システムとの前記ユーザによる相互作用を決定することと、
前記相互作用に基づいてトーテムジェスチャを決定することと、
前記ユーザ入力に応答して、前記トーテムと関連付けられたコマンドを決定することと
をさらに含む、請求項4に記載の方法。 - 前記パターンを前記1つ以上の所定の相互作用と比較することに基づいて、前記パターンに対するスコア化値を生成することと、
前記スコア化値が閾値を超える場合の前記ユーザ入力を決定することと
をさらに含む、請求項4または5に記載の方法。 - 前記トーテム上に見えるようにソフトウェアアプリケーションの仮想ユーザインターフェースをレンダリングすることと、
前記仮想または拡張現実システムにおいて前記仮想ユーザインターフェースを用いて1つ以上のユーザ相互作用を検出することと、
前記1つ以上のユーザ相互作用に部分的または全体的に基づいて1つ以上の関数を決定することと、
前記ソフトウェアアプリケーションを用いて前記1つ以上の関数を実行することと
をさらに含む、請求項1〜6のいずれかに記載の方法。 - トーテムコントローラオブジェクトを用いて、基準フレームに関係する、前記トーテムの位置、配向、または移動を視覚的に追跡することをさらに含む、請求項1〜7のいずれかに記載の方法。
- 前記トーテムコントローラオブジェクトは、少なくとも、電子機器を含む1つの能動的給電式オブジェクト、通信インフラストラクチャ、または受動的マーキングデバイスを含む、請求項8に記載の方法。
- 前記仮想または拡張現実システムを用いて、少なくとも、デバイスの仮想表示を前記ユーザの少なくとも1つの眼に投影することによって仮想アクションを実装することと、
前記仮想または拡張現実システムを用いて、前記ユーザと前記デバイスの仮想表示との間の1つ以上の相互作用を備える実際の非仮想アクションを実装することと
をさらに含む、請求項1〜9のいずれかに記載の方法。 - 1つ以上の仮想入力構造を有する仮想入力デバイスをレンダリングすることと、
前記仮想入力デバイスの位置または移動、または前記仮想入力デバイスとのユーザの相互作用に起因する前記1つ以上の仮想入力構造の位置または移動、または前記1つ以上の仮想入力構造の位置または移動を検出することと、
前記位置または前記移動を1つ以上の仮想入力アクティブ化にマップすることと、
コンピューティングシステムへの前記1つ以上の仮想入力アクティブ化に対応する1つ以上の対応入力を識別することと、
前記1つ以上の対応入力を前記コンピューティングシステムに提供することと
をさらに含む、請求項1〜10のいずれかに記載の方法。 - 前記仮想または拡張現実システムを通して前記ユーザの視野内に、前記トーテムに関係する仮想インターフェースをレンダリングすることと、
前記トーテムの外側表面上に1つ以上の分界をレンダリングすることと、
前記仮想インターフェースを用いて前記ユーザが前記トーテムに視覚的に配向することを補助することと
をさらに含む、請求項1〜11のいずれかに記載の方法。 - 異なるユーザ相互作用に応答して異なるユーザインターフェース構成要素をレンダリングすることをさらに含む、請求項12に記載の方法。
- 前記トーテムの複数の面を識別することと、
前記トーテムの前記複数の面上の複数の仮想インターフェース要素をレンダリングすることであって、前記トーテムの異なる面は、異なる仮想インターフェース要素および異なるソフトウェア関数に対応する、ことと、
前記トーテムとのユーザ相互作用に起因する、前記トーテムの位置または配向における変化を検出することと、
前記トーテムの位置または配向における前記変化に部分的または全体的に基づいてソフトウェア関数を選択することと、
前記ソフトウェア関数を実行するようにコンピューティングシステムに命令を送信することと
をさらに含む、請求項1〜13のいずれかに記載の方法。 - 前記ユーザのための前記トーテムに対して仮想コントローラをレンダリングすることをさらに含み、前記仮想コントローラは、1つ以上の仮想スイッチを含み、前記1つ以上の仮想スイッチは、前記ユーザによって作動される場合に、1つ以上の電気信号を外部電子デバイスに伝送させられ、前記トーテムは、前記仮想スイッチに対応する物理スイッチ、または前記電気信号に対応する電子回路を備えない、請求項1〜14のいずれかに記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462012273P | 2014-06-14 | 2014-06-14 | |
US62/012,273 | 2014-06-14 | ||
PCT/US2015/035718 WO2015192117A1 (en) | 2014-06-14 | 2015-06-13 | Methods and systems for creating virtual and augmented reality |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020002609A Division JP7110252B2 (ja) | 2014-06-14 | 2020-01-10 | 仮想および拡張現実を作成する方法およびシステム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017529635A JP2017529635A (ja) | 2017-10-05 |
JP2017529635A5 true JP2017529635A5 (ja) | 2018-05-31 |
JP6646659B2 JP6646659B2 (ja) | 2020-02-14 |
Family
ID=54834480
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017518040A Active JP6646659B2 (ja) | 2014-06-14 | 2015-06-13 | 仮想および拡張現実を作成する方法およびシステム |
JP2020002609A Active JP7110252B2 (ja) | 2014-06-14 | 2020-01-10 | 仮想および拡張現実を作成する方法およびシステム |
JP2022083729A Withdrawn JP2022113713A (ja) | 2014-06-14 | 2022-05-23 | 仮想および拡張現実を作成する方法およびシステム |
JP2023171946A Pending JP2023181188A (ja) | 2014-06-14 | 2023-10-03 | 仮想および拡張現実を作成する方法およびシステム |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020002609A Active JP7110252B2 (ja) | 2014-06-14 | 2020-01-10 | 仮想および拡張現実を作成する方法およびシステム |
JP2022083729A Withdrawn JP2022113713A (ja) | 2014-06-14 | 2022-05-23 | 仮想および拡張現実を作成する方法およびシステム |
JP2023171946A Pending JP2023181188A (ja) | 2014-06-14 | 2023-10-03 | 仮想および拡張現実を作成する方法およびシステム |
Country Status (8)
Country | Link |
---|---|
EP (3) | EP3699736B1 (ja) |
JP (4) | JP6646659B2 (ja) |
KR (1) | KR102204919B1 (ja) |
CN (3) | CN106937531B (ja) |
AU (1) | AU2015274283B2 (ja) |
CA (1) | CA2953335C (ja) |
IL (2) | IL249371B (ja) |
WO (1) | WO2015192117A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7027987B2 (ja) | 2018-03-16 | 2022-03-02 | 株式会社リコー | 頭部装着型表示装置および表示システム |
JP7235146B2 (ja) | 2018-03-16 | 2023-03-08 | 株式会社リコー | 頭部装着型表示装置および表示システム |
Families Citing this family (563)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010023754A1 (ja) * | 2008-08-29 | 2010-03-04 | 株式会社コトブキ | 収納式観覧席 |
US20150124566A1 (en) | 2013-10-04 | 2015-05-07 | Thalmic Labs Inc. | Systems, articles and methods for wearable electronic devices employing contact sensors |
US11921471B2 (en) | 2013-08-16 | 2024-03-05 | Meta Platforms Technologies, Llc | Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source |
US10188309B2 (en) | 2013-11-27 | 2019-01-29 | North Inc. | Systems, articles, and methods for electromyography sensors |
US10042422B2 (en) | 2013-11-12 | 2018-08-07 | Thalmic Labs Inc. | Systems, articles, and methods for capacitive electromyography sensors |
US10475113B2 (en) | 2014-12-23 | 2019-11-12 | Ebay Inc. | Method system and medium for generating virtual contexts from three dimensional models |
US10217189B2 (en) * | 2015-09-16 | 2019-02-26 | Google Llc | General spherical capture methods |
US10614614B2 (en) | 2015-09-29 | 2020-04-07 | Adshir Ltd. | Path tracing system employing distributed accelerating structures |
US10186026B2 (en) * | 2015-11-17 | 2019-01-22 | Kla-Tencor Corp. | Single image detection |
US10565776B2 (en) | 2015-12-12 | 2020-02-18 | Adshir Ltd. | Method for fast generation of path traced reflections on a semi-reflective surface |
CN108431669A (zh) * | 2016-01-07 | 2018-08-21 | 奇跃公司 | 动态菲涅尔投影仪 |
JP6362631B2 (ja) * | 2016-01-15 | 2018-07-25 | 株式会社meleap | 画像表示システム、画像表示システムの制御方法、画像配信システムおよびヘッドマウントディスプレイ |
US10345914B2 (en) * | 2016-01-26 | 2019-07-09 | Infinity Augmented Reality Israel Ltd. | Method and system for generating a synthetic database of postures and gestures |
US12008704B2 (en) | 2016-01-28 | 2024-06-11 | Snap Inc. | System for photo-realistic reflections in augmented reality |
US10614612B2 (en) | 2018-06-09 | 2020-04-07 | Adshir Ltd. | Fast path traced reflections for augmented reality |
EP3206121A1 (en) | 2016-02-09 | 2017-08-16 | Nokia Technologies Oy | Methods and apparatuses relating to the handling of visual virtual reality content |
EP3206122A1 (en) | 2016-02-10 | 2017-08-16 | Nokia Technologies Oy | An apparatus and associated methods |
CN105610868B (zh) * | 2016-03-03 | 2019-08-06 | 腾讯科技(深圳)有限公司 | 一种信息交互的方法、设备及*** |
WO2017156622A1 (en) * | 2016-03-13 | 2017-09-21 | Rising Sun Productions Limited | Head-mounted audiovisual capture device |
EP3878391A1 (en) * | 2016-03-14 | 2021-09-15 | Mohamed R. Mahfouz | A surgical navigation system |
CN107199888A (zh) * | 2016-03-18 | 2017-09-26 | 松下知识产权经营株式会社 | 姿势输入***和姿势输入方法 |
US10815145B2 (en) | 2016-03-31 | 2020-10-27 | Corning Incorporated | High index glass and devices incorporating such |
US10979843B2 (en) * | 2016-04-08 | 2021-04-13 | Qualcomm Incorporated | Spatialized audio output based on predicted position data |
KR20240070723A (ko) | 2016-04-21 | 2024-05-21 | 매직 립, 인코포레이티드 | 시야 주위의 시각적 아우라 |
CN105788390A (zh) * | 2016-04-29 | 2016-07-20 | 吉林医药学院 | 基于增强现实的医学解剖辅助教学*** |
US11062383B2 (en) | 2016-05-10 | 2021-07-13 | Lowe's Companies, Inc. | Systems and methods for displaying a simulated room and portions thereof |
JP6429829B2 (ja) * | 2016-05-25 | 2018-11-28 | キヤノン株式会社 | 画像処理システム、画像処理装置、制御方法、及び、プログラム |
GB2550620B (en) * | 2016-05-26 | 2020-07-29 | Michael Child John | A camera apparatus |
JP7015104B2 (ja) * | 2016-07-04 | 2022-02-15 | エドワード・パクチャン | Memsディスプレイ |
JP6953116B2 (ja) * | 2016-07-04 | 2021-10-27 | エドワード・パクチャン | Memsディスプレイ |
EP3270208B1 (fr) * | 2016-07-12 | 2024-03-06 | Essilor International | Procédé de fourniture d'un dispositif d'affichage pour dispositif électronique informatif |
US20190235624A1 (en) * | 2016-07-19 | 2019-08-01 | Supereye, Inc. | Systems and methods for predictive visual rendering |
WO2020112986A1 (en) | 2018-11-27 | 2020-06-04 | Facebook Technologies, Inc. | Methods and apparatus for autocalibration of a wearable electrode sensor system |
US20190121306A1 (en) | 2017-10-19 | 2019-04-25 | Ctrl-Labs Corporation | Systems and methods for identifying biological structures associated with neuromuscular source signals |
US9858637B1 (en) | 2016-07-29 | 2018-01-02 | Qualcomm Incorporated | Systems and methods for reducing motion-to-photon latency and memory bandwidth in a virtual reality system |
AU2017305249B2 (en) * | 2016-08-01 | 2021-07-22 | Magic Leap, Inc. | Mixed reality system with spatialized audio |
US10482621B2 (en) * | 2016-08-01 | 2019-11-19 | Cognex Corporation | System and method for improved scoring of 3D poses and spurious point removal in 3D image data |
US10398514B2 (en) | 2016-08-16 | 2019-09-03 | Insight Medical Systems, Inc. | Systems and methods for sensory augmentation in medical procedures |
US20180049622A1 (en) | 2016-08-16 | 2018-02-22 | Insight Medical Systems, Inc. | Systems and methods for sensory augmentation in medical procedures |
US11071596B2 (en) | 2016-08-16 | 2021-07-27 | Insight Medical Systems, Inc. | Systems and methods for sensory augmentation in medical procedures |
WO2018039269A1 (en) * | 2016-08-22 | 2018-03-01 | Magic Leap, Inc. | Augmented reality display device with deep learning sensors |
US11102467B2 (en) * | 2016-08-25 | 2021-08-24 | Facebook Technologies, Llc | Array detector for depth mapping |
KR20210060676A (ko) | 2016-09-13 | 2021-05-26 | 매직 립, 인코포레이티드 | 감각 안경류 |
EP3513374A4 (en) * | 2016-09-16 | 2020-05-27 | Christopher Ghaleb | GROUND PLAN VISUALIZATION SYSTEM |
US10380950B2 (en) * | 2016-09-23 | 2019-08-13 | Novatek Microelectronics Corp. | Method for reducing motion blur and head mounted display apparatus |
CN114356098A (zh) | 2016-09-28 | 2022-04-15 | 奇跃公司 | 由可穿戴设备进行面部模型捕获 |
US10067565B2 (en) | 2016-09-29 | 2018-09-04 | Intel Corporation | Methods and apparatus for identifying potentially seizure-inducing virtual reality content |
CN106651500B (zh) * | 2016-10-12 | 2021-03-30 | 大连知行天下网络科技有限公司 | 基于空间反馈特征的视频图像识别技术和虚拟现实技术的网上购物*** |
US20190244391A1 (en) * | 2016-10-20 | 2019-08-08 | Spookfish Innovations Pty Ltd | An aerial camera boresight calibration system |
US10748450B1 (en) | 2016-11-29 | 2020-08-18 | Sproutel, Inc. | System, apparatus, and method for creating an interactive augmented reality experience to simulate medical procedures for pediatric disease education |
US11056022B1 (en) | 2016-11-29 | 2021-07-06 | Sproutel, Inc. | System, apparatus, and method for creating an interactive augmented reality experience to simulate medical procedures for pediatric disease education |
CN110214339A (zh) * | 2016-11-30 | 2019-09-06 | 诺瓦赛特有限公司 | 用于显示具有改变的视场的图像的方法和设备 |
CN108205813B (zh) | 2016-12-16 | 2022-06-03 | 微软技术许可有限责任公司 | 基于学习网络的图像风格化 |
US10783799B1 (en) | 2016-12-17 | 2020-09-22 | Sproutel, Inc. | System, apparatus, and method for educating and reducing stress for patients with illness or trauma using an interactive location-aware toy and a distributed sensor network |
US10371896B2 (en) * | 2016-12-22 | 2019-08-06 | Magic Leap, Inc. | Color separation in planar waveguides using dichroic filters |
US10489979B2 (en) | 2016-12-30 | 2019-11-26 | Facebook, Inc. | Systems and methods for providing nested content items associated with virtual content items |
US10088911B2 (en) | 2016-12-30 | 2018-10-02 | Manuel Saez | Programmable electronic helmet |
US10515474B2 (en) | 2017-01-19 | 2019-12-24 | Mindmaze Holding Sa | System, method and apparatus for detecting facial expression in a virtual reality system |
EP3571627A2 (en) | 2017-01-19 | 2019-11-27 | Mindmaze Holding S.A. | Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location including for at least one of a virtual and augmented reality system |
US10943100B2 (en) | 2017-01-19 | 2021-03-09 | Mindmaze Holding Sa | Systems, methods, devices and apparatuses for detecting facial expression |
CN110770758B (zh) * | 2017-01-23 | 2024-06-04 | 牛津大学创新有限公司 | 确定可移动的设备的位置 |
CN108346432B (zh) * | 2017-01-25 | 2022-09-09 | 北京三星通信技术研究有限公司 | 虚拟现实vr音频的处理方法及相应设备 |
CN110892408A (zh) | 2017-02-07 | 2020-03-17 | 迈恩德玛泽控股股份有限公司 | 用于立体视觉和跟踪的***、方法和装置 |
US10438399B2 (en) * | 2017-02-10 | 2019-10-08 | Sony Interactive Entertainment LLC | Paired local and global user interfaces for an improved augmented reality experience |
US10416769B2 (en) | 2017-02-14 | 2019-09-17 | Microsoft Technology Licensing, Llc | Physical haptic feedback system with spatial warping |
KR102671512B1 (ko) * | 2017-02-20 | 2024-06-04 | 이현세 | 화상 정보를 이용한 햅틱 효과 출력 시스템 및 방법 |
CN106951153B (zh) * | 2017-02-21 | 2020-11-20 | 联想(北京)有限公司 | 一种显示方法及电子设备 |
CN110419061B (zh) * | 2017-03-17 | 2023-09-29 | 奇跃公司 | 混合现实***及使用该***生成虚拟内容的方法 |
KR101963244B1 (ko) * | 2017-03-20 | 2019-03-28 | ㈜라이커스게임 | 현실 음향을 반영한 증강 현실 3차원 음향 구현 시스템 및 프로그램 |
US10969874B2 (en) | 2017-03-21 | 2021-04-06 | Pcms Holdings, Inc. | Method and system for the detection and augmentation of tactile interactions in augmented reality |
US10453172B2 (en) | 2017-04-04 | 2019-10-22 | International Business Machines Corporation | Sparse-data generative model for pseudo-puppet memory recast |
KR101894455B1 (ko) * | 2017-04-05 | 2018-09-04 | 부산가톨릭대학교 산학협력단 | 영상의학용 일반촬영 검사 가상현실 컨텐츠 제작-운용방법 |
KR20190132507A (ko) * | 2017-04-06 | 2019-11-27 | 콘스탄틴 로가츠 | 증강 현실(ar) 안경 및 적어도 하나의 안경 렌즈를 통해 안경의 착용자가 볼 수 있는 이미지에 가상 이미지들을 혼합하기 위한 방법 |
US10740613B1 (en) | 2017-04-20 | 2020-08-11 | Digimarc Corporation | Hybrid feature point/watermark-based augmented reality |
CA3060617C (en) | 2017-04-20 | 2022-10-04 | The Cleveland Clinic Foundation | System and method for holographic image-guided non-vascular percutaneous procedures |
WO2018201150A1 (en) * | 2017-04-28 | 2018-11-01 | Mira Labs, Inc. | Control system for a three dimensional environment |
US11077360B2 (en) | 2017-04-28 | 2021-08-03 | Sony Interactive Entertainment Inc. | Information processing device, control method of information processing device, and program |
KR20230108352A (ko) | 2017-05-01 | 2023-07-18 | 매직 립, 인코포레이티드 | 콘텐츠를 공간 3d 환경에 매칭 |
CN107194163A (zh) * | 2017-05-15 | 2017-09-22 | 上海联影医疗科技有限公司 | 一种显示方法和*** |
FR3066672B1 (fr) * | 2017-05-19 | 2020-05-22 | Sagemcom Broadband Sas | Procede de communication d'une video immersive |
US10582172B2 (en) | 2017-05-22 | 2020-03-03 | Microsoft Technology Licensing, Llc | Optical system steering via Bragg grating shear |
US10679428B1 (en) | 2017-05-26 | 2020-06-09 | Snap Inc. | Neural network-based image stream modification |
KR102670987B1 (ko) | 2017-05-31 | 2024-05-30 | 매직 립, 인코포레이티드 | 눈 추적 교정 기술들 |
US11120264B2 (en) | 2017-06-02 | 2021-09-14 | Apple Inc. | Augmented reality interface for facilitating identification of arriving vehicle |
US10678338B2 (en) | 2017-06-09 | 2020-06-09 | At&T Intellectual Property I, L.P. | Determining and evaluating data representing an action to be performed by a robot |
WO2018236499A1 (en) | 2017-06-19 | 2018-12-27 | Apple Inc. | AUGMENTED REALITY INTERFACE FOR INTERACTING WITH DISPLAYED CARDS |
US10573061B2 (en) | 2017-07-07 | 2020-02-25 | Nvidia Corporation | Saccadic redirection for virtual reality locomotion |
US10573071B2 (en) | 2017-07-07 | 2020-02-25 | Nvidia Corporation | Path planning for virtual reality locomotion |
US20190014362A1 (en) * | 2017-07-10 | 2019-01-10 | Qualcomm Incorporated | Enhanced region-wise packing and viewport independent hevc media profile |
CN109241810B (zh) * | 2017-07-10 | 2022-01-28 | 腾讯科技(深圳)有限公司 | 虚拟角色图像的构建方法及装置、存储介质 |
JP7222968B2 (ja) * | 2017-07-13 | 2023-02-15 | シーリアル テクノロジーズ ソシエテ アノニム | 視野を拡大するためのディスプレイデバイス |
US11228829B2 (en) | 2017-07-14 | 2022-01-18 | Hewlett-Packard Development Company, L.P. | Regulating environmental conditions inside cups of headphones |
AU2018301461A1 (en) * | 2017-07-14 | 2020-01-30 | Cappasity Inc. | Systems and methods for creating and displaying interactive 3D representations of real objects |
WO2019013820A1 (en) | 2017-07-14 | 2019-01-17 | Hewlett-Packard Development Company, L.P. | USER ALERT CONCERNING EVENTS |
EP3435670A1 (en) * | 2017-07-25 | 2019-01-30 | Koninklijke Philips N.V. | Apparatus and method for generating a tiled three-dimensional image representation of a scene |
CN107689796B (zh) * | 2017-07-28 | 2021-03-26 | 同济大学 | 一种基于先验信息的无损压缩文件容错解压方法 |
US11432877B2 (en) | 2017-08-02 | 2022-09-06 | Medtech S.A. | Surgical field camera system that only uses images from cameras with an unobstructed sight line for tracking |
CN107368820B (zh) * | 2017-08-03 | 2023-04-18 | 中国科学院深圳先进技术研究院 | 一种精细化手势识别方法、装置及设备 |
CN107609220B (zh) * | 2017-08-11 | 2021-11-05 | 中国电力科学研究院 | 一种负荷低电压释放特性参数的确定方法和装置 |
EP3445049B1 (en) * | 2017-08-14 | 2021-01-27 | Facebook Technologies, LLC | Camera assembly with programmable diffractive optical element for depth sensing |
US10551614B2 (en) * | 2017-08-14 | 2020-02-04 | Facebook Technologies, Llc | Camera assembly with programmable diffractive optical element for depth sensing |
WO2019036006A1 (en) * | 2017-08-16 | 2019-02-21 | Covidien Lp | SYNTHESIS OF SPACE-SENSITIVE TRANSITIONS BETWEEN MULTIPLE VIEWPOINTS OF VIEWING DEVICES DURING MINI-INVASIVE SURGERY |
CN107561549B (zh) * | 2017-08-17 | 2020-07-24 | 广州视源电子科技股份有限公司 | 终端位置的重定位方法、装置、终端及存储介质 |
KR102360412B1 (ko) | 2017-08-25 | 2022-02-09 | 엘지디스플레이 주식회사 | 영상 생성 방법과 이를 이용한 표시장치 |
CN111295633B (zh) * | 2017-08-29 | 2024-02-20 | 新加坡商欧之遥控有限公司 | 精细的用户识别 |
CN109426783A (zh) * | 2017-08-29 | 2019-03-05 | 深圳市掌网科技股份有限公司 | 基于增强现实的手势识别方法及*** |
US10586342B2 (en) | 2017-08-31 | 2020-03-10 | Facebook Technologies, Llc | Shifting diffractive optical element for adjustable depth sensing resolution |
DK180470B1 (en) | 2017-08-31 | 2021-05-06 | Apple Inc | Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments |
EP3451288A1 (en) * | 2017-09-04 | 2019-03-06 | Universität Zürich | Visual-inertial odometry with an event camera |
CN107538492A (zh) * | 2017-09-07 | 2018-01-05 | 福物(上海)机器人科技有限公司 | 移动机器人的智能操控***、方法及智能学习方法 |
US10762691B2 (en) * | 2017-09-08 | 2020-09-01 | Microsoft Technology Licensing, Llc | Techniques for compensating variable display device latency in image display |
US10607082B2 (en) * | 2017-09-09 | 2020-03-31 | Google Llc | Systems, methods, and apparatus for image-responsive automated assistants |
CN109511004B (zh) * | 2017-09-14 | 2023-09-01 | 中兴通讯股份有限公司 | 一种视频处理方法及装置 |
CN107578078B (zh) * | 2017-09-14 | 2020-05-12 | 哈尔滨工业大学 | 用于单目视觉定位的非镜像对称二维码标志图形校验及布局方法 |
KR20200055704A (ko) * | 2017-09-20 | 2020-05-21 | 매직 립, 인코포레이티드 | 눈 추적을 위한 개인화된 뉴럴 네트워크 |
CN111448568B (zh) * | 2017-09-29 | 2023-11-14 | 苹果公司 | 基于环境的应用演示 |
CN111052045B (zh) | 2017-09-29 | 2022-07-15 | 苹果公司 | 计算机生成的现实平台 |
US10777007B2 (en) | 2017-09-29 | 2020-09-15 | Apple Inc. | Cooperative augmented reality map interface |
CN107704681B (zh) * | 2017-09-30 | 2021-06-04 | 江西洪都航空工业集团有限责任公司 | 一种飞机地面视野范围的计算方法 |
CN107564110A (zh) * | 2017-09-30 | 2018-01-09 | 四川长虹电器股份有限公司 | 一种基于ar的工厂设计*** |
US20200275988A1 (en) * | 2017-10-02 | 2020-09-03 | The Johns Hopkins University | Image to world registration for medical augmented reality applications using a world spatial map |
CN107741886B (zh) * | 2017-10-11 | 2020-12-15 | 江苏电力信息技术有限公司 | 一种基于增强现实技术多人互动的方法 |
CN107680105B (zh) * | 2017-10-12 | 2021-05-25 | 北京奇虎科技有限公司 | 基于虚拟世界的视频数据实时处理方法及装置、计算设备 |
CN107680170A (zh) * | 2017-10-12 | 2018-02-09 | 北京奇虎科技有限公司 | 基于虚拟世界的图像实时处理方法及装置、计算设备 |
CN107766206B (zh) * | 2017-10-12 | 2020-09-01 | 武汉秀宝软件有限公司 | 一种基于增强现实的多主机测试方法及*** |
US10403046B2 (en) * | 2017-10-20 | 2019-09-03 | Raytheon Company | Field of view (FOV) and key code limited augmented reality to enforce data capture and transmission compliance |
KR102004048B1 (ko) * | 2017-10-25 | 2019-07-25 | 광운대학교 산학협력단 | 가상 현실을 위한 공간 재구성 방법 및 가상 로드맵 결정 방법 및 이를 수행하는 공간 재구성 장치 |
US10796185B2 (en) * | 2017-11-03 | 2020-10-06 | Facebook, Inc. | Dynamic graceful degradation of augmented-reality effects |
CN107742512B (zh) * | 2017-11-07 | 2020-09-01 | 北京京东方光电科技有限公司 | 一种显示驱动电路、其驱动方法及显示装置 |
CN107765953B (zh) * | 2017-11-08 | 2023-08-22 | 网易(杭州)网络有限公司 | 信息的展示方法、装置、处理器及头戴式显示设备 |
WO2019094047A1 (en) * | 2017-11-13 | 2019-05-16 | Boger Yuval S | Head-mounted display for public use |
CN107657589B (zh) * | 2017-11-16 | 2021-05-14 | 上海麦界信息技术有限公司 | 基于三基准点标定的手机ar定位坐标轴同步方法 |
CN107860315A (zh) * | 2017-11-17 | 2018-03-30 | 浙江大学城市学院 | 一种结构光全向光场视觉***组合结构 |
WO2019100319A1 (en) * | 2017-11-24 | 2019-05-31 | Microsoft Technology Licensing, Llc | Providing a response in a session |
CN107945283B (zh) * | 2017-12-06 | 2021-05-14 | 河南省水利勘测设计研究有限公司 | 基于移动增强现实技术和bim的工程展示方法 |
EP3496417A3 (en) * | 2017-12-06 | 2019-08-07 | Oticon A/s | Hearing system adapted for navigation and method therefor |
CN108089701A (zh) * | 2017-12-07 | 2018-05-29 | 北京奇虎科技有限公司 | 一种虚拟现实vr场景的展示方法和装置 |
CN109920283A (zh) * | 2017-12-12 | 2019-06-21 | 王子南 | 一种仿真沙盘*** |
CN107992896A (zh) * | 2017-12-13 | 2018-05-04 | 东南大学 | 一种基于眼动追踪技术的科学概念评测方法 |
US10192115B1 (en) | 2017-12-13 | 2019-01-29 | Lowe's Companies, Inc. | Virtualizing objects using object models and object position data |
KR101932007B1 (ko) * | 2017-12-15 | 2019-03-15 | 네이버랩스 주식회사 | 공간 메시징과 컨텐츠 공유를 위한 방법 및 그 시스템 |
WO2019117655A1 (ko) * | 2017-12-15 | 2019-06-20 | 네이버랩스 주식회사 | 3d 지도를 이용한 원격 위치 기반 ar 저작 방법 및 시스템 |
WO2019124851A1 (ko) | 2017-12-18 | 2019-06-27 | 네이버랩스 주식회사 | 지오펜싱 기반의 컨텐츠를 클라우드소싱하는 방법 및 그 시스템 |
KR102556889B1 (ko) | 2017-12-22 | 2023-07-17 | 매직 립, 인코포레이티드 | 혼합 현실 시스템에서 가상 콘텐츠를 관리하고 디스플레이하기 위한 방법들 및 시스템 |
JP7169358B2 (ja) * | 2017-12-22 | 2022-11-10 | マジック リープ, インコーポレイテッド | 高速立体再構成のための視点依存ブリック選択 |
CA3084670A1 (en) | 2017-12-22 | 2019-06-27 | Magic Leap, Inc. | Methods and system for generating and displaying 3d videos in a virtual, augmented, or mixed reality environment |
CN108053262B (zh) * | 2017-12-28 | 2020-10-13 | 北京星选科技有限公司 | 数据推送方法及装置 |
CN108182719A (zh) * | 2017-12-28 | 2018-06-19 | 北京聚力维度科技有限公司 | 人工智能自适应障碍地形的行进动画生成方法和装置 |
WO2019133505A1 (en) | 2017-12-29 | 2019-07-04 | Pcms Holdings, Inc. | Method and system for maintaining color calibration using common objects |
US11328533B1 (en) | 2018-01-09 | 2022-05-10 | Mindmaze Holding Sa | System, method and apparatus for detecting facial expression for motion capture |
KR102523433B1 (ko) | 2018-01-10 | 2023-04-19 | 삼성전자주식회사 | 깊이 정보를 결정하는 방법 및 광학 시스템 |
CN108417217B (zh) * | 2018-01-11 | 2021-07-13 | 思必驰科技股份有限公司 | 说话人识别网络模型训练方法、说话人识别方法及*** |
CN108282228A (zh) * | 2018-01-12 | 2018-07-13 | 西安电子科技大学 | 基于室内可见光通信的多区域双控制器分层网络架构 |
US11262756B2 (en) * | 2018-01-15 | 2022-03-01 | Uatc, Llc | Discrete decision architecture for motion planning system of an autonomous vehicle |
US10460431B2 (en) | 2018-01-15 | 2019-10-29 | Otis Elevator Company | Part recognition and damage characterization using deep learning |
CN110049303B (zh) * | 2018-01-15 | 2021-08-13 | 微软技术许可有限责任公司 | 立体图像的视觉风格化 |
CN108256060B (zh) * | 2018-01-16 | 2021-02-09 | 广州视源电子科技股份有限公司 | 一种闭环检测方法、装置、终端及存储介质 |
WO2019143688A1 (en) | 2018-01-19 | 2019-07-25 | Pcms Holdings, Inc. | Multi-focal planes with varying positions |
KR102519653B1 (ko) * | 2018-01-20 | 2023-04-07 | 삼성전자주식회사 | 포인트 클라우드 압축 방법 및 장치 |
WO2019143886A1 (en) * | 2018-01-22 | 2019-07-25 | Dakiana Research Llc | Objective-effectuators in synthesized reality settings |
US20200364568A1 (en) * | 2018-01-22 | 2020-11-19 | Apple Inc. | Generating objectives for objective-effectuators in synthesized reality settings |
CN108172051A (zh) * | 2018-01-24 | 2018-06-15 | 山东科技大学 | 一种体育课教学方法和装置 |
US10225360B1 (en) * | 2018-01-24 | 2019-03-05 | Veeva Systems Inc. | System and method for distributing AR content |
DK201870349A1 (en) | 2018-01-24 | 2019-10-23 | Apple Inc. | Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models |
US11907423B2 (en) | 2019-11-25 | 2024-02-20 | Meta Platforms Technologies, Llc | Systems and methods for contextualized interactions with an environment |
US11481030B2 (en) | 2019-03-29 | 2022-10-25 | Meta Platforms Technologies, Llc | Methods and apparatus for gesture detection and classification |
US11961494B1 (en) | 2019-03-29 | 2024-04-16 | Meta Platforms Technologies, Llc | Electromagnetic interference reduction in extended reality environments |
US11150730B1 (en) | 2019-04-30 | 2021-10-19 | Facebook Technologies, Llc | Devices, systems, and methods for controlling computing devices via neuromuscular signals of users |
US11493993B2 (en) | 2019-09-04 | 2022-11-08 | Meta Platforms Technologies, Llc | Systems, methods, and interfaces for performing inputs based on neuromuscular control |
US11014242B2 (en) | 2018-01-26 | 2021-05-25 | Microsoft Technology Licensing, Llc | Puppeteering in augmented reality |
US10976982B2 (en) * | 2018-02-02 | 2021-04-13 | Samsung Electronics Co., Ltd. | Guided view mode for virtual reality |
CN110120229A (zh) * | 2018-02-05 | 2019-08-13 | 北京三星通信技术研究有限公司 | 虚拟现实vr音频信号的处理方法及相应设备 |
CN108366250B (zh) * | 2018-02-06 | 2020-03-17 | 深圳市鹰硕技术有限公司 | 影像显示***、方法以及数字眼镜 |
US10964030B2 (en) | 2018-02-12 | 2021-03-30 | Samsung Electronics Co., Ltd. | Device and method with pose estimator based on current predicted motion state array |
KR102549822B1 (ko) * | 2018-02-19 | 2023-06-30 | 애플 인크. | 조건부 의존적 합성 현실 콘텐츠 스레드들을 제시하고 조작하기 위한 방법 및 디바이스들 |
KR20200121357A (ko) | 2018-02-22 | 2020-10-23 | 매직 립, 인코포레이티드 | 물리적 조작을 사용한 오브젝트 생성 |
AU2019225989A1 (en) | 2018-02-22 | 2020-08-13 | Magic Leap, Inc. | Browser for mixed reality systems |
KR20190101620A (ko) | 2018-02-23 | 2019-09-02 | 주식회사 로로아트플랜 | 증강현실 기술을 이용한 무빙 트릭아트 구현 방법 |
TWI648556B (zh) * | 2018-03-06 | 2019-01-21 | 仁寶電腦工業股份有限公司 | 同步定位與地圖建構及手勢辨識方法 |
CN108470047B (zh) * | 2018-03-07 | 2023-09-26 | 谭亮 | 基于物联网的远程平台监测*** |
CA3139648A1 (en) | 2018-03-07 | 2019-09-12 | Magic Leap, Inc. | Visual tracking of peripheral devices |
US11716548B2 (en) * | 2018-03-13 | 2023-08-01 | Meta Platforms Technologies, Llc | Timing of multiplexed sensor phase measurements in a depth camera assembly for depth determination using fringe interferometry |
US10572002B2 (en) * | 2018-03-13 | 2020-02-25 | Facebook Technologies, Llc | Distributed artificial reality system with contextualized hand tracking |
EP3766028A1 (en) * | 2018-03-14 | 2021-01-20 | Snap Inc. | Generating collectible items based on location information |
US11244439B2 (en) | 2018-03-20 | 2022-02-08 | 3M Innovative Properties Company | Vision system for status detection of wrapped packages |
US11462319B2 (en) | 2018-03-20 | 2022-10-04 | 3M Innovative Properties Company | Sterilization process management |
US10874759B2 (en) | 2018-03-20 | 2020-12-29 | 3M Innovative Properties Company | Sterilization process management |
US11126047B2 (en) * | 2018-03-22 | 2021-09-21 | Liqxtal Technology Inc. | Ocular optical system |
CN108492352B (zh) * | 2018-03-22 | 2021-10-22 | 腾讯科技(深圳)有限公司 | 增强现实的实现方法、装置、***、计算机设备及存储介质 |
EP3714367A4 (en) * | 2018-03-22 | 2021-01-20 | Snowflake Inc. | INCREMENTAL DEVELOPMENT OF FUNCTION AND CAPTURE OF WORKLOAD IN DATABASE SYSTEMS |
WO2019183211A1 (en) * | 2018-03-23 | 2019-09-26 | Pcms Holdings, Inc. | Multifocal plane based method to produce stereoscopic viewpoints in a dibr system (mfp-dibr) |
CN108514421A (zh) * | 2018-03-30 | 2018-09-11 | 福建幸福家园投资管理有限公司 | 提升混合现实与日常健康监测的方法 |
JP6878346B2 (ja) * | 2018-04-02 | 2021-05-26 | 株式会社コロプラ | 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 |
US11093103B2 (en) | 2018-04-09 | 2021-08-17 | Spatial Systems Inc. | Augmented reality computing environments-collaborative workspaces |
WO2019199569A1 (en) * | 2018-04-09 | 2019-10-17 | Spatial Inc. | Augmented reality computing environments |
CN208156846U (zh) * | 2018-04-10 | 2018-11-27 | 深圳市大疆创新科技有限公司 | 云台控制装置及云台*** |
US11087136B2 (en) * | 2018-04-13 | 2021-08-10 | Apple Inc. | Scene classification |
CN109325156B (zh) * | 2018-04-25 | 2021-12-17 | 厦门大学 | 基于扩展线段的农村道路网匹配方法 |
CN108596964B (zh) * | 2018-05-02 | 2020-07-03 | 厦门美图之家科技有限公司 | 深度数据获取方法、装置及可读存储介质 |
EP3788464B1 (en) * | 2018-05-02 | 2023-08-16 | Apple Inc. | Moving about a computer simulated reality setting |
US10504290B2 (en) * | 2018-05-04 | 2019-12-10 | Facebook Technologies, Llc | User interface security in a virtual reality environment |
CN108648223A (zh) * | 2018-05-17 | 2018-10-12 | 苏州科技大学 | 基于中央眼的场景重构方法及重构*** |
US10721510B2 (en) | 2018-05-17 | 2020-07-21 | At&T Intellectual Property I, L.P. | Directing user focus in 360 video consumption |
JP7123041B2 (ja) * | 2018-05-21 | 2022-08-22 | アドシル リミテッド | 現実世界環境における仮想オブジェクトの光線追跡反射の高速生成 |
CN108931795B (zh) * | 2018-05-21 | 2022-05-13 | 千寻位置网络有限公司 | 定位设备轨迹优化和边界提取方法及装置 |
US10482653B1 (en) | 2018-05-22 | 2019-11-19 | At&T Intellectual Property I, L.P. | System for active-focus prediction in 360 video |
WO2019226001A1 (en) | 2018-05-23 | 2019-11-28 | Samsung Electronics Co., Ltd. | Method and apparatus for managing content in augmented reality system |
KR102113393B1 (ko) * | 2018-05-24 | 2020-05-20 | 이기헌 | 번역용 헤드키트 |
US11307968B2 (en) * | 2018-05-24 | 2022-04-19 | The Calany Holding S. À R.L. | System and method for developing, testing and deploying digital reality applications into the real world via a virtual world |
TWI671711B (zh) * | 2018-05-29 | 2019-09-11 | 崑山科技大學 | 模擬畫作於環境空間中的光線分佈之裝置及方法 |
CN108805886B (zh) * | 2018-05-30 | 2021-09-03 | 中北大学 | 一种多融合物理签名的持久性聚类分割方法 |
CN108765270B (zh) * | 2018-05-30 | 2020-01-14 | 贝壳找房(北京)科技有限公司 | 一种虚拟三维空间标签绑定方法及装置 |
US11494158B2 (en) | 2018-05-31 | 2022-11-08 | Shure Acquisition Holdings, Inc. | Augmented reality microphone pick-up pattern visualization |
US10827225B2 (en) | 2018-06-01 | 2020-11-03 | AT&T Intellectual Propety I, L.P. | Navigation for 360-degree video streaming |
JP7136931B2 (ja) * | 2018-06-05 | 2022-09-13 | マジック リープ, インコーポレイテッド | 空間3d環境へのコンテンツのマッチング |
CN110569006B (zh) * | 2018-06-05 | 2023-12-19 | 广东虚拟现实科技有限公司 | 显示方法、装置、终端设备及存储介质 |
EP3579219B1 (en) * | 2018-06-05 | 2022-03-16 | IMEC vzw | Data distribution for holographic projection |
JP7168969B2 (ja) * | 2018-06-06 | 2022-11-10 | 株式会社アルファコード | ヒートマップ提示装置およびヒートマップ提示用プログラム |
CN109118594B (zh) * | 2018-06-06 | 2019-11-19 | 贝壳找房(北京)科技有限公司 | 一种删除房源虚拟三维模型中细小虚像的方法及*** |
CN109063538A (zh) * | 2018-06-06 | 2018-12-21 | 中国电建集团华东勘测设计研究院有限公司 | 一种基于ar与bim的工程图纸读图装置 |
US10699468B2 (en) | 2018-06-09 | 2020-06-30 | Adshir Ltd. | Method for non-planar specular reflections in hybrid ray tracing |
TWI691932B (zh) * | 2018-06-12 | 2020-04-21 | 大陸商光寶電子(廣州)有限公司 | 影像處理系統及影像處理方法 |
CN110599432B (zh) | 2018-06-12 | 2023-02-24 | 光宝电子(广州)有限公司 | 影像处理***及影像处理方法 |
WO2019239226A1 (en) * | 2018-06-12 | 2019-12-19 | King Abdullah University Of Science And Technology | Single-camera particle tracking system and method |
CN112292690A (zh) * | 2018-06-14 | 2021-01-29 | 奇跃公司 | 增强现实深度手势网络 |
KR102107225B1 (ko) * | 2018-06-19 | 2020-05-06 | 이성진 | 전통 시장을 기반으로 하는 가상 현실 시스템 |
JP6931138B1 (ja) * | 2018-06-27 | 2021-09-01 | ナイアンティック, インコーポレイテッドNiantic,Inc. | デバイスローカリゼーションのためのマルチシンクアンサンブルモデル |
TWI663423B (zh) * | 2018-06-29 | 2019-06-21 | 揚明光學股份有限公司 | 成像位移裝置及其製造方法 |
US11500477B2 (en) * | 2018-07-02 | 2022-11-15 | Google Llc | Systems and methods for interacting and interfacing with an artificial intelligence system |
US10951875B2 (en) * | 2018-07-03 | 2021-03-16 | Raxium, Inc. | Display processing circuitry |
WO2020014074A1 (en) | 2018-07-07 | 2020-01-16 | Acucela Inc. | Device to prevent retinal hypoxia |
CN109035338B (zh) * | 2018-07-16 | 2020-11-10 | 深圳辰视智能科技有限公司 | 一种基于单尺度特征的点云与图片融合方法、装置及其设备 |
EP3827301A4 (en) * | 2018-07-23 | 2021-08-04 | Magic Leap, Inc. | MAPPING SYSTEM AND METHOD |
US10921596B2 (en) * | 2018-07-24 | 2021-02-16 | Disney Enterprises, Inc. | Adaptive luminance/color correction for displays |
JP2021533403A (ja) | 2018-07-30 | 2021-12-02 | アキュセラ インコーポレイテッド | 近視の進行を減少させるための電子コンタクトレンズの光学設計 |
CN109271853B (zh) * | 2018-08-07 | 2022-05-06 | 信利光电股份有限公司 | 一种提高支付安全的识别方法及装置 |
US11227435B2 (en) | 2018-08-13 | 2022-01-18 | Magic Leap, Inc. | Cross reality system |
CN112805750A (zh) * | 2018-08-13 | 2021-05-14 | 奇跃公司 | 跨现实*** |
CN109107161B (zh) * | 2018-08-17 | 2019-12-27 | 深圳市腾讯网络信息技术有限公司 | 一种游戏对象的控制方法、装置、介质以及设备 |
AU2019330119B2 (en) * | 2018-08-26 | 2023-08-24 | Lumus Ltd. | Reflection suppression in near eye displays |
CN110148220B (zh) * | 2018-08-30 | 2023-09-19 | 杭州维聚科技有限公司 | 室内空间大物件的三维重建方法 |
CN109129523B (zh) * | 2018-08-30 | 2021-07-06 | 燕山大学 | 基于人机交互的移动机器人实时远程控制*** |
US10997760B2 (en) | 2018-08-31 | 2021-05-04 | Snap Inc. | Augmented reality anthropomorphization system |
US11157739B1 (en) | 2018-08-31 | 2021-10-26 | Apple Inc. | Multi-user computer generated reality platform |
GB2567553B (en) * | 2018-09-06 | 2021-04-07 | Sony Interactive Entertainment Inc | Foveated rendering system and method |
US11155259B2 (en) * | 2018-09-13 | 2021-10-26 | Honda Motor Co., Ltd. | System and method for egocentric-vision based future vehicle localization |
CN112639687B (zh) * | 2018-09-17 | 2024-05-24 | 元平台技术有限公司 | 使用反向偏置发光二极管器件的眼睛跟踪 |
WO2020061451A1 (en) | 2018-09-20 | 2020-03-26 | Ctrl-Labs Corporation | Neuromuscular text entry, writing and drawing in augmented reality systems |
CN109189228A (zh) * | 2018-09-25 | 2019-01-11 | 信阳百德实业有限公司 | 一种利用ar和图像识别技术对标牌进行图案识别方法 |
CN109272050B (zh) * | 2018-09-30 | 2019-11-22 | 北京字节跳动网络技术有限公司 | 图像处理方法和装置 |
US11934944B2 (en) | 2018-10-04 | 2024-03-19 | International Business Machines Corporation | Neural networks using intra-loop data augmentation during network training |
WO2020072915A1 (en) * | 2018-10-05 | 2020-04-09 | Ctrl-Labs Corporation | Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment |
EP3861387A4 (en) * | 2018-10-05 | 2022-05-25 | Magic Leap, Inc. | RENDERING LOCATION-SPECIFIC VIRTUAL CONTENT IN ANY LOCATION |
US11803664B2 (en) | 2018-10-09 | 2023-10-31 | Ebay Inc. | Distributed application architectures using blockchain and distributed file systems |
CN113039508A (zh) * | 2018-10-10 | 2021-06-25 | 普鲁托虚拟现实科技公司 | 评估虚拟环境的输入和输出的对准 |
US10838488B2 (en) | 2018-10-10 | 2020-11-17 | Plutovr | Evaluating alignment of inputs and outputs for virtual environments |
CN109492208B (zh) * | 2018-10-12 | 2023-06-23 | 天津字节跳动科技有限公司 | 文档编辑方法及其装置、设备、存储介质 |
US20200128233A1 (en) * | 2018-10-17 | 2020-04-23 | Red Technologies, LLC | Mobile device |
CN111079481B (zh) * | 2018-10-22 | 2023-09-26 | 西安邮电大学 | 一种基于二维骨架信息的攻击性行为识别方法 |
CN111089579B (zh) * | 2018-10-22 | 2022-02-01 | 北京地平线机器人技术研发有限公司 | 异构双目slam方法、装置及电子设备 |
CN112956160B (zh) * | 2018-10-29 | 2022-08-02 | 昕诺飞控股有限公司 | 用于在网络中提供节点序列的*** |
KR102236534B1 (ko) * | 2018-11-02 | 2021-04-06 | 주식회사 엘지화학 | 편광자의 제조 방법 |
US10691767B2 (en) | 2018-11-07 | 2020-06-23 | Samsung Electronics Co., Ltd. | System and method for coded pattern communication |
CN109086755B (zh) * | 2018-11-07 | 2022-07-08 | 上海电气集团股份有限公司 | 基于图像分割的康复机器人的虚拟现实显示方法及*** |
US10761611B2 (en) * | 2018-11-13 | 2020-09-01 | Google Llc | Radar-image shaper for radar-based applications |
CA3119609A1 (en) * | 2018-11-15 | 2020-05-22 | Edx Technologies, Inc. | Augmented reality (ar) imprinting methods and systems |
EP3886031A4 (en) * | 2018-11-21 | 2022-06-29 | Il Inc. | Product customizing method via terminal |
KR20200059854A (ko) | 2018-11-22 | 2020-05-29 | 한국기술교육대학교 산학협력단 | 증강현실을 제공하는 시스템의 동작 방법 |
TWI707249B (zh) * | 2018-11-27 | 2020-10-11 | 美律實業股份有限公司 | 產生標籤資料的系統及方法 |
CN109270515B (zh) * | 2018-11-29 | 2020-06-16 | 北京理工大学 | 可变扫描区域同轴收发扫描激光雷达 |
WO2020112560A1 (en) | 2018-11-30 | 2020-06-04 | Pcms Holdings, Inc. | Method and apparatus to estimate scene illuminant based on skin reflectance database |
CN109597492B (zh) * | 2018-12-05 | 2022-03-04 | 谷东科技有限公司 | 激光虚拟键盘与ar眼镜交互*** |
CN113395945A (zh) * | 2018-12-11 | 2021-09-14 | 项目莫里股份有限公司 | 用于机器人导管和其他用途的用户界面和模拟***的混合维增强现实和/或配准 |
EP3671410B1 (en) * | 2018-12-19 | 2022-08-24 | Siemens Healthcare GmbH | Method and device to control a virtual reality display unit |
KR20200076325A (ko) * | 2018-12-19 | 2020-06-29 | 삼성전자주식회사 | 외부 객체를 컨트롤러로 이용하기 위한 웨어러블 장치 및 방법 |
US11321768B2 (en) * | 2018-12-21 | 2022-05-03 | Shopify Inc. | Methods and systems for an e-commerce platform with augmented reality application for display of virtual objects |
US10991117B2 (en) | 2018-12-23 | 2021-04-27 | Samsung Electronics Co., Ltd. | Performing a loop closure detection |
TWI683330B (zh) * | 2018-12-25 | 2020-01-21 | 世洋科技股份有限公司 | 薄膜結構製造方法 |
US10699123B1 (en) * | 2018-12-26 | 2020-06-30 | Snap Inc. | Dynamic contextual media filter |
CN109443350B (zh) * | 2018-12-27 | 2023-09-01 | 仝人智能科技(江苏)有限公司 | 基于神经网络的蓝牙/光电/ins组合导航装置及方法 |
WO2020141468A1 (en) * | 2019-01-03 | 2020-07-09 | Ehe Innovations Private Limited | Method and system for detecting position of a target area in a target subject |
CN109814112A (zh) * | 2019-01-15 | 2019-05-28 | 北京百度网讯科技有限公司 | 一种超声波雷达与激光雷达信息融合方法和*** |
CN110163377B (zh) * | 2019-01-21 | 2021-03-16 | 腾讯科技(深圳)有限公司 | 交互数据处理方法、装置、计算机可读存储介质和计算机设备 |
CN109801379B (zh) * | 2019-01-21 | 2023-02-17 | 视辰信息科技(上海)有限公司 | 通用的增强现实眼镜及其标定方法 |
US11972529B2 (en) | 2019-02-01 | 2024-04-30 | Snap Inc. | Augmented reality system |
US10984575B2 (en) * | 2019-02-06 | 2021-04-20 | Snap Inc. | Body pose estimation |
KR20200098034A (ko) * | 2019-02-11 | 2020-08-20 | 삼성전자주식회사 | 가상 현실 유저 인터페이스를 제공하기 위한 전자 장치 및 그의 동작 방법 |
US10852906B2 (en) | 2019-02-15 | 2020-12-01 | Microsoft Technology Licensing, Llc | System and method for identifying locations for virtual items within a physical environment |
CN113412510A (zh) | 2019-02-15 | 2021-09-17 | Jvc建伍株式会社 | 图像调整***、图像调整装置以及图像调整方法 |
US11137520B2 (en) | 2019-02-22 | 2021-10-05 | Microsoft Technology Licensing, Llc | Integrated depth sensor window lens and method |
CN109947242B (zh) * | 2019-02-26 | 2022-06-24 | 贵州翰凯斯智能技术有限公司 | 一种基于信息融合的工厂虚拟应用***及使用方法 |
KR20200105136A (ko) * | 2019-02-28 | 2020-09-07 | (주)유인케어 | 가상현실환경을 이용한 이야기 속 역할 수행을 통한 인지재활훈련 및 평가 방법 |
CN109857415B (zh) * | 2019-03-01 | 2022-10-04 | 广东盈科电子有限公司 | 一种烧录装置及其参数自动选择烧录方法 |
CN111766939A (zh) * | 2019-03-15 | 2020-10-13 | 苹果公司 | 在光学透传显示器上的注意力方向 |
EP4235381A3 (en) * | 2019-03-18 | 2023-11-01 | Apple Inc. | Virtual paper |
EP3712852B1 (en) * | 2019-03-19 | 2021-12-15 | Carrier Corporation | Refrigerated sales cabinet |
US20200304933A1 (en) * | 2019-03-19 | 2020-09-24 | Htc Corporation | Sound processing system of ambisonic format and sound processing method of ambisonic format |
CN109847350A (zh) * | 2019-03-25 | 2019-06-07 | 深圳初影科技有限公司 | 基于ar技术的游戏实现方法、游戏***、及存储介质 |
JP7323315B2 (ja) | 2019-03-27 | 2023-08-08 | 株式会社コーエーテクモゲームス | 情報処理装置、情報処理方法及びプログラム |
CA3130160A1 (en) * | 2019-04-04 | 2020-10-08 | Centerline Biomedical, Inc. | Registration of spatial tracking system with augmented reality display |
US10936057B2 (en) | 2019-04-09 | 2021-03-02 | Samsung Electronics Co., Ltd. | System and method for natural three-dimensional calibration for robust eye tracking |
JP7196744B2 (ja) * | 2019-04-10 | 2022-12-27 | 株式会社デンソー | レーダ装置 |
US10957108B2 (en) * | 2019-04-15 | 2021-03-23 | Shutterstock, Inc. | Augmented reality image retrieval systems and methods |
US11460576B2 (en) * | 2019-04-18 | 2022-10-04 | Beijing Voyager Technology Co., Ltd. | Transmitter having beam shifter for light detection and ranging (LIDAR) |
JP2022529367A (ja) | 2019-04-24 | 2022-06-21 | マジック リープ, インコーポレイテッド | 姿勢付き単眼ビデオからの周囲推定 |
US11554322B2 (en) * | 2019-04-26 | 2023-01-17 | Sony Interactive Entertainment LLC | Game controller with touchpad input |
CN110101455B (zh) * | 2019-04-30 | 2021-01-01 | 微创(上海)医疗机器人有限公司 | 显示装置及手术机器人 |
CN111897411A (zh) * | 2019-05-05 | 2020-11-06 | Oppo广东移动通信有限公司 | 基于大气光通信的交互方法、装置和穿戴设备 |
CN110095767B (zh) * | 2019-05-08 | 2022-05-20 | 哈尔滨工业大学 | 一种空间目标成像仿真面元消隐方法 |
CN110109229B (zh) * | 2019-05-08 | 2021-07-27 | 中国科学院合肥物质科学研究院 | 一种野外自动化点光源靶标装置 |
CA3139516A1 (en) * | 2019-05-10 | 2020-11-19 | BadVR, Inc. | Novel systems and methods for collecting, locating and visualizing sensor signals in extended reality |
CN110189405B (zh) * | 2019-05-31 | 2023-05-23 | 重庆市勘测院 | 一种顾及建筑物密度的实景三维建模方法 |
CN110210415B (zh) * | 2019-06-05 | 2022-09-30 | 福州大学 | 基于图结构的车载激光点云道路标线识别方法 |
US20200387286A1 (en) * | 2019-06-07 | 2020-12-10 | Facebook Technologies, Llc | Arm gaze-driven user interface element gating for artificial reality systems |
US10890983B2 (en) * | 2019-06-07 | 2021-01-12 | Facebook Technologies, Llc | Artificial reality system having a sliding menu |
US11043192B2 (en) * | 2019-06-07 | 2021-06-22 | Facebook Technologies, Llc | Corner-identifiying gesture-driven user interface element gating for artificial reality systems |
CN110232664A (zh) * | 2019-06-13 | 2019-09-13 | 大连民族大学 | 一种基于增强现实的傩面具修复方法 |
JP7311643B2 (ja) * | 2019-06-21 | 2023-07-19 | マジック リープ, インコーポレイテッド | モード式ウィンドウを介したセキュアな認可 |
CN112130321B (zh) * | 2019-06-24 | 2023-06-27 | 成都理想境界科技有限公司 | 一种波导模组及基于波导的近眼显示模组及设备 |
KR102361038B1 (ko) * | 2019-06-29 | 2022-02-09 | 주식회사 큐버 | 적응형 다중 생체정보를 이용한 고수준 상황인지 기반의 스마트미러 챗봇 시스템 |
KR102606964B1 (ko) * | 2019-07-03 | 2023-11-29 | 삼성에스디에스 주식회사 | 다층 구조 내 경로 라우팅을 위한 원형 프레임 생성 방법 및 컴퓨팅 장치 |
US10901689B1 (en) | 2019-07-11 | 2021-01-26 | International Business Machines Corporation | Dynamic augmented reality interface creation |
US11941762B2 (en) | 2019-07-15 | 2024-03-26 | Samsung Electronics Co., Ltd. | System and method for augmented reality scenes |
CN110442817A (zh) * | 2019-07-18 | 2019-11-12 | 塔普翊海(上海)智能科技有限公司 | 一种基于网页的混合现实的开发***及制作方法 |
WO2021022193A1 (en) | 2019-07-31 | 2021-02-04 | Acucela Inc. | Device for projecting images on the retina |
US11048356B2 (en) | 2019-07-31 | 2021-06-29 | Sony Interactive Entertainment LLC | Microphone on controller with touchpad to take in audio swipe feature data |
US11645772B2 (en) | 2019-08-07 | 2023-05-09 | Size Stream Llc | Mobile 3D crowd scanning methods and apparatus |
CN110490131B (zh) * | 2019-08-16 | 2021-08-24 | 北京达佳互联信息技术有限公司 | 一种拍摄设备的定位方法、装置、电子设备及存储介质 |
US20210056391A1 (en) * | 2019-08-20 | 2021-02-25 | Mind Machine Learning, Inc. | Systems and Methods for Simulating Sense Data and Creating Perceptions |
US11462000B2 (en) * | 2019-08-26 | 2022-10-04 | Apple Inc. | Image-based detection of surfaces that provide specular reflections and reflection modification |
CN110826389B (zh) * | 2019-09-02 | 2022-05-27 | 东华大学 | 基于注意力3d频率卷积神经网络的步态识别方法 |
KR102269207B1 (ko) * | 2019-09-10 | 2021-06-25 | 한국과학기술정보연구원 | 초고속 통신 기반의 데이터 분석 가시화 방법 및 그 장치 |
WO2021056018A1 (en) | 2019-09-16 | 2021-03-25 | Acucela Inc. | Assembly process for an electronic soft contact lens designed to inhibit progression of myopia |
JP7315422B2 (ja) * | 2019-09-18 | 2023-07-26 | 五洋建設株式会社 | 状況把握支援システム |
CN110688007A (zh) * | 2019-09-24 | 2020-01-14 | 北京轻威科技有限责任公司 | 一种基于平行轨道结构的多通道大通量多人引导防护*** |
KR102659324B1 (ko) * | 2019-09-25 | 2024-04-22 | 누들 테크놀로지 인코포레이티드 | 무선 라디오들을 이용하여 신호들을 캡처하는 것에 의한 현실 증강 |
TWI708102B (zh) * | 2019-09-27 | 2020-10-21 | 群光電能科技股份有限公司 | 背光模組 |
US11934584B2 (en) * | 2019-09-27 | 2024-03-19 | Apple Inc. | Finger orientation touch detection |
CN110702139B (zh) * | 2019-09-29 | 2021-08-27 | 百度在线网络技术(北京)有限公司 | 一种时延标定方法、装置、电子设备和介质 |
US11275453B1 (en) | 2019-09-30 | 2022-03-15 | Snap Inc. | Smart ring for manipulating virtual objects displayed by a wearable device |
KR102183115B1 (ko) * | 2019-10-01 | 2020-11-25 | 주식회사 코탁스 | 증강현실 기술을 활용한 클라우드 기반의, 실 공간 가상화를 통한 오브젝트 오버래핑 시스템 |
CN110568449B (zh) * | 2019-10-14 | 2021-04-16 | 自然资源部第二海洋研究所 | 一种风生粗糙海面激光反射、透射矩阵计算方法 |
WO2021076754A1 (en) | 2019-10-15 | 2021-04-22 | Magic Leap, Inc. | Cross reality system with localization service |
WO2021076757A1 (en) | 2019-10-15 | 2021-04-22 | Magic Leap, Inc. | Cross reality system supporting multiple device types |
EP4046401A4 (en) | 2019-10-15 | 2023-11-01 | Magic Leap, Inc. | CROSS-REALLY SYSTEM WITH WIRELESS FINGERPRINTS |
KR102292420B1 (ko) * | 2019-10-21 | 2021-08-23 | 이혁락 | Vr 컨텐츠 제작 장치, 시스템 및 그 방법 |
KR102060286B1 (ko) * | 2019-10-29 | 2019-12-27 | 주식회사 코드42 | 이미지 정보를 활용한 레이더 오브젝트 검출 임계값 결정 방법 및 이를 이용한 레이더 오브젝트 정보 생성 장치 |
CN110852332B (zh) * | 2019-10-29 | 2020-12-01 | 腾讯科技(深圳)有限公司 | 训练样本的生成方法、装置、存储介质及电子设备 |
CN117872592A (zh) * | 2019-11-01 | 2024-04-12 | 株式会社籁天那 | 增强现实用光学装置 |
CN110782738A (zh) * | 2019-11-06 | 2020-02-11 | 北京千种幻影科技有限公司 | 一种模拟驾驶训练装置 |
JP2023504775A (ja) | 2019-11-12 | 2023-02-07 | マジック リープ, インコーポレイテッド | 位置特定サービスおよび共有場所ベースのコンテンツを伴うクロスリアリティシステム |
CN114945947A (zh) | 2019-11-18 | 2022-08-26 | 奇跃公司 | 可通行世界的映射和定位 |
CN110866109B (zh) * | 2019-11-26 | 2022-07-12 | 上海连尚网络科技有限公司 | 一种用于收藏书籍的方法与设备 |
KR102291740B1 (ko) * | 2019-11-26 | 2021-08-23 | 주식회사 딥파인 | 영상처리 시스템 |
FR3103593B1 (fr) * | 2019-11-27 | 2022-09-23 | Safran | Procédé de vision virtuelle, depuis un habitacle d’un aéronef, d’un objet situé à l’extérieur de l’habitacle |
CN111078005B (zh) * | 2019-11-29 | 2024-02-20 | 恒信东方文化股份有限公司 | 一种虚拟伙伴创建方法及虚拟伙伴*** |
CN110942040B (zh) * | 2019-11-29 | 2023-04-18 | 四川大学 | 一种基于环境光的手势识别***和方法 |
US11158108B2 (en) * | 2019-12-04 | 2021-10-26 | Microsoft Technology Licensing, Llc | Systems and methods for providing a mixed-reality pass-through experience |
USD940189S1 (en) | 2019-12-09 | 2022-01-04 | Magic Leap, Inc. | Portion of a display screen with transitional graphical user interface for guiding graphics |
USD941307S1 (en) | 2019-12-09 | 2022-01-18 | Magic Leap, Inc. | Portion of a display screen with graphical user interface for guiding graphics |
USD940749S1 (en) | 2019-12-09 | 2022-01-11 | Magic Leap, Inc. | Portion of a display screen with transitional graphical user interface for guiding graphics |
USD941353S1 (en) | 2019-12-09 | 2022-01-18 | Magic Leap, Inc. | Portion of a display screen with transitional graphical user interface for guiding graphics |
WO2021118962A1 (en) | 2019-12-09 | 2021-06-17 | Magic Leap, Inc. | Cross reality system with simplified programming of virtual content |
USD952673S1 (en) | 2019-12-09 | 2022-05-24 | Magic Leap, Inc. | Portion of a display screen with transitional graphical user interface for guiding graphics |
USD940748S1 (en) | 2019-12-09 | 2022-01-11 | Magic Leap, Inc. | Portion of a display screen with transitional graphical user interface for guiding graphics |
US11847792B2 (en) | 2019-12-20 | 2023-12-19 | Niantic, Inc. | Location determination and mapping with 3D line junctions |
CN115175747A (zh) * | 2019-12-20 | 2022-10-11 | 奈安蒂克公司 | 具有可预测查询响应时间的地理定位数据的分片存储 |
CN113110731B (zh) * | 2019-12-25 | 2023-07-14 | 华为技术有限公司 | 媒体内容生成的方法和装置 |
CN111158015B (zh) * | 2019-12-31 | 2020-11-24 | 飞燕航空遥感技术有限公司 | 机载激光雷达点云数据误分地面点的检测方法和*** |
SG10202000067YA (en) * | 2020-01-06 | 2021-08-30 | Dharmatilleke Medha | Pop-out & Sink-in Holographic Augmented Reality and Virtual Reality Device for use without 3D glasses for simultaneous viewing by multiple persons |
WO2021142017A1 (en) * | 2020-01-06 | 2021-07-15 | Misapplied Sciences, Inc. | Transportation hub information system |
KR102300873B1 (ko) * | 2020-01-15 | 2021-09-13 | 주식회사 와이닷츠 | 피지컬 실체화 가능한 사이버 로봇 |
CN111222486B (zh) * | 2020-01-15 | 2022-11-04 | 腾讯科技(深圳)有限公司 | 手部姿态识别模型的训练方法、装置、设备及存储介质 |
CN113160396B (zh) * | 2020-01-23 | 2024-03-29 | 宝马股份公司 | 建立地图模型的方法、生成实时地图的方法和地图*** |
KR102307463B1 (ko) | 2020-02-05 | 2021-09-29 | 이근호 | 사파리 투어 시스템 및 그 시스템의 구동방법 |
CN111249573A (zh) * | 2020-02-12 | 2020-06-09 | 迈德微创(天津)医疗器械有限责任公司 | 一种智能的可远程控制的输液装置和*** |
US11830149B2 (en) | 2020-02-13 | 2023-11-28 | Magic Leap, Inc. | Cross reality system with prioritization of geolocation information for localization |
JP2023514208A (ja) | 2020-02-13 | 2023-04-05 | マジック リープ, インコーポレイテッド | マルチ分解能フレーム記述子を使用したマップ処理を伴うクロスリアリティシステム |
WO2021163306A1 (en) | 2020-02-13 | 2021-08-19 | Magic Leap, Inc. | Cross reality system with accurate shared maps |
US11777340B2 (en) | 2020-02-21 | 2023-10-03 | Acucela Inc. | Charging case for electronic contact lens |
CN111460223B (zh) * | 2020-02-25 | 2023-04-18 | 天津大学 | 基于深度网络的多模态特征融合的短视频单标签分类方法 |
JP2023515524A (ja) | 2020-02-26 | 2023-04-13 | マジック リープ, インコーポレイテッド | 高速位置特定を伴うクロスリアリティシステム |
US11277358B2 (en) | 2020-02-28 | 2022-03-15 | International Business Machines Corporation | Chatbot enhanced augmented reality device guidance |
EP3882857A1 (en) | 2020-03-19 | 2021-09-22 | Sony Group Corporation | Extrinsic calibration of multi-camera system |
CN111311741B (zh) * | 2020-03-23 | 2023-07-07 | 重庆忽米网络科技有限公司 | 一种基于5g通信的交互式室内空间构建装置及方法 |
EP3885818A1 (de) * | 2020-03-25 | 2021-09-29 | Siemens Aktiengesellschaft | Vorrichtung und verfahren zur spektroskopischen oberflächenanalyse |
US11106915B1 (en) | 2020-03-26 | 2021-08-31 | International Business Machines Corporation | Generating in a gaze tracking device augmented reality representations for objects in a user line-of-sight |
CN113440862A (zh) * | 2020-03-27 | 2021-09-28 | 阿里巴巴集团控股有限公司 | 数据处理方法、装置、电子设备及计算机存储介质 |
CN111459592B (zh) * | 2020-03-31 | 2021-10-22 | 华为技术有限公司 | 分布式处理ux元素的方法及装置 |
US11277597B1 (en) | 2020-03-31 | 2022-03-15 | Snap Inc. | Marker-based guided AR experience |
US11348300B2 (en) * | 2020-04-03 | 2022-05-31 | Magic Leap, Inc. | Avatar customization for optimal gaze discrimination |
US11385464B2 (en) * | 2020-04-09 | 2022-07-12 | Nvidia Corporation | Wide angle augmented reality display |
US11481965B2 (en) | 2020-04-10 | 2022-10-25 | Samsung Electronics Co., Ltd. | Electronic device for communicating in augmented reality and method thereof |
US11875527B1 (en) | 2020-04-13 | 2024-01-16 | Apple Inc. | Descriptor generation and point cloud fusion |
US11688073B2 (en) | 2020-04-14 | 2023-06-27 | Samsung Electronics Co., Ltd. | Method and system for depth map reconstruction |
CN111627368A (zh) * | 2020-04-15 | 2020-09-04 | 硅谷数模(苏州)半导体有限公司 | 显示屏的控制方法、装置、存储介质、处理器和电子设备 |
CN115803788A (zh) | 2020-04-29 | 2023-03-14 | 奇跃公司 | 用于大规模环境的交叉现实*** |
US11798429B1 (en) | 2020-05-04 | 2023-10-24 | Snap Inc. | Virtual tutorials for musical instruments with finger tracking in augmented reality |
US11320674B2 (en) | 2020-05-13 | 2022-05-03 | Acucela Inc. | Electro-switchable spectacles for myopia treatment |
US11325043B2 (en) | 2020-05-15 | 2022-05-10 | Microsoft Technology Licensing, Llc | Utilizing multiple input sources for generating gameplay locations |
CN113066122B (zh) * | 2020-05-15 | 2022-05-13 | 支付宝(杭州)信息技术有限公司 | 图像处理方法以及装置 |
US11651473B2 (en) * | 2020-05-22 | 2023-05-16 | Meta Platforms, Inc. | Outputting warped images from captured video data |
US11520399B2 (en) | 2020-05-26 | 2022-12-06 | Snap Inc. | Interactive augmented reality experiences using positional tracking |
BR112022023671A2 (pt) * | 2020-06-01 | 2022-12-20 | Qualcomm Inc | Métodos e aparelhos para técnicas de manipulação de oclusão |
US11436828B1 (en) * | 2020-06-02 | 2022-09-06 | State Farm Mutual Automobile Insurance Company | Insurance inventory and claim generation |
CN111752386A (zh) * | 2020-06-05 | 2020-10-09 | 深圳市欢创科技有限公司 | 一种空间定位方法、***及头戴式设备 |
CN111672112B (zh) * | 2020-06-05 | 2023-03-24 | 腾讯科技(深圳)有限公司 | 虚拟环境的显示方法、装置、设备及存储介质 |
EP4161636A4 (en) | 2020-06-08 | 2024-06-26 | Acucela Inc | PROJECTION OF DEFOCUSED IMAGES ON THE PERIPHERAL RETINA TO TREAT REFRACTIVE ERRORS |
AU2021287803A1 (en) | 2020-06-08 | 2022-10-27 | Acucela Inc. | Stick on devices using peripheral defocus to treat progressive refractive error |
CN111667585B (zh) * | 2020-06-09 | 2023-06-20 | 福州市极化律网络科技有限公司 | 多用户的虚拟世界同步探索方法及存储介质 |
US11281022B2 (en) | 2020-06-10 | 2022-03-22 | Acucela Inc. | Apparatus and methods for the treatment of refractive error using active stimulation |
CN111860251B (zh) * | 2020-07-09 | 2023-09-15 | 迈克医疗电子有限公司 | 数据处理方法及装置 |
JP7074373B2 (ja) * | 2020-07-20 | 2022-05-24 | 株式会社mediVR | リハビリテーション支援システム、リハビリテーション支援方法およびリハビリテーション支援プログラム |
CN114052777A (zh) * | 2020-08-03 | 2022-02-18 | 通用电气精准医疗有限责任公司 | 图像显示方法以及超声成像*** |
CN112035154B (zh) * | 2020-08-13 | 2023-12-01 | 上海帆一尚行科技有限公司 | 一种修复车载终端内核的方法、装置和电子设备 |
US20220047109A1 (en) * | 2020-08-14 | 2022-02-17 | June Life, Inc. | System and method for targeted heating element control |
JP7446943B2 (ja) | 2020-08-18 | 2024-03-11 | 株式会社日立製作所 | 情報表現作成支援装置、情報表現作成支援方法およびコンピュータプログラム |
CN112148120A (zh) * | 2020-08-18 | 2020-12-29 | 华为技术有限公司 | 一种显示虚拟界面的方法、设备以及存储介质 |
CN111967526B (zh) * | 2020-08-20 | 2023-09-22 | 东北大学秦皇岛分校 | 基于边缘映射和深度学习的遥感图像变化检测方法及*** |
CN112181135B (zh) * | 2020-08-31 | 2023-05-09 | 南京信息工程大学 | 一种基于增强现实的6-dof视触觉交互方法 |
US11176755B1 (en) | 2020-08-31 | 2021-11-16 | Facebook Technologies, Llc | Artificial reality augments and surfaces |
CN112053449A (zh) | 2020-09-09 | 2020-12-08 | 脸萌有限公司 | 基于增强现实的显示方法、设备及存储介质 |
US11861137B2 (en) | 2020-09-09 | 2024-01-02 | State Farm Mutual Automobile Insurance Company | Vehicular incident reenactment using three-dimensional (3D) representations |
US11925863B2 (en) | 2020-09-18 | 2024-03-12 | Snap Inc. | Tracking hand gestures for interactive game control in augmented reality |
US11836287B1 (en) | 2020-09-22 | 2023-12-05 | Apple Inc. | Light pattern-based alignment for retinal eye tracking |
US11546505B2 (en) | 2020-09-28 | 2023-01-03 | Snap Inc. | Touchless photo capture in response to detected hand gestures |
KR102389686B1 (ko) * | 2020-09-29 | 2022-04-25 | 주식회사 고담 | 혼합 현실(mixed reality, MR) 컨텐츠 상호 간의 전환을 위한 장치 및 방법 |
EP4221565A1 (en) | 2020-09-30 | 2023-08-09 | Acucela Inc. | Myopia prediction, diagnosis, planning, and monitoring device |
WO2022084736A1 (en) * | 2020-10-19 | 2022-04-28 | Anna Marie Events, Llc | System and method for virtual events platform |
CN112621487B (zh) * | 2020-11-16 | 2022-02-18 | 中南大学 | 一种基于脑机控制的爬壁打磨装置及其控制方法 |
CN112101327B (zh) * | 2020-11-18 | 2021-01-29 | 北京达佳互联信息技术有限公司 | 动作矫正模型的训练方法、动作矫正方法及装置 |
WO2022107294A1 (ja) * | 2020-11-19 | 2022-05-27 | 株式会社ハシラス | Vr映像空間生成システム |
CN112330255B (zh) * | 2020-11-20 | 2023-09-15 | 重庆电子工程职业学院 | 仓库管理*** |
CN112509670B (zh) * | 2020-11-27 | 2023-04-07 | 重庆电子工程职业学院 | 用于糖尿病的智能健康管理*** |
EP4009143A1 (en) * | 2020-12-03 | 2022-06-08 | XRSpace CO., LTD. | Operating method by gestures in extended reality and head-mounted display system |
CN112586951B (zh) * | 2020-12-08 | 2022-06-10 | 深圳市亚讯威视数字技术有限公司 | 一种产品展览用针对计算机旋转式展示台 |
CN112417188B (zh) * | 2020-12-10 | 2022-05-24 | 桂林电子科技大学 | 一种基于图模型的高光谱图像分类方法 |
US20220198603A1 (en) * | 2020-12-22 | 2022-06-23 | Snap Inc. | Recentering ar/vr content on an eyewear device |
US11782577B2 (en) | 2020-12-22 | 2023-10-10 | Snap Inc. | Media content player on an eyewear device |
US11797162B2 (en) | 2020-12-22 | 2023-10-24 | Snap Inc. | 3D painting on an eyewear device |
US11409405B1 (en) * | 2020-12-22 | 2022-08-09 | Facebook Technologies, Llc | Augment orchestration in an artificial reality environment |
EP4020133A1 (en) | 2020-12-22 | 2022-06-29 | Nokia Technologies Oy | Multi-participant extended reality |
CN112648547B (zh) * | 2020-12-26 | 2022-05-24 | 山东科技职业学院 | 一种带声源追踪头灯的控制*** |
KR102299943B1 (ko) * | 2020-12-29 | 2021-09-09 | 주식회사 버넥트 | 속성정보 적용 기반의 증강현실 콘텐츠 제작 방법 및 시스템 |
WO2022146729A1 (en) * | 2020-12-29 | 2022-07-07 | Snap Inc. | Body ui for augmented reality components |
KR20220096242A (ko) | 2020-12-30 | 2022-07-07 | (주)모아지오 | 자율주행 차량 기반의 증강현실 콘텐츠 제공 시스템 및 그 증강현실 콘텐츠 제공 방법과 이를 위한 컴퓨터 프로그램 |
US11740313B2 (en) | 2020-12-30 | 2023-08-29 | Snap Inc. | Augmented reality precision tracking and display |
CN112732088B (zh) * | 2021-01-18 | 2023-01-20 | 海信视像科技股份有限公司 | 一种虚拟现实设备及单目截屏方法 |
WO2022158890A1 (en) * | 2021-01-21 | 2022-07-28 | Samsung Electronics Co., Ltd. | Systems and methods for reconstruction of dense depth maps |
US11615594B2 (en) | 2021-01-21 | 2023-03-28 | Samsung Electronics Co., Ltd. | Systems and methods for reconstruction of dense depth maps |
JP2022113031A (ja) * | 2021-01-22 | 2022-08-03 | ソフトバンク株式会社 | 制御装置、プログラム、システム及び制御方法 |
CN112882569B (zh) * | 2021-01-28 | 2024-02-23 | 咪咕文化科技有限公司 | Ar交互方法、终端设备及云端地图管理*** |
KR102593043B1 (ko) | 2021-02-09 | 2023-10-24 | 베이징 지티아오 네트워크 테크놀로지 컴퍼니, 리미티드 | 증강 현실 기반 디스플레이 방법, 기기, 저장매체 및 프로그램 제품 |
US11995230B2 (en) | 2021-02-11 | 2024-05-28 | Apple Inc. | Methods for presenting and sharing content in an environment |
CN113012690B (zh) * | 2021-02-20 | 2023-10-10 | 苏州协同创新智能制造装备有限公司 | 一种支持领域定制语言模型的解码方法及装置 |
US11531402B1 (en) | 2021-02-25 | 2022-12-20 | Snap Inc. | Bimanual gestures for controlling virtual and graphical elements |
US12013985B1 (en) | 2021-02-25 | 2024-06-18 | Snap Inc. | Single-handed gestures for reviewing virtual content |
WO2022191373A1 (en) * | 2021-03-11 | 2022-09-15 | Samsung Electronics Co., Ltd. | Electronic device and controlling method of electronic device |
WO2022192067A1 (en) * | 2021-03-11 | 2022-09-15 | Quintar, Inc. | Augmented reality system for viewing an event with mode based on crowd sourced images |
US11645819B2 (en) | 2021-03-11 | 2023-05-09 | Quintar, Inc. | Augmented reality system for viewing an event with mode based on crowd sourced images |
US20220295040A1 (en) * | 2021-03-11 | 2022-09-15 | Quintar, Inc. | Augmented reality system with remote presentation including 3d graphics extending beyond frame |
CN116964543A (zh) * | 2021-03-11 | 2023-10-27 | 瑞典爱立信有限公司 | 扩展现实中的移动媒体 |
US11527047B2 (en) | 2021-03-11 | 2022-12-13 | Quintar, Inc. | Augmented reality system for viewing an event with distributed computing |
US12003806B2 (en) * | 2021-03-11 | 2024-06-04 | Quintar, Inc. | Augmented reality system for viewing an event with multiple coordinate systems and automatically generated model |
US11657578B2 (en) * | 2021-03-11 | 2023-05-23 | Quintar, Inc. | Registration for augmented reality system for viewing an event |
US11481871B2 (en) | 2021-03-12 | 2022-10-25 | Samsung Electronics Co., Ltd. | Image-guided depth propagation for space-warping images |
WO2022204622A1 (en) | 2021-03-24 | 2022-09-29 | Acucela Inc. | Axial length measurement monitor |
CN113240816B (zh) * | 2021-03-29 | 2022-01-25 | 泰瑞数创科技(北京)有限公司 | 基于ar和语义模型的城市精确导航方法及其装置 |
US11209672B1 (en) | 2021-04-06 | 2021-12-28 | Acucela Inc. | Supporting pillars for encapsulating a flexible PCB within a soft hydrogel contact lens |
WO2022216082A1 (ko) * | 2021-04-07 | 2022-10-13 | 한국과학기술원 | 가상 공간 내 메모 객체를 제어하는 전자 시스템 및 그 동작 방법 |
US11868531B1 (en) | 2021-04-08 | 2024-01-09 | Meta Platforms Technologies, Llc | Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof |
CN117120962A (zh) * | 2021-04-08 | 2023-11-24 | 斯纳普公司 | 用于控制虚拟和图形元素的映射手部区域之间的双手交互 |
EP4320594A1 (en) * | 2021-04-09 | 2024-02-14 | The Trustees of Indiana University | Avatar-based behavior changing system and method |
CN112990105B (zh) * | 2021-04-19 | 2021-09-21 | 北京优幕科技有限责任公司 | 对用户评价的方法、装置、电子设备和存储介质 |
CN117178247A (zh) | 2021-04-19 | 2023-12-05 | 斯纳普公司 | 用于动画化及控制虚拟和图形元素的手势 |
CN115248655A (zh) * | 2021-04-28 | 2022-10-28 | 闪耀现实(无锡)科技有限公司 | 用于显示信息的方法和装置 |
GB2606173A (en) * | 2021-04-28 | 2022-11-02 | Sony Interactive Entertainment Europe Ltd | Computer-implemented method for controlling a virtual avatar |
US11366341B1 (en) | 2021-05-04 | 2022-06-21 | Acucela Inc. | Electronic case for electronic spectacles |
CN117677918A (zh) * | 2021-05-07 | 2024-03-08 | 斯纳普公司 | 增强现实体验的虚拟品尝和导览 |
SE544895C2 (en) * | 2021-05-10 | 2022-12-20 | Gazelock AB | Data and command transmission system, computer-implemented method of transmitting data and commands, computer program and non-volatile data carrier |
US11587208B2 (en) * | 2021-05-26 | 2023-02-21 | Qualcomm Incorporated | High quality UI elements with frame extrapolation |
KR102463638B1 (ko) * | 2021-05-27 | 2022-11-09 | 주식회사 엔씨소프트 | 페인팅 스타일에 기초하여 컨텐츠를 추천하는 서버 및 이의 동작 방법 |
TWI768932B (zh) * | 2021-05-27 | 2022-06-21 | 倍利科技股份有限公司 | 影像色彩調整方法 |
KR102493258B1 (ko) * | 2021-06-14 | 2023-02-01 | (주)이머시브캐스트 | 어지럼증이 개선된 pc 게임 확장 vr 시스템 |
KR102567805B1 (ko) * | 2021-06-14 | 2023-08-21 | (주)이머시브캐스트 | 컨트롤 입력 기반의 pc 게임 확장 vr 시스템 |
KR102565107B1 (ko) * | 2021-07-01 | 2023-08-09 | 계명대학교 산학협력단 | 가상현실을 이용한 자기수용 감각의 측정 및 훈련 시스템 및 방법 |
CN113345022B (zh) * | 2021-07-05 | 2023-02-17 | 湖南快乐阳光互动娱乐传媒有限公司 | 动态三维广告植入方法、装置、电子设备及存储介质 |
CN113506005B (zh) * | 2021-07-16 | 2022-09-23 | 牡丹江医学院 | 一种ct教学模拟方法、***、存储介质及电子设备 |
CN113268558B (zh) * | 2021-07-19 | 2021-09-24 | 智广海联(天津)大数据技术有限公司 | 基于二维码与地理空间坐标的公共设施治理***及方法 |
WO2023009113A1 (en) * | 2021-07-28 | 2023-02-02 | Innopeak Technology, Inc. | Interactive guidance for mapping and relocalization |
KR102539045B1 (ko) * | 2021-08-06 | 2023-06-02 | 주식회사 피앤씨솔루션 | 착용형 증강현실 장치를 위한 대시보드 제어 장치 및 대시보드 제어 방법 |
CN113781657A (zh) * | 2021-08-06 | 2021-12-10 | 北京视据科技有限公司 | 一种实现基于方位的虚拟模型与实景叠加方法及装置 |
EP4137869A1 (en) * | 2021-08-16 | 2023-02-22 | BAE SYSTEMS plc | Waveguide |
WO2023021272A1 (en) * | 2021-08-16 | 2023-02-23 | Bae Systems Plc | Waveguide |
US12008806B2 (en) | 2021-08-19 | 2024-06-11 | Meta Platforms Technologies, Llc | Methods and systems to allow three-dimensional map sharing between heterogeneous computing systems, cross-localization, and sharing content in three-dimensional space |
CN113706690B (zh) * | 2021-08-23 | 2024-06-11 | 贵州省玄星科技有限公司 | 一种基于三维模型顶点分区的多载体信息隐藏方法和*** |
US11585917B1 (en) * | 2021-08-24 | 2023-02-21 | Google Llc | Systems and methods for generating three-dimensional maps of an indoor space |
US11670059B2 (en) | 2021-09-01 | 2023-06-06 | Snap Inc. | Controlling interactive fashion based on body gestures |
US11673054B2 (en) | 2021-09-07 | 2023-06-13 | Snap Inc. | Controlling AR games on fashion items |
US11900506B2 (en) | 2021-09-09 | 2024-02-13 | Snap Inc. | Controlling interactive fashion based on facial expressions |
US11734866B2 (en) | 2021-09-13 | 2023-08-22 | Snap Inc. | Controlling interactive fashion based on voice |
WO2023041150A1 (en) * | 2021-09-15 | 2023-03-23 | Telefonaktiebolaget Lm Ericsson (Publ) | Method and device for facilitating a privacy-aware representation in a system |
CN113535064B (zh) * | 2021-09-16 | 2022-02-01 | 北京亮亮视野科技有限公司 | 虚拟标签标记方法、装置、电子设备及存储介质 |
KR102586144B1 (ko) * | 2021-09-23 | 2023-10-10 | 주식회사 딥비전 | 딥러닝을 이용한 손 움직임 추적방법 및 장치 |
KR20240065152A (ko) * | 2021-09-23 | 2024-05-14 | 애플 인크. | 콘텐츠 애플리케이션들을 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들 |
US11636662B2 (en) | 2021-09-30 | 2023-04-25 | Snap Inc. | Body normal network light and rendering control |
US11983826B2 (en) | 2021-09-30 | 2024-05-14 | Snap Inc. | 3D upper garment tracking |
CN113920281A (zh) * | 2021-10-11 | 2022-01-11 | 郭小川 | 一种虚拟现实环境中空间规划方法、***及应用方法 |
US11651572B2 (en) | 2021-10-11 | 2023-05-16 | Snap Inc. | Light and rendering of garments |
US11792499B2 (en) | 2021-10-21 | 2023-10-17 | Raytheon Company | Time-delay to enforce data capture and transmission compliance in real and near real time video |
US11696011B2 (en) | 2021-10-21 | 2023-07-04 | Raytheon Company | Predictive field-of-view (FOV) and cueing to enforce data capture and transmission compliance in real and near real time video |
US11798247B2 (en) | 2021-10-27 | 2023-10-24 | Meta Platforms Technologies, Llc | Virtual object structures and interrelationships |
KR102657537B1 (ko) * | 2021-11-23 | 2024-04-17 | 주식회사 바이오브레인 | 자율주행차량과 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템 |
WO2023095833A1 (ja) * | 2021-11-25 | 2023-06-01 | 株式会社Nttドコモ | 情報処理装置 |
TWI804077B (zh) | 2021-11-30 | 2023-06-01 | 財團法人工業技術研究院 | 製程診斷系統及其操作方法 |
CN114119835B (zh) * | 2021-12-03 | 2022-11-08 | 北京冰封互娱科技有限公司 | 硬表面模型的处理方法、装置及电子设备 |
US11960784B2 (en) | 2021-12-07 | 2024-04-16 | Snap Inc. | Shared augmented reality unboxing experience |
US11748958B2 (en) * | 2021-12-07 | 2023-09-05 | Snap Inc. | Augmented reality unboxing experience |
CN114327705B (zh) * | 2021-12-10 | 2023-07-14 | 重庆长安汽车股份有限公司 | 车载助手虚拟形象自定义方法 |
US20230186570A1 (en) * | 2021-12-10 | 2023-06-15 | Meta Platforms Technologies, Llc | Methods and systems to allow three-dimensional maps sharing and updating |
CN114185437A (zh) * | 2021-12-16 | 2022-03-15 | 浙江小族智能科技有限公司 | 游乐车与现实场景交互方法及装置、存储介质、终端 |
US11928783B2 (en) | 2021-12-30 | 2024-03-12 | Snap Inc. | AR position and orientation along a plane |
US11887260B2 (en) | 2021-12-30 | 2024-01-30 | Snap Inc. | AR position indicator |
US12014465B2 (en) | 2022-01-06 | 2024-06-18 | Htc Corporation | Tracking system and method |
US11954762B2 (en) | 2022-01-19 | 2024-04-09 | Snap Inc. | Object replacement system |
KR102659094B1 (ko) * | 2022-02-10 | 2024-04-19 | 주식회사 이매지니어스 | 대체 불가능 토큰 콘텐츠를 이용한 증강 현실 서비스를 제공하기 위한 방법 |
EP4227749A1 (en) * | 2022-02-14 | 2023-08-16 | Basf Se | An augmented reality-based automation system |
CN114547781B (zh) * | 2022-03-04 | 2023-08-25 | 无锡豪丽坤自控设备有限公司 | 一种基于虚拟现实的船用桅杆性能评价方法及*** |
US11893699B2 (en) | 2022-03-15 | 2024-02-06 | Zeality Inc | Method and processing unit for providing content in a bandwidth constrained environment |
EP4246184A1 (en) * | 2022-03-16 | 2023-09-20 | Faro Technologies, Inc. | Software camera view lock allowing editing of drawing without any shift in the view |
US20230293008A1 (en) * | 2022-03-21 | 2023-09-21 | Headvantage Corporation | Body worn camera, sensor and content delivery system |
JP2023142255A (ja) * | 2022-03-24 | 2023-10-05 | 株式会社ポケモン | プログラム、方法、情報処理装置、システム |
CN114971764A (zh) * | 2022-04-08 | 2022-08-30 | 浙江赟燊商业信息***科技有限公司 | 一种基于HoloLens的存储和匹配***及方法 |
US11700448B1 (en) | 2022-04-29 | 2023-07-11 | Raytheon Company | Computer/human generation, validation and use of a ground truth map to enforce data capture and transmission compliance in real and near real time video of a local scene |
CN114578313B (zh) * | 2022-05-09 | 2022-07-22 | 中国电子科技集团公司信息科学研究院 | 基于质心查找的栅格检测镜像消除方法及装置 |
KR102424123B1 (ko) * | 2022-05-12 | 2022-07-21 | 오성훈 | 사용자의 모션 제스처 및 3d ui 기반의 메타버스 제어 서버, 방법 및 프로그램 |
CN114758042B (zh) * | 2022-06-14 | 2022-09-02 | 深圳智华科技发展有限公司 | 新的虚拟仿真引擎、虚拟仿真方法以及装置 |
WO2023244247A1 (en) * | 2022-06-17 | 2023-12-21 | Hewlett-Packard Development Company, L.P. | Image portion combination signals |
EP4296834A1 (en) | 2022-06-23 | 2023-12-27 | Koninklijke Philips N.V. | Rendering a virtual model |
CN114818093B (zh) * | 2022-06-27 | 2022-09-30 | 深圳小库科技有限公司 | 装配式钢结构模块建筑的柱梁生成方法、装置及设备 |
CN114817077B (zh) * | 2022-06-27 | 2022-09-06 | 云账户技术(天津)有限公司 | 测试质量及规范的判断方法、***和网络设备 |
US20240054696A1 (en) * | 2022-08-15 | 2024-02-15 | Disney Enterprises, Inc. | Dynamic Scale Augmented Reality Enhancement of Images |
US20240054689A1 (en) * | 2022-08-15 | 2024-02-15 | Disney Enterprises, Inc. | Augmented Reality Enhancement of Moving Images |
WO2024040430A1 (en) * | 2022-08-23 | 2024-02-29 | Qualcomm Incorporated | Method and apparatus to extend field of view of an augmented reality device |
US20240070300A1 (en) * | 2022-08-31 | 2024-02-29 | Youjean Cho | Selective collaborative object access based on timestamp |
US20240070243A1 (en) * | 2022-08-31 | 2024-02-29 | Youjean Cho | Authenticating a selective collaborative object |
TWI799345B (zh) * | 2022-09-01 | 2023-04-11 | 國立清華大學 | 反射掃描式同調光繞射顯影方法及系統 |
US11995780B2 (en) * | 2022-09-09 | 2024-05-28 | Snap Inc. | Shooting interaction using augmented reality content in a messaging system |
CN115375930B (zh) * | 2022-10-26 | 2023-05-05 | 中国航发四川燃气涡轮研究院 | 基于多尺度信息的立体匹配网络及立体匹配方法 |
US11847259B1 (en) | 2022-11-23 | 2023-12-19 | Google Llc | Map-aided inertial odometry with neural network for augmented reality devices |
TWI824859B (zh) * | 2022-11-30 | 2023-12-01 | 國立勤益科技大學 | 虛擬購物手勢操控系統 |
KR102603972B1 (ko) * | 2023-04-13 | 2023-11-21 | 주식회사 크레아코퍼레이션 | Web ar 기반 비즈니스 정보를 제공하는 방법 및 장치 |
US11991222B1 (en) | 2023-05-02 | 2024-05-21 | Meta Platforms Technologies, Llc | Persistent call control user interface element in an artificial reality environment |
CN116481460B (zh) * | 2023-05-26 | 2024-05-07 | 中国矿业大学 | 一种基于三维重构模型的表观坑洞缺陷尺寸检测方法 |
KR102635477B1 (ko) * | 2023-08-01 | 2024-02-08 | 김재하 | 증강현실 기반의 공연 콘텐츠 제공장치 및 방법 |
CN116755587B (zh) * | 2023-08-11 | 2023-12-19 | 之江实验室 | 一种增强现实的方法、装置、存储介质及电子设备 |
CN116824705B (zh) * | 2023-08-24 | 2023-11-10 | 南京亿猫信息技术有限公司 | 智能购物车购物行为判别方法 |
CN117282093B (zh) * | 2023-10-10 | 2024-06-11 | 东莞市三奕电子科技股份有限公司 | 游戏手柄及其控制方法、主控终端和ar游戏组件 |
CN117632330A (zh) * | 2023-10-12 | 2024-03-01 | 浙江大学 | 一种虚拟环境下眼控界面的交互目标布局方法和*** |
CN117421089B (zh) * | 2023-12-19 | 2024-03-22 | 北京山维科技股份有限公司 | 一种台阶类地理信息要素处理方法和装置 |
US12008451B1 (en) * | 2023-12-21 | 2024-06-11 | Ishita Agrawal | AI-assisted remote guidance using augmented reality |
CN117591385B (zh) * | 2024-01-19 | 2024-04-16 | 深圳清华大学研究院 | 一种用于vr投影的控制*** |
CN117891352B (zh) * | 2024-03-14 | 2024-05-31 | 南京市文化投资控股集团有限责任公司 | 一种基于元宇宙的文旅内容推荐***及方法 |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6020892A (en) * | 1995-04-17 | 2000-02-01 | Dillon; Kelly | Process for producing and controlling animated facial representations |
US6028664A (en) * | 1997-01-29 | 2000-02-22 | Inspex, Inc. | Method and system for establishing a common reference point on a semiconductor wafer inspected by two or more scanning mechanisms |
US7630752B2 (en) * | 2002-08-06 | 2009-12-08 | Stereotaxis, Inc. | Remote control of medical devices using a virtual device interface |
US7203669B2 (en) * | 2003-03-17 | 2007-04-10 | Intel Corporation | Detector tree of boosted classifiers for real-time object detection and tracking |
JP4630647B2 (ja) * | 2004-11-19 | 2011-02-09 | キヤノン株式会社 | 画像提示方法及び情報処理装置 |
US20060285330A1 (en) * | 2005-06-20 | 2006-12-21 | Ingvar Sundell | Automatic darkening filter with automatic power management |
US7606392B2 (en) * | 2005-08-26 | 2009-10-20 | Sony Corporation | Capturing and processing facial motion data |
US20070080967A1 (en) * | 2005-10-11 | 2007-04-12 | Animetrics Inc. | Generation of normalized 2D imagery and ID systems via 2D to 3D lifting of multifeatured objects |
US7856125B2 (en) * | 2006-01-31 | 2010-12-21 | University Of Southern California | 3D face reconstruction from 2D images |
WO2007116662A1 (ja) * | 2006-03-27 | 2007-10-18 | Pioneer Corporation | 電子装置及びその操作方法 |
JP4318056B1 (ja) * | 2008-06-03 | 2009-08-19 | 島根県 | 画像認識装置および操作判定方法 |
EP2157545A1 (en) * | 2008-08-19 | 2010-02-24 | Sony Computer Entertainment Europe Limited | Entertainment device, system and method |
JP4679661B1 (ja) | 2009-12-15 | 2011-04-27 | 株式会社東芝 | 情報提示装置、情報提示方法及びプログラム |
KR101114750B1 (ko) * | 2010-01-29 | 2012-03-05 | 주식회사 팬택 | 다차원 영상을 이용한 사용자 인터페이스 장치 |
JP2013521576A (ja) | 2010-02-28 | 2013-06-10 | オスターハウト グループ インコーポレイテッド | 対話式ヘッド取付け型アイピース上での地域広告コンテンツ |
US8913056B2 (en) * | 2010-08-04 | 2014-12-16 | Apple Inc. | Three dimensional user interface effects on a display by using properties of motion |
WO2012031038A2 (en) * | 2010-09-01 | 2012-03-08 | Google Inc. | Methods and apparatus for transforming user data and generating user lists |
US20120113223A1 (en) * | 2010-11-05 | 2012-05-10 | Microsoft Corporation | User Interaction in Augmented Reality |
US8718380B2 (en) * | 2011-02-14 | 2014-05-06 | Mitsubishi Electric Research Laboratories, Inc. | Representing object shapes using radial basis function support vector machine classification |
JP5799521B2 (ja) * | 2011-02-15 | 2015-10-28 | ソニー株式会社 | 情報処理装置、オーサリング方法及びプログラム |
US9329469B2 (en) * | 2011-02-17 | 2016-05-03 | Microsoft Technology Licensing, Llc | Providing an interactive experience using a 3D depth camera and a 3D projector |
EP2689396A4 (en) * | 2011-03-21 | 2015-06-03 | Intel Corp | PROCESS FOR ADVANCED CHANGES WITH 3D FACE MODELING AND MARKING ALIGNMENT |
US8767305B2 (en) * | 2011-08-02 | 2014-07-01 | Google Inc. | Method and apparatus for a near-to-eye display |
US20130063560A1 (en) * | 2011-09-12 | 2013-03-14 | Palo Alto Research Center Incorporated | Combined stereo camera and stereo display interaction |
US8805116B2 (en) * | 2011-09-17 | 2014-08-12 | Adobe Systems Incorporated | Methods and apparatus for visual search |
US8941560B2 (en) | 2011-09-21 | 2015-01-27 | Google Inc. | Wearable computer with superimposed controls and instructions for external device |
KR20140066258A (ko) * | 2011-09-26 | 2014-05-30 | 마이크로소프트 코포레이션 | 투시 근안 디스플레이에 대한 센서 입력에 기초한 비디오 디스플레이 수정 |
EP3258671B1 (en) * | 2011-10-28 | 2018-09-05 | Magic Leap, Inc. | System and method for augmented and virtual reality |
US9497501B2 (en) | 2011-12-06 | 2016-11-15 | Microsoft Technology Licensing, Llc | Augmented reality virtual monitor |
JP6044079B2 (ja) * | 2012-02-06 | 2016-12-14 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2013172432A (ja) | 2012-02-23 | 2013-09-02 | Panasonic Corp | 機器制御装置、機器制御方法、機器制御プログラム、及び集積回路 |
KR101978957B1 (ko) * | 2012-05-09 | 2019-05-16 | 엘지전자 주식회사 | 디스플레이 장치 및 애플리케이션 실행 및 설치 방법 |
US9111135B2 (en) * | 2012-06-25 | 2015-08-18 | Aquifi, Inc. | Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera |
US9292085B2 (en) | 2012-06-29 | 2016-03-22 | Microsoft Technology Licensing, Llc | Configuring an interaction zone within an augmented reality environment |
KR20140017735A (ko) * | 2012-07-31 | 2014-02-12 | 인텔렉추얼디스커버리 주식회사 | 착용형 전자 장치 및 그의 제어 방법 |
US9030446B2 (en) * | 2012-11-20 | 2015-05-12 | Samsung Electronics Co., Ltd. | Placement of optical sensor on wearable electronic device |
CN103581443A (zh) * | 2013-11-14 | 2014-02-12 | 惠州Tcl移动通信有限公司 | 一种基于传感器的智能终端自动唤醒方法及*** |
CN103810353A (zh) * | 2014-03-09 | 2014-05-21 | 杨智 | 一种虚拟现实中的现实场景映射***和方法 |
CN114356098A (zh) * | 2016-09-28 | 2022-04-15 | 奇跃公司 | 由可穿戴设备进行面部模型捕获 |
-
2015
- 2015-06-13 WO PCT/US2015/035718 patent/WO2015192117A1/en active Application Filing
- 2015-06-13 CA CA2953335A patent/CA2953335C/en active Active
- 2015-06-13 CN CN201580043458.8A patent/CN106937531B/zh active Active
- 2015-06-13 CN CN202011106449.8A patent/CN112651288B/zh active Active
- 2015-06-13 KR KR1020177001117A patent/KR102204919B1/ko active IP Right Grant
- 2015-06-13 EP EP20168878.5A patent/EP3699736B1/en active Active
- 2015-06-13 AU AU2015274283A patent/AU2015274283B2/en active Active
- 2015-06-13 EP EP15807476.5A patent/EP3155560B1/en active Active
- 2015-06-13 JP JP2017518040A patent/JP6646659B2/ja active Active
- 2015-06-13 CN CN202211020246.6A patent/CN115359567A/zh active Pending
- 2015-06-13 EP EP23156726.4A patent/EP4206870A1/en active Pending
-
2016
- 2016-12-04 IL IL249371A patent/IL249371B/en unknown
-
2020
- 2020-01-10 JP JP2020002609A patent/JP7110252B2/ja active Active
- 2020-03-18 IL IL273415A patent/IL273415B/en active IP Right Grant
-
2022
- 2022-05-23 JP JP2022083729A patent/JP2022113713A/ja not_active Withdrawn
-
2023
- 2023-10-03 JP JP2023171946A patent/JP2023181188A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7027987B2 (ja) | 2018-03-16 | 2022-03-02 | 株式会社リコー | 頭部装着型表示装置および表示システム |
JP7235146B2 (ja) | 2018-03-16 | 2023-03-08 | 株式会社リコー | 頭部装着型表示装置および表示システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017529635A5 (ja) | ||
US11567578B2 (en) | Systems and methods of free-space gestural interaction | |
US11775080B2 (en) | User-defined virtual interaction space and manipulation of virtual cameras with vectors | |
US10761612B2 (en) | Gesture recognition techniques | |
US9122311B2 (en) | Visual feedback for tactile and non-tactile user interfaces | |
RU2644520C2 (ru) | Бесконтактный ввод | |
US8897491B2 (en) | System for finger recognition and tracking | |
US8166421B2 (en) | Three-dimensional user interface | |
US20130077820A1 (en) | Machine learning gesture detection | |
EP3072033B1 (en) | Motion control of a virtual environment | |
AU2012268589A1 (en) | System for finger recognition and tracking | |
WO2015103693A1 (en) | Systems and methods of monitoring activities at a gaming venue | |
EP2590110B1 (en) | Depth image compression | |
CN105229666A (zh) | 3d图像中的运动分析 | |
CN102222431A (zh) | 基于机器的手语翻译器 | |
Cook et al. | A close-range gesture interaction with kinect | |
Son | Vision based natural assistive technologies with gesture recognition using Kinect | |
Bulzacki | Machine recognition of human gestures through principal joint variable analysis |