JP6828189B2 - 混合現実環境でのコンテキストアプリケーション - Google Patents
混合現実環境でのコンテキストアプリケーション Download PDFInfo
- Publication number
- JP6828189B2 JP6828189B2 JP2019560385A JP2019560385A JP6828189B2 JP 6828189 B2 JP6828189 B2 JP 6828189B2 JP 2019560385 A JP2019560385 A JP 2019560385A JP 2019560385 A JP2019560385 A JP 2019560385A JP 6828189 B2 JP6828189 B2 JP 6828189B2
- Authority
- JP
- Japan
- Prior art keywords
- context
- application
- user
- real
- mixed reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 61
- 230000009471 action Effects 0.000 claims description 34
- 230000015654 memory Effects 0.000 claims description 24
- 230000003993 interaction Effects 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 20
- 238000005516 engineering process Methods 0.000 claims description 11
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 238000013473 artificial intelligence Methods 0.000 claims description 7
- 230000006735 deficit Effects 0.000 claims description 5
- 230000000977 initiatory effect Effects 0.000 claims description 5
- 238000004458 analytical method Methods 0.000 claims description 4
- 230000033001 locomotion Effects 0.000 description 23
- 235000014347 soups Nutrition 0.000 description 19
- 238000004891 communication Methods 0.000 description 17
- 238000010411 cooking Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 16
- 230000006399 behavior Effects 0.000 description 10
- 238000001514 detection method Methods 0.000 description 10
- 230000004044 response Effects 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 10
- 239000004615 ingredient Substances 0.000 description 9
- 230000002452 interceptive effect Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000001960 triggered effect Effects 0.000 description 8
- 230000008878 coupling Effects 0.000 description 7
- 238000010168 coupling process Methods 0.000 description 7
- 238000005859 coupling reaction Methods 0.000 description 7
- 235000001674 Agaricus brunnescens Nutrition 0.000 description 6
- 230000008921 facial expression Effects 0.000 description 5
- 238000009877 rendering Methods 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 4
- 239000008186 active pharmaceutical agent Substances 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 239000007789 gas Substances 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000007792 addition Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 235000013339 cereals Nutrition 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 241001125840 Coryphaenidae Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 239000011449 brick Substances 0.000 description 1
- 238000009924 canning Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000036461 convulsion Effects 0.000 description 1
- 230000003292 diminished effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000003344 environmental pollutant Substances 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 239000008267 milk Substances 0.000 description 1
- 210000004080 milk Anatomy 0.000 description 1
- 235000013336 milk Nutrition 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 239000004570 mortar (masonry) Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 235000013550 pizza Nutrition 0.000 description 1
- 231100000719 pollutant Toxicity 0.000 description 1
- 235000013324 preserved food Nutrition 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000008261 resistance mechanism Effects 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 235000014214 soft drink Nutrition 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Analysis (AREA)
Description
本明細書で提供される見出しは単に便宜上のものであり、使用される用語の範囲または意味に必ずしも影響を与えるわけではない。図中の類似の番号は類似の構成要素を示す。
図7は、現実世界の環境400内でMRシステム100によって検出された例示的な調理用平鍋710を示す。例示的な実施形態では、図6に関して上述したようにアクティブにされた例示的なレシピは、レシピの準備指示の「ステップ1」における平鍋の使用を示す。したがって、段階的指示のコンテキストアプリケーションが起動されると、コンテキストアプリケーションは、準備指示の「ステップ1」のための平鍋オブジェクトの検出を含むアプリケーショントリガーを識別し得る。
したがって、記載されるハードウェアモジュールは、通信可能に連結されていると見なされ得る。複数のハードウェアモジュールが同時に存在する場合、通信は、ハードウェアモジュールのうちの2つ以上の間で、またはそれらの中で信号伝送を介して(例えば、適切な回路およびバスを介して)達成され得る。複数のハードウェアモジュールが異なる時間において構成またはインスタンス化される実施形態では、かかるハードウェアモジュール間の通信は、例えば、複数のハードウェアモジュールがアクセス権を有するメモリ構造内の情報の記憶および検索を通じて達成され得る。例えば、1つのハードウェアモジュールは、動作を実施し、その動作の出力を通信可能に連結されたメモリデバイスに記憶することができる。次いで、さらなるハードウェアモジュールが、その後になって、メモリデバイスにアクセスして、記憶された出力を検索および処理することができる。ハードウェアモジュールはまた、入力デバイスまたは出力デバイスとの通信を開始することができ、リソースに対して動作(例えば、情報の収集)することができる。
1つ以上の方法の個々の動作は別個の動作として図示および説明されているが、個々の動作の1つ以上を同時に実施することができ、図示の順序で動作を実施する必要はない。例示的な構成で個別の構成要素として提示される構造および機能性は、組み合わせた構造または構成要素として実装され得る。同様に、単一の構成要素として提示されている構造および機能性は、個別の構成要素として実装され得る。これらおよび他の変形、修正、追加および改良は、本明細書中の主題の範囲内に入る。
Claims (20)
- システムであって、
1つまたは複数のコンピュータプロセッサと、
1つまたは複数のコンピュータメモリと、
前記1または複数のコンピュータメモリに組み込まれた一組の命令であって、ユーザの混合現実対応デバイス上の混合現実環境内で複数のコンテキストアプリケーションを実施するための複数の動作を実行させるように前記1つまたは複数のコンピュータプロセッサを設定する前記1つまたは複数の命令と、を備え、
前記複数の動作は、
前記混合現実対応デバイスのセンサによって捕捉される少なくとも1つの現実世界のオブジェクトの1つまたは複数の属性にオブジェクト認識アルゴリズムを適用することにより、前記混合現実環境内の少なくとも1つの現実世界のオブジェクトを識別すること、
前記複数のコンテキストアプリケーションの第1のコンテキストアプリケーションを使用して、第1の組のコンテキストトリガーと前記複数のコンテキストアプリケーションのうちの第2のコンテキストアプリケーションとの間の関連付けを決定することであって、前記第1のコンテキストアプリケーションはランチャーアプリケーションである、前記関連付けを決定すること、
前記第1の組のコンテキストトリガーのうちの少なくとも1つが満足されたとの判定に基づいて前記第2のコンテキストアプリケーションを開始することであって、前記第1の組のコンテキストトリガーのうちの少なくとも1つが満足されたとの判定は、前記混合現実対応デバイスのセンサによって捕捉された周囲に対応するリアルタイムデータの分析に基づくものであり、前記混合現実環境において前記第2のコンテキストアプリケーションに関連する少なくとも1つの仮想オブジェクトを提示することを含む前記第2のコンテキストアプリケーションを開始すること、
前記少なくとも1つの仮想オブジェクトとのユーザの対話が、前記第2のコンテキストアプリケーションに関連付けられた第2の組のコンテキストトリガーを満足するとの判定に基づいて前記第2のコンテキストアプリケーション内で機能を呼び出すことであって、前記少なくとも1つの仮想オブジェクトとのユーザの対話が、前記第2のコンテキストアプリケーションに関連付けられた第2の組のコンテキストトリガーを満足するとの判定は、前記第2のコンテキストアプリケーションによって定義された対話ルールに基づくものである、前記呼び出すこと、を備える、システム。 - 前記オブジェクト認識アルゴリズムを適用することは、
人工知能を使用して、前記混合現実環境内の前記少なくとも1つの現実世界のオブジェクトの識別を実行することを含む、請求項1に記載のシステム。 - 前記第2のコンテキストアプリケーションによる前記少なくとも1つの仮想オブジェクトを提示することは、
前記ユーザと、第2の混合現実対応デバイス上で実行される前記第2のコンテキストアプリケーションに関連付けられた共有表示層との間の対応に基づく、請求項1に記載のシステム。 - 前記ユーザの対話は、前記少なくとも1つの現実世界のオブジェクトをコントローラとして使用することを含む、請求項1に記載のシステム。
- 前記第2のコンテキストアプリケーションを開始することは、
減損現実技術を適用して前記混合現実対応デバイス上の前記少なくとも1つの現実世界のオブジェクトの描写を変更することを含む、請求項1に記載のシステム。 - 前記少なくとも1つの現実世界のオブジェクトをコントローラとして使用することは、
前記現実世界のオブジェクトを3次元で操作して、前記第2のコンテキストアプリケーション内のアクションを制御することを含み、
前記アクションは、前記第2のコンテキストアプリケーションのアプリケーションプログラムインタフェースを使用して定義される、請求項4に記載のシステム。 - 前記第1の組のコンテキストトリガーは、前記識別することの時刻に関するデータ、前記混合現実対応デバイスの位置に関するデータ、および前記混合現実環境内で識別される追加の一組の現実世界のオブジェクトに関するデータのうちの少なくとも2つを含む複数の要素の組み合わせを含む、請求項1に記載のシステム。
- 方法であって、
一組の命令を1または複数のコンピュータメモリに組み込むことであって、前記一組の命令は、ユーザの混合現実対応デバイス上の混合現実環境内で複数のコンテキストアプリケーションを実施するための複数の動作を実行させるように1つまたは複数のコンピュータプロセッサを設定する、前記組み込むこと、
前記一組の命令を実行して前記1つまたは複数のコンピュータプロセッサに前記複数の動作を実行させること、を備え、
前記複数の動作は、
前記混合現実対応デバイスのセンサによって捕捉される少なくとも1つの現実世界のオブジェクトの1つまたは複数の属性にオブジェクト認識アルゴリズムを適用することにより、前記混合現実環境内の少なくとも1つの現実世界のオブジェクトを識別すること、
前記複数のコンテキストアプリケーションの第1のコンテキストアプリケーションを使用して、第1の組のコンテキストトリガーと前記複数のコンテキストアプリケーションのうちの第2のコンテキストアプリケーションとの間の関連付けを決定することであって、前記第1のコンテキストアプリケーションはランチャーアプリケーションである、前記関連付けを決定すること、
前記第1の組のコンテキストトリガーのうちの少なくとも1つが満足されたとの判定に基づいて前記第2のコンテキストアプリケーションを開始することであって、前記第1の組のコンテキストトリガーのうちの少なくとも1つが満足されたとの判定は、前記混合現実対応デバイスのセンサによって捕捉された周囲に対応するリアルタイムデータの分析に基づくものであり、前記混合現実環境において前記第2のコンテキストアプリケーションに関連する少なくとも1つの仮想オブジェクトを提示することを含む前記第2のコンテキストアプリケーションを開始すること、
前記少なくとも1つの仮想オブジェクトとのユーザの対話が、前記第2のコンテキストアプリケーションに関連付けられた第2の組のコンテキストトリガーを満足するとの判定に基づいて前記第2のコンテキストアプリケーション内で機能を呼び出すことであって、前記少なくとも1つの仮想オブジェクトとのユーザの対話が、前記第2のコンテキストアプリケーションに関連付けられた第2の組のコンテキストトリガーを満足するとの判定は、前記第2のコンテキストアプリケーションによって定義された対話ルールに基づくものである、前記呼び出すこと、を備える、方法。 - 前記オブジェクト認識アルゴリズムを適用することは、
人工知能を使用して、前記混合現実環境内の前記少なくとも1つの現実世界のオブジェクトの識別を実行することを含む、請求項8に記載の方法。 - 前記第2のコンテキストアプリケーションによる前記少なくとも1つの仮想オブジェクトを提示することは、
前記ユーザと、第2の混合現実対応デバイス上で実行される前記第2のコンテキストアプリケーションに関連付けられた共有表示層との間の対応に基づく、請求項8に記載の方法。 - 前記ユーザの対話は、前記少なくとも1つの現実世界のオブジェクトをコントローラとして使用することを含む、請求項8に記載の方法。
- 前記第2のコンテキストアプリケーションを開始することは、
減損現実技術を適用して前記混合現実対応デバイス上の前記少なくとも1つの現実世界のオブジェクトの描写を変更することを含む、請求項8に記載の方法。 - 前記少なくとも1つの現実世界のオブジェクトをコントローラとして使用することは、
前記現実世界のオブジェクトを3次元で操作して、前記第2のコンテキストアプリケーション内のアクションを制御することを含み、
前記アクションは、前記第2のコンテキストアプリケーションのアプリケーションプログラムインタフェースを使用して定義される、請求項11に記載の方法。 - 前記第1の組のコンテキストトリガーは、前記識別することの時刻に関するデータ、前記混合現実対応デバイスの位置に関するデータ、および前記混合現実環境内で識別される追加の一組の現実世界のオブジェクトに関するデータのうちの少なくとも2つを含む複数の要素の組み合わせを含む、請求項8に記載の方法。
- 一組の命令を備える非一時的マシン可読媒体であって、
前記一組の命令は、ユーザの混合現実対応デバイス上の混合現実環境内で複数のコンテキストアプリケーションを実施するための複数の動作を実行させるように1つまたは複数のコンピュータプロセッサを設定し、
前記複数の動作は、
前記混合現実対応デバイスのセンサによって捕捉される少なくとも1つの現実世界のオブジェクトの1つまたは複数の属性にオブジェクト認識アルゴリズムを適用することにより、前記混合現実環境内の少なくとも1つの現実世界のオブジェクトを識別すること、
前記複数のコンテキストアプリケーションの第1のコンテキストアプリケーションを使用して、第1の組のコンテキストトリガーと前記複数のコンテキストアプリケーションのうちの第2のコンテキストアプリケーションとの間の関連付けを決定することであって、前記第1のコンテキストアプリケーションはランチャーアプリケーションである、前記関連付けを決定すること、
前記第1の組のコンテキストトリガーのうちの少なくとも1つが満足されたとの判定に基づいて前記第2のコンテキストアプリケーションを開始することであって、前記第1の組のコンテキストトリガーのうちの少なくとも1つが満足されたとの判定は、前記混合現実対応デバイスのセンサによって捕捉された周囲に対応するリアルタイムデータの分析に基づくものであり、前記混合現実環境において前記第2のコンテキストアプリケーションに関連する少なくとも1つの仮想オブジェクトを提示することを含む前記第2のコンテキストアプリケーションを開始すること、
前記少なくとも1つの仮想オブジェクトとのユーザの対話が、前記第2のコンテキストアプリケーションに関連付けられた第2の組のコンテキストトリガーを満足するとの判定に基づいて前記第2のコンテキストアプリケーション内で機能を呼び出すことであって、前記少なくとも1つの仮想オブジェクトとのユーザの対話が、前記第2のコンテキストアプリケーションに関連付けられた第2の組のコンテキストトリガーを満足するとの判定は、前記第2のコンテキストアプリケーションによって定義された対話ルールに基づくものである、前記呼び出すこと、を備える、非一時的マシン可読媒体。 - 前記オブジェクト認識アルゴリズムを適用することは、
人工知能を使用して、前記混合現実環境内の前記少なくとも1つの現実世界のオブジェクトの識別を実行することを含む、請求項15に記載の非一時的マシン可読媒体。 - 前記第2のコンテキストアプリケーションによる前記少なくとも1つの仮想オブジェクトを提示することは、
前記ユーザと、第2の混合現実対応デバイス上で実行される前記第2のコンテキストアプリケーションに関連付けられた共有表示層との間の対応に基づく、請求項15に記載の非一時的マシン可読媒体。 - 前記ユーザの対話は、前記少なくとも1つの現実世界のオブジェクトをコントローラとして使用することを含む、請求項15に記載の非一時的マシン可読媒体。
- 前記第2のコンテキストアプリケーションを開始することは、
減損現実技術を適用して前記混合現実対応デバイス上の前記少なくとも1つの現実世界のオブジェクトの描写を変更することを含む、請求項15に記載の非一時的マシン可読媒体。 - 前記少なくとも1つの現実世界のオブジェクトをコントローラとして使用することは、
前記現実世界のオブジェクトを3次元で操作して、前記第2のコンテキストアプリケーション内のアクションを制御することを含み、
前記アクションは、前記第2のコンテキストアプリケーションのアプリケーションプログラムインタフェースを使用して定義される、請求項18に記載の非一時的マシン可読媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762502349P | 2017-05-05 | 2017-05-05 | |
US62/502,349 | 2017-05-05 | ||
US201762561017P | 2017-09-20 | 2017-09-20 | |
US62/561,017 | 2017-09-20 | ||
PCT/US2018/031245 WO2018204879A1 (en) | 2017-05-05 | 2018-05-04 | Contextual applications in a mixed reality environment |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020520000A JP2020520000A (ja) | 2020-07-02 |
JP2020520000A5 JP2020520000A5 (ja) | 2020-08-13 |
JP6828189B2 true JP6828189B2 (ja) | 2021-02-10 |
Family
ID=64014833
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019560385A Active JP6828189B2 (ja) | 2017-05-05 | 2018-05-04 | 混合現実環境でのコンテキストアプリケーション |
Country Status (7)
Country | Link |
---|---|
US (3) | US10360734B2 (ja) |
EP (1) | EP3639261B1 (ja) |
JP (1) | JP6828189B2 (ja) |
KR (1) | KR102220949B1 (ja) |
CN (1) | CN111033605A (ja) |
CA (1) | CA3062541C (ja) |
WO (1) | WO2018204879A1 (ja) |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104740869B (zh) * | 2015-03-26 | 2018-04-03 | 北京小小牛创意科技有限公司 | 一种融合真实环境的虚实结合的交互方法及*** |
JP2018005091A (ja) * | 2016-07-06 | 2018-01-11 | 富士通株式会社 | 表示制御プログラム、表示制御方法および表示制御装置 |
US10867445B1 (en) * | 2016-11-16 | 2020-12-15 | Amazon Technologies, Inc. | Content segmentation and navigation |
WO2018204879A1 (en) | 2017-05-05 | 2018-11-08 | Unity IPR ApS | Contextual applications in a mixed reality environment |
US10559133B2 (en) * | 2018-02-07 | 2020-02-11 | Dell Products L.P. | Visual space management across information handling system and augmented reality |
CN108769814B (zh) * | 2018-06-01 | 2022-02-01 | 腾讯科技(深圳)有限公司 | 视频互动方法、装置、终端及可读存储介质 |
WO2019237085A1 (en) | 2018-06-08 | 2019-12-12 | Vulcan Inc. | Session-based information exchange |
US20190378334A1 (en) * | 2018-06-08 | 2019-12-12 | Vulcan Inc. | Augmented reality portal-based applications |
US20190385372A1 (en) * | 2018-06-15 | 2019-12-19 | Microsoft Technology Licensing, Llc | Positioning a virtual reality passthrough region at a known distance |
US10712901B2 (en) | 2018-06-27 | 2020-07-14 | Facebook Technologies, Llc | Gesture-based content sharing in artificial reality environments |
US10635895B2 (en) | 2018-06-27 | 2020-04-28 | Facebook Technologies, Llc | Gesture-based casting and manipulation of virtual content in artificial-reality environments |
US10783712B2 (en) * | 2018-06-27 | 2020-09-22 | Facebook Technologies, Llc | Visual flairs for emphasizing gestures in artificial-reality environments |
US10996831B2 (en) | 2018-06-29 | 2021-05-04 | Vulcan Inc. | Augmented reality cursors |
WO2020152828A1 (ja) | 2019-01-24 | 2020-07-30 | マクセル株式会社 | 表示端末、アプリケーション制御システムおよびアプリケーション制御方法 |
US11054896B1 (en) * | 2019-02-07 | 2021-07-06 | Facebook, Inc. | Displaying virtual interaction objects to a user on a reference plane |
JP7157871B2 (ja) * | 2019-03-08 | 2022-10-20 | 株式会社Nttドコモ | 関連情報出力装置 |
US11804014B1 (en) * | 2019-04-22 | 2023-10-31 | Apple Inc. | Context-based application placement |
US11163997B2 (en) * | 2019-05-05 | 2021-11-02 | Google Llc | Methods and apparatus for venue based augmented reality |
US10897564B1 (en) | 2019-06-17 | 2021-01-19 | Snap Inc. | Shared control of camera device by multiple devices |
DE112020003104T5 (de) * | 2019-06-25 | 2022-03-17 | Semiconductor Energy Laboratory Co., Ltd. | Datenverarbeitungssystem und Verfahren zur Datenverarbeitung |
US11100715B2 (en) * | 2019-06-26 | 2021-08-24 | International Business Machines Corporation | Establishment of positional timers in an augmented reality environment |
US11340857B1 (en) | 2019-07-19 | 2022-05-24 | Snap Inc. | Shared control of a virtual object by multiple devices |
US11176744B2 (en) * | 2019-07-22 | 2021-11-16 | Microsoft Technology Licensing, Llc | Mapping sensor data using a mixed-reality cloud |
US11461867B2 (en) * | 2019-09-19 | 2022-10-04 | Sanctuary Cognitive Systems Corporation | Visual interface and communications techniques for use with robots |
CN110716645A (zh) * | 2019-10-15 | 2020-01-21 | 北京市商汤科技开发有限公司 | 一种增强现实数据呈现方法、装置、电子设备及存储介质 |
US11270115B2 (en) * | 2019-11-18 | 2022-03-08 | Lenovo (Singapore) Pte. Ltd. | Presentation of augmented reality content based on identification of trigger accompanying video content |
US11461115B2 (en) * | 2020-01-28 | 2022-10-04 | Sap Se | Third party executable asset bundle deployment |
US11354867B2 (en) * | 2020-03-04 | 2022-06-07 | Apple Inc. | Environment application model |
US11985175B2 (en) | 2020-03-25 | 2024-05-14 | Snap Inc. | Virtual interaction session to facilitate time limited augmented reality based communication between multiple users |
US11593997B2 (en) * | 2020-03-31 | 2023-02-28 | Snap Inc. | Context based augmented reality communication |
CN111462663B (zh) * | 2020-06-19 | 2020-10-27 | 南京新研协同定位导航研究院有限公司 | 一种基于mr眼镜的导游方法 |
CN111539662A (zh) * | 2020-07-10 | 2020-08-14 | 南京新研协同定位导航研究院有限公司 | 基于mr眼镜租赁业务的动态库存分配方法 |
US11617953B2 (en) | 2020-10-09 | 2023-04-04 | Contact Control Interfaces, Llc. | Virtual object interaction scripts |
EP3995191A1 (en) * | 2020-11-04 | 2022-05-11 | Unity IPR APS | Method and system for merging distant spaces |
JP6975489B1 (ja) * | 2020-12-18 | 2021-12-01 | 株式会社Gatari | 情報処理システム、情報処理方法および情報処理プログラム |
KR20220121990A (ko) * | 2021-02-26 | 2022-09-02 | 삼성전자주식회사 | 증강 현실 장치 및 증강 현실 장치와 상호작용하는 전자 장치 |
CN117413290A (zh) * | 2021-03-12 | 2024-01-16 | C·法拉古纳 | 用于在增强现实游戏内用户数据收集的***和方法 |
US11935199B2 (en) * | 2021-07-26 | 2024-03-19 | Google Llc | Augmented reality depth detection through object recognition |
EP4396649A1 (en) * | 2021-09-02 | 2024-07-10 | Snap Inc. | Augmented reality prop interactions |
US11969650B2 (en) | 2021-11-18 | 2024-04-30 | Sony Interactive Entertainment Inc. | Feature similarity scoring of physical environment for augmented reality gameplay |
US11568616B1 (en) * | 2021-11-29 | 2023-01-31 | Varjo Technologies Oy | Display apparatuses and methods for facilitating location-based virtual content |
CN114971764A (zh) * | 2022-04-08 | 2022-08-30 | 浙江赟燊商业信息***科技有限公司 | 一种基于HoloLens的存储和匹配***及方法 |
JP7482943B2 (ja) | 2022-06-17 | 2024-05-14 | ソフトバンク株式会社 | 情報処理装置、プログラム、システム、及び情報処理方法 |
US12020388B2 (en) * | 2022-07-29 | 2024-06-25 | Maplebear Inc. | Displaying an augmented reality element that provides a personalized enhanced experience at a warehouse |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110213664A1 (en) * | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US9285589B2 (en) | 2010-02-28 | 2016-03-15 | Microsoft Technology Licensing, Llc | AR glasses with event and sensor triggered control of AR eyepiece applications |
JP2013004001A (ja) * | 2011-06-21 | 2013-01-07 | Sony Corp | 表示制御装置、表示制御方法、およびプログラム |
US10019962B2 (en) * | 2011-08-17 | 2018-07-10 | Microsoft Technology Licensing, Llc | Context adaptive user interface for augmented reality display |
KR101874895B1 (ko) * | 2012-01-12 | 2018-07-06 | 삼성전자 주식회사 | 증강 현실 제공 방법 및 이를 지원하는 단말기 |
GB2501929B (en) * | 2012-05-11 | 2015-06-24 | Sony Comp Entertainment Europe | Apparatus and method for augmented reality |
KR102062763B1 (ko) * | 2012-12-07 | 2020-01-07 | 삼성전자주식회사 | 상황 정보 기반의 정보 제공 방법 및 시스템과 그 기록 매체 |
US9924102B2 (en) * | 2013-03-14 | 2018-03-20 | Qualcomm Incorporated | Image-based application launcher |
US9240075B2 (en) * | 2013-03-15 | 2016-01-19 | Daqri, Llc | Campaign optimization for experience content dataset |
CN203250508U (zh) * | 2013-04-24 | 2013-10-23 | 苏州创捷传媒展览股份有限公司 | 3d混合现实展示装置 |
US10025375B2 (en) * | 2015-10-01 | 2018-07-17 | Disney Enterprises, Inc. | Augmented reality controls for user interactions with a virtual world |
US9536355B1 (en) * | 2016-03-24 | 2017-01-03 | Daqri, Llc | Thermal detection in an augmented reality system |
CN105912130A (zh) * | 2016-07-06 | 2016-08-31 | 深圳云戈科技有限公司 | 一种基于混合现实的通信方法、装置及*** |
WO2018204879A1 (en) | 2017-05-05 | 2018-11-08 | Unity IPR ApS | Contextual applications in a mixed reality environment |
-
2018
- 2018-05-04 WO PCT/US2018/031245 patent/WO2018204879A1/en active Application Filing
- 2018-05-04 EP EP18794296.6A patent/EP3639261B1/en active Active
- 2018-05-04 CN CN201880044613.1A patent/CN111033605A/zh active Pending
- 2018-05-04 US US15/972,020 patent/US10360734B2/en active Active
- 2018-05-04 KR KR1020197035793A patent/KR102220949B1/ko active IP Right Grant
- 2018-05-04 CA CA3062541A patent/CA3062541C/en active Active
- 2018-05-04 JP JP2019560385A patent/JP6828189B2/ja active Active
-
2019
- 2019-06-27 US US16/455,493 patent/US10769857B2/en active Active
-
2020
- 2020-07-28 US US16/941,298 patent/US10984604B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
KR20190141777A (ko) | 2019-12-24 |
US20180322706A1 (en) | 2018-11-08 |
CN111033605A (zh) | 2020-04-17 |
US10769857B2 (en) | 2020-09-08 |
EP3639261A1 (en) | 2020-04-22 |
JP2020520000A (ja) | 2020-07-02 |
CA3062541A1 (en) | 2018-11-08 |
US10984604B2 (en) | 2021-04-20 |
US10360734B2 (en) | 2019-07-23 |
KR102220949B1 (ko) | 2021-03-02 |
US20190392645A1 (en) | 2019-12-26 |
US20200357187A1 (en) | 2020-11-12 |
CA3062541C (en) | 2022-01-11 |
WO2018204879A1 (en) | 2018-11-08 |
EP3639261A4 (en) | 2020-05-13 |
EP3639261B1 (en) | 2023-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6828189B2 (ja) | 混合現実環境でのコンテキストアプリケーション | |
US11750767B2 (en) | Selective identification and order of image modifiers | |
CN111886058B (zh) | 基于位置信息生成可收集项 | |
US10904374B2 (en) | Systems, methods and apparatuses to facilitate gradual or instantaneous adjustment in levels of perceptibility of virtual objects or reality object in a digital scene | |
KR102515040B1 (ko) | 컨텍스트 기반 증강 현실 통신 | |
KR20230011349A (ko) | 디바이스의 후면 부분 상의 트랙패드 | |
KR20230017348A (ko) | 컨텍스트 애플리케이션 메뉴 | |
WO2023211891A1 (en) | Ar/vr enabled contact lens | |
US20230244310A1 (en) | Systems and methods for dynamic continuous input in mixed reality environments | |
CN118355646A (zh) | 共享增强现实会话创建 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20191128 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200527 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200527 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200804 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200806 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200818 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210120 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6828189 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |