JP2018109974A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2018109974A5 JP2018109974A5 JP2017247341A JP2017247341A JP2018109974A5 JP 2018109974 A5 JP2018109974 A5 JP 2018109974A5 JP 2017247341 A JP2017247341 A JP 2017247341A JP 2017247341 A JP2017247341 A JP 2017247341A JP 2018109974 A5 JP2018109974 A5 JP 2018109974A5
- Authority
- JP
- Japan
- Prior art keywords
- tactile
- content
- user
- determining
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000694 effects Effects 0.000 claims 78
- 230000000007 visual effect Effects 0.000 claims 4
- 210000003205 Muscles Anatomy 0.000 claims 2
- 230000000875 corresponding Effects 0.000 claims 2
- 230000035807 sensation Effects 0.000 claims 2
Claims (44)
- ディスプレイデバイスに通信可能に結合されるコンピュータデバイスであって、前記ディスプレイデバイスは第1のコンテンツ及び第2のコンテンツを表示するように構成されるコンピュータデバイスと、
前記コンピュータデバイスに通信可能に結合されるセンサであって、前記ディスプレイデバイスに対する前記コンピュータデバイスのユーザの視野を検出して前記視野に関連付けられる信号を送信するように構成されるセンサと、
前記信号を受信するために前記センサに通信可能に結合されるプロセッサであって、
前記信号に少なくとも部分的に基づいて前記ユーザの前記視野の方向を決定すること、
前記ディスプレイデバイスを介して表示され且つ前記ユーザの前記視野の方向内にある前記第1のコンテンツ及び前記第2のコンテンツが少なくとも1つの触覚効果を含む触覚トラックに関連付けられることを決定すること、
前記第1のコンテンツ及び前記第2のコンテンツに関連付けられる前記触覚トラックを決定すること、
前記信号に少なくとも部分的に基づいて前記ユーザの凝視の変化を決定すること、
前記ユーザの前記凝視の変化に少なくとも部分的に基づいて前記触覚トラックの特徴を決定すること、及び
前記触覚トラックに関連付けられる触覚信号を送信すること
を行うように構成されるプロセッサと、
前記触覚信号を受信し且つ前記触覚トラックを出力するように構成される触覚出力デバイスと
を備える、システム。 - 前記センサは、前記ユーザと前記ディスプレイデバイスとの間の距離を検出し、前記距離に関連付けられる距離センサ信号を前記プロセッサに送信するように更に構成され、
前記プロセッサは、前記距離に少なくとも部分的に基づいて前記触覚トラックの特徴を決定するように更に構成される、請求項1に記載のシステム。 - 前記触覚トラックの前記特徴は、前記触覚効果の振幅、持続時間、場所、タイプ又は周波数を含む、請求項2に記載のシステム。
- 前記プロセッサは、
前記ユーザの前記視野内の前記第1のコンテンツに関連付けられる第1の触覚効果を決定すること、
前記ユーザの前記視野内の前記第2のコンテンツに関連付けられる第2の触覚効果を決定すること、
前記第1の触覚効果に関連付けられる第1の触覚信号を送信すること、及び
前記第2の触覚効果に関連付けられる第2の触覚信号を送信すること
を行うように更に構成され、前記触覚出力デバイスは、前記第1の触覚信号及び前記第2の触覚信号を受信して、前記第1及び第2の触覚効果を出力するように構成される、請求項1に記載のシステム。 - 前記プロセッサは、
前記第1のコンテンツ又は前記第2のコンテンツの方に向けられている前記ユーザの前記視野の比率を決定すること、及び
前記第1のコンテンツ又は前記第2のコンテンツの方に向けられている前記ユーザの前記視野の前記比率に少なくとも部分的に基づいて、前記第1の触覚効果又は前記第2の触覚効果の特徴を決定すること
を行うように更に構成される、請求項4に記載のシステム。 - 前記プロセッサは、
前記第1のコンテンツの方に向けられた前記ユーザの凝視の第1の方向を決定すること、
前記第2のコンテンツの方に向けられた前記ユーザの凝視の第2の方向を決定すること、
前記第1の方向及び前記第2の方向に基づいて前記ユーザの凝視の変化を決定すること、及び
前記ユーザの凝視の変化に少なくとも部分的に基づいて、前記第1の触覚効果又は前記第2の触覚効果の特徴を決定すること
を行うように更に構成される、請求項4に記載のシステム。 - 前記プロセッサは、
前記ユーザの前記視野内の前記ディスプレイデバイスの第1の部分に関連付けられる第1の触覚効果を決定すること、
前記ユーザの前記視野内の前記ディスプレイデバイスの第2の部分に関連付けられる第2の触覚効果を決定すること、
前記第1の触覚効果に関連付けられる第1の触覚信号を送信すること、及び
前記第2の触覚効果に関連付けられる第2の触覚信号を送信すること
を行うように更に構成され、前記触覚出力デバイスは、前記第1の触覚信号及び前記第2の触覚信号を受信して、前記第1及び第2の触覚効果を出力する、請求項1に記載のシステム。 - 前記プロセッサは、
前記ディスプレイデバイスの前記第1の部分又は前記ディスプレイデバイスの前記第2の部分の方に向けられている前記ユーザの前記視野の比率を決定すること、及び
前記ディスプレイデバイスの前記第1の部分又は前記ディスプレイデバイスの前記第2の部分の方に向けられている前記ユーザの前記視野の前記比率に少なくとも部分的に基づいて、前記第1の触覚効果又は前記第2の触覚効果の特徴を決定すること
を行うように更に構成される、請求項7に記載のシステム。 - 前記センサは、前記ユーザの目に関連付けられる画像をキャプチャするように構成されるカメラを含み、
前記プロセッサは、前記画像に基づいて前記ユーザの前記視野の方向を決定するように構成される、請求項1に記載のシステム。 - 前記センサは、前記ユーザの目における筋肉の動きを監視するように構成され、
前記プロセッサは、監視された動きに基づいて前記ユーザの前記視野の方向を決定するように構成される、請求項1に記載のシステム。 - 前記コンピュータデバイスは仮想現実ヘッドセットを備え、前記プロセッサは、
仮想現実環境を生成すること、及び
前記仮想現実環境及び複数のコンテンツを含むデータを前記ディスプレイデバイスに送信すること
を行うように更に構成され、前記ディスプレイデバイスは、前記複数のコンテンツを表示するように構成され、前記複数のコンテンツは複数の仮想オブジェクトを含む、請求項1に記載のシステム。 - 前記プロセッサは、前記ユーザと前記第1のコンテンツ又は前記第2のコンテンツとの間の仮想距離に少なくとも部分的に基づいて前記触覚トラックの特徴を決定するように更に構成される、請求項1に記載のシステム。
- センサによって、コンピュータデバイスに通信可能に結合されるディスプレイデバイスに対する前記コンピュータデバイスのユーザの視野を検出するステップであって、前記ディスプレイデバイスは第1のコンテンツ及び第2のコンテンツを表示するように構成されるステップと、
前記センサによって、前記視野に関連付けられるセンサ信号をプロセッサに送信するステップと、
前記プロセッサによって、前記センサ信号に少なくとも部分的に基づいて前記視野の方向を決定するステップと、
前記プロセッサによって、前記ディスプレイデバイスを介して表示される前記第1のコンテンツ及び前記第2のコンテンツが前記視野の方向に基づいて前記ユーザの前記視野内であることを決定するステップと、
前記プロセッサによって、前記第1のコンテンツ及び前記第2のコンテンツに関連付けられる触覚トラックを決定するステップと、
前記センサ信号に少なくとも部分的に基づいて前記ユーザの凝視の変化を決定するステップと、
前記ユーザの前記凝視の変化に少なくとも部分的に基づいて前記触覚トラックの特徴を決定するステップと、
前記プロセッサによって、前記触覚トラックに関連付けられる触覚信号を触覚出力デバイスに送信するステップと、
前記触覚出力デバイスによって、前記触覚トラックを出力するステップと
を含む、方法。 - 前記センサによって、前記ユーザと前記ディスプレイデバイスとの間の距離を検出するステップと、
前記センサによって、前記距離に関連付けられる距離信号を前記プロセッサに送信するステップと、
前記プロセッサによって、前記距離に少なくとも部分的に基づいて前記触覚トラックの特徴を決定するステップと
を更に含む、請求項13に記載の方法。 - 前記触覚トラックの前記特徴は、触覚効果の振幅、持続時間、場所、タイプ又は周波数を含む、請求項14に記載の方法。
- 前記プロセッサによって、前記ユーザの前記視野内の前記第1のコンテンツに関連付けられる第1の触覚効果を決定するステップと、
前記プロセッサによって、前記ユーザの前記視野内の前記第2のコンテンツに関連付けられる第2の触覚効果を決定するステップと、
前記プロセッサによって、前記第1の触覚効果に関連付けられる第1の触覚信号を送信するステップと、
前記プロセッサによって、前記第2の触覚効果に関連付けられる第2の触覚信号を送信するステップと、
前記触覚出力デバイスによって、前記第1の触覚効果及び前記第2の触覚効果を出力するステップであって、前記第1の触覚効果は前記第2の触覚効果とは異なるステップと
を更に含む、請求項13に記載の方法。 - 前記プロセッサによって、前記第1のコンテンツ又は前記第2のコンテンツの方に向けられている前記ユーザの前記視野の比率を決定するステップと、
前記プロセッサによって、前記第1のコンテンツ又は前記第2のコンテンツの方に向けられている前記ユーザの前記視野の前記比率に少なくとも部分的に基づいて、前記第1の触覚効果又は前記第2の触覚効果の特徴を決定するステップであって、前記特徴は、前記第1の触覚効果又は前記第2の触覚効果の振幅、持続時間、場所、タイプ又は周波数を含むステップと
を更に含む、請求項16に記載の方法。 - 前記プロセッサによって、前記第1のコンテンツの方に向けられた前記ユーザの凝視の第1の方向を決定するステップと、
前記プロセッサによって、前記第2のコンテンツの方に向けられた前記ユーザの凝視の第2の方向を決定するステップと、
前記プロセッサによって、前記第1の方向及び前記第2の方向に基づいて前記ユーザの凝視の変化を決定するステップと、
前記プロセッサによって、前記ユーザの凝視の変化に少なくとも部分的に基づいて、前記第1の触覚効果又は前記第2の触覚効果の特徴を決定するステップであって、前記特徴は、前記第1の触覚効果又は前記第2の触覚効果の振幅、持続時間、場所、タイプ又は周波数を含むステップと
を更に含む、請求項16に記載の方法。 - 前記プロセッサによって、前記ユーザの前記視野内の前記ディスプレイデバイスの第1の部分に関連付けられる第1の触覚効果を決定するステップと、
前記プロセッサによって、前記ユーザの前記視野内の前記ディスプレイデバイスの第2の部分に関連付けられる第2の触覚効果を決定するステップと、
前記プロセッサによって、前記第1の触覚効果に関連付けられる第1の触覚信号を送信するステップと、
前記プロセッサによって、前記第2の触覚効果に関連付けられる第2の触覚信号を送信するステップと、
前記触覚出力デバイスによって、前記第1の触覚効果及び前記第2の触覚効果を出力するステップであって、前記第1の触覚効果は前記第2の触覚効果とは異なるステップと
を更に含む、請求項13に記載の方法。 - 前記プロセッサによって、前記ディスプレイデバイスの前記第1の部分又は前記ディスプレイデバイスの前記第2の部分の方に向けられている前記ユーザの前記視野の比率を決定するステップと、
前記プロセッサによって、前記ディスプレイデバイスの前記第1の部分又は前記ディスプレイデバイスの前記第2の部分の方に向けられている前記ユーザの前記視野の前記比率に少なくとも部分的に基づいて、前記第1の触覚効果又は前記第2の触覚効果の特徴を決定するステップであって、前記特徴は、前記第1の触覚効果又は前記第2の触覚効果の振幅、持続時間、場所、タイプ又は周波数を含むステップと
を更に含む、請求項19に記載の方法。 - 前記センサは、前記ユーザの目の動きを監視するように構成され、
前記プロセッサは、監視された動きに基づいて前記ユーザの前記視野の方向を決定するように構成される、請求項13に記載の方法。 - 前記センサは、前記ユーザの目における筋肉の動きを監視するように構成され、
前記プロセッサは、監視された動きに基づいて前記ユーザの前記視野の方向を決定するように構成される、請求項13に記載の方法。 - 前記プロセッサによって、仮想現実環境を生成するステップと、
前記プロセッサによって、前記仮想現実環境及び複数のコンテンツを含むデータを前記ディスプレイデバイスに送信するステップと、
前記ディスプレイデバイスによって、前記複数のコンテンツを表示するステップであって、前記複数のコンテンツは複数の仮想オブジェクトを含むステップと
を更に含む、請求項13に記載の方法。 - 前記プロセッサによって、前記ユーザと前記第1のコンテンツ又は前記第2のコンテンツとの間の仮想距離に少なくとも部分的に基づいて前記触覚トラックの特徴を決定するステップを更に含む、請求項13に記載の方法。
- ディスプレイと、
前記ディスプレイに対するユーザの視野を検出して、前記視野に関連付けられるセンサ信号を送信するように構成されるセンサと、
前記センサに通信可能に結合されるプロセッサと
を備え、
前記プロセッサは、
前記センサ信号に少なくとも部分的に基づいて、前記ディスプレイにおけるコンテンツが前記ユーザの前記視野内にあることを決定すること、
前記ユーザと前記コンテンツとの間の仮想距離を決定すること、
前記コンテンツに向けられる前記視野の比率を決定すること、
前記仮想距離と前記コンテンツに向けられる前記視野の比率とに少なくとも部分的に基づいて触覚効果を決定すること、及び
前記触覚効果を出力するように構成される触覚出力デバイスに前記触覚効果に関連付けられる触覚信号を送信すること
を行うように構成される、システム。 - 前記プロセッサは、前記仮想距離に部分的に基づいて、前記触覚効果の振幅、持続時間、位置、タイプ、又は周波数の1つ以上を決定するように更に構成される、請求項25に記載のシステム。
- 前記センサは、前記ユーザと前記ディスプレイとの間の物理距離を検出し、前記プロセッサは、前記物理距離に少なくとも部分的に基づいて前記触覚効果を決定するように更に構成される、請求項25に記載のシステム。
- 前記プロセッサは、前記コンテンツの少なくとも1つのパラメータに対応するデータを含むルックアップテーブル又はデータベースの少なくとも1つにアクセスすること、及び前記コンテンツの前記少なくとも1つのパラメータに少なくとも部分的に基づいて前記仮想距離を決定することを行うように更に構成される、請求項26に記載のシステム。
- 前記コンテンツの前記少なくとも1つのパラメータは、前記コンテンツのサイズ、前記コンテンツの前記ディスプレイにおける位置、又は前記コンテンツの表示の角度の少なくとも1つを含む、請求項28に記載のシステム。
- 前記プロセッサは、前記仮想距離の変化に基づいて前記触覚効果を調節するように更に構成される、請求項26に記載のシステム。
- 前記プロセッサは、
前記ユーザの前記視野内の第2のコンテンツに関連付けられる第2の触覚効果を決定することであって、前記第2の触覚効果は、前記ユーザと前記第2のコンテンツとの間の第2の仮想距離に少なくとも部分的に基づくこと、及び
前記第2の触覚効果に関連付けられる第2の触覚信号を前記触覚出力デバイスに送信すること
を行うように更に構成される、請求項26に記載のシステム。 - 前記プロセッサは、前記コンテンツ又は前記第2のコンテンツの方に向けられている前記視野の比率に少なくとも部分的に基づいて、前記触覚効果及び前記第2の触覚効果の特徴を決定するように更に構成される、請求項31に記載のシステム。
- 前記プロセッサは、
前記コンテンツの方に向けられた前記ユーザの第1の凝視方向を決定すること、
前記第2のコンテンツの方に向けられた前記ユーザの第2の凝視方向を決定すること、
前記第1の凝視方向及び前記第2の凝視方向からの変化に少なくとも部分的に基づいて、前記触覚効果又は前記第2の触覚効果の特徴を決定すること
を行うように更に構成される、請求項31に記載のシステム。 - 前記ディスプレイは、仮想現実ヘッドセットに結合されており、前記プロセッサは、
仮想現実環境を生成すること、及び
前記仮想現実環境及び前記コンテンツを含むデータを前記ディスプレイに送信することであって、前記コンテンツは複数の仮想オブジェクトを含むこと
を行うように更に構成される、請求項26に記載のシステム。 - ディスプレイに対するユーザの視野を検出するステップと、
前記ディスプレイにおけるコンテンツが前記ユーザの前記視野内にあることを決定するステップと、
前記ユーザと前記コンテンツとの間の仮想距離を決定するステップと、
前記コンテンツに向けられる前記視野の比率を決定するステップと、
前記仮想距離と前記コンテンツに向けられる前記視野の比率とに少なくとも部分的に基づいて触覚効果を決定するステップと、
前記触覚効果を出力するように構成される触覚出力デバイスに前記触覚効果に関連付けられる触覚信号を送信するステップと
を含む、方法。 - 前記仮想距離に部分的に基づいて、前記触覚効果の振幅、持続時間、位置、タイプ、又は周波数の1つ以上を決定するステップを更に含む、請求項35に記載の方法。
- 前記ユーザと前記ディスプレイとの間の物理距離を検出するステップと、
前記物理距離に少なくとも部分的に基づいて前記触覚効果を決定するステップと
を更に含む、請求項35に記載の方法。 - 前記コンテンツの少なくとも1つのパラメータに対応するデータを含むルックアップテーブル又はデータベースの少なくとも1つにアクセスするステップと、
前記コンテンツの前記少なくとも1つのパラメータに少なくとも部分的に基づいて前記仮想距離を決定するステップと
を更に含む、請求項35に記載の方法。 - 前記コンテンツの前記少なくとも1つのパラメータは、前記コンテンツのサイズ、前記コンテンツの前記ディスプレイにおける位置、又は前記コンテンツの表示の角度の少なくとも1つを含む、請求項38に記載の方法。
- 前記仮想距離の変化に基づいて前記触覚効果を調節するステップを更に含む、請求項35に記載の方法。
- 前記ユーザの前記視野内の第2のコンテンツに関連付けられる第2の触覚効果を決定するステップであって、前記第2の触覚効果は、前記ユーザと前記第2のコンテンツとの間の第2の仮想距離に少なくとも部分的に基づくステップと、
前記第2の触覚効果に関連付けられる第2の触覚信号を前記触覚出力デバイスに送信するステップと
を更に含む、請求項35に記載の方法。 - 前記コンテンツ又は前記第2のコンテンツの少なくとも1つの方に向けられている前記ユーザの前記視野の比率に少なくとも部分的に基づいて、前記触覚効果及び前記第2の触覚効果の特徴を決定するステップを更に含む、請求項41に記載の方法。
- 前記コンテンツの方に向けられた前記ユーザの第1の凝視方向を決定するステップと、
前記第2のコンテンツの方に向けられた前記ユーザの第2の凝視方向を決定するステップと、
前記第1の凝視方向及び前記第2の凝視方向からの変化に少なくとも部分的に基づいて、前記触覚効果又は前記第2の触覚効果の特徴を決定するステップと
を更に含む、請求項41に記載の方法。 - プログラムコードを含む非一時的なコンピュータ可読媒体であって、プロセッサによって実行されると、前記プログラムコードは、
ディスプレイに対するユーザの視野を検出すること、
前記ディスプレイにおけるコンテンツが前記ユーザの前記視野内にあることを決定すること、
前記ユーザと前記コンテンツとの間の仮想距離を決定すること、
前記コンテンツに向けられる前記視野の比率を決定すること、
前記仮想距離と前記コンテンツに向けられる前記視野の比率とに少なくとも部分的に基づいて触覚効果を決定すること、及び
前記触覚効果を出力するように構成される触覚出力デバイスに前記触覚効果に関連付けられる触覚信号を送信すること
を前記プロセッサに行わせるように構成される、非一時的なコンピュータ可読媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/390,868 US10324531B2 (en) | 2016-12-27 | 2016-12-27 | Haptic feedback using a field of view |
US15/390,868 | 2016-12-27 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018109974A JP2018109974A (ja) | 2018-07-12 |
JP2018109974A5 true JP2018109974A5 (ja) | 2021-02-04 |
JP6985134B2 JP6985134B2 (ja) | 2021-12-22 |
Family
ID=60782063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017247341A Active JP6985134B2 (ja) | 2016-12-27 | 2017-12-25 | 視野を用いる触覚フィードバック |
Country Status (5)
Country | Link |
---|---|
US (2) | US10324531B2 (ja) |
EP (1) | EP3343326B1 (ja) |
JP (1) | JP6985134B2 (ja) |
KR (2) | KR102285180B1 (ja) |
CN (1) | CN108334190B (ja) |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015034969A2 (en) | 2013-09-03 | 2015-03-12 | Apple Inc. | User interface for manipulating user interface objects with magnetic properties |
US11068128B2 (en) | 2013-09-03 | 2021-07-20 | Apple Inc. | User interface object manipulations in a user interface |
US9588586B2 (en) * | 2014-06-09 | 2017-03-07 | Immersion Corporation | Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity |
AU2015279544B2 (en) | 2014-06-27 | 2018-03-15 | Apple Inc. | Electronic device with rotatable input mechanism for navigating calendar application |
TWI676127B (zh) | 2014-09-02 | 2019-11-01 | 美商蘋果公司 | 關於電子郵件使用者介面之方法、系統、電子器件及電腦可讀儲存媒體 |
CN110072131A (zh) | 2014-09-02 | 2019-07-30 | 苹果公司 | 音乐用户界面 |
US20160062571A1 (en) | 2014-09-02 | 2016-03-03 | Apple Inc. | Reduced size user interface |
TW201610758A (zh) | 2014-09-02 | 2016-03-16 | 蘋果公司 | 按鈕功能性 |
DK179978B1 (en) * | 2016-09-23 | 2019-11-27 | Apple Inc. | IMAGE DATA FOR ENHANCED USER INTERACTIONS |
US10401954B2 (en) * | 2017-04-17 | 2019-09-03 | Intel Corporation | Sensory enhanced augmented reality and virtual reality device |
US10979685B1 (en) | 2017-04-28 | 2021-04-13 | Apple Inc. | Focusing for virtual and augmented reality systems |
CN110574375B (zh) | 2017-04-28 | 2023-06-02 | 苹果公司 | 视频流水线 |
JP6837921B2 (ja) * | 2017-06-02 | 2021-03-03 | 任天堂株式会社 | ゲームプログラム、情報処理装置、情報処理システム、および、情報処理方法 |
JP6613267B2 (ja) | 2017-06-02 | 2019-11-27 | 任天堂株式会社 | 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法 |
JP6653293B2 (ja) | 2017-06-05 | 2020-02-26 | 任天堂株式会社 | 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法 |
US10861142B2 (en) * | 2017-07-21 | 2020-12-08 | Apple Inc. | Gaze direction-based adaptive pre-filtering of video data |
US11725958B2 (en) | 2018-03-22 | 2023-08-15 | Jennifer Hendrix | Route guidance and proximity awareness system |
US11266530B2 (en) * | 2018-03-22 | 2022-03-08 | Jennifer Hendrix | Route guidance and obstacle avoidance system |
CN110134248B (zh) * | 2018-09-11 | 2020-12-11 | 苹果公司 | 基于内容的触觉输出 |
US11435830B2 (en) | 2018-09-11 | 2022-09-06 | Apple Inc. | Content-based tactile outputs |
US10712824B2 (en) | 2018-09-11 | 2020-07-14 | Apple Inc. | Content-based tactile outputs |
US10775894B2 (en) | 2018-11-02 | 2020-09-15 | Immersion Corporation | Systems and methods for providing customizable haptic playback |
US10860101B1 (en) * | 2018-11-21 | 2020-12-08 | Facebook Technologies, Llc | Systems and methods using patterned nanovoids for actuation and deformation sensing |
US20220113801A1 (en) * | 2019-04-26 | 2022-04-14 | Hewlett-Packard Development Company, L.P. | Spatial audio and haptics |
US10996761B2 (en) | 2019-06-01 | 2021-05-04 | Apple Inc. | User interfaces for non-visual output of time |
US11086398B2 (en) * | 2019-06-07 | 2021-08-10 | Microsoft Technology Licensing, Llc | Haptic rendering |
US11347312B1 (en) * | 2019-09-23 | 2022-05-31 | Apple Inc. | Ultrasonic haptic output devices |
US11429155B2 (en) * | 2019-10-01 | 2022-08-30 | Dell Products L.P. | Information handling system including dynamic configuration of piezoelectric transducers for multi-functionality |
JP2021067877A (ja) * | 2019-10-25 | 2021-04-30 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、ヘッドマウントディスプレイ、および画像表示方法 |
US11093005B1 (en) * | 2020-05-05 | 2021-08-17 | International Business Machines Corporation | Virtual reality rollable display device |
CN116209973A (zh) * | 2020-11-10 | 2023-06-02 | 索尼集团公司 | 信号处理装置、信号处理方法和信号处理*** |
US11500463B2 (en) * | 2020-12-30 | 2022-11-15 | Imagine Technologies, Inc. | Wearable electroencephalography sensor and device control methods using same |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2422265A1 (en) * | 2003-03-14 | 2004-09-14 | Handshake Interactive Technologies Inc. | A method and system for providing haptic effects |
WO2006100645A2 (en) | 2005-03-24 | 2006-09-28 | Koninklijke Philips Electronics, N.V. | Immersive reading experience using eye tracking |
US8243970B2 (en) * | 2008-08-11 | 2012-08-14 | Telefonaktiebolaget L M Ericsson (Publ) | Virtual reality sound for advanced multi-media applications |
CN102246119B (zh) * | 2008-12-09 | 2016-01-20 | 皇家飞利浦电子股份有限公司 | 用于提供沉浸式效果的方法和*** |
WO2014006799A1 (ja) | 2012-07-05 | 2014-01-09 | 日本電気株式会社 | 電子機器、その制御方法及び制御プログラムが格納された非一時的なコンピュータ可読媒体 |
US9202350B2 (en) | 2012-12-19 | 2015-12-01 | Nokia Technologies Oy | User interfaces and associated methods |
US9466187B2 (en) | 2013-02-04 | 2016-10-11 | Immersion Corporation | Management of multiple wearable haptic devices |
US9833697B2 (en) * | 2013-03-11 | 2017-12-05 | Immersion Corporation | Haptic sensations as a function of eye gaze |
JP2014197338A (ja) * | 2013-03-29 | 2014-10-16 | 株式会社東芝 | プログラムの疎行列演算化装置 |
US9946348B2 (en) * | 2014-03-21 | 2018-04-17 | Immersion Corporation | Automatic tuning of haptic effects |
US9690370B2 (en) * | 2014-05-05 | 2017-06-27 | Immersion Corporation | Systems and methods for viewport-based augmented reality haptic effects |
US10613627B2 (en) | 2014-05-12 | 2020-04-07 | Immersion Corporation | Systems and methods for providing haptic feedback for remote interactions |
US9588586B2 (en) * | 2014-06-09 | 2017-03-07 | Immersion Corporation | Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity |
US20160187976A1 (en) | 2014-12-29 | 2016-06-30 | Immersion Corporation | Systems and methods for generating haptic effects based on eye tracking |
US9711015B2 (en) | 2015-09-16 | 2017-07-18 | Immersion Corporation | Customizing haptic feedback in live events |
-
2016
- 2016-12-27 US US15/390,868 patent/US10324531B2/en active Active
-
2017
- 2017-12-22 EP EP17210089.3A patent/EP3343326B1/en active Active
- 2017-12-25 JP JP2017247341A patent/JP6985134B2/ja active Active
- 2017-12-26 KR KR1020170179685A patent/KR102285180B1/ko active IP Right Grant
- 2017-12-27 CN CN201711441543.7A patent/CN108334190B/zh active Active
-
2019
- 2019-05-21 US US16/418,403 patent/US10564729B2/en active Active
-
2021
- 2021-07-26 KR KR1020210098029A patent/KR20210095833A/ko not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018109974A5 (ja) | ||
KR102284821B1 (ko) | 가상 현실 환경에서의 내비게이션을 위한 방법, 시스템 및 장치 | |
JP2016154018A5 (ja) | グラフィカルユーザインターフェースとの物理的相互作用を解釈するためのデバイス、方法及びコンピュータ可読媒体 | |
EP3040814A1 (en) | Systems and methods for generating haptically enhanced objects for augmented and virtual reality applications | |
JP2018125007A5 (ja) | ||
US20160180592A1 (en) | Selectively Pairing an Application Presented in Virtual Space with a Physical Display | |
WO2018125742A3 (en) | Dynamic depth-based content creation in virtual reality environments | |
JP2018109984A5 (ja) | ||
US10884576B2 (en) | Mediated reality | |
EP3320829A8 (en) | System for integrally measuring clinical parameters of visual function | |
JP2017054201A5 (ja) | ||
JP2012203485A5 (ja) | ||
JP6662914B2 (ja) | 媒介現実 | |
JP2018525721A (ja) | コンテンツ閲覧 | |
US9830395B2 (en) | Spatial data processing | |
JP2022535182A (ja) | ユーザインターフェース要素をゲーティングするパーソナルアシスタント要素を備えた人工現実システム | |
JP2018073172A5 (ja) | ||
JP6989075B2 (ja) | 仮想化環境内にイメージを提示するための方法、装置及びコンピュータプログラム | |
KR20220018562A (ko) | 인공 현실 시스템을 위한 모서리-식별 제스처-구동 사용자 인터페이스 요소 게이팅 | |
CN108021227B (zh) | 在虚拟现实中快速移动的方法及虚拟现实装置 | |
US20170293412A1 (en) | Apparatus and method for controlling the apparatus | |
JP2017182340A5 (ja) | ||
WO2019039229A1 (ja) | 情報処理装置、システム、画像処理方法、コンピュータプログラム、及び記憶媒体 | |
JP2019067323A (ja) | 情報処理装置、情報処理方法、及び記録媒体 | |
US10345894B2 (en) | System and method for image processing |