JP2019121368A - 直観的な触覚設計 - Google Patents
直観的な触覚設計 Download PDFInfo
- Publication number
- JP2019121368A JP2019121368A JP2018221083A JP2018221083A JP2019121368A JP 2019121368 A JP2019121368 A JP 2019121368A JP 2018221083 A JP2018221083 A JP 2018221083A JP 2018221083 A JP2018221083 A JP 2018221083A JP 2019121368 A JP2019121368 A JP 2019121368A
- Authority
- JP
- Japan
- Prior art keywords
- haptic
- real time
- video
- tracking
- emitter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000013461 design Methods 0.000 title claims description 26
- 230000000694 effects Effects 0.000 claims abstract description 184
- 238000000034 method Methods 0.000 claims abstract description 20
- 230000000007 visual effect Effects 0.000 claims abstract description 17
- 239000002245 particle Substances 0.000 claims description 56
- 238000010586 diagram Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 8
- 230000009471 action Effects 0.000 description 7
- 239000000203 mixture Substances 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 210000004699 muscle spindle Anatomy 0.000 description 2
- 108091008709 muscle spindles Proteins 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000000919 ceramic Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013016 damping Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 229920001746 electroactive polymer Polymers 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000005043 peripheral vision Effects 0.000 description 1
- 230000036470 plasma concentration Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 229910001285 shape-memory alloy Inorganic materials 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
- G11B27/30—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/091—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
- G10H2220/101—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
- G10H2220/126—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters for graphical editing of individual notes, parts or phrases represented as variable length segments on a 2D or 3D representation, e.g. graphical edition of musical collage, remix files or pianoroll representations of MIDI-like files
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
1105 編集システム
1110 ビデオ入力
1115 追跡システム
1120 視覚ディスプレイ
1125 触覚トラック生成器
1127 触覚効果データベース
1130 触覚再生トラック生成器
1135 触覚対応デバイス
1145 触覚出力デバイス
1200 リアルタイムホストシステム
1205 リアルタイム触覚設計システム
1210 触覚トラック入力
1215 抽出器
1217 触覚放出体配置システム
1220 ディスプレイ
1225 触覚トラックエディタ
1227 微調整器
1230 パーティクルエフェクトライブラリ
1230 触覚再生トラック生成器
1235 触覚対応デバイス
1245 触覚出力デバイス
1300 システム
1302 メモリ
1304 バス
1305 触覚設計システム
1306 オペレーティングシステム
1308 他のアプリケーション
1312 通信デバイス
1314 プロセッサ
1320 視覚ディスプレイ
1335 触覚対応デバイス
1410 プレビューウィンドウ
1420 追跡ウィンドウ
1510 2次ウィンドウ
1520 羽付きエッジ
Claims (20)
- ハプティクスを設計する方法であって、
ビデオの再生中にリアルタイムでオーディオ/ビジュアル(A/V)要素を追跡するステップと、
前記A/V要素の追跡に基づいて、タイムライン上の前記A/V要素の異なる位置に、前記A/V要素についてリアルタイムで触覚効果を割り当てて、割り当てられた触覚効果位置を生成するステップと、
前記タイムライン上の前記A/V要素の前記割り当てられた触覚効果位置に基づいて触覚再生トラックを生成するステップと
を含む方法。 - 前記A/V要素を追跡する前記ステップが、
触覚放出体を作成し、前記ビデオの空間環境内に配置するステップと、
前記ビデオの再生中にリアルタイムで前記A/V要素とともに前記空間環境内の触覚放出体を移動させるステップと、
前記触覚放出体の移動中に前記触覚放出体の空間データを取得するステップと
を含み、
前記A/V要素について前記触覚効果を割り当てる前記ステップが、前記触覚放出体の空間データを前記タイムライン上の前記A/V要素の異なる位置にリアルタイムで関連付けるステップを含む
請求項1に記載の方法。 - 前記空間データを含むメタデータファイルを生成するステップ
をさらに含む請求項2に記載の方法。 - 前記A/V要素について前記触覚効果を割り当てる前記ステップが、前記触覚効果についての減衰範囲をリアルタイムで設定することをさらに含む、請求項2に記載の方法。
- 前記触覚放出体を作成し、配置する前記ステップが、2Dまたは3Dの前記空間環境において波形または形状を描くステップを含む、請求項2に記載の方法。
- 前記A/V要素を追跡する前記ステップが、
パーティクルエフェクトを前記ビデオの空間環境内に配置するステップと、
前記ビデオの再生中に前記空間環境内の前記パーティクルエフェクトをリアルタイムで移動させることによって前記A/V要素がたどるパスを作成するステップと、
前記パーティクルエフェクトの移動中に前記A/V要素の空間データを取得するステップと
を含み、
前記A/V要素について前記触覚効果を割り当てる前記ステップが、前記A/V要素の空間データを前記タイムライン上の前記A/V要素の異なる位置にリアルタイムで関連付けるステップを含む
請求項1に記載の方法。 - 前記触覚再生トラックを生成する前記ステップが、前記パーティクルエフェクトのパラメータを調整するステップを含む、請求項6に記載の方法。
- 前記A/V要素を追跡する前記ステップが、前記ビデオの再生中にリアルタイムで前記A/V要素を視覚的に追跡することによって、前記A/V要素の空間データを取得するステップを含み、
前記A/V要素について前記触覚効果を割り当てる前記ステップが、前記A/V要素の空間データを前記タイムライン上の前記A/V要素の異なる位置にリアルタイムで関連付けるステップを含む、請求項1に記載の方法。 - 命令を記憶した非一時的コンピュータ可読媒体であって、前記命令は、プロセッサによって実行されると、前記プロセッサに、
ビデオの再生中にリアルタイムでオーディオ/ビジュアル(A/V)要素を追跡することと、
前記A/V要素の追跡に基づいて、タイムライン上の前記A/V要素の異なる位置に、前記A/V要素についてリアルタイムで触覚効果を割り当てて、割り当てられた触覚効果位置を生成することと、
前記タイムライン上の前記A/V要素の前記割り当てられた触覚効果位置に基づいて触覚再生トラックを生成することと
を含む動作を実行させる、非一時的コンピュータ可読媒体。 - 前記A/V要素を追跡することが、
触覚放出体を作成し、前記ビデオの空間環境内に配置することと、
前記ビデオの再生中にリアルタイムで前記A/V要素とともに前記空間環境内の触覚放出体を移動させることと、
前記触覚放出体の移動中に前記触覚放出体の空間データを取得することと、
を含み、
前記A/V要素について前記触覚効果を割り当てることが、前記触覚放出体の空間データを前記タイムライン上の前記A/V要素の異なる位置にリアルタイムで関連付けることを含む、請求項9に記載の非一時的コンピュータ可読媒体。 - 前記空間データを含むメタデータファイルを生成すること
をさらに含む請求項10に記載の非一時的コンピュータ可読媒体。 - 前記A/V要素について前記触覚効果を割り当てることが、前記触覚効果についての減衰範囲をリアルタイムで設定することをさらに含む、請求項10に記載の非一時的コンピュータ可読媒体。
- 前記触覚放出体を作成し、配置することが、2Dまたは3Dの前記空間環境において波形または形状を描くことを含む、請求項10に記載の非一時的コンピュータ可読媒体。
- 前記A/V要素を追跡することが、
パーティクルエフェクトを前記ビデオの空間環境内に配置することと、
前記ビデオの再生中に前記空間環境内の前記パーティクルエフェクトをリアルタイムで移動させることによって前記A/V要素がたどるパスを作成することと、
前記パーティクルエフェクトの移動中に前記A/V要素の空間データを取得することと
を含み、
前記A/V要素について前記触覚効果を割り当てることが、前記A/V要素の空間データを前記タイムライン上の前記A/V要素の異なる位置にリアルタイムで関連付けることを含む、請求項9に記載の非一時的コンピュータ可読媒体。 - 前記触覚再生トラックを生成することが、前記パーティクルエフェクトのパラメータを調整することを含む、請求項14に記載の非一時的コンピュータ可読媒体。
- 前記A/V要素を追跡することが、前記ビデオの再生中にリアルタイムで前記A/V要素を視覚的に追跡することによって、前記A/V要素の空間データを取得することを含み、
前記A/V要素について前記触覚効果を割り当てることが、前記A/V要素の空間データを前記タイムライン上の前記A/V要素の異なる位置にリアルタイムで関連付けることを含む、請求項9に記載の非一時的コンピュータ可読媒体。 - 触覚設計システムであって、
ビデオの再生中にリアルタイムでオーディオ/ビジュアル(A/V)要素を追跡するように構成された追跡システムであって、前記A/V要素の追跡に基づいて、タイムライン上の前記A/V要素の異なる位置に、前記A/V要素についてリアルタイムで触覚効果が割り当てられて、割り当てられた触覚効果位置を生成することを可能にするように構成される、追跡システムと、
前記タイムライン上の前記A/V要素の前記割り当てられた触覚効果位置に基づいて触覚再生トラックを生成する触覚再生追跡生成器と
を含む触覚設計システム。 - 前記追跡システムが、
触覚放出体を前記ビデオの空間環境内に配置するように構成された触覚放出体配置システムであって、前記触覚放出体が、前記ビデオの再生中にリアルタイムで前記A/V要素とともに前記空間環境内で移動することできる、触覚放出体配置システムと、
前記触覚放出体の移動中に前記触覚放出体の空間データを取得し、前記触覚放出体の空間データを前記タイムライン上の前記A/V要素の異なる位置にリアルタイムで関連付けるように構成された触覚トラックエディタと
を含む、請求項17に記載の触覚設計システム。 - 前記追跡システムが、
前記ビデオの空間環境内にパーティクルエフェクトを配置するように構成された触覚放出体配置システムであって、前記ビデオの再生中に前記空間環境内のパーティクルエフェクトをリアルタイムで移動させることによって、前記A/V要素がたどるパスが作成される、触覚放出体配置システムと、
前記パーティクルエフェクトの移動中に前記A/V要素の空間データを取得し、前記A/V要素の空間データを前記タイムライン上の前記A/V要素の異なる位置にリアルタイムで関連付けるように構成された触覚トラックエディタと
を含む、請求項17に記載の触覚設計システム。 - 前記追跡システムが、
前記ビデオの再生中にリアルタイムで前記A/V要素を視覚的に追跡し、前記A/V要素の空間データを前記タイムライン上の前記A/V要素の異なる位置にリアルタイムで関連付けることによって、前記A/V要素の空間データを取得するように構成された触覚トラックエディタ
を含む、請求項17に記載の触覚設計システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/856,520 | 2017-12-28 | ||
US15/856,520 US20190204917A1 (en) | 2017-12-28 | 2017-12-28 | Intuitive haptic design |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019121368A true JP2019121368A (ja) | 2019-07-22 |
JP2019121368A5 JP2019121368A5 (ja) | 2022-01-06 |
Family
ID=64556647
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018221083A Ceased JP2019121368A (ja) | 2017-12-28 | 2018-11-27 | 直観的な触覚設計 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20190204917A1 (ja) |
EP (1) | EP3506262A1 (ja) |
JP (1) | JP2019121368A (ja) |
KR (1) | KR20190080734A (ja) |
CN (1) | CN109976507A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021105778A (ja) * | 2019-12-26 | 2021-07-26 | Kddi株式会社 | 触感提示システム、触感提示システムのローカル端末およびサーバ装置ならびに触感提示方法および触感提示プログラム |
JP2022541968A (ja) * | 2020-06-30 | 2022-09-29 | バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド | ビデオ処理方法、装置、電子機器及び記憶媒体 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021101775A1 (en) * | 2019-11-19 | 2021-05-27 | Immersion Corporation | Dynamic modification of multiple haptic effects |
WO2021252998A1 (en) * | 2020-06-12 | 2021-12-16 | Emerge Now Inc. | Method and system for the generation and management of tactile commands for tactile sensation |
KR102349002B1 (ko) * | 2020-06-19 | 2022-01-11 | 서울미디어대학원대학교 산학협력단 | 동적 프로젝션 매핑 연동 제스처 인식 인터랙티브 미디어 콘텐츠 제작 방법 및 장치 |
EP4211540A1 (en) * | 2020-09-14 | 2023-07-19 | InterDigital CE Patent Holdings, SAS | Haptic scene representation format |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150268723A1 (en) * | 2014-03-21 | 2015-09-24 | Immersion Corporation | Automatic tuning of haptic effects |
JP2015232880A (ja) * | 2014-06-09 | 2015-12-24 | イマージョン コーポレーションImmersion Corporation | 視野および/または近接度に基づいて触覚強度を変更するためのプログラマブル触覚デバイスおよび方法 |
JP2016126766A (ja) * | 2014-12-29 | 2016-07-11 | イマージョン コーポレーションImmersion Corporation | 仮想環境における仮想センサ |
EP3118723A1 (en) * | 2015-07-13 | 2017-01-18 | Thomson Licensing | Method and apparatus for providing haptic feedback and interactivity based on user haptic space (hapspace) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180232051A1 (en) * | 2017-02-16 | 2018-08-16 | Immersion Corporation | Automatic localized haptics generation system |
US11122258B2 (en) * | 2017-06-30 | 2021-09-14 | Pcms Holdings, Inc. | Method and apparatus for generating and displaying 360-degree video based on eye tracking and physiological measurements |
-
2017
- 2017-12-28 US US15/856,520 patent/US20190204917A1/en not_active Abandoned
-
2018
- 2018-11-22 EP EP18207676.0A patent/EP3506262A1/en not_active Withdrawn
- 2018-11-27 JP JP2018221083A patent/JP2019121368A/ja not_active Ceased
- 2018-11-28 KR KR1020180149203A patent/KR20190080734A/ko not_active Application Discontinuation
- 2018-12-07 CN CN201811490556.8A patent/CN109976507A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150268723A1 (en) * | 2014-03-21 | 2015-09-24 | Immersion Corporation | Automatic tuning of haptic effects |
JP2015185168A (ja) * | 2014-03-21 | 2015-10-22 | イマージョン コーポレーションImmersion Corporation | ハプティック効果の自動チューニング |
JP2015232880A (ja) * | 2014-06-09 | 2015-12-24 | イマージョン コーポレーションImmersion Corporation | 視野および/または近接度に基づいて触覚強度を変更するためのプログラマブル触覚デバイスおよび方法 |
JP2016126766A (ja) * | 2014-12-29 | 2016-07-11 | イマージョン コーポレーションImmersion Corporation | 仮想環境における仮想センサ |
EP3118723A1 (en) * | 2015-07-13 | 2017-01-18 | Thomson Licensing | Method and apparatus for providing haptic feedback and interactivity based on user haptic space (hapspace) |
JP2018527655A (ja) * | 2015-07-13 | 2018-09-20 | トムソン ライセンシングThomson Licensing | ユーザ・ハプティック空間(HapSpace)に基づくハプティック・フィードバックおよびインタラクティブ性を提供する方法および装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021105778A (ja) * | 2019-12-26 | 2021-07-26 | Kddi株式会社 | 触感提示システム、触感提示システムのローカル端末およびサーバ装置ならびに触感提示方法および触感提示プログラム |
JP7345387B2 (ja) | 2019-12-26 | 2023-09-15 | Kddi株式会社 | 触感提示システム、触感提示システムのローカル端末およびサーバ装置ならびに触感提示方法および触感提示プログラム |
JP2022541968A (ja) * | 2020-06-30 | 2022-09-29 | バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド | ビデオ処理方法、装置、電子機器及び記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
CN109976507A (zh) | 2019-07-05 |
EP3506262A1 (en) | 2019-07-03 |
US20190204917A1 (en) | 2019-07-04 |
KR20190080734A (ko) | 2019-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019121368A (ja) | 直観的な触覚設計 | |
US11438724B2 (en) | Head pose mixing of audio files | |
US10241580B2 (en) | Overlaying of haptic effects | |
Schneider et al. | Tactile animation by direct manipulation of grid displays | |
US20190251751A1 (en) | Production and packaging of entertainment data for virtual reality | |
Israr et al. | Tactile brush: drawing on skin with a tactile grid display | |
JP6873529B2 (ja) | オーディオを視覚的に表現するインタフェースに基づいてゲームサービスを提供するゲームサービス提供サーバ及び方法 | |
KR20150141156A (ko) | 오디오 트랙들을 통해 햅틱 효과들을 제공하는 햅틱 디바이스들 및 방법들 | |
KR20140082266A (ko) | 혼합현실 콘텐츠 시뮬레이션 시스템 | |
EP3470960A1 (en) | Haptic effects with multiple peripheral devices | |
US9478067B1 (en) | Augmented reality environment with secondary sensory feedback | |
US20220387885A1 (en) | Dynamic modification of multiple haptic effects | |
Guillotel et al. | Introducing Basic Principles of Haptic Cinematography and Editing. | |
Grani et al. | Spatial sound and multimodal interaction in immersive environments | |
US20230077102A1 (en) | Virtual Scene | |
US11244516B2 (en) | Object interactivity in virtual space | |
US20220113801A1 (en) | Spatial audio and haptics | |
Shinoda | Creation of Realistic Haptic Experiences for Materialized Graphics | |
Shinoda | The University of Tokyo, 5-1-5 Kashiwano-Ha, Kashiwa 277-8561, Chiba, Japan hiroyuki_shinoda@ ku-tokyo. ac. jp | |
Babu et al. | HelloHapticWorld: A haptics educational kit for interacting with robots | |
Moule et al. | A method for automatically aligning projection mapping systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211126 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221017 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230316 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230703 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20231127 |