JP2016001472A - オーディオ・トラックを介して触覚効果を与えるための触覚デバイスおよび方法 - Google Patents

オーディオ・トラックを介して触覚効果を与えるための触覚デバイスおよび方法 Download PDF

Info

Publication number
JP2016001472A
JP2016001472A JP2015116222A JP2015116222A JP2016001472A JP 2016001472 A JP2016001472 A JP 2016001472A JP 2015116222 A JP2015116222 A JP 2015116222A JP 2015116222 A JP2015116222 A JP 2015116222A JP 2016001472 A JP2016001472 A JP 2016001472A
Authority
JP
Japan
Prior art keywords
haptic
file
control parameters
peripheral
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015116222A
Other languages
English (en)
Other versions
JP6662583B2 (ja
Inventor
リーン ウィリアム
Rihn William
リーン ウィリアム
ダ コスタ ヘンリイ
da costa Henry
ダ コスタ ヘンリイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2016001472A publication Critical patent/JP2016001472A/ja
Application granted granted Critical
Publication of JP6662583B2 publication Critical patent/JP6662583B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/013Force feedback applied to a game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/015Force feedback applied to a joystick

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)

Abstract

【課題】オーディオ・トラックを介して触覚効果を与えるための触覚デバイスおよび方法を提供すること。
【解決手段】本発明の実施形態は、プロセッサと、触覚出力デバイスをもつ触覚周辺機器とを含むシステムに関する。プロセッサは、第1の触覚効果を生成するための第1の組の制御パラメータを有する第1のチャネルと、第2の触覚効果を生成するための第2の組の制御パラメータを有する第2のチャネルとを含むオーディオ・ファイル、またはオーディオ・ファイルから生成された触覚ファイルを受け取り、触覚効果の第1および第2の組の制御パラメータを含む制御信号を出力するように構成される。触覚出力デバイスは、プロセッサからの制御信号を受け取り、触覚効果を触覚周辺機器に出力するように構成される。一実施形態では、触覚出力デバイスは双方向トリガに結合され、制御パラメータはトリガを対向する方向に動かす。別の実施形態では、制御パラメータは、ユーザ入力要素への異なるタイムラインの触覚効果を生成する。
【選択図】図1

Description

本発明は、触覚効果または触覚フィードバックを与えるためのシステムおよび方法に関する。
ビデオ・ゲームおよび仮想現実システムは、カジュアル・ゲーマーへのマーケティング、およびカジュアル・ゲーマーからの結果として生じる関与のために一層人気が高まっている。典型的な実施態様では、コンピュータ・システムが、ユーザへの視覚またはグラフィカル環境をディスプレイ・デバイスに表示する。ユーザは、インタフェース・デバイスからのコマンドまたはデータを入力することによって、表示された環境と対話することができる。コンピュータは、ジョイスティック・ハンドルなどの移動型マニピュランダムのユーザ操作に応答して環境を更新し、ディスプレイ画面を使用してユーザに視覚フィードバックを与える。
従来のビデオ・ゲーム・デバイスまたはコントローラは視覚および聴覚キューを使用して、ユーザにフィードバックを与える。いくつかのインタフェース・デバイスでは、運動感覚フィードバック(能動的および抵抗性触覚フィードバックなど)および/または触感フィードバック(振動、質感、および熱など)が、さらに、ユーザに与えられ、より一般的には、まとめて、「触覚フィードバック」または「触覚効果」として知られている。触覚フィードバックは、ユーザ・インターフェースを強化し簡単化するキューを与えることができる。例えば、振動効果または振動触感触覚効果は、電子デバイスのユーザにキューを与えて特定のイベントについてユーザに警報を出すときに有用であり、または現実的なフィードバックを与えて、シミュレートされたまたは仮想の環境内により大きい知覚没入を作り出すことができる。ゲーミング・デバイスおよび他のデバイスのための従来の触覚フィードバック・システムは、一般に、コントローラ/周辺機器のハウジングに取り付けられた、触覚フィードバックを生成するためのアクチュエータを含む。より詳細には、インタフェース・デバイスのモータまたは他のアクチュエータがコントローラ内に収納され、制御用コンピュータ・システムに接続される。コンピュータ・システムはインタフェース・デバイスからセンサ信号を受け取り、適切な触覚フィードバック制御信号をアクチュエータに送る。その後、アクチュエータは、触覚フィードバックをコントローラに与える。このようにして、コンピュータ・システムは、他の視覚および聴覚フィードバックとともにユーザに身体的感覚を伝えることができる。
より没入できより楽しい経験をユーザに与えるために以前には利用可能でなかった変種の触覚効果を与える触覚フィードバック・システムへの要求がある。
本発明の実施形態は、プロセッサと、触覚出力デバイスをもつ触覚周辺機器とを含むシステムに関する。プロセッサは、触覚効果の制御パラメータを含むファイルを受け取り、触覚効果の制御パラメータを含む制御信号を出力するように構成される。ファイルは、オーディオ・ファイル、またはオーディオ・ファイルから生成された触覚ファイルである。触覚出力デバイスは、プロセッサからの制御信号を受け取り、触覚効果を触覚周辺機器に出力するように構成される。
本発明の実施形態は、さらに、プロセッサと、触覚出力デバイスをもつ触覚周辺機器とを含むシステムに関する。プロセッサは、第1の触覚効果を生成するための第1の組の制御パラメータを有する第1のチャネルと、第2の触覚効果を生成するための第2の組の制御パラメータを有する第2のチャネルとを含むファイルを受け取り、触覚効果の第1および第2の組の制御パラメータを含む制御信号を出力するように構成される。ファイルは、オーディオ・ファイル、またはオーディオ・ファイルから生成された触覚ファイルである。触覚出力デバイスは、プロセッサからの制御信号を受け取り、触覚効果を触覚周辺機器に出力するように構成される。
本発明の実施形態は、さらに、触覚効果を触覚周辺機器に与える方法に関する。この方法は、オーディオ・ファイルを生成し、オーディオ・ファイルをプロセッサに送るステップを含む。オーディオ・ファイルは、第1の触覚効果を生成するための第1の組の制御パラメータを有する第1のチャネルと、第2の触覚効果を生成するための第2の組の制御パラメータを有する第2のチャネルとを含む。プロセッサは、オーディオ・ファイルを受け取り、触覚効果の第1および第2の組の制御パラメータを含む制御信号を出力するように構成され、制御信号は、触覚効果を触覚周辺機器に出力するように構成された触覚周辺機器の触覚出力デバイスによって受け取られるように構成される。
本発明の実施形態による、触覚フィードバックを触覚周辺機器に与えるためのシステムのブロック図である。 図1のシステムの概略図であり、触覚周辺機器は触覚ジョイスティックである。 本発明の実施形態による触覚周辺機器の斜視図であり、触覚周辺機器は手持ち式ゲーミング・コントローラである。 本発明の実施形態による触覚周辺機器の斜視図であり、触覚周辺機器は手持ち式ゲーミング・コントローラである。 図3および4のゲーミング・コントローラのブロック図である。 本発明の実施形態による、触覚フィードバックを触覚周辺機器に与えるためのシステムの斜視図であり、触覚周辺機器は、タブレット・コンピュータとともに使用することができるゲーミング・タブレット・コントローラである。 図6のシステムのブロック図である。 本発明の実施形態による、触覚効果を触覚周辺機器に与えるためのシステムのブロック図であり、オーディオ・ファイルは、第1の触覚効果を生成するための第1の組の制御パラメータを有する第1のチャネルと、第2の触覚効果を生成するための第2の組の制御パラメータを有する第2のチャネルとを含む。 図8のオーディオ・ファイルを生成するためのオーディオ・エディタ・プログラムの例示的なスクリーン・ショットを示す図である。 図3の触覚周辺機器のトリガの側面図であり、トリガは、単なる例証のために触覚周辺機器から取り出されており、トリガは図8の第1の触覚効果を出力することが示される。 図3の触覚周辺機器のトリガの側面図であり、トリガは、単なる例証のために触覚周辺機器から取り出されており、トリガは図8の第2の触覚効果を出力することが示される。 本発明の実施形態による、触覚効果を触覚周辺機器の多数の触覚出力デバイスに与えるためのシステムのブロック図であり、各オーディオ・ファイルは、それぞれの触覚出力デバイスごとに触覚効果を生成するための1組の制御パラメータを有する少なくとも1つのチャネルを含む。 触覚出力デバイスごとに触覚効果を生成するためのプログラム化制御パラメータを有する触覚周辺機器のための触覚プレビュー・ツールの例示的なスクリーン・ショットを示す図であり、制御パラメータは、それぞれの触覚出力デバイスごとにオーディオ・ファイルを介して生成されている。 触覚効果の1組の制御パラメータをもつオーディオ・ファイルを生成するためのカスタム・パニング環境を示す図である。 本発明の実施形態による、ホスト・コンピュータからの触覚信号を決定し送出する方法を示す流れ図であり、与えられる触覚効果は、本明細書で説明するように、1つまたは複数のオーディオ・ファイルの使用を介してプログラムされるかまたは生成される。
本発明の前述のおよび他の特徴および利点は、添付図面に示されるような本発明の実施形態の以下の説明から明らかになる。本明細書に組み込まれ、本明細書の一部を形成する添付図面は、本発明の原理を説明し、当業者が本発明を実施し使用することを可能にするのにさらに役立つ。図面は正しい縮尺ではない。
本発明の実施形態は、プロセッサと、触覚出力デバイスをもつ触覚周辺機器とを含むシステムに関する。図に関してより詳細に本明細書で説明する本発明の実施形態によれば、触覚効果の制御パラメータを含むオーディオ・トラックまたはファイルが生成される。プロセッサは、オーディオ・ファイル、またはオーディオ・ファイルから生成された触覚ファイルを受け取り、触覚効果の制御パラメータを含む制御信号を出力するように構成される。触覚出力デバイスは、プロセッサからの制御信号を受け取り、触覚効果を触覚周辺機器に出力するように構成される。
触覚効果の制御パラメータを含むオーディオ・ファイルは、図1〜7に示すような、様々なタイプの触覚周辺機器で利用することができる。より詳細には、図1は、本発明の実施形態による、触覚フィードバックを触覚周辺機器102に与えるためのシステム100のブロック図であり、図2は、図1のシステムの概略図である。図1〜2の実施形態において、触覚周辺機器102は、単一のマニピュランダム122のみをもつ触覚ジョイスティックである。しかしながら、触覚ジョイスティックは単に触覚周辺機器の例示的な実施形態であり、他の構成、形状、およびサイズをもつ触覚周辺機器を使用することができることを当業者は認識されよう。例えば、本明細書でより詳細に説明するように、触覚周辺機器は、ビデオ・ゲーム・コンソール・システムで現在利用可能な多くの「ゲームパッド」と同様の形状およびサイズである図3〜5に示すようなゲーミング・システムのための手持ち式ゲーミング・コントローラ302、図6〜7に示すようなタブレット・コンピュータ604とともに使用することができる触覚周辺機器602、または、限定はしないが、タッチ・スクリーン、タッチ面、電話、携帯情報端末(PDA)、タブレット、コンピュータ、ゲーミング周辺機器、および当業者に知られている仮想現実システムのための他のコントローラなどのユーザ入力(UI)要素を有する他のコントローラとすることができる。
図1〜2の実施形態を参照すると、触覚周辺機器102は、ユーザへの仮想環境をディスプレイ106上に生成するように構成されたホスト・コンピュータまたはコンピュータ・システム104と連通する。ホスト・コンピュータ104は、ビデオ・ゲーム・コンソール、またはモバイル・デバイス、またはユーザへの仮想環境をディスプレイ上に生成するように構成されたプロセッサを含む任意の他のタイプのコンピュータ・システムを含むことができる。図1のブロック図に示すように、ホスト・コンピュータ104は、ホスト・プロセッサ108、メモリ110、およびディスプレイ106を含む。メモリ110に格納され、ホスト・プロセッサ108によって実行されるソフトウェア・アプリケーションをホスト・コンピュータ104は実行する。ホスト・プロセッサ108は、任意のタイプの汎用プロセッサとすることができ、または触覚効果信号を供給するように特別に設計されたプロセッサとすることができる。ホスト・プロセッサ108は、ホスト・コンピュータ104全体を操作する同じプロセッサとすることができ、または別個のプロセッサとすることができる。ホスト・プロセッサ108は、どの触覚効果を触覚周辺機器102に送るべきか、およびどの順序で触覚効果を送るべきかを決めることができる。メモリ110は、限定はしないが、ランダム・アクセス・メモリ(RAM)または読み取り専用メモリ(ROM)などの任意のタイプの記憶デバイスまたはコンピュータ可読媒体とすることができる。メモリ110は、さらに、ホスト・プロセッサの内部に配置されるか、または内部および外部メモリの任意の組合せとすることができる。
ホスト・コンピュータ104は、有線または無線手段を介してディスプレイ106に結合される。ディスプレイ106は、ユーザにグラフィカル情報を与える任意のタイプの媒体とすることができ、これは、限定はしないが、モニタ、テレビジョン画面、プラズマ、LCD、プロジェクタ、または他のディスプレイ・デバイスを含む。一実施形態では、ホスト・コンピュータ104はゲーミング・デバイス・コンソールであり、ディスプレイ106は、当技術分野で知られているような、ゲーミング・デバイス・コンソールに結合されるモニタである。別の実施形態では、当業者に知られているように、ホスト・コンピュータ104およびディスプレイ106は単一デバイスに組み合わせることができる。
図1〜2に示した実施形態では、ホスト・コンピュータ104は、有線またはUSB接続103によって触覚周辺機器102と連通する。しかしながら、他の実施形態では、触覚周辺機器102は、当業者に知られている他の有線通信または無線通信手段を使用してホスト・コンピュータ104と通信することができる。これは、限定はしないが、シリアルまたはBluetooth接続を含むことができる。
図2に最もよく示されるように、触覚周辺機器102は、ハウジングまたは基部120と、1つまたは複数の自由度で移動できるマニピュランダムまたはユーザ入力デバイス122とを含む。マニピュランダム122はハウジング120から延びる。図2はジョイスティックを触覚周辺機器のマニピュランダムとして示しているが、本開示はジョイスティック・マニピュランダムに限定されず、全体的にまたは部分的に1つまたは複数の自由度で移動可能な任意のデバイスをさらに含むことを当業者は理解されよう。ジョイスティックは単なるコントローラのマニピュランダムの例示的な実施形態であり、トリガ、ボタン、または他のユーザ入力要素などの他の構成をもつマニピュランダムを、本明細書でより詳細に説明するように、使用することができることを当業者は認識されよう。
図1をさらに参照すると、触覚周辺機器102は、ローカル・プロセッサ112、ローカル・メモリ114、マニピュランダム・センサ123、および少なくとも1つのアクチュエータまたは触覚出力デバイス118を含む。代替として、触覚周辺機器102はローカル・プロセッサ112を含まないように構成することができ、それによって、触覚周辺機器102からのすべての入力/出力信号は、ホスト・コンピュータ104によって直接扱われ処理される。本明細書でより詳細に説明するように、ローカル・プロセッサ112は触覚出力デバイス118に結合されて、ホスト・コンピュータ104からの高水準監視またはストリーミング・コマンドに基づいて触覚効果を触覚出力デバイス118に与える。ホスト・プロセッサ108と同様に、ローカル・プロセッサ112は、どの触覚効果を送るべきか、およびどの順序で触覚効果を送るべきかを決めることもできる。加えて、触覚周辺機器102が1つを超える触覚出力デバイスを含む場合、ローカル・プロセッサ112はどの触覚出力デバイスが触覚効果信号を受け取ることになるかを決めることができる。加えて、ホスト・コンピュータ104のメモリ110と同様に、ローカル・メモリ114は、限定はしないが、ランダム・アクセス・メモリ(RAM)または読み取り専用メモリ(ROM)などの任意のタイプの記憶デバイスまたはコンピュータ可読媒体とすることができる。ローカル・メモリ114は、さらに、ローカル・プロセッサの内部に配置されるか、または内部および外部のメモリの任意の組合せとすることができる。
上述のように、触覚周辺機器102のマニピュランダム122は、1つまたは複数の自由度内で物理的に移動することができる。例えば、ユーザは、マニピュランダム122を、前に、後に、左に、または右に移動させることができる。ユーザがマニピュランダム122を移動させると、マニピュランダム・センサ123は、マニピュランダムの移動および/または位置を検出し、センサ信号をローカル・プロセッサ112に送出する。次に、ローカル・プロセッサ112は、センサ信号をホスト・コンピュータ104に通信するかまたは送出する。受け取ったセンサ信号に基づいて、ホスト・コンピュータ104は、ビデオ・ゲーム内のアクションを実行し、仮想環境を更新する。別の言い方をすれば、触覚周辺機器102のマニピュランダム122の移動はユーザからの入力を表し、その入力により、ユーザは、限定はしないが、一人称射手に関連するビデオ・ゲーム、三人称キャラクタ・インタラクション、車両関連ゲーム、またはコンピュータ・シミュレーションを含む、ホスト・コンピュータ104で作動しているソフトウェア・アプリケーションと対話することができるようになる。マニピュランダム122の移動は、カーソルもしくは他の画像などのコンピュータ生成グラフィカル物体、またはディスプレイ106を介してホスト・コンピュータ104によって表示される何か他のグラフィカル物体の移動に対応する入力、あるいは人、車両、またはゲームもしくコンピュータ・シミュレーションで見いだすことができる何か他のエンティティなどの仮想キャラクタまたはゲーミング・アバターを制御するための入力をホスト・コンピュータ104に供給することができる。
マニピュランダム・センサ123からのセンサ信号を受け取ることに加えて、ローカル・プロセッサ112は、さらに、触覚出力デバイス118から出力されるべき触覚効果に関連するホスト・コンピュータ104からの高水準監視またはストリーミング・コマンドを受け取る。次に、ローカル・プロセッサ112は、ホスト・コンピュータ104からの高水準監視またはストリーミング・コマンドに基づいて触覚出力デバイス118に制御または駆動信号を供給する。例えば、作動時に、電圧の大きさおよび期間がホスト・コンピュータ104から触覚周辺機器102に流され、情報はローカル・プロセッサ112を介して触覚出力デバイス118に供給される。ホスト・コンピュータ104は、触覚出力デバイス118によって出力されるべき触覚効果のタイプなど(例えば振動、急激な揺れ、デテント、ポップなど)の高水準コマンドをローカル・プロセッサ112に供給することができ、それによって、ローカル・プロセッサ112は、出力されるべき触覚効果の特定の特性(例えば、大きさ、周波数、期間など)に応じて触覚出力デバイス118に命令する。ローカル・プロセッサ112は、それに結合されたローカル・メモリ114から触覚効果のタイプ、大きさ、周波数、期間、または他の特性を引き出すことができる。ホスト・コンピュータ104から受け取ったゲーム・アクションおよび制御信号に応じて、ローカル・プロセッサ112は制御または駆動信号を触覚出力デバイス118に送って、振動、デテント、質感、急激な揺れ、またはポップを含む多種多様な触覚効果または感覚のうちの1つを出力することができる。
触覚出力デバイス118は、仮想現実システムの当業者に知られているような慣性または運動感覚アクチュエータとすることができる。あり得る触覚出力デバイスには、限定はしないが、偏心質量がモータによって移動される偏心回転質量(「ERM」)アクチュエータ、ばねに取り付けられた質量が前後に駆動される線形共振アクチュエータ(「LRA」)、圧電アクチュエータ、偏心質量がモータによって移動される電磁モータ、振動触感アクチュエータ、慣性アクチュエータ、形状記憶合金、信号に応答して変形する電気活性ポリマー、剛性、静電気摩擦(ESF)、超音波表面摩擦(USF)を変化させるための機構、または他の好適なタイプの作動デバイスが含まれる。あり得る触覚出力デバイスには、前掲した複数のタイプのアクチュエータの組み合わせも含まれる。別の実施形態では、触覚出力デバイスは、例えば、マニピュランダム122および/またはハウジング120の剛性/減衰を変化させるソレノイド、マニピュランダム122および/またはハウジング120のサイズを変化させる小さいエアバッグ、または形状変化材料を含む運動触覚フィードバックを使用することができる。
前に述べたように、触覚周辺機器102は単に触覚周辺機器の例示的な実施形態であり、他の構成、形状、およびサイズをもつ触覚周辺機器を使用することができる。例えば、図3〜5は、本発明の実施形態で利用することができる触覚周辺機器302の別の実施形態を示す。図3および4は、触覚周辺機器302の異なる斜視図であり、触覚周辺機器は手持ち式ゲーミング・コントローラであり、一方、図5は、ホスト・コンピュータ104およびディスプレイ106をさらに含むゲーミング・システム300で使用される触覚周辺機器302のブロック図を示す。触覚周辺機器302のハウジング324は、左利きのユーザによってもまたは右利きのユーザによっても、デバイスを把持する2つの手を容易に収容するように整形される。触覚周辺機器302は、単に、ビデオ・ゲーム・コンソール・システムで現在利用可能な多くの「ゲームパッド」と同様の形状およびサイズのコントローラの例示的な実施形態であり、限定はしないが、Wii(商標)リモートまたはWii(商標)Uコントローラ、Sony(登録商標)SixAxis(商標)コントローラまたはSony(登録商標)Wandコントローラ、Xbox(商標)コントローラまたは類似のコントローラなどのコントローラならびに実在の物体(テニスラケット、ゴルフクラブ、野球用バットなどのような)および他の形状のように整形されたコントローラを含む、他のユーザ入力要素の構成、形状、およびサイズをもつコントローラを使用することができることを当業者は認識されよう。
触覚周辺機器302は、ジョイスティック322、ボタン330、およびトリガ332を含むいくつかのユーザ入力要素またはマニピュランダムを含む。本明細書で使用するユーザ入力要素は、ホスト・コンピュータ104と対話するためにユーザによって操作されるトリガ、ボタン、ジョイスティックなどのようなインタフェース・デバイスを指す。図3〜4で見て分かるように、および当業者に知られているように、各ユーザ入力要素および追加のユーザ入力要素について1つを超えるものが触覚周辺機器302に含まれ得る。したがって、トリガ332の本説明は、例えば、触覚周辺機器302を単一のトリガに限定しない。さらに、図5のブロック図は、ジョイスティック322、ボタン330、およびトリガ332の各々について1つのみを示している。しかしながら、多数のジョイスティック、ボタン、およびトリガ、ならびに他のユーザ入力要素を上述のように使用することができることを当業者は理解されよう。
図5のブロック図で見て分かるように、触覚周辺機器302は、そのユーザ入力要素の各々を直接駆動するためのターゲット・アクチュエータまたは触覚出力デバイス、ならびにユーザの手が一般に置かれる場所でハウジング324に結合される1つまたは複数の全体またはランブル触覚出力デバイス326、328を含む。より詳細には、ジョイスティック322は、それに結合されたターゲット・アクチュエータまたは触覚出力デバイス318Aを含み、ボタン330は、それに結合されたターゲット・アクチュエータまたは触覚出力デバイス318Bを含み、トリガ332は、それに結合されたターゲット・アクチュエータまたは触覚出力デバイス318Cを含む。複数のターゲット触覚出力デバイスに加えて、触覚周辺機器302は、そのユーザ入力要素の各々に結合された位置センサを含む。より詳細には、ジョイスティック322は、それに結合された位置センサ323を含み、ボタン330は、それに結合された位置センサ331を含み、トリガ332は、それに結合された位置センサ333を含む。ローカル・プロセッサ312は、それぞれ、ターゲット触覚出力デバイス318A、318B、318C、ならびにジョイスティック322、ボタン330、およびトリガ332の位置センサ323、331、333に結合される。位置センサ323、331、333から受け取った信号に応答して、ローカル・プロセッサ312は、それぞれ、ジョイスティック322、ボタン330、およびトリガ332に指向性またはターゲット効果を直接与えるようにターゲット触覚出力デバイス318A、318B、318Cに命令する。そのようなターゲット効果は、全体触覚出力デバイス326、328によってコントローラの本体全体に沿って生成される全体またはランブル触覚効果から識別可能または区別可能である。総体的な触覚効果は、多数の感覚の種類、例えば、映像、音声、および触覚が同時に関与するとき、ゲームへのより大きい没入感をユーザに与える。触覚周辺機器102およびホスト・コンピュータ104と同様に、触覚周辺機器302は、ディスプレイ106を有するホスト・コンピュータ104に結合され、それと通信する。触覚周辺機器302のローカル・プロセッサ312は各触覚出力デバイスに結合されて、ホスト・コンピュータ104からの高水準監視またはストリーミング・コマンドに基づいて触覚効果を各触覚出力デバイスに与える。触覚周辺機器302の触覚出力デバイスは、触覚周辺機器102の触覚出力デバイス118に対して本明細書で列記した任意のタイプのアクチュエータとすることができる。
図6〜7は、本発明の別の実施形態による触覚周辺機器602を示し、触覚周辺機器602は、タブレット・コンピュータ604とともに使用することができるゲーミング・タブレット・コントローラである。タブレット・コンピュータ604は、ゲーミング・アクティビティのために特別に設計することができ、例えば、Razer Inc.などから入手可能であり、または市場でよく知られており入手可能であるタブレット・コンピュータ、例えば、Apple(登録商標)Ipad(登録商標)、Kindle(登録商標)Fire(登録商標)、およびSamsung(登録商標)Galaxy Tab(登録商標)などとすることができる。触覚周辺機器602は、タブレット・コンピュータ604を受け取るように構成されたドッキング部分640と、ユーザがタブレット・コンピュータ604上のゲームを制御するためにマニピュランダムが上に配設されているハンドル642、644とを含む。ドッキング部分640は触覚周辺機器602をタブレット・コンピュータ604に接続し、その結果、ボタンを押す、ジョイスティックを動かす、トリガを押すなどのハンドル642、644へのユーザによるアクションが、タブレット・コンピュータ604でプレーされているゲームへのアクションをもたらす。
ハンドル642、644は、コントローラ上にある一般的なマニピュランダムまたはユーザ入力要素を含む。マニピュランダムは、ハンドル644に関して説明されることになる。しかしながら、当業者は、同じまたは同様のマニピュランダムをハンドル642上で使用することができることを認識されよう。特に、ハンドル644は、ジョイスティック622、ボタン630、およびトリガ632を含む。図6で見て分かるように、および当業者に知られているように、これらのユーザ入力要素の各々について2つ以上を各ハンドル642、644に含めることができる。さらに、ハンドル642、644は、全体またはランブル触覚出力デバイス326、328に関して上述したように全体またはランブル触覚効果をハンドル642、644に与えるために、ユーザの手が一般に配置される場所でハンドル642、644に取り付けられた全体およびランブル触覚出力デバイス626、628を含む。
図7のブロック図に示すように、触覚周辺機器602は、ドッキング部分640を介してタブレット・コンピュータ604と通信するローカル・プロセッサ612を含む。図7のブロック図は、ジョイスティック622、ボタン630、およびトリガ632の各々について1つのみを示している。しかしながら、多数のジョイスティック、ボタン、およびトリガ、ならびに他のユーザ入力要素を上述のように使用することができることを当業者は理解されよう。ローカル・プロセッサ612は、それぞれ、ターゲット触覚出力デバイス618A、618B、618Cならびにジョイスティック622、ボタン630、およびトリガ632の位置センサ623、631、633に結合される。位置センサ623、631、633から受け取った信号に応答して、ローカル・プロセッサ612は、それぞれ、ジョイスティック622、ボタン630、およびトリガ632に指向性またはターゲット効果を直接与えるようにターゲット触覚出力デバイス618A、618B、618Cに命令する。触覚周辺機器602のローカル・プロセッサ612は各触覚出力デバイスに結合されて、ホスト・コンピュータ604からの高水準監視またはストリーミング・コマンドに基づいて触覚効果を各触覚出力デバイスに与える。触覚周辺機器602の触覚出力デバイスは、触覚周辺機器102の触覚出力デバイス118に対して本明細書で列記した任意のタイプのアクチュエータとすることができる。
どの触覚周辺機器構成または実施形態が利用されるかにかかわらず、システムのホスト・プロセッサおよび/またはローカル・プロセッサは、触覚周辺機器の触覚出力デバイスを介して出力されるべき触覚効果の制御パラメータを含むオーディオ・トラックまたはファイルを受け取るように構成される。別の言い方をすれば、オーディオ・トラックまたはファイルは、システムのホスト・プロセッサおよび/またはローカル・プロセッサに触覚効果を届けるかまたは供給するための手段として利用される。本質的に、1つまたは複数の触覚効果の制御パラメータが、オーディオ・トラックまたはファイル上に符号化され、次に、システムのホスト・プロセッサおよび/またはローカル・プロセッサに供給されるかまたは送出される。一実施形態では、オーディオ・トラックまたはファイルは、1つまたは複数の独立したオーディオ・チャネルを含むことができるオーディオ成分を有するWAVファイルまたは他のファイルとすることができる。例えば、オーディオ・トラックまたはファイルは、1つまたは複数の独立したオーディオ・チャネルを含むMOVファイルなどのビデオ・ファイルとすることができる。オーディオ・トラックまたはファイルは、モノもしくはモノラル式オーディオ・フォーマット、ステレオもしくはステレオ式オーディオ・フォーマット、またはマルチチャネル・オーディオ・フォーマットを有することができる。図12に関してより詳細に本明細書で説明するように、1つまたは複数の触覚効果の制御パラメータがオーディオ・トラックまたはファイル上に符号化された後、オーディオ・トラックまたはファイルは、システムのホスト・プロセッサおよび/またはローカル・プロセッサに供給されるかまたは送出される前に、HAPTファイルなどの触覚専用ファイルまたはフォーマットに変換することができる。別の言い方をすれば、最初にオーディオ・トラックまたはファイル上に符号化されるが、触覚効果は、その後、本発明の範囲から逸脱することなく、オーディオ成分を含まない触覚ファイル(例えば、HAPTファイルなどの触覚専用フォーマットを有するファイル)に変換することができる。プロセッサ上のソフトウェアは、オーディオ・トラックまたはファイルを復号するか、あるいはオーディオ・トラックまたはファイルから生成された触覚ファイルを復号し、制御パラメータに応じた触覚効果を出力するように触覚周辺機器の触覚出力デバイスに命じる。
とりわけ、触覚効果を与えるためのオーディオ・トラックまたはファイル850の使用が、図8に関してより詳細に説明される。図8は、本発明の実施形態による、触覚効果を触覚周辺機器に与えるためのシステムのブロック図を示す。単なる例証のために、触覚効果を与えるためのオーディオ・トラックまたはファイルの使用が、上述のような触覚周辺機器302およびターゲット触覚出力デバイス318Cを有するトリガ332に関してより詳細に説明される。しかしながら、触覚効果を与えるためのオーディオ・トラックまたはファイルの使用は、触覚周辺機器102、触覚周辺機器602、またはビデオ・ゲーム技術分野で知られているような別の構成を有する触覚周辺機器に同様に適用されうることを当業者は理解されよう。さらに、触覚効果を与えるオーディオ・トラックまたはファイルの使用は、触覚周辺機器の他のユーザ入力要素、例えば、それぞれ、ターゲット触覚出力デバイス318A、318Bを有するジョイスティック322、ボタン330、および/またはランブル触覚出力デバイス326、328を有するハウジング324に同様に適用されうることを当業者は理解されよう。さらに、本発明の別の実施形態では、触覚効果を与えるためのオーディオ・トラックまたはファイルの使用は、触覚周辺機器自体に同様に適用されて、それの動きをもたらすかまたは引き起こすことができる。
この実施形態では、オーディオ・トラックまたはファイル850は、触覚周辺機器302の触覚出力デバイス318Cを介して出力されるべき第1の触覚効果858を生成するための第1の組の制御パラメータを有する第1のチャネル852と、触覚周辺機器302の触覚出力デバイス318Cを介して出力されるべき第2の触覚効果860を生成するための第2の組の制御パラメータを有する第2のチャネル854とを含む。オーディオ・トラックまたはファイル850は、オーディオのミキシング・プロセスによって生成される2つの独立したオーディオ・チャネル(第1のチャネル852および第2のチャネル854)を含むWAVファイルまたは他の音響ファイルである。オーディオ・ミキシングは、多重ソース音響信号が1つまたは複数のチャネルに組み合わされるプロセスである。このプロセスにおいて、ソース信号のレベル、周波数内容、ダイナミクス、および/またはパノラマ位置を操作することができる。本明細書の実施形態により触覚効果を与えるためにこれに関して利用される場合、ソース信号は、より詳細に本明細書で説明するように、触覚周辺機器の触覚出力デバイスに特定の触覚効果を伝えるために操作される。
図8の実施形態では、オーディオ・トラックまたはファイル850は、2つの独立したオーディオ・チャネル、例えば、第1のチャネル852および第2のチャネル854をもつステレオまたはステレオ式オーディオ・フォーマットを有する。ステレオまたはステレオ式オーディオ・フォーマットは、自然に聞いているように対向する方向から聞こえる音響の印象を作り出すように2つのスピーカ(例えば、左スピーカおよび右スピーカ)を介して出力することができる2つの独立したオーディオ・チャネル(例えば、左チャネルおよび右チャネル)を使用することによって達成される。2つの独立したオーディオ・チャネルにより示されているが、オーディオ・トラックまたはファイル850は、オーディオ・トラックまたはファイルが2つを超える独立したオーディオ・チャネルを含むマルチチャネル・オーディオ・フォーマットを有することができる。さらに、オーディオ・トラックまたはファイル850は、1つの位置から出力することができる単一のオーディオ・チャネルが、多くの場合、音場の中心にある状態のモノまたはモノラル式オーディオ・フォーマットを有することができる。
本発明の一実施形態では、オーディオ・トラックまたはファイル850はソース信号のパニングを介して生成される。別の言い方をすれば、オーディオ・トラックまたはファイル850は、オーディオ・ミキシング・プロセスで利用されるパニング・ツールを介して生成されるかまたはプログラムされる。オーディオ・ミキシング・プロセスにおけるパニングは、音響信号(モノラル式またはステレオ式対)をパン制御設定によって決定される新しいステレオまたはマルチチャネル音場に分配することである。利用することができる例示のパニング・ツールは、限定はしないが、 Pro Tools、Logic Pro、Audition、Audacity、Sony SoundForge、Ableton Live、またはBitwig Studioなどの商用オーディオ・エディティング・スイートまたはプログラムで利用可能なパニング機能、ならびに限定はしないがPremiere ProまたはAvidなどの商用ビデオ・エディタで利用可能なパニング機能を含む。
図9は、図8のオーディオ・ファイルを生成するためのオーディオ・エディタ・プログラムの例示的なスクリーン・ショットを示す。より詳細には、図9は、モノラル式ソース信号962のパニングを介して生成されるオーディオ・トラックまたはファイル850のスクリーン・ショット961である。パニング機能964を利用して、モノラル式ソース信号962を2つのチャネル、すなわち、触覚周辺機器302の触覚出力デバイス318Cを介して出力されるべき第1の触覚効果858を生成するための第1の組の制御パラメータを有する第1のチャネル852と、触覚周辺機器302の触覚出力デバイス318Cを介して出力されるべき第2の触覚効果860を生成するための第2の組の制御パラメータを有する第2のチャネル854とに分配するかまたは分割する。パニングに加えて、各チャネルの信号のレベル、周波数内容、ダイナミクス、および/またはパノラマ位置もオーディオ・エディタ・プログラムを介して操作することができる。例えば、オーディオ・エディタ・プログラムのペンシル・ツールを使用して、2つのチャネルを編集することができる。ペンシル・ツールは、ボリューム・オートメーション(volume automation)、パニング・オートメーション、および波形操作のために使用することができる。オートメーションにより、ミキシングがずっと正確になり、多くの時間が節約され、一方、波形を作成し直すかまたは操作することにより、プログラマは普通でない効果を作り出し、トラックの欠陥を修正することができる。
チャネル852、854が、パニング・ツールを介して生成されるように本明細書では説明されているが、パニング・ツールは、ソース音響信号を分配するかまたは分割するための唯一の実施態様ではない。本発明の別の実施形態では、チャネル852、854は、インターリーブWAVファイルにミックス・ダウンされる多数のモノラル式トラックで構成される。
一実施形態では、第1および第2の触覚効果858、860は、触覚周辺機器302のトリガ332を対向する方向に動かすように構成される。より詳細には、図10Aおよび10Bに示したトリガ332の側面図を参照すると、トリガ332は、ターゲット触覚出力デバイス318Cを介して内側におよび外側に動くことができる双方向トリガである。図10Aおよび10Bは触覚周辺機器302のトリガ332の側面図であり、トリガは単なる例証のために触覚周辺機器から取り出されており、図10Aは、トリガ332が第1の触覚効果858を出力していることを示し、図10Bは、トリガ332が第2の触覚効果860を出力していることを示す。第1のチャネル852(図8を参照)からの第1の組の制御パラメータは、方向矢印966によって示すように第1のまたは内側の方向にトリガ332を動かし、第2のチャネル854(図8を参照)からの第1の組の制御パラメータは、方向矢印968によって示すように第2のまたは外側の方向にトリガ332を動かす。別の言い方をすれば、トリガ332に適用されると、オーディオ・トラックまたはファイル850の第2のチャネル854からの第2の触覚効果860は、トリガを外側に押すかまたは動かし、それは抵抗を引き起こし、一方、オーディオ・トラックまたはファイル850の第1のチャネル852からの第1の触覚効果858は、トリガを内側に引くかまたは動かし、それは抵抗の消失を引き起こす。人の指はトリガを内側に動かすことしかできないので、トリガを外側に押すかまたは動かすことにより、抵抗が引き起こされ、一方、トリガを内側に引くかまたは動かすことにより、デテントを伝えるのに有用である抵抗の消失が引き起こされる。各組の制御パラメータまたは触覚効果は、異なる感じをユーザにもたらすことになる。例えば、第1の触覚効果858は、抵抗の消失の感じの作り出すための内側にまたは下方に引く運動を強調するために十分に機能し、その一方で、第2の触覚効果860は、抵抗の感じを作り出すための前方にまたは上方に押す運動のために十分に機能する。押しまたは引き効果の使用は、コンテキスト、アニメーション、および触覚出力デバイスの強度に大きく依存する。強力な触覚出力デバイスは、アニメーション全体にわたって押し効果をもつ押しアニメーション(pushing animation)を一種の間接的な現実感として模倣することができ、その一方で、比較的弱い触覚出力デバイスは、代りに、押しアニメーションの最終でユーザの脳をだますために短い引きを使用することになる。別の例では、トリガ332を外側に押すこととトリガ332を内側に引くこととの間を30ミリ秒ごとに変化させることを利用して、射撃効果を作り出すかまたはシミュレートすることができる。
別の実施形態では、第1および第2の触覚効果858、860は、異なる時間でのおよび/または異なる感知状況または状態に応じた、トリガ332に出力されるべき異なるタイムラインの触覚効果である。第1のチャネル852(図8を参照)からの第1の組の制御パラメータは、トリガ332に適用されるべき第1のタイムラインまたはシーケンスの触覚効果であり、第2のチャネル854(図8を参照)からの第2の組の制御パラメータは、トリガ332に適用されるべき第2のタイムラインまたはシーケンスの触覚効果である。例えば、一実施形態では、トリガ332に適用されるべき第1のタイムラインまたはシーケンスの触覚効果はトリガ332の振動を含むことができ、一方、トリガ332に適用されるべき第2のタイムラインまたはシーケンスの触覚効果はトリガ332のデテントを含むことができる。振動効果をトリガ332に伝えるかまたは指示するために、チャネル852のソース信号は、10ミリ秒などの所定の周期を有する周期信号を含むように操作することができる。ターゲット触覚出力デバイス318Cを介して触覚周辺機器302のトリガ332に適用されると、10ミリ秒周期(10ミリ秒のオン、10ミリ秒の途切れ、それの繰り返し)がトリガの振動をもたらす。デテント効果をトリガ332に伝えるかまたは指示するのに、チャネル854のソース信号は、図10Aに関して上述したように抵抗の消失を作り出すかまたは引き起こすために、トリガ332が内側におよび/または下向きに引かれるかまたは動かされる一時的効果を含むように操作することができる。デテントは、信号の短く強力なパルスを使用して作り出される。別のテクスチャまたは効果が同時にプレーされている場合、信号は、プレーされている主要効果の逆方向に与えられる必要があることになる。代替として、他の効果を弱めることができ(他の効果の全体において、またはデテント効果の両側の少なくとも30ミリ秒において)、短パルスの押し信号(push signal)を送ることができる(通常、5〜30msの範囲)。触覚出力デバイス318Cによって出力される触覚効果は、限定はしないが、さまざまな程度の振動、さまざまな程度のデテント、または他のタイプの触覚効果を含むことができる。したがって、オーディオ・トラックまたはファイル850を生成するかまたはプログラムするとき、商用オーディオ・エディティング・プログラムの多用性を使用して、多数のタイムラインをもつ触覚効果を生成することができる。制御パラメータは、オーディオ・エディティング・プログラム内のパニングまたは他のツールを介して第1および第2のチャネル852、854にマップされ、各チャネルの制御パラメータは、トリガ332に適用されるべき触覚効果のタイプ、量、および周波数を指示する。
オーディオ・トラックまたはファイル850が、所望に応じて、生成されたかまたはプログラムされた後、オーディオ・トラックまたはファイル850は、ホスト・コンピュータ104のホスト・プロセッサ108および/または触覚周辺機器302のローカル・プロセッサ312に送られるかまたはさもなければ送出される。生成されたかまたはプログラムされたオーディオ・トラックまたはファイル850は、任意のタイプの記憶デバイスまたはコンピュータ可読媒体上にセーブされる。ゲーム・アプリケーションなどのアプリケーションによって、オーディオ・トラックまたはファイル850は、記憶デバイスまたはコンピュータ可読媒体からロードされ、触覚周辺機器に送出される。さらに、図12に関して説明するように、ホスト・コンピュータ104のホスト・プロセッサ108および/または触覚周辺機器302のローカル・プロセッサ312に送出する前に、触覚プレビュー・ツールを利用して、オーディオ・トラックまたはファイル850からの触覚効果を視覚化するおよび/または変更することができる。ホスト・コンピュータ304のホスト・プロセッサ308および/または触覚周辺機器302のローカル・プロセッサ312は、オーディオ・トラックまたはファイル850を受け取る(または図12に関して説明するようにオーディオ・トラックまたはファイル850から変換された触覚専用ファイルを受け取る)ように構成され、オーディオ・トラックまたはファイル850からの第1および第2の組の制御パラメータ(または図12に関して説明するようにオーディオ・トラックまたはファイル850から変換された触覚専用ファイルからの制御パラメータ)を復号するように構成されたソフトウェアを含む。次に、トリガ332のターゲット触覚出力デバイス318Cの触覚効果は、ホスト・コンピュータ304のホスト・プロセッサ308および/または触覚周辺機器302のローカル・プロセッサ312上にプログラムされると考えることができる。これらの触覚効果は、状態の変化および触覚効果の事前定義マッピングを形成することができる。例えば、事前定義マッピング・システムは、特定のタイムラインまたはシーケンスのプログラム化触覚効果が、検出された状態に応じてプレーされることを指示することができる。検出された状態が関連触覚効果を有すると決定された場合、ホスト・プロセッサ108および/またはローカル・プロセッサ312は、関連触覚効果の第1および/または第2の組の制御パラメータを含む関連制御信号を出力する。
ホスト・コンピュータ304のホスト・プロセッサ308および/または触覚周辺機器302のローカル・プロセッサ312は、触覚効果の制御パラメータを含むターゲット触覚出力デバイス318Cへの制御または駆動信号を出力するように構成される。例えば、動作時に、電圧の大きさおよび継続時間がホストまたはローカル・プロセッサから流され、情報がターゲット触覚出力デバイス318Cに供給される。制御または駆動信号は、出力されるべき触覚効果の特定の特性(例えば、大きさ、周波数、継続時間など)に関してターゲット触覚出力デバイス318Cに命令する。トリガ332のターゲット触覚出力デバイス318Cは、ホスト・プロセッサ108および/またはローカル・プロセッサ312から制御信号を受け取り、触覚効果を触覚周辺機器に出力するように構成される。実例として、ユーザがキャラクタまたは何か他のグラフィカル物体を制御しており、そのとき、仮想環境で爆発に出会う場合、関連触覚効果は振動とすることができる。この場合、ホスト・プロセッサ108および/またはローカル・プロセッサ312はターゲット触覚出力デバイス318Cに制御信号を送って、適切な触覚効果、この例では特定の強度をもつ振動を与える。
トリガ332のための触覚効果を用意するかまたはプログラムするためにオーディオ・ファイル850を使用すると、触覚効果を触覚周辺機器に与えるためのツール・チェーンおよびワークフローが保護される。より詳細には、触覚出力デバイスごとに時間がかかる触覚効果のカスタム・オーサリングを行うのではなく、オーディオ・ファイル850を使用すると、オーディオ・ファイルを生成するオーディオ・エディタ・プログラムが触覚効果の視覚化を行うので、トリガ332のための触覚効果を作り出すこと、ならびにオーディオ・エディタ・プログラムのためのプラグイン・ツールまたはアプリを作り出すプロセスの両方が簡単になる。加えて、オーディオ・ファイル850を使用すると、複雑なまたは多様な触覚効果を迅速に生成するために多数のタイムラインを融通できるようになる。
図11は、触覚効果を触覚周辺機器302の多数の触覚出力デバイスに与えるためのシステムのブロック図を示す。触覚効果は、空間的触覚効果を与えるための触覚出力デバイスごとの別個のオーディオ・ファイルから構成することができ、異なる触覚効果が別個のまたは異なる触覚出力デバイスを介して出力される。単なる例証のために、触覚効果を与えるオーディオ・トラックまたはファイルの使用が、上述のような触覚周辺機器302およびターゲット触覚出力デバイス318A、318B、318Cを有するジョイスティック322、ボタン330、トリガ332に関してより詳細に説明される。しかしながら、触覚効果を与えるオーディオ・トラックまたはファイルの使用は、触覚周辺機器102、触覚周辺機器602、またはビデオ・ゲーム技術分野で知られているような別の構成を有する触覚周辺機器に同様に適用されうることを当業者は理解されよう。
より詳細には、複数のオーディオ・ファイル1150、1150、1150、1150は、各々それぞれの触覚出力デバイス318A、318B、318C、326/328を介してそれぞれの触覚効果1156、1156、1156、1156を生成するための1組の制御パラメータを有する少なくとも1つのチャネル(図11には図示せず)を含む。別の言い方をすれば、オーディオ・ファイル1150は、触覚周辺機器302のターゲット触覚出力デバイス318Aを介してジョイスティック322に出力されるべき触覚効果1156を生成するための1組の制御パラメータを有する少なくとも1つのチャネルを含む。同様に、オーディオ・ファイル1150は、触覚周辺機器302のターゲット触覚出力デバイス318Bを介してボタン330に出力されるべき触覚効果1156を生成するための1組の制御パラメータを有する少なくとも1つのチャネルを含む。同様に、オーディオ・ファイル1150は、触覚周辺機器302のターゲット触覚出力デバイス318Cを介してトリガ332に出力されるべき触覚効果1156を生成するための1組の制御パラメータを有する少なくとも1つのチャネルを含む。同様に、オーディオ・ファイル1150は、触覚周辺機器302のランブル触覚出力デバイス326、328の一方を介してハウジング324に出力されるべき触覚効果1156を生成するための1組の制御パラメータを有する少なくとも1つのチャネルを含む。オーディオ・ファイル850に関して上述したように、各オーディオ・ファイル1150、1150、1150、1150は1つを超えるチャネルを含むことができる。例えば、各オーディオ・ファイル1150、1150、1150、1150は、オーディオ・ミキシング・プロセスによって生成される2つの独立したオーディオ・チャネルを含むことができる。
本発明の一実施形態では、オーディオ・ファイル1150、1150、1150、1150のうちの2つ以上が、ソース信号のパニングを介して生成されうる。別の言い方をすれば、オーディオ・ファイル1150、1150、1150、1150のうち2つ以上が、オーディオ・ミキシング・プロセスに利用されるパニング・ツールを介して生成されるかまたはプログラムされる。例えば、パニング・ツールを適用して、多数の触覚出力デバイスを有するデバイスのために拡大するようにマルチチャネル・オーディオ・フォーマットを迅速に作り出することができる。モノラル式ソース信号は、2つ以上のトラックに迅速に分割するかまたは分配することができ、各トラックは、触覚出力デバイスのうちの1つを介して出力されるべき触覚効果を生成するための1組の制御パラメータを含む。加えてまたは代替として、オーディオ・ファイル1150、1150、1150、1150のうちの2つ以上は、オーディオ・ミキシング・プロセスで利用されるペンシル・ツールを介して生成されるかまたはプログラムされる。ペンシル・ツールを使用して、パニング、波形、周波数、ボリューム/強度などに関連して速い形状(quick shape)を生成することになる。ペンシル・ツールを使用して、同じ周期および強度で生じる規則的なテクスチャ、または同じ周期であるがランダムな強度またはボリュームで生じるランダム化テクスチャを生成することもできる。
本発明の一実施形態では、ホスト・コンピュータ304のホスト・プロセッサ308および/または触覚周辺機器302のローカル・プロセッサ312は、オーディオ・ファイル(例えば、オーディオ・ファイル850またはオーディオ・ファイル1150、1150、1150、1150)を直接受け取るように構成され、オーディオ・ファイルの制御パラメータを復号するように構成される。本発明の別の実施形態では、触覚効果がホスト・コンピュータ304のホスト・プロセッサ308および/または触覚周辺機器302のローカル・プロセッサ312に送出される前に、触覚効果視覚化および/または変更のために触覚プレビュー・ツールを利用することができる。例えば、図12は、オーディオ・ファイル(例えば、オーディオ・ファイル850またはオーディオ・ファイル1150、1150、1150、1150)からの触覚効果の制御パラメータをプレビューおよび/または変更するための触覚プレビュー・ツールの例示のスクリーン・ショット1270を示す。別の言い方をすれば、触覚効果の制御パラメータは、それぞれの触覚出力デバイスごとにオーディオ・ファイルを介して生成された。スクリーン・ショット1270は、新規ボタン1272、インポート・ボタン1274、およびエクスポート・ボタン1276を含む。新規ボタン1272は、空き効果テンプレートを開き、ユーザが、1つまたは複数のオーディオ・ファイルを異なるトラックに配置し、それらを組み合わせることによって、1つまたは複数のオーディオ・ファイルから新しい効果を作り出すようにさせる。インポート・ボタン1274は、ユーザが利用可能な触覚出力デバイス(例えば、この実施形態では、利用可能な触覚出力デバイスは、左トリガ、右トリガ、右ランブル、および左ランブルを含む)の各々に対して1つまたは複数のオーディオ・ファイルをインポートできるようにするウインドウを開く。ユーザは、出力ディレクトリならびに名前を指定できることになる。エクスポート・ボタン1276は、1つまたは複数のオーディオ・ファイル(例えば、オーディオ・ファイル850またはオーディオ・ファイル1150、1150、1150、1150)からの制御パラメータを、触覚周辺機器で再生するための所定の触覚ファイル・フォーマットに変換する。このように、エクスポート・ボタン1276が利用された後、触覚効果は、もはやオーディオ・ファイルまたはフォーマット(例えば、WAVファイル)に符号化されず、むしろ、触覚効果は、オーディオ成分を含まないHAPTファイルなどの触覚専用ファイルまたはフォーマットに変換される。
スクリーン・ショット1270を生成する触覚プレビュー・ツールは、触覚効果視覚化を行い、その結果、最終効果がホスト・コンピュータ304のホスト・プロセッサ308および/または触覚周辺機器302のローカル・プロセッサ312への送出を介してビデオ・ゲームに統合される前に、ユーザが触覚効果のライブラリを感じて変更することが可能になる。より詳細には、触覚プレビュー・ツールが開けられると、触覚プレビュー・ツールは、触覚出力デバイスの各々に対して別個のトラックを表示する。各トラックは、オーディオ・ファイルによって以前に生成されたか、またはオーディオ・ファイルに符号化されたプログラム化触覚効果または制御パラメータの視覚表示である。視覚化により、ユーザは、プログラム化触覚効果がどのように構成されているか、およびプログラム化触覚効果がどのように異なる触覚出力デバイスにわたってプレーするかを直観的に理解する。例えば、図12は、ターゲット触覚出力デバイス318Cを介した右トリガ332のための第1および第2のプログラム化触覚効果858、860と、右ランブル触覚出力デバイス326を介したハウジング324のためのプログラム化触覚効果1278とを示す。第1および第2のプログラム化触覚効果858、860(すなわち、図10Aおよび10Bに関して上述した「押し」および「引き」効果)が、異なる色で表示される。
トラックが、プレーまたはスタート・ボタン1280を介してプレーされると、プログレス・バー1282がプレーするかまたは充満し、トラックそれ自体も色で充満する。個別のトラックまたは触覚出力デバイスは、各トラックの「M」ボタンを介して弱められうる。これは非常に有用であり、その理由は、それが、ある触覚出力デバイスのみの選択的再生を可能にするからである。例えば、ランブル効果がプレーしている場合、かすかなトリガ効果を意識的に識別するのは困難なことがある。ランブル・トラックを弱めると、ユーザはトリガ効果のみを経験する。
スクリーン・ショット1270を生成する触覚プレビュー・ツールをさらに使用して、効果特性メニュー1284を介して全体的な効果の強度またはボリュームをカスタマイズするかまたは調節することができる。触覚効果の強度またはボリュームは、強度スライダ1286を介してグラフィック的に変更することができ、それにより、触覚専用ファイル(例えばHAPTファイル)は変更されるが、触覚専用ファイルがそこから生成されたソース・オーディオ・ファイル(例えば、WAVファイル)は変更されない。強度スライダ1286を介して強度設定を変更すると、スクリーン・ショット1270上に表示される視覚表示もまた変化することになる。効果特性メニュー1284は、トリガ・スロー・スライダ(trigger throw slider)1288をさらに含む。触覚効果がプレーを始める抑圧または程度または移動の点であるトリガ332のトリガまたは作動点は、トリガ・スロー・スライダ1288を介してグラフィック的に変更するかまたは設定することができる。
上述のように、触覚効果を与えるためのオーディオ・トラックまたはファイルは、限定はしないが、Pro Tools、Logic Pro, Audition、Audacity、Sony SoundForge、Ableton Live、またはBitwig Studioなどの商用オーディオ・エディティング・スイートまたはプログラム、ならびに限定はしないがPremiere ProまたはAvidなどの商用ビデオ・エディタで利用可能なパニング機能を使用して生成することができる。しかしながら、本発明の別の実施形態では、カスタム・オーディオ・エディティング・プログラムを、触覚効果を与えるために開発することができる。例えば、図13は、触覚効果の1組の制御パラメータをもつオーディオ・ファイルを生成するためのカスタム・パニング環境を示す。図13において、ワークスペース1371は、レセプション(reception)のシミュレートされる場所基部または点1373を含む。1次元エミッタまたはチャネル1375および/または多次元エミッタまたはチャネル1377が、レセプションのシミュレートされる点1373のまわりに構成され、次に、パン効果1379が、所望に応じて触覚効果1381の運動経路を描画することによって生成される。パン効果1379は、ユーザによって描画されたようにチャネル1375、1377の間に触覚効果1381を分配する。したがって、図13に示すように、触覚効果1381はパン効果1379を介してマルチチャネルに分配される。
図14は、本発明の実施形態による、ホスト・コンピュータからの触覚信号を決定し送出する方法を示す流れ図であり、与えられる触覚効果は、本明細書で説明するように1つまたは複数のオーディオ・ファイルの使用を介してプログラムされるかまたは生成される。一実施形態では、図14の流れ図の機能は、ホスト構成要素のホスト・メモリに格納され、ホスト・プロセッサによって実行されるソフトウェアによって、および/または触覚周辺機器のローカル・メモリに格納され、ローカル・プロセッサによって実行されるソフトウェアによって実施される。他の実施形態では、機能は、特定用途向け集積回路(「ASIC」)、プログラマブル・ゲート・アレイ(「PGA」)、フィールド・プログラマブル・ゲート・アレイ(「FPGA」)、またはハードウェアとソフトウェアとの任意の組合せの使用を通してハードウェアによって実行することができる。
ステップ1490において、ホストまたはローカル・プロセッサは、状態の変化があるかどうかを決定する。1つの実施形態では、この変化は、ゲームまたはシミュレーションのための仮想空間の変化とすることができる。一例として、ユーザは、キャラクタまたは他のグラフィカル物体を移動させており、そのとき、仮想環境で爆発に出会う。キャラクタ移動、および/または爆発(または触覚効果の発生源もしくは原因である他の仮想物体)との出会いは、状態の変化とすることができる。別の実施形態では、この変化は、位置センサ323、331、333のうちの1つによる感知された位置または状態とすることができる。上述のように、ジョイスティック322は、それに結合された位置センサ323を含み、ボタン330は、それに結合された位置センサ331を含み、トリガ332は、それに結合された位置センサ333を含む。状態の変化は上述の例に限定されないことを当業者は理解されよう。
ステップ1492において、ホストまたはローカル・プロセッサは、状態の変化を用いて関連触覚効果を決定する。例えば、ユーザが仮想キャラクタを制御し、そのキャラクタが爆発などの仮想物体に出会うシナリオでは、そのような出会いは、関連触覚効果、例えば振動などを有することができる。状態の変化に伴う関連触覚効果があるかどうかを決定するプロセスは、多くの方法で行うことができる。状態の変化が関連触覚効果を有すると決定された場合、触覚信号が送られることになる。状態の変化が関連触覚効果を有していないと決定された場合、触覚信号が送られないことになる。1つの実施形態では、ホスト・コンピュータ104は、状態の変化、および1つまたは複数のオーディオ・ファイルから形成された触覚効果の事前定義マッピングにアクセスする。例えば、事前定義マッピング・システムは、特定のタイムラインまたはシーケンスのプログラム化触覚効果が、検出された状態に応じてプレーされることを指示することができる。検出された状態が関連触覚効果を有すると決定された場合、ホストまたはローカル・プロセッサは、関連触覚効果の制御パラメータを含む関連制御信号を出力する。
ステップ1494において、ホストまたはローカル・プロセッサは、関連触覚情報をもつ制御信号を使用して触覚情報を適切なターゲット触覚出力デバイスに送出する。触覚情報の送出は、前に説明したように有線または無線通信のいずれかで行うことができる。ターゲット触覚出力デバイスは、ホストまたはローカル・プロセッサからの制御信号を受け取り、触覚効果を触覚周辺機器のそれぞれのユーザ入力要素(例えば、ジョイスティック、ボタン、トリガ)またはハウジングに出力するように構成される。

Claims (20)

  1. 触覚効果の制御パラメータを含むファイルを受け取り、前記触覚効果の前記制御パラメータを含む制御信号を出力するように構成されたプロセッサであり、前記ファイルが、オーディオ・ファイル、または前記オーディオ・ファイルから生成された触覚ファイルである、プロセッサと、
    触覚出力デバイスを含む触覚周辺機器であり、前記触覚出力デバイスが前記プロセッサからの前記制御信号を受け取り、前記触覚効果を前記触覚周辺機器に出力するように構成される、触覚周辺機器と
    を備えるシステム。
  2. 前記プロセッサが、前記ファイルの前記制御パラメータを復号するように構成されたソフトウェアを含む、請求項1に記載のシステム。
  3. 前記オーディオ・ファイルがWAVファイルである、請求項2に記載のシステム。
  4. 前記オーディオ・ファイルが音響信号のパニングを介して生成される、請求項1に記載のシステム。
  5. 前記音響信号が、モノラル式オーディオ信号またはステレオ式オーディオ信号である、請求項4に記載のシステム。
  6. 前記オーディオ・ファイルが、複数のモノラル式トラックをミックス・ダウンすることによって生成されたインターリーブ・ファイルである、請求項1に記載のシステム。
  7. 前記触覚出力デバイスが前記触覚周辺機器の双方向トリガに結合され、前記オーディオ・ファイルが、前記トリガを第1の方向に動かすための制御パラメータを有する第1のチャネルと、前記トリガを第2の反対方向に動かすための制御パラメータを有する第2のチャネルとを含む、請求項1に記載のシステム。
  8. 前記触覚周辺機器が複数の触覚出力デバイスを含み、前記プロセッサが複数のファイルを受け取るように構成され、各ファイルが前記複数の触覚出力デバイスのうちの1つのための触覚効果の制御パラメータを含み、各ファイルが、オーディオ・ファイル、または前記オーディオ・ファイルから生成された触覚ファイルである、請求項1に記載のシステム。
  9. 前記触覚出力デバイスが前記触覚周辺機器のユーザ入力要素に結合され、前記オーディオ・ファイルが、前記ユーザ入力要素への第1のタイムラインの触覚効果を生成するための制御パラメータを有する第1のチャネルと、前記ユーザ入力要素への第2のタイムラインの触覚効果を生成するための制御パラメータを有する第2のチャネルとを含む、請求項1に記載のシステム。
  10. 前記第1のタイムラインが前記ユーザ入力要素の振動を含み、前記第2のタイムラインが前記ユーザ入力要素のデテントを含む、請求項9に記載のシステム。
  11. 前記ユーザ入力要素が、双方向トリガ、ジョイスティック、またはボタンのうちの1つである、請求項9に記載のシステム。
  12. 前記プロセッサがホスト・コンピュータに配設される、請求項1に記載のシステム。
  13. 前記プロセッサが前記触覚周辺機器に配設される、請求項1に記載のシステム。
  14. 第1の触覚効果を生成するための第1の組の制御パラメータを有する第1のチャネルと、第2の触覚効果を生成するための第2の組の制御パラメータを有する第2のチャネルとを含むファイルを受け取り、前記触覚効果の前記第1および第2の組の制御パラメータを含む制御信号を出力するように構成されたプロセッサであり、前記ファイルが、オーディオ・ファイル、または前記オーディオ・ファイルから生成された触覚ファイルである、プロセッサと、
    触覚出力デバイスを含む触覚周辺機器であり、前記触覚出力デバイスが前記プロセッサからの前記制御信号を受け取り、前記触覚効果を前記触覚周辺機器に出力するように構成される、触覚周辺機器と
    を備えるシステム。
  15. 前記オーディオ・ファイルが音響信号のパニングを介して生成される、請求項14に記載のシステム。
  16. 前記触覚出力デバイスが前記触覚周辺機器の双方向トリガに結合され、前記第1の組の制御パラメータが前記トリガを第1の方向に動かし、前記第2の組の制御パラメータが前記トリガを第2の反対方向に動かす、請求項14に記載のシステム。
  17. 前記触覚出力デバイスが前記触覚周辺機器のユーザ入力要素に結合され、前記第1の組の制御パラメータが、前記ユーザ入力要素への第1のタイムラインの触覚効果を生成し、前記第2の組の制御パラメータが、前記ユーザ入力要素への第2のタイムラインの触覚効果を生成する、請求項14に記載のシステム。
  18. 触覚効果を触覚周辺機器に与える方法であって、
    第1の触覚効果を生成するための第1の組の制御パラメータを有する第1のチャネルと、第2の触覚効果を生成するための第2の組の制御パラメータを有する第2のチャネルとを含むオーディオ・ファイルを生成するステップと、
    前記オーディオ・ファイルをプロセッサに送るステップであり、前記プロセッサが、前記オーディオ・ファイルを受け取り、前記触覚効果の前記第1および第2の組の制御パラメータを含む制御信号を出力するように構成され、前記制御信号が、前記触覚効果を前記触覚周辺機器に出力するように構成された前記触覚周辺機器の触覚出力デバイスによって受け取られるように構成される、送るステップと
    を含む、方法。
  19. オーディオ・ファイルを生成する前記ステップが、オーディオ信号をパンするステップを含む、請求項18に記載の方法。
  20. オーディオ・ファイルを生成する前記ステップが、複数のモノラル式トラックをミックス・ダウンするステップを含む、請求項18に記載の方法。
JP2015116222A 2014-06-09 2015-06-09 オーディオ・トラックを介して触覚効果を与えるための触覚デバイスおよび方法 Active JP6662583B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201462009898P 2014-06-09 2014-06-09
US62/009,898 2014-06-09
US14/727,465 US9715279B2 (en) 2014-06-09 2015-06-01 Haptic devices and methods for providing haptic effects via audio tracks
US14/727,465 2015-06-01

Publications (2)

Publication Number Publication Date
JP2016001472A true JP2016001472A (ja) 2016-01-07
JP6662583B2 JP6662583B2 (ja) 2020-03-11

Family

ID=53298275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015116222A Active JP6662583B2 (ja) 2014-06-09 2015-06-09 オーディオ・トラックを介して触覚効果を与えるための触覚デバイスおよび方法

Country Status (5)

Country Link
US (3) US9715279B2 (ja)
EP (1) EP2955609B1 (ja)
JP (1) JP6662583B2 (ja)
KR (1) KR102398252B1 (ja)
CN (1) CN105183145B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019163260A1 (ja) * 2018-02-20 2019-08-29 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2021210341A1 (ja) * 2020-04-14 2021-10-21 ソニーグループ株式会社 情報処理装置、情報処理方法

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9715279B2 (en) * 2014-06-09 2017-07-25 Immersion Corporation Haptic devices and methods for providing haptic effects via audio tracks
KR20160088081A (ko) * 2015-01-15 2016-07-25 삼성전자주식회사 영상 촬영 기기의 햅틱 인터페이스 및 이의 제어 방법
KR101790892B1 (ko) * 2016-05-17 2017-10-26 주식회사 씨케이머티리얼즈랩 음향 신호를 촉각 신호로 변환하기 방법 및 이를 이용하는 햅틱 장치
US10444838B2 (en) * 2016-05-17 2019-10-15 Immersion Corporation Thermally activated haptic output device
US10509472B2 (en) * 2016-07-15 2019-12-17 Immersion Corporation Methods and apparatuses for endstop diminishment solutions in haptically-enabled controller devices
US10349196B2 (en) * 2016-10-03 2019-07-09 Nokia Technologies Oy Method of editing audio signals using separated objects and associated apparatus
US10078370B2 (en) * 2016-11-23 2018-09-18 Immersion Corporation Devices and methods for modifying haptic effects
US10297120B2 (en) * 2016-12-13 2019-05-21 Disney Enterprises, Inc. Haptic effect generation system
CN106774891A (zh) * 2016-12-15 2017-05-31 北京小鸟看看科技有限公司 虚拟现实场景的音效产生方法、设备及虚拟现实设备
JP7244985B2 (ja) * 2017-05-19 2023-03-23 川崎重工業株式会社 操作装置及び操作システム
CN108536419A (zh) * 2018-03-28 2018-09-14 努比亚技术有限公司 一种游戏音量调控方法、设备及计算机可读存储介质
US11086431B2 (en) 2019-01-30 2021-08-10 Samsung Display Co., Ltd. Display device and method for providing haptic feedback by display device
WO2020176383A1 (en) * 2019-02-25 2020-09-03 Immersion Corporation Audio data with embedded tags for rendering customized haptic effects
WO2021074107A1 (en) * 2019-10-14 2021-04-22 Lofelt Gmbh Systems and methods for authoring an audio signal and for transforming the authored audio signal into a haptic data file
CN111530069A (zh) * 2020-04-22 2020-08-14 歌尔科技有限公司 一种游戏手柄控制方法、装置、手游***
WO2022257737A1 (zh) * 2021-06-10 2022-12-15 武汉市聚芯微电子有限责任公司 触觉效果控制方法和装置及电子设备
GB2610591A (en) * 2021-09-09 2023-03-15 Sony Interactive Entertainment Inc Apparatus, systems and methods for haptics

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003534620A (ja) * 2000-05-24 2003-11-18 イマージョン コーポレイション 電気活性ポリマーを利用する触覚装置及び触覚方法
JP2009533714A (ja) * 2006-04-13 2009-09-17 イマージョン コーポレーション デジタル音声信号からハプティック・イベントを自動生成するシステム及び方法
JP2012064210A (ja) * 2010-09-14 2012-03-29 Thales 触覚式対話型装置と触覚および音響効果生成方法
JP2013117996A (ja) * 2001-10-10 2013-06-13 Immersion Corp 触覚フィードバックを使用する音声データ出力および操作
WO2013096327A1 (en) * 2011-12-21 2013-06-27 Qualcomm Incorporated Using haptic technologies to provide enhanced media experiences
WO2013116247A1 (en) * 2012-01-30 2013-08-08 Microsoft Corporation Force feedback triggers
JP2013218327A (ja) * 2012-04-04 2013-10-24 Immersion Corp 複数のアクチュエータを用いた音からハプティック効果への変換システム

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5461711A (en) 1993-12-22 1995-10-24 Interval Research Corporation Method and system for spatial accessing of time-based information
US5684722A (en) 1994-09-21 1997-11-04 Thorner; Craig Apparatus and method for generating a control signal for a tactile sensation generator
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
US5694013A (en) 1996-09-06 1997-12-02 Ford Global Technologies, Inc. Force feedback haptic interface for a three-dimensional CAD surface
US6005551A (en) 1997-04-25 1999-12-21 Microsoft Corporation Offline force effect rendering
US6002184A (en) 1997-09-17 1999-12-14 Coactive Drive Corporation Actuator with opposing repulsive magnetic forces
US8020095B2 (en) 1997-11-14 2011-09-13 Immersion Corporation Force feedback system including multi-tasking graphical host environment
WO2000060571A1 (en) 1999-04-02 2000-10-12 Massachusetts Institute Of Technology Haptic interface system for collision detection and applications therefore
US6833826B1 (en) 2000-05-06 2004-12-21 Novint Technologies, Inc. Human-computer interface
US8996169B2 (en) 2011-12-29 2015-03-31 Mako Surgical Corp. Neural monitor-based dynamic haptics
US7643054B2 (en) 2002-12-09 2010-01-05 Hewlett-Packard Development Company, L.P. Directed guidance of viewing devices
JP4030437B2 (ja) 2003-01-23 2008-01-09 アルプス電気株式会社 画像情報表示装置
JP4220355B2 (ja) 2003-11-10 2009-02-04 アルプス電気株式会社 力覚付与型入力装置
US7765333B2 (en) * 2004-07-15 2010-07-27 Immersion Corporation System and method for ordering haptic effects
US8730156B2 (en) 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US8378964B2 (en) * 2006-04-13 2013-02-19 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US8000825B2 (en) * 2006-04-13 2011-08-16 Immersion Corporation System and method for automatically producing haptic events from a digital audio file
US8508486B2 (en) 2007-10-01 2013-08-13 Immersion Corporation Directional haptic effects for a handheld device
US8325144B1 (en) * 2007-10-17 2012-12-04 Immersion Corporation Digital envelope modulator for haptic feedback devices
KR101628782B1 (ko) 2009-03-20 2016-06-09 삼성전자주식회사 휴대용 단말기에서 복수의 진동자를 이용한 햅틱 기능 제공방법 및 장치
KR101553842B1 (ko) 2009-04-21 2015-09-17 엘지전자 주식회사 멀티 햅틱 효과를 제공하는 휴대 단말기 및 그 제어방법
US8009022B2 (en) 2009-05-29 2011-08-30 Microsoft Corporation Systems and methods for immersive interaction with virtual objects
CN102473034B (zh) 2009-07-22 2015-04-01 意美森公司 用于在输入控制手势以及关于虚拟设备的控制期间提供复杂触觉激励的***和方法
US8540571B2 (en) * 2010-03-31 2013-09-24 Immersion Corporation System and method for providing haptic stimulus based on position
US9880621B2 (en) 2010-04-08 2018-01-30 Disney Enterprises, Inc. Generating virtual stimulation devices and illusory sensations using tactile display technology
US8576171B2 (en) 2010-08-13 2013-11-05 Immersion Corporation Systems and methods for providing haptic feedback to touch-sensitive input devices
US8670554B2 (en) * 2011-04-20 2014-03-11 Aurenta Inc. Method for encoding multiple microphone signals into a source-separable audio signal for network transmission and an apparatus for directed source separation
US20130033366A1 (en) * 2011-08-01 2013-02-07 Mcdonough Colin Albright Method and system for providing haptic feedback of variable intensity
KR101328054B1 (ko) 2011-08-09 2013-11-08 엘지전자 주식회사 실감 진동을 발생시키는 영상표시장치 및 실감 진동 구현방법
EP2786591B1 (en) * 2011-10-05 2018-06-27 Immerz Inc. Systems and methods for improved acousto-haptic speakers
EP2821892A4 (en) 2012-03-02 2015-10-28 Nec Corp DISPLAY DEVICE AND METHOD OF OPERATION
GB201208852D0 (en) * 2012-05-18 2012-07-04 Hiwave Technologies Uk Ltd Vibratory panel devices and methods for controlling vibratory panel devices
US20140056461A1 (en) * 2012-08-21 2014-02-27 Immerz, Inc. Systems and methods for a vibrating input device
KR102141044B1 (ko) * 2012-12-03 2020-08-04 삼성전자주식회사 복수의 터치스크린을 가지는 휴대 장치 및 복수의 터치스크린을 가지는 휴대 장치의 사운드 출력방법
US9128523B2 (en) * 2012-12-20 2015-09-08 Amazon Technologies, Inc. Dynamically generating haptic effects from audio data
US8754757B1 (en) * 2013-03-05 2014-06-17 Immersion Corporation Automatic fitting of haptic effects
KR20140112910A (ko) * 2013-03-14 2014-09-24 삼성전자주식회사 입력 제어 방법 및 이를 지원하는 전자 장치
US20140354570A1 (en) * 2013-06-01 2014-12-04 Senseg Ltd. Haptic companion device
US9619980B2 (en) * 2013-09-06 2017-04-11 Immersion Corporation Systems and methods for generating haptic effects associated with audio signals
US9207764B2 (en) * 2013-09-18 2015-12-08 Immersion Corporation Orientation adjustable multi-channel haptic device
US20150084875A1 (en) * 2013-09-26 2015-03-26 Min Liu Enhanced haptic feedback for handheld mobile computing devices
US9715863B2 (en) 2013-09-30 2017-07-25 Microsoft Technology Licensing, Llc Scale factor based on viewing distance
US9619029B2 (en) 2013-11-14 2017-04-11 Immersion Corporation Haptic trigger control system
US9338552B2 (en) * 2014-05-09 2016-05-10 Trifield Ip, Llc Coinciding low and high frequency localization panning
US9913033B2 (en) * 2014-05-30 2018-03-06 Apple Inc. Synchronization of independent output streams
US20160202760A1 (en) * 2014-06-06 2016-07-14 Microsoft Technology Licensing Llc Systems and methods for controlling feedback for multiple haptic zones
US9715279B2 (en) * 2014-06-09 2017-07-25 Immersion Corporation Haptic devices and methods for providing haptic effects via audio tracks

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003534620A (ja) * 2000-05-24 2003-11-18 イマージョン コーポレイション 電気活性ポリマーを利用する触覚装置及び触覚方法
JP2013117996A (ja) * 2001-10-10 2013-06-13 Immersion Corp 触覚フィードバックを使用する音声データ出力および操作
JP2009533714A (ja) * 2006-04-13 2009-09-17 イマージョン コーポレーション デジタル音声信号からハプティック・イベントを自動生成するシステム及び方法
JP2012064210A (ja) * 2010-09-14 2012-03-29 Thales 触覚式対話型装置と触覚および音響効果生成方法
WO2013096327A1 (en) * 2011-12-21 2013-06-27 Qualcomm Incorporated Using haptic technologies to provide enhanced media experiences
WO2013116247A1 (en) * 2012-01-30 2013-08-08 Microsoft Corporation Force feedback triggers
JP2013218327A (ja) * 2012-04-04 2013-10-24 Immersion Corp 複数のアクチュエータを用いた音からハプティック効果への変換システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019163260A1 (ja) * 2018-02-20 2019-08-29 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2021210341A1 (ja) * 2020-04-14 2021-10-21 ソニーグループ株式会社 情報処理装置、情報処理方法

Also Published As

Publication number Publication date
KR102398252B1 (ko) 2022-05-16
US20190101990A1 (en) 2019-04-04
EP2955609A1 (en) 2015-12-16
JP6662583B2 (ja) 2020-03-11
US20150355712A1 (en) 2015-12-10
US20170285753A1 (en) 2017-10-05
EP2955609B1 (en) 2019-09-04
CN105183145A (zh) 2015-12-23
CN105183145B (zh) 2020-03-06
US9715279B2 (en) 2017-07-25
KR20150141156A (ko) 2015-12-17
US10146311B2 (en) 2018-12-04

Similar Documents

Publication Publication Date Title
JP6662583B2 (ja) オーディオ・トラックを介して触覚効果を与えるための触覚デバイスおよび方法
US10347093B2 (en) Programmable haptic devices and methods for modifying haptic effects to compensate for audio-haptic interference
JP6449946B2 (ja) ハプティックトリガ制御システム
JP6576697B2 (ja) 視野および/または近接度に基づいて触覚強度を変更するためのプログラマブル触覚デバイスおよび方法
JP6552463B2 (ja) ハプティック空間化システム
JP6456108B2 (ja) ハプティックトリガ修正システム
EP3261737B1 (en) Modifying haptic effects for slow motion
Wilke et al. Crossover applications

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190626

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200213

R150 Certificate of patent or registration of utility model

Ref document number: 6662583

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250