JP2017527039A - 3次元コンテクスチュアルフィードバック - Google Patents

3次元コンテクスチュアルフィードバック Download PDF

Info

Publication number
JP2017527039A
JP2017527039A JP2017512285A JP2017512285A JP2017527039A JP 2017527039 A JP2017527039 A JP 2017527039A JP 2017512285 A JP2017512285 A JP 2017512285A JP 2017512285 A JP2017512285 A JP 2017512285A JP 2017527039 A JP2017527039 A JP 2017527039A
Authority
JP
Japan
Prior art keywords
haptic effect
data
processor
sensor
haptic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017512285A
Other languages
English (en)
Other versions
JP6453448B2 (ja
Inventor
ピー. カウリー,ニコラス
ピー. カウリー,ニコラス
ジェイ. ゴールドマン,リチャード
ジェイ. ゴールドマン,リチャード
サラスワット,ルチル
Original Assignee
インテル コーポレイション
インテル コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテル コーポレイション, インテル コーポレイション filed Critical インテル コーポレイション
Publication of JP2017527039A publication Critical patent/JP2017527039A/ja
Application granted granted Critical
Publication of JP6453448B2 publication Critical patent/JP6453448B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/013Force feedback applied to a game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

2以上の連携された触覚効果を出力するデバイスであって、第1の触覚効果を出力する第1の触覚効果ジェネレータと、第2の触覚効果を出力する第2の触覚効果ジェネレータと、プロセッサに提供される入力に基づいて、前記第2の触覚効果ジェネレータの動作を、前記第1の触覚効果ジェネレータの動作と連係させる前記プロセッサとを有する。

Description

ここに説明する例は、概して、モバイルデバイス用の触覚応答システムを提供する方法、システム及びデバイスに関する。
広範囲のウェアラブル製品は、ユーザに身体的なフィードバックを与える触覚デバイスを備えている。従来製品は、ユーザに単一点フィードバック(single point feedback)を提供する個別触覚デバイスである。
添付した図面を参照して、以下の明細書と特許請求の範囲とを読めば、当業者には、実施形態のいろいろな有利性が明らかとなるであろう。
触覚効果デバイスの一例を示すブロック図である。 触覚効果デバイスの一例を示すブロック図である。 リストバンドとして装着するように構成された触覚デバイスの一例を示す図である。 触覚効果デバイスの一例を示す図である。 2以上の協調的触覚効果を引き起こす方法の一例を示す図である。
図1は、触覚効果デバイス100の一例を示すブロック図である。触覚デバイス100は、ユーザインターフェース102、センサ104、プロセッサ106、ドライバ108、アクチュエータ110、メモリ114及び2以上の触覚効果ジェネレータ112を有してもよい。一例では、2以上の触覚効果ジェネレータ112は一以上の触覚効果を生成するように構成されてもよい。プロセッサ106は、かかる触覚効果を互いに協調するように構成されてもよい。一以上の実施形態では、触覚効果の協調は、プロセッサ106に与えられる一以上の入力に応じて、二以上の触覚効果ジェネレータ112を一緒に制御して、合成触覚効果及び/又は複数触覚効果である触覚効果を提供することを言うが、特許請求する主題の範囲はこれに限定されない。例えば、プロセッサ106は、2以上の触覚効果ジェネレータを連係させ順次動作させる。第1の触覚効果ジェネレータ112は入力の第1の範囲にわたり触覚効果を提供するように動作し、第2の触覚効果ジェネレータは入力の第2の範囲にわたり触覚効果を提供するように動作し、触覚効果ジェネレータ112は単独で動作しても、他の一以上の触覚効果ジェネレータ112と調和して動作してもよい。他の一例では、プロセッサ106は、2以上の触覚効果ジェネレータ112を連係させてもよく、第1の触覚効果ジェネレータ112は第1の入力に応じて第1の触覚効果を提供し、第2の触覚効果ジェネレータ112は第2の入力に応じて第2の触覚効果を提供する。実施形態を参照してここでさらに詳しく説明するように、一以上の実施形態では、一以上のセンサは、プロセッサ106に入力を提供してもよく、一以上の実施形態では、触覚効果ジェネレータ112のうち一以上が入力を、プロセッサ106へのフィードバックとして、プロセッサ106に提供してもよい。概して、プロセッサ106は、複数の触覚効果ジェネレータ112を連係して制御し、合成された及び/又はより複雑な触覚効果を提供し、例えば、複数の触覚効果を順次、及び/又は同時に、及び/又は任意の組み合わせで、及び/又は多次元触覚効果及び/又は多次元、マルチポジション、マルチオリエンテーション及び/又はマルチセンサ入力を含む複数の入力に応じた触覚効果を提供するように動作する。しかし、特許請求する主題はこの点に限定されない。プロセッサ106は、2以上の触覚効果を動的に及び/又は静的に関連づけ、同期し、及び/又は連係させるように構成されていてもよい。プロセッサ106は、受け取った入力に基づいて、2以上の触覚効果ジェネレータ112の動作を制御することにより、かかる触覚効果を関連付け、同期し、及び/又は連係させてもよい。一例では、第2の触覚効果と関連し、同期され、及び/又は連係された第1の触覚効果は、第1の及び第2の触覚効果のタイミング、振動数、振幅、テンション、温度、輪郭、テクスチャ、圧力、痛み、圧縮など、又はこれらの組み合わせなどの、対応する特徴を有しても良い。ここに詳細に説明するように、関連付けられ、同期され、及び/又は連係された第1の及び第2の触覚効果は、統一された動作、スムースに進む動作、方向を有する動作、次元を有する動作など、又はこれらの組み合わせであるとして、ユーザにより知覚される。
一例では、ユーザインターフェース102は、入力データを受け取り、及び/又はプロセッサ106に送るように構成されていてもよい。一例では、プロセッサ106は、コントローラまたはマイクロコントローラを含んでもよい。プロセッサ106は、ユーザインターフェース102からの入力データを処理して、その入力データを、一以上の触覚効果ジェネレータ112により生成される一以上の触覚効果に関連付ける。かかる触覚効果を生成するため、プロセッサ106は、一以上のコマンドをドライバ108に送るように構成されていてもよい。ドライバ108は、単一のドライバでも、同じところにある又は別々に配置された複数のドライバであってもよい。ドライバ108は、一以上のコマンドに基づき一以上のアクチュエータ110を駆動してもよい。一以上のアクチュエータ110は、一以上の触覚効果ジェネレータ112のそれぞれに結合されてもよく、動く又は動かすように構成されたさまざまなデバイスのどれを含んでもよい。例えば、どのアクチュエータ110も、Eccentric Rotating Mass(ERM)、Linear Resonantアクチュエータ(LRA)、Piezoelectricアクチュエータ(PA)、電気活性ポリマー、静電アクチュエータ、亜音速オーディオ波面アクチュエータ、逆電気振動スタイルアクチュエータ、感圧アクチュエータなど、又はこれらの組み合わせを含んでもよい。
一例では、アクチュエータ110の一以上は、触覚効果ジェネレータ112のうちの対応するものに結合してもよく、アクチュエータ110の1つは、2以上の触覚効果ジェネレータ112に結合していてもよい。一以上のアクチュエータ110は、一以上の触覚効果を出力するように構成されてもよい。一以上のアクチュエータ110は、様々な触覚効果を駆動するため、一以上の触覚効果ジェネレータ112に様々な力を作用するように構成されてもよい。一以上の力は、ある触覚効果に関連していてもよく、一以上の振動、静電気力、電気信号、音波、熱、圧縮、物理的力など、又はこれらの組み合わせを含んでもよい。他の一例では、一以上のドライバ108は、一以上の触覚効果ジェネレータ112に結合していてもよく、一以上の電気信号を触覚効果ジェネレータ112に送って、一以上の触覚効果を生成してもよい。

一例では、2以上の触覚効果ジェネレータ112は、連係して動作して、2または3次元の身体的感覚的フィードバックを提供してもよい。かかる2または3次元の身体的感覚的フィードバックは、ユーザに、センサ104により検出された測定された身体パラメータなどのパラメータの状態を示しても良い。他の一例では、身体的パラメータはセンサ104により検知される必要はなく、身体的パラメータは、ユーザ入力として、及び/又はGraphics Processing Unit(GPU)、Global Positioning Unit(GPS)、天気観測所、サーバなど、又はこれらの組み合わせなどの情報源から報告又は提供されてもよい。
一例では、触覚効果ジェネレータ112の1つは、身体的パラメータが閾値より低いと検出された時、触覚効果に応答してもよい。触覚効果ジェネレータ112の異なる1つは、身体的パラメータが閾値より高いと検出された時、触覚効果に応答してもよい。一以上の触覚効果ジェネレータ112は、一以上の触覚効果ジェネレータ112により生成された個々の感覚間のユーザによる身体的区別をさせるように、デバイス100に配置されてもよい。
一例では、触覚効果デバイス100は、一以上の触覚効果を出力するようにイネーブルされた様々なデバイスのどれであってもよい。例えば、触覚効果デバイス100は、ビデオゲームコントローラ、リストバンド、移動通信デバイス、モバイル計算デバイス、タブレット、ノートブック、取り外し可能スレートデバイス、ウルトラブックシステム、ウェアラブル通信デバイス、パーソナルコンピュータ、ウェアラブルコンピュータ、スマートシュー、エンターテイメントデバイス、電子デバイス、ウェアラブル電子デバイス又はこれらの組み合わせを含んでもよい。かかるデバイスでは、触覚効果は、例えば、スクリーン、背側、上側、下側、左または右側など、又はこれらの組み合わせなど、デバイスの任意の面を通して伝達されてもよい。触覚効果は、振動、テンション、輪郭、圧力、痛み、温度変化、テクスチャ変化、圧縮など、又はこれらの組み合わせなどを含んでもよい。
一例では、ユーザインターフェース102及び/又はセンサ104は、触覚デバイス100中に、又はその上に配置されてもよい。他の一例では、ユーザインターフェース102及び/又はセンサ104は、触覚デバイス100から離れていても良い。一例では、ユーザインターフェース102は、物理的入力、ボタン押下、トリガー駆動、触覚入力、音声入力、プリセット入力、及び/又はトリガー、熱的入力、ロケーションなど、又はこれらの組み合わせなどのユーザ入力を受け取るように構成されていてもよい。
一例では、ユーザインターフェース102は、タッチスクリーン、キーボード、ボタン、ホイール、マウス、タッチパッド、マイクロホン、ウェアラブルコンピュータ、ウェアラブル通信デバイス、ウェアラブル医療用デバイス又は組み込み医療用モニター、又はこれらの組み合わせを含んでいてもよい。ユーザインターフェース102はセンサ104を含んでもよく、及び/又はセンサ104はユーザインターフェース102とは離れていても一緒であってもよい。センサ104は、ユーザ入力を受け取り、及び/又は温度、光、音、動き、湿度、ロケーション、化学組成、電気信号、バイタルサインなど、又はこれらの組み合わせなどの、一以上の物理的現象を検知するように構成されていてもよい。センサ104は、ロケーションセンサ、動きセンサ、タッチセンサ、光センサ、バイオメトリックセンサ、電流センサ、熱センサ、圧力センサなど、又はこれらの組み合わせなど様々なセンサのどれを含んでいてもよい。センサ104は単一センサ又は複数のセンサを含んでもよい。かかる複数センサは、アレイ状に、表面に分散して、ランダムに配置してなど、又はこれらの組み合わせなどで構成してもよい。
一例では、ユーザインターフェース102及び/又はセンサ104は、プロセッサ106及び/又はメモリ114に結合していてもよい。プロセッサ106は、入力データ及び/又はセンサデータを、ユーザインターフェース102、センサ104、一以上のアクチュエータ110、一以上の触覚効果ジェネレータ112、ドライバ108及び/又はメモリ114から直接、受け取り処理するように構成されていてもよい。プロセッサ106は、入力データ及び/又はセンサデータに応じて、ドライバ108により実行されるアルゴリズム及び/又は一組の命令に関連するコマンドを選択してもよい。かかるアルゴリズム及び/又は一組の命令は、ドライバ108に、触覚効果ジェネレータ112の触覚出力を互いに同期及び/又は連係することにより、一以上のアクチュエータ110を互いに関連するように駆動させるように構成されていてもよい。一以上のアクチュエータ110は、触覚効果ジェネレータ112に、入力データ及び/又はセンサデータに関連する一以上の触覚効果を出力させてもよい。他の一例では、かかるアルゴリズム及び/又は一組の命令は、ドライバ108に、入力データ及び/又はセンサデータに関連する一以上の触覚効果を出力する信号を触覚効果ジェネレータ112に送らせるように構成されていてもよい。
図2は、触覚デバイス200を示すブロック図である。一例では、触覚デバイス200は、通信ライン262を介してドライバ208に結合したプロセッサ206を有しても良い。プロセッサ206はコントローラであってもよい。プロセッサ206は、プロセッサ、ビデオゲーム用のグラフィックス処理デバイス(GPU)、メモリ、入出力ポートなど、又はこれらの組み合わせを有しても良い。プロセッサ206は、組み込みマイクロコントローラを含んでいても良い。プロセッサ206は、グラフィックス処理デバイス(GPU)に結合され、及び/又はGPUとの間でデータを送受してもよい。プロセッサ206は、一以上の触覚効果ジェネレータにより、例えば、第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204及び/又は第3の触覚効果ジェネレータ216により生成される触覚効果を、ドライバ208を介して制御するように構成されてもよい。ドライバ208は、第1のアクチュエータ218、第2のアクチュエータ210、及び/又は第3のアクチュエータ212に結合していてもよい。ドライバ208は、通信ライン260を介して、第1のアクチュエータ218、第2のアクチュエータ210及び/又は第3のアクチュエータ212を介して、第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204及び/又は第3の触覚効果ジェネレータ216と通信し、及び/又は駆動するように構成されてもよい。
一例では、プロセッサ206は、一以上のフィードバック源から受信するデータ、及び/又は第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204、及び/又は第3の触覚効果ジェネレータ216、第1のアクチュエータ218、第2のアクチュエータ210、及び/又は第3のアクチュエータ212、ユーザインターフェース240、センサ242、及び/又はGPU246を含む状態データに基づいて、触覚効果を制御するコマンドをデータベースから選択し、及び/又は触覚効果を制御するコマンドを動的に生成するように構成されてもよい。コマンドは、ドライバ208へ、プロセッサ206から送信され、第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204、及び/又は第3の触覚効果ジェネレータ216により実行される。
一例では、第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204及び/又は第3の触覚効果ジェネレータ216のうち一以上は、プロセッサ270、トランスミッタ272、レシーバ274及び/又は付加的な又はその他の回路を有しても良い。プロセッサ270は、第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204及び/又は第3の触覚効果ジェネレータ216の各々に関連する状態情報を検出及び/又は特定するように構成されてもよい。かかる状態情報は、発生される触覚効果に関連するデータを含んでもよく、振動の周波数、振動の振幅、発生される触覚効果の持続時間など、又はこれらの組み合わせを含んでも良い。状態情報は、トランスミッタ272を介して有線及び/又は無線通信を介してプロセッサ270からプロセッサ206に送信されてもよく、処理され、第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204及び/又は第3の触覚効果ジェネレータ216のうち一以上の間の触覚効果を結びつけ、同期し、及び/又は協調するコマンドを選択してもよい。一例では、センサ242は、第1の触覚効果ジェネレータ202,第2の触覚効果ジェネレータ204、及び/又は第3の触覚効果ジェネレータ216のうち一以上の動作及び/又はそれにより発生される一以上の触覚効果に関連する状態情報を検出するように構成されてもよい。センサ242は、かかる状態データの検出を容易にするように、第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204、及び/又は第3の触覚効果ジェネレータ216のうち一以上の上に及び/又はそのそばに配置されてもよい。センサ242は、第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204、及び/又は第3の触覚効果ジェネレータ216のうち一以上から離れたところに配置されてもよく、特許を請求する主題はこれに限定されない。一例では、触覚デバイス200はユーザにより装着されるように構成されてもよく、プロセッサ206はユーザインターフェース240及び/又はセンサ242に結合していてもよい。プロセッサ206は、通信ライン264を介してユーザインターフェース240からユーザ入力データを受け取り、通信ライン266を介してセンサ242からセンサデータを受け取り、及び/又は通信ライン268を介してGPU246からゲームデータを受け取るように構成されていてもよい。プロセッサ206は、第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204、及び/又は第3の触覚効果ジェネレータ216により発生される触覚効果を、ユーザ入力データ及び/又はセンサデータに基づいて制御する一以上のコマンドを選択及び/又は動的に生成するように構成されてもよい。
一例では、ユーザインターフェース240及び/又はセンサ242は、ユーザと接触するように、触覚デバイス200に組み込まれても良い。ユーザインターフェース240により供給されるユーザデータ及び/又はセンサ242により生成されるセンサデータは、ユーザのロケーション、ユーザの3次元空間における方向、(ユーザの又は周囲の)温度、ユーザの心拍数、ユーザの血圧、ユーザの身体部分の周りの弾性バンドにかかるテンションなど、又はこれらの組み合わせなどである測定されるパラメータの状態を特定してもよい。プロセッサ206は、センサデータに応じて、例えば、温度が閾値より低いとき、第1の触覚効果ジェネレータ202を駆動し、そのパラメータが閾値より高いとき、第3の触覚効果ジェネレータ216を駆動し、そのパラメータが閾値のある範囲内にあるとき、第2の触覚効果ジェネレータを駆動する一以上のコマンドを選択及び/又は動的に生成してもよい。一例では、第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204及び/又は第3の触覚効果ジェネレータ216の配置により、第2の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204及び/又は第3の触覚効果ジェネレータ216により生じる個々の感覚を身体的に区別できる。一例では、通信ライン260、262、264及び/又は266は有線ラインまたは無線通信システムを含む。かかる無線通信システムは、無線周波数識別(RFID)システム、WiFi(登録商標)システム、Bluetooth(登録商標)システム、Zigbee(登録商標)システム、WiMax(登録商標)システム、through body communication(TBC)など、又はこれらの組み合わせを含み得る。
一例では、触覚デバイス200はユーザが装着するように構成されてもよく、プロセッサ206は、第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204及び/又は第3の触覚効果ジェネレータ216のうち一以上に、対応する通信ライン220、222及び/又は224を介して結合されていてもよい。第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204及び/又は第3の触覚効果ジェネレータ216は、プロセッサ206に、各触覚効果ジェネレータ202、204及び/又は216が生成した触覚効果に関する情報を特定する状態その他のデータを提供するように構成されてもよい。例えば、第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204及び/又は第3の触覚効果ジェネレータ216は、各触覚効果ジェネレータの振幅及び/又は振動数がオン、オフ、増加中、減少中、安定状態にあるなど、又はこれらの組み合わせであることを示す信号をプロセッサ206に送っても良い。
一例では、センサ242は、第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204及び/又は第3の触覚効果ジェネレータ216の状態に関する同一の又は類似のデータを生成してもよい。プロセッサ206は、第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204、及び/又は第3の触覚効果ジェネレータ216により発生される触覚効果を、状態データに基づいて制御する一以上のコマンドを選択及び/又は動的に生成するように構成されてもよい。例えば、第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204、及び/又は第3の触覚効果ジェネレータ216は、ユーザと物理的に接触するように、触覚デバイス200に組み込まれても良い。一例では、通信ライン220、222及び/又は224は有線ラインまたは無線通信システムを含む。かかる無線通信システムは、無線周波数識別(RFID)システム、WiFi(登録商標)システム、Bluetooth(登録商標)システム、Zigbee(登録商標)システム、WiMax(登録商標)システム、through body communication(TBC)など、又はこれらの組み合わせを含み得る。
一例では、センサ242により生成されるセンサデータは、測定されるパラメータの状態を特定してもよい。第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204、及び/又は第3の触覚効果ジェネレータ216はプロセッサ206に状態データを送っても良い。プロセッサ206は、センサデータ及び/又は状態データに応じた一以上のコマンドを選択及び/又は動的に生成してもよい。
一例では、プロセッサ206は、第1の触覚効果ジェネレータ202を駆動するように構成されてもよい。触覚効果は、測定されるパラメータに関する詳細な情報を担うように構成されてもよい。例えば、測定されるパラメータが閾値に下から近づいているとき、第1の触覚効果ジェネレータ202により引き起こされる触覚効果は、振動の振幅の増加を含み、測定されるパラメータが閾値に向けて増加していることを示しても良い。
一例では、プロセッサ206は、第1の触覚効果ジェネレータ202からの状態更新及び/又はセンサ242からの更新されたセンサデータから状態更新を受け取ってもよい。例えば、パラメータ値は閾値に向けて増加し続けるかも知れない。この情報を触覚的にユーザに伝えるため、プロセッサ206は、第2の触覚効果ジェネレータ204を駆動して、第1の触覚効果ジェネレータ202の状態に最後に示された振幅から始まる増加する振幅で振動するように構成されてもよい。同様に、プロセッサ206は、第2の触覚効果ジェネレータ204からの状態更新及び/又はセンサ242からの更新されたセンサデータから状態更新を受け取ってもよい。例えば、パラメータ値は閾値に到達してもよく、及び/又は閾値を越えて増加し続けてもよい。この情報を触覚的にユーザに伝えるため、プロセッサ206は、第3の触覚効果ジェネレータ216を駆動して、第2の触覚効果ジェネレータ204の状態に最後に示された振幅から始まる増加する振幅で振動するように構成されてもよい。このように、ユーザは、測定されるパラメータが増加し続け、閾値を越えたことを示す、3つの触覚効果ジェネレータ202、204及び216にわたる、関連する、同期した、及び/又は連係した増加振幅と、軽く触れる又はなでるような感覚(a brush or stroking sensation)を受ける。
一例では、第1のアクチュエータ218、第2のアクチュエータ210及び/又は第3のアクチュエータ212は、通信ライン250、252及び/又は254を介して、第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204、及び/又は第3の触覚効果ジェネレータ216の対応するものに結合していてもよい。第1のアクチュエータ218、第2のアクチュエータ210及び/又は第3のアクチュエータ212は、一以上の通信ライン226、228及び/又は230を介して、第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204、及び/又は第3の触覚効果ジェネレータ216の一以上の他のものに結合していてもよい。第1のアクチュエータ218、第2のアクチュエータ210及び/又は第3のアクチュエータ212は、第1のアクチュエータ218、第2のアクチュエータ210及び/又は第3のアクチュエータ212のうちの他のものからの状態データを受け取り、応答するように構成されてもよい。例えば、ある触覚効果が第1のアクチュエータ218によりトリガーされたことを示す、第1のアクチュエータ218から第2のアクチュエータ210が受け取った状態データ信号は、第2のアクチュエータ210による関連する触覚効果の駆動を遅延してもよい。一例では、通信ライン226、228、230、250、252及び/又は254は、有線ラインまたは無線通信システムを含んでもよい。かかる無線通信システムは、無線周波数識別(RFID)システム、WiFi(登録商標)システム、Bluetooth(登録商標)システム、Zigbee(登録商標)システム、WiMax(登録商標)システム、TBCなど、又はこれらの組み合わせを含み得る。
一例では、第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204、及び/又は第3の触覚効果ジェネレータ216は、第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204、及び/又は第3の触覚効果ジェネレータ216の他の一以上に、対応する通信ライン232、234及び/又は236を介して結合していてもよい。
一例では、第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204、及び/又は第3の触覚効果ジェネレータ216は、第1の触覚効果ジェネレータ202、第2の触覚効果ジェネレータ204、及び/又は第3の触覚効果ジェネレータ216のうちの他のものから状態データを受け取り応答するように構成されてもよい。例えば、第1の触覚効果ジェネレータ202により行われる触覚効果の開始及び/又は停止を示す、第2の触覚効果ジェネレータ204が第1の触覚効果ジェネレータ202から受け取る状態データ信号は、第2の触覚効果ジェネレータ204における共感的及び/又は関連する触覚効果の発生を始動してもよい。一例では、通信ライン232、234及び/又は236は有線ラインまたは無線通信システムを含む。かかる無線通信システムは、無線周波数識別(RFID)システム、WiFi(登録商標)システム、Bluetooth(登録商標)システム、Zigbee(登録商標)システム、WiMax(登録商標)システム、TBCなど、又はこれらの組み合わせを含み得る。
図3は、リストバンド302として装着するように構成された触覚デバイス300の一例を示す図である。図3において、触覚効果デバイス300の、手の甲側から見た図310と、手のひら側から見た図312とを示した。触覚デバイス300は、X軸380、Y軸382及び/又はZ軸384に沿った、様々な2次元または3次元の触覚効果を提供するように構成されてもよい。例えば、触覚デバイス300はナビゲーションシステム350と一体になっていてもよい。触覚効果デバイス300により発生される触覚効果は、ナビゲーションシステム350により発生されるナビゲーション方向と動的に調整され、触覚効果デバイス300を装着したユーザにナビゲーションエイドを提供し、ナビゲーション方向に従っている間にユーザにフィードバックを提供する。
一例では、触覚効果デバイス300は、X軸380、Y軸382及び/又はZ軸384方向の触覚効果を介して情報を提供してもよい。第1の触覚効果ジェネレータ202と第2の触覚効果ジェネレータ204は、それぞれ内側及び外側の手首エリアに配置されてもよく、X軸380に沿ってX方向の触覚効果を生成するように構成されてもよい。第3の触覚効果ジェネレータ318と第4の触覚効果ジェネレータ320は、それぞれ上側及び下側の手首エリアに配置されてもよく、Y軸382に沿ってY方向の触覚効果を生成するように構成されてもよい。第5の触覚効果ジェネレータ322と第6の触覚効果ジェネレータ324は、Z方向に配置され、触覚効果ジェネレータ322が手の近くに配置され、触覚効果ジェネレータ324が手から離れたところに配置される。第5の触覚効果ジェネレータ322と第6の触覚効果ジェネレータ324は、Z軸384に沿ったZ方向に触覚効果を発生するように構成されていてもよい。
一例では、触覚デバイス300を装着したユーザは、ナビゲーションシステム350を介してナビゲーション方向を受け取っても良い。その方向はコントローラ360により処理され、一以上のセンサ370から受け取ったデータと比較されてもよい。センサ370から受け取るデータは、動き、位置及び/又はその他のロケーション情報など、又はこれらの組み合わせを含んでもよい。ユーザが動くと、触覚デバイス300は、触覚効果ジェネレータ314−324を介して方向プロンプトを提供してもよい。例えば、ユーザが左にそれると、第1の触覚効果ジェネレータ314が振動して、ユーザが右に動くことにより正しい方向に進むべきことを示しても良い。ユーザがナビゲーション方向にしたがっている場合、触覚効果ジェネレータ324、318及び322は、関連する、同期した及び/又は連係された反復的パターンで振動してもよく、第6の触覚効果ジェネレータ324が最初に振動し、第3の触覚効果ジェネレータ318が次に振動し、第5の触覚効果ジェネレータ322が最後に振動する。かかる関連する、同期した及び/又は連係された反復的パターンは、正しいコースにあり続けていることをユーザに示す一定のフィードバックを提供してもよい。他の一例では、一部または全部の触覚効果ジェネレータ314−324が、他の様々なパターンで動作して、連係された触覚フィードバックを提供するように構成されていてもよい。
一例では、触覚効果ジェネレータ314−324の励起は、ランプオン及びオフ(ramp on and off)するように構成されてもよく、1つの触覚効果ジェネレータがランプオンしている時、その前の順番のデバイスがランプオフし、実際によりアナログ的な感覚を起こすようになっていてもよい。励起のランプオンまたはオフは、本来、リニアであってもノンリニアであってもよい。移行が平面的に配置された2以上の触覚効果ジェネレータ314−324に関わる場合、触覚効果ジェネレータ314−324は複数のタッチジェスチャをシミュレーションするように構成されてもよい。例えば、(アナログ又はデジタルの)2つの触覚効果の間の移行(transition)は、デバイス間のブラシ(brush)又はドラッグをシミュレーションでき、3つのデバイスは回転のような刺激を与えられる。一例では、X軸380、Y軸382及び/又はZ軸384にそった2次元又は3次元の連係された触覚効果の提供は、リモート操作されているデバイスのユーザにナビゲーションフィードバックを提供できる。
一例では、触覚デバイス300は、ビデオゲームコントローラに組み込まれていてもよく、ゲームプレイ中にユーザにフィードバックを提供するように構成されていてもよい。ナビゲーションデバイス350はGPUであってもよい。ゲームプレイ中、ユーザは触覚効果デバイス300を装着してもよく、一方、ユーザのゲームアバターはゲーム環境中をナビゲーションされる。ユーザは、アバターが出会うゲーム環境中の静止した又は動いている障害物に関するフィードバックを、触覚効果ジェネレータ314−324により発生される振動又はその他の触覚効果を介して、受け取っても良い。例えば、ユーザのゲームアバターの左側又は右側における衝突は、適当な触覚効果ジェネレータ314−324における振動によりしめされてもよい。触覚効果ジェネレータ314−324は、振動、テンション、輪郭、温度変化、テクスチャ変化など、又はこれらの組み合わせを含む様々な触覚効果のどれかを生成してもよく、ゲームプレイ中にユーザのアバターが出会うかも知れないシミュレーションされた様々な物理的現象に関するフィードバックを提供してもよい。
図4は、触覚効果デバイス400の一例を示す図である。触覚効果デバイス400はウェアラブルコンピュータ/通信デバイスを含み得る。触覚効果デバイス400は、ユーザに没入体験(immersion experience)を提供する仮想現実ビデオゲームと共に用いられても良い。一例では、触覚効果デバイス400は、アレイ状の触覚効果ジェネレータ112(ドットパターンで表した)を含んでも良い。触覚効果ジェネレータ112は、プロセッサ206により制御されてもよい。上記の通り、プロセッサ206は、トリガーデータ、ゲームデータ、ユーザデータ、センサデータ、状態データなど、又はこれらの組み合わせを受け取っても良い。プロセッサ206は、アレイ状の触覚効果ジェネレータが発生する触覚効果を連係して、互いに関連し、同期し、及び/又は連係した2以上の触覚効果を提供してもよい。一例では、プロセッサ206は所定のプログラムを介してかかる触覚効果を連係してもよい。一例では、プロセッサ206はかかる触覚効果を、入力データ、状態データ、ナビゲーションデータ、センサデータなど、又はこれらの組み合わせに基づいて、動的に連係してもよい。
図5は、2以上の協調的触覚効果を引き起こす方法500の一例を示す図である。方法500は、ステップ502で始まり、プロセッサ106が第1のデータを受け取る。第1のデータは、トリガーデータ、ユーザ入力データ、センサデータ、ゲームデータ及び/又は触覚効果デバイスと関連する状態データを含み得る。ステップ504において、プロセッサ106が、第1のデータに応じて、第1の触覚効果デバイスにおいて第1の触覚効果を駆動する第1のコマンドを送る。プロセッサ106は、第1のデータ、トリガーデータ、ユーザ入力データ、センサデータ、ゲームデータ及び/又は状態データ、又はこれらの組み合わせに基づき、第1のコマンドを選択及び/又は動的に生成する。ステップ506において、プロセッサ106が第2のデータを受け取る。第2のデータは第1の触覚効果の実行に関連する。第2のデータも、トリガーデータ、ユーザ入力データ、センサデータ、ゲームデータ及び/又は第1の触覚効果デバイスと関連する状態データを含み得る。ステップ508において、プロセッサ106が、第2のデータに応じて、第2の触覚効果デバイスにおいて第2の触覚効果を駆動する第2のコマンドを送る。プロセッサ106は、第1の触覚効果と第2の触覚効果とを連係させて、関連する、同期した、及び/又は連係した一連の触覚効果を生成する。
一例では、プロセッサ106及び/又はメモリ118は、処理デバイスと共に集積されてもよく、例えば、集積回路マイクロプロセッサなどに配置されるRAMやフラッシュメモリなどであってもよい。他の例では、メモリは、独立なデバイス、例えば外部ディスクドライブ、ストレージアレイ、ポータブルフラッシュキーフォブなどを含んでもよい。メモリ及びプロセッサ106及び/又はメモリ118は、例えば、I/Oポート、ネットワーク接続などにより動作可能に結合され、又は互いに通信でき、処理デバイスはそのメモリに格納されたファイルを読んでもよい。関連するメモリは、意図的に「リードオンリー」であっても(ROM)、パーミッションの設定(permission settings)であっても、そうでなくてもよい。メモリのその他の例には、限定ではなく、WORM、EPROM、EEPROM、FLASHなどを含んでも良い。これらは半導体デバイスに実装されてもよい。他のメモリは、従来の回転ディスクドライブなどのように、動くパーツを含んでいてもよい。かかるメモリはすべて「機械読み取り可能」であってもよく、処理デバイスにより読み取り可能であってもよい。
動作命令又はコマンドは、(「コンピュータプログラム」又は「コード」としても知られる)記憶されたコンピュータソフトウェアの有体形式で実装又は実施されてもよい。プログラム又はコードは、デジタルメモリに格納されてもよく、処理デバイスにより読み取られてもよい。「コンピュータ読み取り可能記憶媒体」(又は代替的に「機械読み取り可能記憶媒体」)は、前述のタイプのメモリのすべてを含んでもよく、メモリがコンピュータプログラムの性質を有するデジタル情報その他のデータを少なくとも一時的に記憶できる限り、かつ記憶された情報が適切な処理デバイスで「読み出される」限り、将来の新しい技術を含んでもよい。「コンピュータ読み取り可能」との用語は、完全なメインフレーム、ミニコンピュータ、デスクトップ又はラップトップコンピュータという意味を含む「コンピュータ」の従来の利用に限定されない。むしろ、「コンピュータ読み取り可能」は、プロセッサ、処理デバイス又は任意の計算システムにより読み取り可能である記憶媒体を含んでもよい。かかる媒体は、コンピュータ又はプロセッサによりローカルで及び/又はリモートでアクセス可能である任意の利用可能な媒体であってもよく、揮発性及び不揮発性の媒体、リムーバブル及び非リムーバブルの媒体など、又はこれらの組み合わせを含んでもよい。
コンピュータ読み取り可能記憶媒体に格納されたプログラムは、コンピュータプログラム製品を含んでもよい。例えば、記憶媒体は、コンピュータプログラムを格納又は搬送する便利な手段として用いてもよい。便宜的に、動作は、様々な相互結合した、又は結合した機能ブロック又はダイアグラムとして記述されてもよい。しかし、これらの機能ブロック又はダイアグラムが、単一の論理デバイス、プログラム又は境界がはっきりしない動作に等価に集積される場合もある。
実施例の原理を説明したが、言うまでもなく、これらの実施例を、かかる原理から逸脱することなく構成及び詳細において修正してもよい。下記請求項の精神と範囲に入るすべての修正及びバリエーションについて特許請求する。

Claims (26)

  1. 2以上の連係された触覚効果を出力するデバイスであって、
    第1の触覚効果を出力する第1の触覚効果ジェネレータと、
    第2の触覚効果を出力する第2の触覚効果ジェネレータと、
    プロセッサに提供される入力に基づいて、前記第2の触覚効果ジェネレータの動作を、前記第1の触覚効果ジェネレータの動作と連係させる前記プロセッサとを有する、デバイス。
  2. 前記第1の触覚効果と前記第2の触覚効果とは、振動、引っ張り、圧力、痛み、形状輪郭、温度変化、テクスチャ変化、又はこれらの組み合わせを含む、
    請求項1に記載のデバイス。
  3. 前記プロセッサに前記入力を提供するユーザインターフェースをさらに有し、前記入力はユーザ入力データであり、前記プロセッサは、前記ユーザ入力データにアクセスして、前記第2の触覚効果ジェネレータの動作を、前記第1の触覚効果ジェネレータの動作と連係させる、
    請求項1に記載のデバイス。
  4. 前記ユーザインターフェースは、タッチスクリーン、キーボード、ボタン、ホイール、マウス、タッチパッド、マイクロホン、ウェアラブルコンピュータ、ウェアラブル通信デバイス、ウェアラブル医療用デバイス又は組み込み医療用モニター、又はこれらの組み合わせである、
    請求項3に記載のデバイス。
  5. 前記第1の触覚効果ジェネレータは前記プロセッサに前記入力を提供し、前記入力は状態データであり、前記プロセッサは、前記状態データにアクセスして、前記第2の触覚効果ジェネレータの動作を、前記第1の触覚効果ジェネレータの動作と連係させる、
    請求項1に記載のデバイス。
  6. 前記プロセッサに前記入力を提供するセンサをさらに有し、
    前記入力はセンサデータであり、前記プロセッサは、前記センサデータにアクセスして、前記第2の触覚効果ジェネレータの動作を、前記第1の触覚効果ジェネレータの動作と連係させる、
    請求項1に記載のデバイス。
  7. 前記センサは、ロケーションセンサ、動きセンサ、タッチセンサ、光センサ、バイオメトリックセンサ、電流センサ、熱センサ、圧力センサまたはこれらの組み合わせである。
    請求項6に記載のデバイス。
  8. 前記プロセッサはグラフィックス処理デバイス(GPU)から前記入力を受け取り、前記入力はゲームデータであり、前記プロセッサは、前記ゲームデータにアクセスして、前記第2の触覚効果ジェネレータの動作を、前記第1の触覚効果ジェネレータの動作と連係させる、
    請求項1に記載のデバイス。
  9. 前記プロセッサはナビゲーションデバイスから前記入力を受け取り、前記入力はナビゲーション方向であり、前記プロセッサは、前記ナビゲーション方向にアクセスして、前記第2の触覚効果ジェネレータの動作を、前記第1の触覚効果ジェネレータの動作と連係させる、
    請求項1に記載のデバイス。
  10. 前記デバイスは、ビデオゲームコントローラ、リストバンド、移動通信デバイス、モバイル計算デバイス、タブレット、ノートブック、取り外し可能スレートデバイス、ウルトラブックシステム、ウェアラブル通信デバイス、パーソナルコンピュータ、ウェアラブルコンピュータ、スマートシュー、エンターテイメントデバイス、電子デバイス、ウェアラブル電子デバイス又はこれらの組み合わせを含む、
    請求項1に記載のデバイス。
  11. 前記第1の触覚効果は第1の振幅を有する振動であり、前記プロセッサは、前記第2の触覚効果ジェネレータによる振動を駆動するコマンドを選択し、第2の振幅を有する振動を生成し、前記第2の振幅は前記入力に基づいて前記第1の振幅に関連し、前記入力はセンサデータである、
    請求項1に記載のデバイス。
  12. 前記第1の振幅は前記センサデータにおいて特定される測定された第1のパラメータに対応し、前記第2の振幅は前記センサデータにおいて特定される測定された第2のパラメータに対応する、
    請求項11に記載のデバイス。
  13. 連係された2以上の触覚効果を駆動する方法であって、
    プロセッサが第1のデータを受け取るステップと、
    前記第1のデータに応じて、前記プロセッサが、第1の触覚効果デバイスにおいて第1の触覚効果を駆動する第1のコマンドを送るステップと、
    プロセッサが第2のデータを受け取るステップであって、前記第2のデータは前記第1の触覚効果の実行に関連する、ステップと、
    前記第2のデータに応じて、前記プロセッサが、第2の触覚効果デバイスにおいて第2の触覚効果を前記第1の触覚効果と連係させる第2のコマンドを送るステップと、
    を含む方法。
  14. 前記プロセッサが、前記第2のデータに基づいて、複数のコマンドの中から前記第2のコマンドを選択するステップをさらに含み、
    前記第2のデータは、トリガーデータ、ユーザ入力データ、センサデータ、ゲームデータ又は前記第1の触覚効果デバイスと関連する状態データを含む、
    請求項13に記載の方法。
  15. 前記プロセッサが、前記第2のデータに基づき前記第2のコマンドを生成するステップをさらに含み、
    前記第2のデータは、トリガーデータ、ユーザ入力データ、センサデータ又は前記第1の触覚効果デバイスと関連する状態データを含む、
    請求項13に記載の方法。
  16. 前記プロセッサが、前記第1の触覚効果と前記第2の触覚効果とを連係させ、前記第1の触覚効果と前記第2の触覚効果の組み合わせを介してユーザに多次元フィードバックを生成するステップをさらに含む、
    請求項13に記載の方法。
  17. 触覚効果を出力するコンピュータプログラムであって、計算デバイスに、
    第1のデータを受け取るステップと、
    前記第1のデータに応じて、第1の触覚効果デバイスにおいて第1の触覚効果を駆動する第1のコマンドを送るステップと、
    第2のデータを受け取り、前記第2のデータは前記第1の触覚効果の実行に関連するステップと、
    前記第2のデータに応じて、第2の触覚効果デバイスにおいて第2の触覚効果を前記第1の触覚効果と連携させる第2のコマンドを送るステップとを実行させる、
    コンピュータプログラム。
  18. 前記計算デバイスに、
    複数のコマンドから前記第2のコマンドを選択するステップを、さらに実行させ、
    前記第2のコマンドの選択は前記第2のデータに基づき、前記第2のデータは、トリガーデータ、ユーザ入力データ、センサデータ、ゲームデータ又は前記第1の触覚効果デバイスと関連する状態データ、又はこれらの組み合わせに基づく、
    請求項17に記載のコンピュータプログラム。
  19. 前記計算デバイスに、
    前記第2のデータに基づき前記第2のコマンドを生成するステップをさらに実行させ、
    前記第2のデータは、トリガーデータ、ユーザ入力データ、センサデータ又は前記第1の触覚効果デバイスと関連する状態データを含む、
    請求項17に記載のコンピュータプログラム。
  20. 前記第1の触覚効果と前記第2の触覚効果とを連係させ、前記第1の触覚効果と前記第2の触覚効果の組み合わせを介してユーザに多次元フィードバックを生成する、
    請求項17に記載のコンピュータプログラム。
  21. X、Y及びZ方向の、2以上の連係された触覚効果を出力するデバイスであって、
    X方向の第1の触覚効果を出力する一以上の第1の触覚効果ジェネレータと、
    Y方向の第2の触覚効果を出力する一以上の第2の触覚効果ジェネレータと、
    Z方向の第3の触覚効果を出力する一以上の第3の触覚効果ジェネレータと、
    プロセッサに提供される入力に基づいて、前記第1の触覚効果、前記第2の触覚効果又は前記第3の触覚効果、又はこれらの組み合わせの駆動を連係させる前記プロセッサとを有する、
    デバイス。
  22. 前記第1の触覚効果、前記第2の触覚効果又は前記第3の触覚効果、又はこれらの組み合わせは、振動、テンション、圧力、痛み、形状輪郭、温度変化、又はテクスチャ変化、又はこれらの組み合わせを含む、
    請求項21に記載のデバイス。
  23. 前記プロセッサに前記入力を送るユーザインターフェースをさらに有し、
    前記入力はユーザ入力データであり、
    前記プロセッサは、前記ユーザ入力データにアクセスして、前記第1の触覚効果の駆動を、前記第2の触覚効果又は前記第3の触覚効果、又はこれらの組み合わせと連係させ、
    前記ユーザインターフェースは、タッチスクリーン、キーボード、ボタン、ホイール、マウス、タッチパッド、マイクロホン、ウェアラブルコンピュータ、ウェアラブル通信デバイス、ウェアラブル医療用デバイス又は組み込み医療用モニター、又はこれらの組み合わせである、
    請求項21に記載のデバイス。
  24. 前記一以上の第1の触覚効果ジェネレータは、前記プロセッサに前記入力を送り、
    前記入力は状態データであり、
    前記プロセッサは、前記状態データにアクセスして、前記第2の触覚効果又は前記第3の触覚効果、又はこれらの組み合わせの駆動を連係させる、
    請求項21に記載のデバイス。
  25. 前記プロセッサに前記入力を送るセンサをさらに有し、前記入力はセンサデータであり、前記プロセッサは、前記センサデータにアクセスして、前記第1の触覚効果の駆動を、前記第2の触覚効果又は前記第3の触覚効果、又はこれらの組み合わせと連係させ、前記センサは、位置センサ、動きセンサ、タッチセンサ、光センサ、バイオメトリックセンサ、電流センサ、熱センサ、圧力センサまたはこれらの組み合わせである。
    請求項21に記載のデバイス。
  26. 請求項17ないし20いずれか一項に記載のコンピュータプログラムを格納した非一時的コンピュータ読み取り可能媒体。
JP2017512285A 2014-09-04 2015-07-20 3次元コンテクスチュアルフィードバック Expired - Fee Related JP6453448B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/477,122 US9645646B2 (en) 2014-09-04 2014-09-04 Three dimensional contextual feedback wristband device
US14/477,122 2014-09-04
PCT/US2015/041159 WO2016036443A1 (en) 2014-09-04 2015-07-20 Three dimensional contextual feedback

Publications (2)

Publication Number Publication Date
JP2017527039A true JP2017527039A (ja) 2017-09-14
JP6453448B2 JP6453448B2 (ja) 2019-01-16

Family

ID=55437490

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017512285A Expired - Fee Related JP6453448B2 (ja) 2014-09-04 2015-07-20 3次元コンテクスチュアルフィードバック

Country Status (6)

Country Link
US (1) US9645646B2 (ja)
EP (1) EP3189401A4 (ja)
JP (1) JP6453448B2 (ja)
KR (1) KR102257605B1 (ja)
TW (1) TWI607346B (ja)
WO (1) WO2016036443A1 (ja)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8020095B2 (en) 1997-11-14 2011-09-13 Immersion Corporation Force feedback system including multi-tasking graphical host environment
US8947216B2 (en) 2012-11-02 2015-02-03 Immersion Corporation Encoding dynamic haptic effects
US9898084B2 (en) 2012-12-10 2018-02-20 Immersion Corporation Enhanced dynamic haptic effects
US9202352B2 (en) 2013-03-11 2015-12-01 Immersion Corporation Automatic haptic effect adjustment system
US9092954B2 (en) 2013-03-15 2015-07-28 Immersion Corporation Wearable haptic device
US10466787B2 (en) * 2013-04-17 2019-11-05 Provenance Asset Group Llc Haptic device for pedestrian navigation
US10162416B2 (en) 2013-09-06 2018-12-25 Immersion Corporation Dynamic haptic conversion system
US9207764B2 (en) 2013-09-18 2015-12-08 Immersion Corporation Orientation adjustable multi-channel haptic device
US9213408B2 (en) 2013-10-08 2015-12-15 Immersion Corporation Generating haptic effects while minimizing cascading
US9164587B2 (en) 2013-11-14 2015-10-20 Immersion Corporation Haptic spatialization system
US9619029B2 (en) 2013-11-14 2017-04-11 Immersion Corporation Haptic trigger control system
US10254836B2 (en) 2014-02-21 2019-04-09 Immersion Corporation Haptic power consumption management
KR101924702B1 (ko) * 2014-02-24 2019-02-20 소니 주식회사 다른 디바이스들에서의 기능들을 활성화하기 위해 착용형 디바이스들로부터 감각 정보를 취득하기 위한 스마트 착용형 디바이스 및 방법
US10185396B2 (en) 2014-11-12 2019-01-22 Immersion Corporation Haptic trigger modification system
US10254838B2 (en) 2014-12-23 2019-04-09 Immersion Corporation Architecture and communication protocol for haptic output devices
US10269392B2 (en) 2015-02-11 2019-04-23 Immersion Corporation Automated haptic effect accompaniment
US10216277B2 (en) 2015-02-25 2019-02-26 Immersion Corporation Modifying haptic effects for slow motion
KR20160105321A (ko) 2015-02-27 2016-09-06 임머숀 코퍼레이션 사용자의 무드에 기초하는 액션 생성
CN107615213A (zh) 2015-04-21 2018-01-19 意美森公司 蚀刻输入的动态呈现
US10261582B2 (en) 2015-04-28 2019-04-16 Immersion Corporation Haptic playback adjustment system
WO2016206069A1 (en) * 2015-06-26 2016-12-29 Microsoft Technology Licensing, Llc Passive haptics as reference for active haptics
US10109161B2 (en) 2015-08-21 2018-10-23 Immersion Corporation Haptic driver with attenuation
US10556175B2 (en) 2016-06-10 2020-02-11 Immersion Corporation Rendering a haptic effect with intra-device mixing
US10401962B2 (en) 2016-06-21 2019-09-03 Immersion Corporation Haptically enabled overlay for a pressure sensitive surface
US10210724B2 (en) 2016-06-29 2019-02-19 Immersion Corporation Real-time patterned haptic effect generation using vibrations
CN109641525B (zh) * 2016-07-08 2021-12-14 贝洱海拉温控***有限公司 车辆的操作单元
JP6868788B2 (ja) * 2016-09-08 2021-05-12 ソニーグループ株式会社 出力制御装置、出力制御方法、およびプログラム
US10147460B2 (en) 2016-12-28 2018-12-04 Immersion Corporation Haptic effect generation for space-dependent content
JP6650890B2 (ja) * 2017-01-06 2020-02-19 任天堂株式会社 ゲームシステム、ゲームプログラム、情報処理装置およびゲーム制御方法
JP2020057030A (ja) * 2017-02-06 2020-04-09 アルプスアルパイン株式会社 触覚呈示装置
US20180232051A1 (en) * 2017-02-16 2018-08-16 Immersion Corporation Automatic localized haptics generation system
KR101892211B1 (ko) * 2017-02-21 2018-08-27 ㈜건융아이비씨 접이식 키보드 및 그것을 이용한 시청각장애인용 소통장치
US10318144B2 (en) 2017-02-22 2019-06-11 International Business Machines Corporation Providing force input to an application
US10564725B2 (en) 2017-03-23 2020-02-18 Immerson Corporation Haptic effects using a high bandwidth thin actuation system
US10366584B2 (en) 2017-06-05 2019-07-30 Immersion Corporation Rendering haptics with an illusion of flexible joint movement
US10194078B2 (en) 2017-06-09 2019-01-29 Immersion Corporation Haptic enabled device with multi-image capturing abilities
US20190041987A1 (en) 2017-08-03 2019-02-07 Immersion Corporation Haptic effect encoding and rendering system
US10444840B2 (en) * 2017-08-30 2019-10-15 Disney Enterprises, Inc. Systems and methods to synchronize visual effects and haptic feedback for interactive experiences
US10477298B2 (en) 2017-09-08 2019-11-12 Immersion Corporation Rendering haptics on headphones with non-audio data
US10583359B2 (en) 2017-12-28 2020-03-10 Immersion Corporation Systems and methods for providing haptic effects related to touching and grasping a virtual object
US10665067B2 (en) 2018-06-15 2020-05-26 Immersion Corporation Systems and methods for integrating haptics overlay in augmented reality
EP3857343A4 (en) * 2018-09-24 2022-05-18 Interlink Electronics, Inc. MULTIMODAL TOUCHPAD
JP6611217B2 (ja) * 2018-10-15 2019-11-27 日本電信電話株式会社 電子装置および皮膚覚提示システム
SG11202105935XA (en) * 2018-12-07 2021-07-29 Razer Asia Pacific Pte Ltd Wrist rest
US11537209B2 (en) 2019-12-17 2022-12-27 Activision Publishing, Inc. Systems and methods for guiding actors using a motion capture reference system
US11727779B1 (en) 2020-09-29 2023-08-15 Beatrice Butler Charge and guardian safety system
US11596859B2 (en) * 2020-12-04 2023-03-07 Dell Products, Lp System and method for keyboard and palm rest three-dimensional haptic experience
DE102022123085A1 (de) 2022-09-12 2024-03-14 Gestigon Gmbh Am Körper eines Nutzers tragbare Rückmeldevorrichtung zum Empfangen von Infrarotlicht, System mit einer solchen Rückmeldevorrichtung und Verfahren zum Betreiben einer Rückmeldevorrichtung

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003534620A (ja) * 2000-05-24 2003-11-18 イマージョン コーポレイション 電気活性ポリマーを利用する触覚装置及び触覚方法
JP2012520137A (ja) * 2009-03-12 2012-09-06 イマージョン コーポレイション テクスチャエンジン用のシステム及び方法
JP2013511108A (ja) * 2009-11-17 2013-03-28 イマージョン コーポレイション 電子デバイスにおける触覚帯域を増加するためのシステム及び方法
US20140160050A1 (en) * 2012-12-12 2014-06-12 Immersion Corporation Method And System For Providing Haptic Effects Based On Haptic Context Information

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0866592A3 (en) * 1997-03-20 1999-06-16 Nortel Networks Corporation Personal communication device and call process status signalling method
US6218958B1 (en) * 1998-10-08 2001-04-17 International Business Machines Corporation Integrated touch-skin notification system for wearable computing devices
US7005999B2 (en) * 2003-01-15 2006-02-28 Michael Alexander Salzhauer Personal monitoring system
DE60325204D1 (de) 2003-08-04 2009-01-22 Motorola Inc Vorrichtung und Verfahren zur Erzeugung eines haptischen Signals
US9317110B2 (en) * 2007-05-29 2016-04-19 Cfph, Llc Game with hand motion control
US20100152620A1 (en) * 2008-12-12 2010-06-17 Immersion Corporation Method and Apparatus for Providing A Haptic Monitoring System Using Multiple Sensors
US9746923B2 (en) * 2009-03-12 2017-08-29 Immersion Corporation Systems and methods for providing features in a friction display wherein a haptic effect is configured to vary the coefficient of friction
US9417694B2 (en) * 2009-10-30 2016-08-16 Immersion Corporation System and method for haptic display of data transfers
US9436280B2 (en) * 2010-01-07 2016-09-06 Qualcomm Incorporated Simulation of three-dimensional touch sensation using haptics
WO2013163943A1 (en) * 2012-05-03 2013-11-07 Made in Sense Limited Wristband having user interface and method of using thereof
US9019088B2 (en) 2012-06-29 2015-04-28 Lenovo (Singapore) Pte. Ltd. Modulation of haptic feedback
US9081542B2 (en) * 2012-08-28 2015-07-14 Google Technology Holdings LLC Systems and methods for a wearable touch-sensitive device
US9898084B2 (en) * 2012-12-10 2018-02-20 Immersion Corporation Enhanced dynamic haptic effects
US10379614B2 (en) * 2014-05-19 2019-08-13 Immersion Corporation Non-collocated haptic cues in immersive environments
US9733880B2 (en) * 2014-05-30 2017-08-15 Immersion Corporation Haptic notification manager
US9727182B2 (en) * 2014-07-18 2017-08-08 Google Technology Holdings LLC Wearable haptic and touch communication device
US9965036B2 (en) * 2014-07-18 2018-05-08 Google Technology Holdings LLC Haptic guides for a touch-sensitive display
US10275029B2 (en) * 2015-06-22 2019-04-30 Accenture Global Solutions Limited Directional and awareness guidance device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003534620A (ja) * 2000-05-24 2003-11-18 イマージョン コーポレイション 電気活性ポリマーを利用する触覚装置及び触覚方法
JP2012520137A (ja) * 2009-03-12 2012-09-06 イマージョン コーポレイション テクスチャエンジン用のシステム及び方法
JP2013511108A (ja) * 2009-11-17 2013-03-28 イマージョン コーポレイション 電子デバイスにおける触覚帯域を増加するためのシステム及び方法
US20140160050A1 (en) * 2012-12-12 2014-06-12 Immersion Corporation Method And System For Providing Haptic Effects Based On Haptic Context Information

Also Published As

Publication number Publication date
JP6453448B2 (ja) 2019-01-16
KR20170026567A (ko) 2017-03-08
US9645646B2 (en) 2017-05-09
WO2016036443A1 (en) 2016-03-10
EP3189401A4 (en) 2018-08-15
US20160070348A1 (en) 2016-03-10
TWI607346B (zh) 2017-12-01
EP3189401A1 (en) 2017-07-12
KR102257605B1 (ko) 2021-05-27
TW201626161A (zh) 2016-07-16

Similar Documents

Publication Publication Date Title
JP6453448B2 (ja) 3次元コンテクスチュアルフィードバック
US10974138B2 (en) Haptic surround functionality
US10248210B2 (en) Systems and methods for haptically-enabled conformed and multifaceted displays
US9946336B2 (en) Systems and methods for viewport-based augmented reality haptic effects
US11231781B2 (en) Haptic gloves for virtual reality systems and methods of controlling the same
CN110096131B (zh) 触感交互方法、装置、以及触感可穿戴设备
KR20200000803A (ko) 가상 현실 사용자를 위한 실세계 햅틱 상호작용
KR20150114899A (ko) 연성 장착 햅틱 출력 디바이스를 갖는 웨어러블 디바이스
JP2016219008A (ja) ユーザ・インターフェースと対話するユーザに触覚効果を与えるためのシステムおよび方法
US11157084B2 (en) Touch enabling process, haptic accessory, and core haptic engine to enable creation and delivery of tactile-enabled experiences with virtual objects
JP2019519856A (ja) マルチモーダルハプティック効果
JP2019109889A (ja) 二次元及び三次元追跡に使用可能な触覚有効周辺機器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181212

R150 Certificate of patent or registration of utility model

Ref document number: 6453448

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees