JP2018116744A - 自動ハプティック効果調整システム - Google Patents

自動ハプティック効果調整システム Download PDF

Info

Publication number
JP2018116744A
JP2018116744A JP2018080525A JP2018080525A JP2018116744A JP 2018116744 A JP2018116744 A JP 2018116744A JP 2018080525 A JP2018080525 A JP 2018080525A JP 2018080525 A JP2018080525 A JP 2018080525A JP 2018116744 A JP2018116744 A JP 2018116744A
Authority
JP
Japan
Prior art keywords
haptic
haptic effect
emotional state
user
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018080525A
Other languages
English (en)
Other versions
JP6526284B2 (ja
Inventor
ヴィンセント レヴェスク
Levesque Vincent
ヴィンセント レヴェスク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2018116744A publication Critical patent/JP2018116744A/ja
Application granted granted Critical
Publication of JP6526284B2 publication Critical patent/JP6526284B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】ハプティック効果を自動的に調整するシステムが提供される。
【解決手段】システムは、一又はそれ以上のハプティックパラメータに基づいてハプティック効果を生成する。システムは、ハプティック効果を体験するユーザの感情状態を測定する。システムは、測定された感情状態に基づいて一又はそれ以上のハプティックパラメータの少なくとも1つのハプティックパラメータを調整する。システムは、一又はそれ以上のハプティックパラメータに基づいて新たなハプティック効果を生成し、少なくとも1つのハプティック効果パラメータは、新たなハプティック効果をハプティック効果とは異ならせる。
【選択図】図1

Description

一実施形態は、一般的なハプティック効果に関するものであり、特にハプティック効果を生成するデバイスに関するものである。
ハプティックは、力、振動及びモーションのようなハプティックフィードバック効果(すなわち、ハプティック効果)をユーザに与えることにより、ユーザの接触の検知を利用する触覚及び力フィードバック技術である。携帯装置、タッチスクリーン装置及びパーソナルコンピュータのような装置は、ハプティック効果を生成するように構成される。通常、ハプティック効果を生成可能な埋め込みハードウェア(例えば、アクチュエータ)への呼び出しは、装置のオペレーティングシステム(“OS”)内にプログラムされうる。これらの呼び出しは、プレイするためのハプティック効果を特定する。例えば、ユーザが、ボタン、タッチスクリーン、レバー、ジョイスティック、ホイール、又は他のコントローラ等を用いる装置とやり取りをするとき、当該装置のOSは、制御回路を介して、埋め込みハードウェアへプレイコマンドを送信することができる。埋め込みハードウェアは、その後、適切なハプティック効果を生成する。
ハプティック効果は、しばしば、ユーザの特定の感情状態を導くために設計され、ここで感情状態は、幸福、悲しみ、苛立ち又は怒りのような感情の状態を表す。例えば、警報として機能するハプティック効果は、周りに迷惑を掛けずにイベントに注意を引くように設計されてもよい。同様に、ハプティック効果は、状況に応じて、喜び又は喜ばしくない気持ちを導くように設計されうる。このようなハプティック効果を設計することは、通常、手動かつ反復性のある、ハプティック効果の精密化及びエンドユーザによるハプティック効果の評価を必要とするが、ユーザの評価のようなツールは、アンケート又はパフォーマンスデータを必要とし、これは、時間が掛かるプロセスとなる。
一実施形態は、ハプティック効果を自動調整するシステムである。システムは、一又はそれ以上のパラメータに基づいてハプティック効果を生成する。システムは、さらに、ハプティック効果を体験するユーザの感情状態を測定する。システムは、さらに、ユーザの測定された感情状態に基づいて一又はそれ以上のハプティックパラメータの少なくとも1つのハプティックパラメータを調整する。システムは、一又はそれ以上のハプティックパラメータに基づいて新たなハプティック効果を生成し、ここで、少なくとも1つの調整されたハプティックパラメータは、新たなハプティック効果を前記ハプティック効果とは異ならせる。
添付の図面と共に、好ましい実施形態の以下の詳細な説明から、さらなる実施形態、詳細、利点、及び変更が明らかとなるであろう。
図1は、本発明の一実施形態に係る、システムのブロック図を示す。 図2は、本発明の一実施形態に係る、ハプティック効果の自動調整のブロック図を示す。 図3は、本発明の一実施形態に係る、大規模な開発環境のブロック図を示す。 図4は、本発明の一実施形態に係る、個別の開発環境のブロック図を示す。 図5は、本発明の一実施形態に係る、実験室環境のブロック図を示す。 図6は、本発明の一実施形態に係る、ハプティック効果をリアルタイムで連続調整することを含む個別の開発環境のブロック図を示す。 図7は、本発明の一実施形態に係る、自動ハプティック効果調整モジュールの機能のブロック図を示す。
一実施形態は、ハプティック効果を体験するユーザの感情状態を測定することにより、ハプティック効果を自動調整することができるシステムである。前記測定は、ユーザの感情の状態を示すことができるユーザの心拍、ユーザの生体信号、又はユーザの顔の特徴のような感情データを測定する一又はそれ以上の感情センサにより実行されうる。システムは、測定された感情状態を分析し、ハプティック効果を生成するために用いられる一又はそれ以上のハプティックパラメータを自動調整することができる。一又はそれ以上のハプティックパラメータを自動調整することにより、システムは、ユーザから所望の感情状態を導くために、新たなハプティック効果を生成することができる。ハプティック効果が、所望の感情状態又は感情状態の所望の変化を生じるまで、システムは、ハプティック効果の生成、ユーザの感情状態の測定、測定された感情状態の分析、一又はそれ以上のハプティックパラメータの自動調整を閉じたループで連続的に実行することができる。例えば、モバイルデバイス、タッチスクリーンデバイス、パーソナルコンピュータ又はスマートフォンのようなデバイスは、確認のために用いるハプティック効果を自動調整することができ、快適性と識別性とのバランスのための最適なハプティックパラメータを判定するために、生体センサのような感情センサも用いることができる。別の例では、デバイス製造者は、デバイスそれぞれに対するハプティック効果を自動調整するセントラルサーバを実装することにより、非常に多数のデバイスに亘ってハプティック効果を調整することができる。
図1は、本発明の一実施形態に係る、システム10のブロック図を示す。一実施形態では、システム10は、装置(デバイス)の一部分であり、システム10は、装置のために自動ハプティック調整機能を提供する。別の実施形態では、システムs10は、デバイスとは離れており、デバイスに対する自動ハプティック効果調整を遠隔的に提供する。図では単一のシステムを示したが、システム10の機能は、分散されたシステムとして実装されることができ、システム10の一又はそれ以上の構成要素は、物理的に隔てラ得ているが、システム10の他の構成要素は動作可能に接続されている。システム10は、情報を伝達するためのバス12又は他の通信機構と、情報を処理するために、バス12に接続されるプロセッサ22と、を含む。プロセッサ22は、任意のタイプの一般的な又は特殊用途のプロセッサであってもよい。システム10は、プロセッサ22により実行される情報及び命令を記憶するメモリ14をさらに含む。メモリ14は、ランダムアクセスメモリ(“RAM”)、リードオンリーメモリ(“ROM”)、磁気又は光ディスクのようなスタティックストレージ、又は任意のタイプのコンピュータ可読媒体の任意の組み合わせを含みうる。
コンピュータ可読媒体は、プロセッサ22によりアクセス可能であり、揮発性及び不揮発性媒体の両方、リムーバブル及びノンリムーバブル媒体、通信媒体、及びストレージ媒体を含む任意の取得可能な媒体であってもよい。通信媒体は、搬送波又は他の伝送機構のような変調されたデータ信号におけるコンピュータ可読命令、データ構造、プログラムモジュール又は他のデータを含んでもよく、既存の技術の情報伝達媒体の任意の形態を含んでもよい。ストレージ媒体は、RAM、フラッシュメモリ、ROM、erasable programmable read−only memory(“EPROM”)、electrically erasable programmable read−only memory(“EEPROM”)、レジスタ、ハードディスク、リムーバブルディスク、コンパクトディスクリードオンリーメモリ(“CD−ROM”)、又は既存の技術の任意の他のストレージ媒体の形態を含んでもよい。
一実施形態では、メモリ14は、プロセッサ22により実行されたときに、機能を提供するソフトウェアモジュールを記憶する。モジュールは、一実施形態の装置の他の部分と同様に、システム10にオペレーティングシステム機能を提供するオペレーティングシステム15を含む。モジュールは、以下に詳細を記載するように、ハプティック効果を自動的に調整する自動ハプティック効果調整モジュール16をさらに含む。特定の実施形態では、自動ハプティック効果調整モジュール16は、複数のモジュールを含むことができ、各個別のモジュールは、ハプティック効果を自動的に調整するための特定の個別の機能を提供する。システム10は、通常、Immersion CorporationによるIntegrator(登録商標)のような追加の機能を含むための一又はそれ以上の追加のアプリケーションモジュール18を含む。
システム10は、リモートソースからデータを送信及び/又は受信する実施形態において、赤外線、無線、Wi−Fi又はセルラーネットワーク通信のようなモバイル無線通信を提供するために、ネットワークインターフェースカードのような通信装置20をさらに含む。他の実施形態では、通信装置20は、イーサネット(登録商標)接続又はモデムのような有線通信を提供する。
プロセッサ22は、バス12を介して、グラフィック描写又はユーザインターフェースをユーザへ表示する液晶ディスプレイ(“LCD”)のようなディスプレイ24にさらに接続される。ディスプレイ24は、タッチスクリーンのような、プロセッサ22から信号を送受信するように構成される接触検知入力装置であってもよく、マルチタッチスクリーンであってもよい。プロセッサ22は、さらに、ユーザがシステム10とやり取りを可能にするマウス又はスタイラスのようなキーボード又はカーソルコントロール28と接続されてもよい。
システム10は、一実施形態では、アクチュエータ26をさらに含む。プロセッサ22は、生成されたハプティック効果に関連付けられたハプティック信号を複数のアクチュエータ26に送信し、次に、例えば振動触覚効果、静電気摩擦ハプティック効果又は変形ハプティック効果のようなハプティック効果を出力する。アクチュエータ26は、アクチュエータ駆動回路を含む。アクチュエータ26は、例えば、電気モータ、電磁気アクチュエータ、ボイスコイル、形状記憶合金、電気活性ポリマー、ソレノイド、偏心モータ(eccentric rotating mass motor(“ERM”))、リニア共振アクチュエータ(inear resonant actuator(“LRA”))、圧電アクチュエータ、高帯域幅アクチュエータ、電気活性ポリマー(electroactive polymer(“EAP”))アクチュエータ、静電触覚ディスプレイ、又は超音波振動発生器であってもよい。別の実施形態では、システム10は、アクチュエータ26に加えて、一又はそれ以上の別のアクチュエータ(図1には図示せず)を含みうる。アクチュエータ26は、ハプティック出力装置の一例であり、ハプティック出力装置は、駆動信号に応答して、振動触覚ハプティック効果、静電摩擦ハプティック効果又は変形ハプティック効果のようなハプティック効果を出力するように構成される装置である。別の実施形態では、アクチュエータ26は、いくつかの他のタイプのハプティック出力装置により置き換えられうる。さらに、別の実施形態では、システム10は、アクチュエータ26を含まなくてもよく、システム10から離れた装置がアクチュエータを含む、又はハプティック効果を生成する他のハプティック装置及びシステム10は、通信装置20を介してハプティック信号を装置へ送信する。
システム10は、一実施形態では、さらに、センサ30を含む。センサ30は、エネルギーの形態、又は加速度、生体信号、距離、流量、力/圧力/歪み/曲げ、湿度、線形位置、向き/傾き、無線周波数、回転位置、回転速度、スイッチの切り替え、温度、振動又は可視光強度のような他の物理的な特性を検出するように構成されうるが、これに限定されない。センサ30は、さらに、検出したエネルギー又は他の物理的な特性を、電気信号又は仮想センサ情報を示す他の信号に変換するように構成されうる。センサ34は、加速度計、心電図、脳波図、筋電計、眼電図、エレクトロパラトグラフ、電気皮膚反応センサ、容量センサ、ホール効果センサ、赤外線センサ、超音波センサ、圧力センサ、光ファイバーセンサ、屈曲センサ(又は曲げセンサ)、力検知抵抗、ロードセル、LuSense CPS2 155、小型圧力トランスデューサー、圧電センサ、歪みゲージ、湿度計、リニアポジションタッチセンサ、リニアポテンショメータ(又はスライダー)、線形変数差動変圧器、コンパス、傾斜計、磁気タグ(又は無線周波数識別タグ)、回転エンコーダ、回転ポテンショメータ、ジャイロスコープ、オン‐オフスイッチ、温度センサ(例えば、サーモメータ、熱電対、抵抗温度検出器、サーミスタ又は温度変換集積回路)、マイクロホン、カメラ、アイトラッカー、フォトメータ、高度計、生物学的モニター、光依存性抵抗、テキストアナライザー、又はパターンアナライザーのような装置であり得るが、これに限定されない。
別の実施形態では、システム10は、センサ30に加えて、一又はそれ以上の追加センサ(図1には図示せず)を含んでもよい。これらの実施形態のいくつかでは、追加センサの少なくとも1つは、状況データを検出するように構成されうる状況センサでありうる。状況データの一例は、デバイスの一又はそれ以上の物理特性を特定するデータである。状況データの別の例は、デバイスの機能を特定するデータである。状況データのさらに別の例は、デバイスとのやり取りを特性するデータである。状況データのさらに別の例は、圧力、加速度、音、又はデバイスとのやり取りにより生成されたデータのようなデバイスと関連付けられた一又はそれ以上の特性を特定するデータである。状況データのさらに別の例は、ユーザ及び/又はユーザが居る環境の状態を特定するデータである。特定の実施形態では、状況センサは、前述した上記のデバイスの1つでありうる。
図2は、本発明の一実施形態に係る、ハプティック効果の自動調整のブロック図を示す。図2は、ユーザ210を含む。ユーザ210は、ハプティック効果を生成しうるデバイス又はシステムのユーザを表す。以下に詳細に説明されるように、ユーザ210は、ハプティック効果を体験し、感情状態を生じる、又はハプティック効果を体験した結果、感情状態を変化させることができる。
図2は、さらに、ハプティック効果生成器220を含み、これは、図1のシステム10により実装されうる。ハプティック効果生成器220は、一又はそれ以上のハプティックパラメータに基づいてハプティック効果を生成しうるハードウェア構成要素及び/又はソフトウェア構成要素を含み、ここでハプティック効果は、ユーザ210により体験されうる。実施形態によれば、ハプティック効果生成器220は、ユーザ210により体験されうるハプティック効果の範囲を生成しうる。ユーザ210により体験されうるハプティック効果の例は、振動ハプティック効果、静電摩擦ハプティック効果、又は変形ハプティック効果を含む。より具体的には、特定の実施形態では、ハプティック効果生成器220のソフトウェア構成要素は、ハプティック信号を生成することができ、信号をハプティック効果生成器220のハードウェア構成要素へ送信することができ、ここでハードウェア構成要素は、ハプティック信号に基づいてハプティック効果を生成することができる。これらの実施形態の幾つかでは、ハプティック効果生成器220のハードウェア構成要素はアクチュエータである。他の実施形態では、ハプティック効果生成器220のソフトウェア構成要素は、ハプティック信号を生成することができ、ハプティック信号を外部装置(図2には図示せず)へ送信することができ、ここで外部装置は、ハプティック信号に基づいてハプティック効果を生成することができる。特定の実施形態では、ハプティック効果生成器220は、サーバと、サーバと動作可能に接続される一又はそれ以上のリモートデバイスとのようなネットワークにわたって分散されうる。
実施形態によれば、ハプティックパラメータは、ハプティック効果を生成するために用いられるハプティック信号を定義しうるパラメータであり、よって、生成されるハプティック効果も定義しうる。より具体的には、ハプティックパラメータは、大きさ、周波数、持続期間、振幅、強度、包絡線、密度、又は任意の種類の定量化可能なハプティックパラメータのようなハプティック効果の品質の量である。実施形態によれば、ハプティック効果は、一又はそれ以上のハプティックパラメータにより、少なくとも部分的に、定義されることができ、一又はそれ以上のハプティックパラメータは、ハプティック効果の特性を定義されることができる。ハプティックパラメータは、数値を含むことができ、数値は、ハプティック信号の特性を定義されることができ、よって、ハプティック信号により生成されるハプティック効果の特性も定義されることができる。ハプティックパラメータの例は、振幅ハプティックパラメータ、周波数ハプティックパラメータ、持続期間ハプティックパラメータ、包絡線ハプティックパラメータ、密度ハプティックパラメータ、大きさハプティックパラメータ、及び強度ハプティックパラメータを含むことができる。
実施形態によれば、振幅ハプティックパラメータは、ハプティック効果を生成するために用いられうるハプティック信号の振幅を定義することができ、よって、ハプティック効果の振幅を定義することができる。周波数ハプティックパラメータは、ハプティック効果を生成するために用いられうるハプティック信号の周波数を定義することができ、よって、ハプティック効果の周波数を定義することができる。持続期間ハプティックパラメータは、ハプティック効果を生成するために用いられうるハプティック信号の持続期間を定義することができ、よって、ハプティック効果の持続期間を定義することができる。包絡線ハプティックパラメータは、ハプティック効果を生成するために用いられうるハプティック信号の包絡線を定義することができ、よって、ハプティック効果の包絡線を定義することができる。密度ハプティックパラメータは、ハプティック効果を生成するために用いられうるハプティック信号の密度を定義することができ、よって、ハプティック効果の密度を定義することができる。大きさハプティックパラメータは、ハプティック効果を生成するために用いられうるハプティック信号の大きさを定義することができ、よって、ハプティック効果の大きさを定義することができる。強度ハプティックパラメータは、ハプティック効果を生成するために用いられうるハプティック信号の強度を定義することができ、よって、ハプティック効果の強度を定義することができる。
別の実施形態では、ハプティックパラメータの別の例は、アクチュエータパラメータであることができ、これは、一又はそれ以上の特定されたアクチュエータへ送信されるハプティック信号を構成するために用いられることができる。例えば、アクチュエータハプティックパラメータは、LRAアクチュエータ、ERMアクチュエータ又は両方のアクチュエータへ送信されるハプティック信号を構成することができる。特定の実施形態では、アクチュエータハプティックパラメータは、1つの特定されたアクチュエータと関連付けられうる。他の実施形態では、アクチュエータハプティックパラメータは、複数の特定されたアクチュエータと関連付けられうる。
図2は、さらに、自動ハプティック効果調整モジュール221を含み、ハプティック効果を自動的に調整するように構成されうる。特定の実施形態では、自動ハプティック効果調整モジュール221は、図1の自動ハプティック効果調整モジュール16と同一である。より具体的には、自動ハプティック効果調整モジュール221は、ハプティック効果生成器220により事前に生成されたハプティック効果の一又はそれ以上のハプティックパラメータを自動的に調整することができる。一又はそれ以上のハプティックパラメータを自動調整することにより、自動ハプティック効果調整モジュール221は、一又はそれ以上のハプティックパラメータの値を自動調整することができる。以下に詳細に説明されるように、自動ハプティック効果調整モジュール221は、一又はそれ以上のセンサから測定された入力に基づいて一又はそれ以上のハプティックパラメータを自動調整することができる。このような入力は、ユーザ210の測定された感情状態を含みうる。このような入力は、追加で、ユーザ210の測定された状況も含みうる。
自動ハプティック効果調整モジュール221が一又はそれ以上のハプティックパラメータを調整すると、ハプティック効果生成器220のソフトウェア構成要素は、一又はそれ以上のハプティックパラメータに基づいて新たなハプティック信号を生成することができる。特定の実施形態では、ハプティック効果生成器220のソフトウェア構成要素は、新たなハプティック信号をハプティック効果生成器220のハードウェア構成要素へ送信することができ、ハードウェア構成要素は、新たなハプティック信号に基づいて新たなハプティック効果を生成することができる。他の実施形態では、ハプティック効果生成器220のソフトウェア構成要素は、新たなハプティック信号を外部装置(図2には図示せず)へ送信することができ、外部装置は、新たなハプティック信号に基づいて新たなハプティック効果を生成することができる。図示された実施形態では、自動ハプティック効果調整モジュール221は、ハプティック効果生成器220の構成要素である。しかし、別の実施形態では、自動ハプティック効果調整モジュール221は、ハプティック効果生成器220とは隔てられてもよい。
一例では、ハプティック効果生成器220は、10セットの元のハプティック効果を生成することができる。自動ハプティック効果調整モジュール221は、10セットの元のハプティック効果の各元のハプティック効果のハプティックパラメータを調整することができる。そして、自動ハプティック効果調整モジュール221は、ハプティック効果生成器220に10セットの新たなハプティック効果を生成させうる。各新たなハプティック効果について、一又はそれ以上の調整されたハプティックパラメータは、新たなハプティック効果を元のハプティック効果とは異ならせる。
図2は、さらに、感情センサ230を含む。特定の実施形態では、感情センサ230は、図1のセンサ30と同一である。感情センサ230は、ユーザ210の感情状態を測定することができ、ユーザ210は、ハプティック効果生成器220により生成されたハプティック効果を体験する。より具体的には、感情センサ230は、感情データを検出することができ、感情データは、ユーザ210の一又はそれ以上の特性を含む。一例として、感情センサ230は、バイオセンサであることができ、心拍、血圧、電気皮膚反応又は筋収縮のようなユーザ210の特性を検出することができる。別の例では、感情センサ230は、カメラ又は他のタイプのセンサであることができ、顔の表情又は視線方向のようなユーザ210の特性を検出することができる。さらに別の例では、感情センサ230は、ブレインイメージングデバイスであることができ、脳の電気的活性のようなユーザ210の特性を検出することができる。
実施形態によれば、感情センサ230は、感情データを検出し、電気信号又は感情データを表す任意の信号のような入力を生成することができる。感情センサ230は、さらに、入力を自動ハプティック調整モジュール221へ送信することができ、図2の図示された実施形態では、ハプティック効果生成器220の構成要素である。自動ハプティック調整モジュール221は、感情センサ230により送信された入力を分析することができ、ユーザ210の感情状態を判定することができる。ユーザ210の感情状態は、ユーザ210の感情の状態を表す。よって、ユーザ210の感情状態を判定することにより、ユーザ210がハプティック効果を体験したときに、ハプティック効果を体験した場合のユーザ210の感情の状態が推定されうる。特定の実施形態では、ユーザ210の感情状態は、バレンス値(valence value)及び覚醒値(arousal value)により表わされうる。心理学で用いられるバレンスは、特に感情の状態と結び付けられ、イベント、オブジェクション、又は状況の固有の誘引性(intrinsic attractiveness)(つまり、ポジティブバレンス)又は嫌悪性(つまり、ネガティブバレンス)である。よって、ポジティブバレンス値は、ポジティブバレンスを表し、これは、幸福、満足又は喜びのような感情の状態を示すことができる。さらに、ネガティブバレンス値は、ネガティブバレンスを表し、これは、不幸、怒り又は苛立ちのような感情の状態を示すことができる。覚醒(Arousal)は、感じられ、刺激に応答する状態である。高い覚醒値は、関与しているのと一致し、刺激に応答する感情の状態を示すことができる。低い覚醒値は、離脱しているのと一致し、刺激に応答できない感情の状態を示すことができる。これと共に、バレンス値及び覚醒値は、ユーザ210の感情状態を表すことができる。
特定の実施形態では、前述したように、感情センサ230は、感情データを検出し、入力を生じることができ。自動ハプティック効果調整モジュール221は、感情センサ230により送信された入力を分析し、ユーザ210の感情状態を直接判定することができ、ユーザ210の感情状態は、バレンス値及び覚醒値により表されうる。しかし、別の実施形態では、感情状態は、ベースライン(baseline)に対して測定されることができる。例えば、生体信号は、一人のユーザと別のユーザとでは変化する。よって、既知の感情状態でのユーザのベースライン感情状態との比較は、絶対的な感情状態を決定するために必要とされてもよい。例えば、絶対バレンス値及び絶対覚醒値は、測定されたバレンス値及び測定された覚醒値を、ベースラインバレンス値及びベースライン覚醒値と比較することにより決定されうる。よって、これらの別の実施形態では、自動ハプティック効果調整モジュール221は、感情状態を判定するために、ベースライン感情状態(例えば、ベースラインバレンス値及びベースライン覚醒値)に基づいて、測定された感情状態(例えば、測定されたバレンス値及び測定された覚醒値)を標準化することができる。
実施形態によれば、自動ハプティック効果調整モジュール221が、ユーザ210の感情状態を判定すると、自動ハプティック効果調整モジュール221は、測定された感情状態を予め定義された感情状態と比較することができる。予め定義された感情状態は、望まれるユーザ210の感情の状態を表す、又は望まれる感情の状態の変化を表すことができる。すなわち、ハプティック効果を体験するとき、望まれる感情状態又は望まれる感情の変化をユーザに生じさせるハプティック効果を生成することが必要とされることができ、望まれる感情状態又は感情状態の望まれる変化は、予め定義された感情状態により表される。特定の実施形態では、予め定義された感情状態は、予め定義されたバレンス値及び予め定義された覚醒値を含みうる。測定された感情状態を予め定義された感情状態と比較することにより、自動ハプティック効果調整モジュール221は、測定された感情状態と予め定義された感情状態とで差がある場合に、特定することができる。特定の実施形態では、測定された感情状態と予め定義された感情状態との差は、(1)測定された感情状態のバレンス値と予め定義された感情状態のバレンス値との差;(2)測定された感情状態の覚醒値と予め定義された感情状態の覚醒値と差;又は(3)測定された感情状態のバレンス値及び覚醒値と予め定義されたバレンス値及び覚醒値の両方との差、を含むことができる。このような差は、ユーザ210に所望の感情の状態を生じさせないハプティック効果生成器220により生成されたハプティック効果を示すことができる。
自動ハプティック効果調整モジュール221が、測定された感情状態と予め定義された感情状態との差を特定すると、自動ハプティック効果調整モジュール221は、ハプティック効果生成器220により事前に生成されたハプティック効果の一又はそれ以上のハプティックパラメータを自動調整するために、特定された差を用いることができる。より具体的には、自動ハプティック効果調整モジュール221は、新たなハプティック効果を生じる一又はそれ以上のハプティックパラメータへの調整を特定することができ、新たなハプティック効果は、ユーザ210の新たな感情状態を生じる。また、自動ハプティック効果調整モジュール221は、新たな感情状態が、予め定義された感情状態とより類似することを特定することができる。予め定義された感情状態に“より類似する”ことにより、新たな感情状態と予め定義された感情状態との差は、元の感情状態と予め定義された感情状態との差よりも小さくなりうる。特定の実施形態では、予め定義された感情状態に“より類似する”ことにより、(1)新たな感情状態のバレンス値は、予め定義された感情状態のバレンス値により類似する;(2)新たな感情状態の覚醒値は、予め定義された覚醒値により類似する;又は(3)新たな感情状態のバレンス値及び覚醒値は、予め定義された感情状態のバレンス値及び覚醒値により類似する。続いて、上述したように、自動ハプティック効果調整モジュール221は、ハプティック効果生成器220に新たなハプティック効果を生成させることができ、新たなハプティック効果は、ユーザに新たな感情状態を生じさせる。別の実施形態では、自動ハプティック効果調整モジュール221は、一又はそれ以上のハプティックパラメータへのランダム調整を特定することができる。自動ハプティック効果調整モジュール221は、一又はそれ以上のハプティックパラメータへのランダム調整に基づいて、ハプティック効果生成器220に新たなハプティック効果を生成させることができる。新たなハプティック効果(必ずしも必要ではない)は、ユーザに新たな感情状態を生じさせうる。
特定の実施形態では、上述した機能は、ハプティック効果生成器220が、予め定義された感情状態と類似するユーザ210の新たな感情状態を生じる新たなハプティック効果を生成するまで連続的に実行されることができる。感情状態は、感情状態と予め定義された感情状態との差が、予め定義された閾値よりも小さいときに、“類似”することができる。特定の実施形態では、予め定義された感情状態と“類似する”ことにより、(1)感情状態のバレンス値と予め定義された感情状態のバレンス値との差は、予め定義された閾値よりも小さい;(2)感情状態の覚醒値と予め定義された感情状態の覚醒値との差は、予め定義された閾値よりも小さい;又は(3)感情状態のバレンス値と予め定義された感情状態のバレンス値の差、及び感情状態の覚醒値と予め定義された感情状態の覚醒値との差の両方は、予め定義された閾値よりも小さい。
図2は、さらに、状況センサ240を含む。特定の実施形態では、状況センサ240は、図1のセンサ30と同一である。状況センサ240は、ユーザ210の状況を測定されることができる追加センサであり、ユーザ210は、ハプティック効果生成器220により生成されたハプティック効果を体験する。より具体的には、状況センサ240は、状況データを検出することができるセンサであり、状況データは、デバイスの一又はそれ以上の物理特性を特定するデータ、デバイスの機能を特定するデータ、デバイスとのやり取りを特性するデータ、又は圧力、加速度、音又はデバイスとのやり取りにより生成されるデータのようなデバイスとのやり取りと関連付けられた一又はそれ以上の特性を特定するデータを含む。状況データを検出することができるセンサの一例は、感情センサ230と類似する感情センサでありうる。状況データを検出することができるセンサの他の例は、カメラ、マイクロホン、加速度計、及びソフトウェアエージェントを含むことができる。
実施形態によれば、状況データ240は、状況データを検出し、電気信号又は状況データを表す任意の信号のような入力を生じることができる。状況データ240は、さらに、入力を自動ハプティック効果調整モジュール221へ送信することができ、図2の図示された実施形態では、ハプティック効果生成器220の構成要素である。自動ハプティック効果調整モジュール221は、状況センサ240により送信された入力を分析し、ユーザ210の状況を判定することができる。状況は、ユーザ210が、ハプティック効果生成器220により生成されたハプティック効果を体験し、かつ感情センサ230により測定された感情状態を生じる時点で実行するアクション(デバイスとのやり取りのような)を表すことができる。
自動ハプティック効果調整モジュール221は、そして、ハプティック効果生成器220により事前に生成されたハプティック効果の一又はそれ以上のハプティックパラメータを自動調整するために、ユーザ210の状況をユーザ210の測定された感情状態と共に使用することができる。例えば、ハプティック効果は、ユーザ210の状況に基づいて、ユーザ210により異なって受け取られると仮定されうる。この例では、ハプティック効果は、ユーザ210が、部屋に人が大勢いるような騒がしい環境にいるときとユーザ210が寝ているときとで異なって受け取られてもよい。より具体的には、ユーザ210は、騒がしい環境での大きなハプティック効果を体験するときに、高いバレンス値を有する感情状態を生じる(例えば、ユーザ210が、ハプティック効果のボリュームが増加したと感じ、ユーザ210が、ハプティック効果のボリュームが減少したと受け取らない)。これに対して、ユーザ210は、ユーザ210が寝ているときに大きなハプティック効果を体験するときに、低いバレンス値を有する感情状態を生じる(例えば、ハプティック効果が眠りを覚ますことでユーザ210がうるさがる)。よって、自動ハプティック効果調整モジュール221は、ハプティック効果生成器220により事前に生成されたハプティック効果の一又はそれ以上のハプティックパラメータをどのように調整するか判定する際に、ユーザ210の状況をユーザ210の感情と組み合わせて考慮することができる。特定の実施形態では、状況センサ240及び関連する機能は、省略されうる。
図3は、本発明の一実施形態に係る、大規模な開発環境のブロック図を示す。図3は、サーバ310を含む。サーバ310は、機能を提供する一又はそれ以上のモジュールを記憶するメモリと、メモリ内に記憶された一又はそれ以上のモジュールを実行するプロセッサとを含むことができるコンピュータのような物理装置である。図3の図示された実施形態では、サーバ310は、また、自動ハプティック調整モジュール311も含むことができ、ハプティック効果を自動調整するように構成されうる。特定の実施形態では、自動ハプティック調整モジュール311は、図1の自動ハプティック調整モジュール16及び図2の自動ハプティック調整モジュール221と同一である。
図3は、さらに、ネットワーク320を含む。ネットワーク320は、モバイルデバイス、タッチスクリーンデバイス、パーソナルコンピュータ又はスマートフォンのような複数のデバイスの集合であり、これらは、通信チャネルにより動作可能に内部接続され、通信及びデバイス間でのデータ伝送を容易にする。特定の実施形態では、ネットワーク320は、イントラネットでありうる。別の実施形態では、ネットワーク320は、インターネットであることができ、インターネットは、関連技術の当業者によって理解されるような、標準的なインターネットプロトコルスイート(すなわち、TCP/IP)を使用する内部接続されたグローバルシステムである。
図3は、さらに、デバイス330、340、350及び360を含む。デバイス330、340、350及び360は、ハプティック効果を生成し、ネットワーク320と動作可能に接続されることができるデバイスの例である。例えば、デバイス330、340、350及び360は、モバイルデバイス、タッチスクリーンデバイス、パーソナルコンピュータ又はスマートフォンの1つでありうる。図示された実施形態では、ネットワーク320は、4つのデバイスを含むが、これは、単に例示の実施形態であり、別の実施形態では、ネットワーク320は、任意の数のデバイスを含みうる。
実施形態によれば、デバイス330は、ハプティック効果生成器331及びセンサ332を含み、デバイス340は、ハプティック効果生成器341及びセンサ342を含み、デバイス350は、ハプティック効果生成器351及びセンサ352を含み、デバイス360は、ハプティック効果生成器361及びセンサ362を含む。ハプティック効果生成器331、341、351及び361は、それぞれ、一又はそれ以上のハプティックパラメータに基づいてハプティック効果を生成しうるハードウェア構成要素及び/又はソフトウェア構成要素を含む。特定の実施形態では、ハプティック効果生成器331、341、351及び361は、それぞれ、図2のハプティック効果生成器220と同一である。しかし、これらの実施形態の幾つかでは、ハプティック効果生成器331、341、351及び361は、自動ハプティック効果調整モジュールを含まない。別の実施形態では、デバイス330、340、350及び360の少なくとも1つは、図3に図示されない追加のハプティック効果生成器を含みうる。
さらに、センサ332、342、352及び362は、それぞれ、ユーザの感情状態を測定するように構成され、ユーザは、ハプティック効果を体験する。特定の実施形態では、センサ332、342、352及び362は、それぞれ、図2の感情センサ230と同一である。別の実施形態では、デバイス330、340、350及び360の少なくとも1つは、図3に図示されない追加のセンサを含みうる。これらの実施形態の幾つかでは、追加のセンサの少なくとも1つは、ユーザの状況を測定しうるセンサであることができ、ユーザは、ハプティック効果を体験する。これらの実施形態では、少なくとも1つの追加センサは、図2の状況センサ240と同一でありうる。
実施形態によれば、デバイス330は、ハプティック効果生成器331を用いてハプティック効果を生成し、デバイス330は、センサ332を用いてハプティック効果を体験するユーザの感情状態を測定する。同様に、デバイス340は、ハプティック効果生成器341を用いてハプティック効果を生成し、デバイス340は、センサ342を用いてハプティック効果を体験するユーザの感情状態を測定し、デバイス350は、ハプティック効果生成器351を用いてハプティック効果を生成し、デバイス350は、センサ352を用いてハプティック効果を体験するユーザの感情状態を測定し、デバイス360は、ハプティック効果生成器361を用いてハプティック効果を生成し、デバイス360は、センサ362を用いてハプティック効果を体験するユーザの感情状態を測定する。さらに、デバイス330、340、350及び360は、それぞれ、各測定された感情状態をサーバ310へ送信する。特定の実施形態では、デバイス330、340、350及び360の少なくとも1つは、ハプティック効果を体験するユーザの状況も測定することができる。これらの実施形態では、デバイス330、340、350及び360の少なくとも1つは、測定された状況をサーバ310へ送信することもできる。
実施形態によれば、デバイス330、340、350及び360から測定された感情状態を受信すると、サーバ310は、自動ハプティック効果調整モジュール311を用いて、測定された感情状態に基づいて一又はそれ以上のハプティックパラメータを調整する。特定の実施形態では、サーバ310は、デバイス330、340、350及び360に対する一括した一又はそれ以上のハプティックパラメータの単一のセットを調整する。他の実施形態では、サーバ310は、デバイス330、340、350及び360に対する個別の一又はそれ以上のハプティックパラメータの別々のセットを調整する。サーバ310は、続いて、一又はそれ以上のハプティックパラメータをデバイス330、340、350及び360に送信する。特定の実施形態では、サーバは、一又はそれ以上のハプティックパラメータの単一のセットをデバイス330、340、350及び360に送信する。他の実施形態では、サーバ310は、一又はそれ以上のハプティックパラメータの第1のセットをデバイス330に、一又はそれ以上のハプティックパラメータの第2のセットをデバイス340に、一又はそれ以上のハプティックパラメータの第3のセットをデバイス350に、一又はそれ以上のハプティックパラメータの第4のセットをデバイス360に、別々に送信する。実施形態によれば、デバイス330は、ハプティック効果生成器331を用いて、受信した一又はそれ以上のハプティックパラメータに基づいて、新たなハプティック効果を生成する。同様に、デバイス340は、ハプティック効果生成器341を用いて、受信した一又はそれ以上のハプティックパラメータに基づいて、新たなハプティック効果を生成し、デバイス350は、ハプティック効果生成器351を用いて、受信した一又はそれ以上のハプティックパラメータに基づいて、新たなハプティック効果を生成し、デバイス360は、ハプティック効果生成器361を用いて、受信した一又はそれ以上のハプティックパラメータに基づいて、新たなハプティック効果を生成する。
よって、デバイス製造者又はサービスプロバイダは、ユーザベース全体に亘る又はユーザベースのサブセットに亘るバリエーションをテストすることにより、一又はそれ以上のハプティック効果のセットを最適化することができる。一例として、デバイス製造者は、一又はそれ以上のハプティック効果を生成するために用いられるハプティックテーマをランダムに選択することができ、ハプティックテーマは、デバイスが消費者に販売されたときのような各デバイスにプレロードされる。そして、デバイスは、ハプティック効果により生じられる感情状態を測定する(例えば、バレンス又は覚醒)と共に、一又はそれ以上のハプティック効果が生成される状況を追加で測定する(例えば、環境音又は現在のタスク)ことができる。デバイス製造者は、そして、ネットワークを介して、各測定された感情状態及び追加で各測定された状況を収集することができ、収集された感情状態を記憶することができ、(例えば、サーバに記憶されるデータベースのような)サーバに追加で状況を記憶することができる。デバイス製造者は、そして、収集された感情状態をさらに分析し、収集された状況を追加で分析し、異なる状況の予め定義された感情状態へ最も導きやすい新たなハプティック効果を選択することができる。新たなハプティック効果は、そして、デバイスへ送信されることができる。新たなハプティック効果は、予め定義された感情状態に最も導きやすい、特定されたハプティック効果であることができる、又はさらなる感情状態(及び追加でさらなる状況)を測定するために用いられるハプティック効果の別のセットであることができる。
図4は、本発明の一実施形態に係る、個別の開発環境のブロック図を示す。図4は、ユーザ410を含む。ユーザ410は、ハプティック効果を生成しうるデバイス又はシステムのユーザを表す。上述したように、ユーザ410は、ハプティック効果を体験し、ハプティック効果を体験した結果、感情状態を生じうる。
図4は、また、デバイス420を含む。デバイス420は、ハプティック効果を生成しうるデバイスの一例である。例えば、デバイス420は、モバイルデバイス、タッチスクリーンデバイス、パーソナルコンピュータ又はスマートフォンの1つでありうる。実施形態によれば、デバイス420は、ハプティック効果生成器421、センサ422及び自動ハプティック効果調整モジュール423を含む。ハプティック効果生成器421は、一又はそれ以上のハプティックパラメータに基づいてハプティック効果を生成しうるハードウェア構成要素及び/又はソフトウェア構成要素を含む。特定の実施形態では、ハプティック効果生成器421は、図2のハプティック効果生成器220及び図3のハプティック効果生成器331、341、351及び361と同一である。しかし、これらの実施形態の幾つかでは、ハプティック効果生成器421は、自動ハプティック効果調整モジュールを含まない。別の実施形態では、デバイス420は、図4に図示されない追加のハプティック効果生成器を含みうる。
センサ422は、ハプティック効果を体験するユーザの感情状態を測定するように構成されることができる。特定の実施形態では、センサ422は、図2の感情センサ230及び図3のセンサ332、342、352及び362と同一である。別の実施形態では、デバイス420は、図4に図示されない追加のセンサを含みうる。これらの実施形態の幾つかでは、追加のセンサの少なくとも1つは、ユーザの状況を測定しうるセンサであることができ、ユーザは、ハプティック効果を体験する。これらの実施形態では、少なくとも1つの追加センサは、図2の状況センサ240と同一でありうる。
自動ハプティック効果調整モジュール423は、ハプティック効果を自動調整するように構成されうる。特定の実施形態では、自動ハプティック効果調整モジュール423は、図1の自動ハプティック効果調整モジュール16、図2の自動ハプティック効果調整モジュール221、及び図3の自動ハプティック効果調整モジュール311と同一である。
実施形態によれば、デバイス420は、ハプティック効果生成器421を用いてハプティック効果を生成し、デバイス420は、センサ422を用いて、ハプティック効果を体験するユーザ410の感情状態を測定する。ユーザ410の測定された感情状態に基づいて、デバイス420は、自動ハプティック効果調整モジュール423を用いて、一又はそれ以上のハプティックパラメータを調整する。デバイス420は、さらに、ハプティック効果生成器421を用いて、一又はそれ以上のハプティックパラメータに基づいて、新たなハプティック効果を生成する。
一実施形態では、デバイス420は、さらに、センサ422を用いて、新たなハプティック効果を体験するユーザ410の新たな感情状態を測定することができる。ユーザ410の新たに測定された感情状態に基づいて、デバイス420は、さらに、自動ハプティック効果調整モジュール423を用いて一又はそれ以上のハプティックパラメータを調整し、さらに、ハプティック効果生成器421を用いて一又はそれ以上のハプティックパラメータに基づいて新たなハプティック効果を生成することができる。この実施形態では、デバイス420は、新たなハプティック効果が、予め定義された感情状態と類似するユーザ410の新たな感情状態を生じるまで、上述した機能を連続的に実行することができる。
よって、一例では、デバイスは、そのユーザの感情状態に基づいて、一又はそれ以上のハプティック効果のセットを自動調整することができる。デバイスは、周波数の強度のような一又はそれ以上のハプティック効果のセットの一又はそれ以上のパラメータでのバリエーションを自動的に導入し、一又はそれ以上の感情センサを用いてユーザの感情状態を測定することができる。よって、デバイスは、次第に、特定のユーザの一又はそれ以上のハプティック効果の最適なセットを学習し、ユーザの個人的な好みに適応することができる。調整は、連続的であることができ、それにより、時間に亘ってユーザの変化する好みに適応する。さらに、デバイス製造者が、デバイス製造者のデバイスの全てに対して一又はそれ以上のハプティック効果を生成するために用いられるデフォルトハプティックテーマを選択することを可能にするために、調整結果は、ネットワークを介して、追加的に製造者へ連絡されることができる。
図5は、本発明の一実施形態に係る、実験室環境のブロック図を示す。図5は、ユーザ510を含み、これは、図4のユーザ410と同一であり、本明細書ではさらに説明はしない。図5は、さらにデバイス520を含み、これは、高い忠実度のハプティック効果生成器521、高い忠実度のセンサ522、及び自動ハプティック効果調整モジュール523を含む。自動ハプティック効果調整モジュール523は、図4の自動ハプティック効果調整モジュール423と同一であり、これもまた本明細書ではさらに説明はしない。
高い忠実度のハプティック効果生成器521は、一又はそれ以上のハプティックパラメータに基づいてハプティック効果を生成しうるハードウェア構成要素及び/又はソフトウェア構成要素を含む。この実施形態では、高い忠実度のハプティック効果生成器521のハードウェア構成要素は、高い忠実度のアクチュエータである。実施形態によれば、高い忠実度のアクチュエータは、予め定義された解像度又はそれよりも高い解像度のハプティック効果のみを生成するように構成される。別の実施形態では、デバイス520は、図5には図示されない追加の高い忠実度のハプティック効果生成器を含みうる。さらに別の実施形態では、高い忠実度のハプティック効果生成器521は、(図4のハプティック効果生成器421のような)ハプティック効果生成器により置換されうる。
高い忠実度のセンサ522は、ハプティック効果を体験するユーザの感情状態を測定するように構成される。実施形態によれば、高い忠実度のセンサ522は、予め定義された解像度又はそれよりも高い解像度の感情状態のみを測定するように構成される。特定の実施形態では、高い忠実度のセンサ522は、高い忠実度の感情センサ522である。別の実施形態では、デバイス520は、図5には図示されない追加の高い忠実度のセンサを含みうる。これらの実施形態の幾つかでは、追加のセンサの少なくとも1つは、ハプティック効果を体験するユーザの状況を測定しうる高い忠実度のセンサであり得る。これらの実施形態では、少なくとも1つの追加の高い忠実度のセンサは、高い忠実度の状況センサでありうる。実施形態によれば、忠実性の状況センサのみが、予め定義された又はそれよりも高い解像度を用いて状況を測定する。
実施形態によれば、デバイス520は、高い忠実度のハプティック効果生成器521を用いてハプティック効果を生成し、デバイス520は、高い忠実度のセンサ422を用いて、ハプティック効果を体験するユーザの感情状態を測定する。ユーザ510の測定された感情状態に基づいて、デバイス520は、自動ハプティック効果調整モジュール523を用いて、一又はそれ以上のハプティックパラメータを調整する。デバイス520は、さらに、高い忠実度のハプティック効果生成器521を用いて、一又はそれ以上のハプティックパラメータに基づいて新たなハプティック効果を生成する。
一実施形態では、デバイス520は、さらに、高い忠実度のセンサ522を用いて、新たなハプティック効果を体験するユーザ510の新たな感情状態を測定することができる。ユーザ510の新たに測定された感情状態に基づいて、デバイス520は、さらに、自動ハプティック効果調整モジュール523を用いて、一又はそれ以上のハプティックパラメータを調整することができ、さらに、高い忠実度のハプティック効果生成器521を用いて、一又はそれ以上のハプティックパラメータに基づいて新たなハプティック効果を生成することができる。この実施形態では、新たなハプティック効果が、予め定義された感情状態と類似するユーザ510の新たな感情状態を生じるまで、デバイス520は、上述したような機能を連続的に実行することができる。
よって、ハプティック効果は、開発されたデバイスを含む環境ではなく実験室環境に自動調整することができる。この例では、ユーザは、高い忠実度のハプティック生成器を用いて一又はそれ以上のハプティック効果のセットを生成し、ブレインイメージングデバイスのような一又はそれ以上の高い忠実度のセンサによる感情状態を測定するデバイスを用いることができる。一又はそれ以上のハプティック効果のセットは、反復して試みられることができ、各反復は、測定された感情状態により指示される。これは、特に、マーケティングシナリオで有用である。例えば、オンライン広告のハプティック効果の結果として導出される感情状態は、予め定義された感情状態を生じるように調整されることができる。
図6は、本発明の一実施形態に係る、ハプティック効果をリアルタイムで連続調整することを含む個別の開発環境のブロック図を示す。図6は、ユーザ610を含み、これは、図4のユーザ410と同一であり、本明細書ではさらに詳細には説明しない。図6は、さらに、デバイス620を含み、これは、ハプティック効果生成器621、センサ622,自動ハプティック効果調整モジュール623を含む。ハプティック効果生成器621は、図4のセンサ422と同一であり、センサ622は、図4のセンサ422と同一であり、自動ハプティック効果調整モジュール623は、自動ハプティック効果調整モジュール423と同一である。よって、ハプティック効果生成器621、センサ622,自動ハプティック効果調整モジュール623もまた、さらに詳細には説明しない。
実施形態によれば、デバイス620は、ハプティック効果生成器621を用いてハプティック効果を生成し、デバイス620は、センサ622を用いて、ハプティック効果を体験するユーザ610の感情状態を測定する。ユーザ610の測定された感情状態に基づいて、デバイス620は、自動ハプティック効果調整モジュール623を用いて一又はそれ以上のハプティックパラメータを調整する。デバイス620は、さらに、ハプティック効果生成器621を用いて一又はそれ以上のハプティックパラメータに基づいて、新たなハプティック効果を生成する。この実施形態では、デバイス620は、上述したような機能をリアルタイムで実行する。当業者に理解されるように、“リアルタイム”は、直ちに又は実質的に直ちに(例えば、5ミリ秒以内)に生じることを意味する。
一実施形態では、デバイス620は、さらに、センサ622を用いて、新たなハプティック効果を体験するユーザ610の新たな感情状態を測定することができる。ユーザ610の新たに測定された感情状態に基づいて、デバイス620は、さらに、自動ハプティック効果調整モジュール623を用いて一又はそれ以上のハプティックパラメータを調整することができ、さらに、ハプティック効果生成器621を用いて一又はそれ以上のハプティックパラメータに基づいて新たなハプティック効果を生成することができる。この実施形態では、新たなハプティック効果が、予め定義された感情状態に類似するユーザ610の新たな感情状態を生じるまで、デバイス620は、上述した機能をリアルタイムで連続的に実行することができる。
よって、一例では、一又はそれ以上のセンサにより測定された、所望の感情状態又は感情状態の所望の変化が生じるまで、ハプティック効果は、リアルタイムで連続的に調整されることができる。例えば、通知ハプティック効果は、一又はそれ以上の感情センサが、ハプティック効果がユーザにより気付かれたことを示すまで、強度が徐々に増加することができる。同様に、連続的なハプティック効果の強度は、ユーザの測定された感情状態に基づいて、ハプティック効果がもはやユーザにとって好ましくないことが決定されるまで、低減されることができる。
図7は、本発明の一実施形態に係る、自動ハプティック効果調整モジュール(例えば、図1の自動ハプティック効果調整モジュール16)の機能のブロック図を示す。一実施形態では、図7の機能は、メモリ又は別のコンピュータ可読又は有形媒体に記憶され、プロセッサにより実行されるソフトウェアにより実装される。別の実施形態では、この機能は、(例えば、特定用途向け集積回路(“ASIC”)、プログラマブルゲートアレイ(“PGA”)、フィールドプログラマブルゲートアレイ(“FPGA”)等のアプリケーションを使用することによる)ハードウェアにより行われてもよく、ハードウェア及びソフトウェアの組み合わせにより行われてもよい。また、別の実施形態では、機能は、アナログ構成要素を用いたハードウェアにより行われてもよい。
フローが開始し、710へ進む。710では、ハプティック効果は、一又はそれ以上のハプティックパラメータに基づいて生成される。特定の実施形態では、一又はそれ以上のハプティックパラメータは、振幅ハプティックパラメータ、周波数ハプティックパラメータ、持続期間ハプティックパラメータ、包絡線ハプティックパラメータ、密度ハプティックパラメータ、大きさハプティックパラメータ、強度ハプティックパラメータ、又はアクチュエータハプティックパラメータの少なくとも1つを含む。特定の実施形態では、ハプティック効果は、以下のように生成される。ハプティック信号は、一又はそれ以上のハプティックパラメータに基づいて生成される。ハプティック信号は、続いて、ハプティック効果を生成するために、アクチュエータへ送信される。フローは720へ進む。
720では、ハプティック効果を体験するユーザの感情状態が測定される。特定の実施形態では、ユーザの感情状態は、バレンス値及び覚醒値を含むことができる。バレンス値は、ハプティック効果に関連付けられるポジティブバレンス又はネガティブバレンスを示すことができる。覚醒値は、ハプティック効果に気付く状態を示すことができる。特定の実施形態では、感情状態は、以下のように測定される。感情データを検出するように構成される感情センサにより導入される入力は、測定される。感情データは、ユーザの一又はそれ以上の特性を含むことができる。入力は、続いて、ユーザの感情状態を判定するために分析される。フローは730へ進む。
730では、ハプティック効果を体験するユーザの状況を測定する。特定の実施形態では、ユーザの状況は、ユーザがハプティック効果を体験する時点でユーザが実行するアクション(例えば、デバイスとのやり取り)を表すことができる。特定の実施形態では、状況は、以下のように測定される。状況データを検出するように構成される状況センサにより導入される入力を測定する。状況データは、デバイスの一又はそれ以上の物理特性、デバイスの機能を特定するデータ、デバイスとのやり取りを特定するデータ、又は、圧力、加速度、音、又はデバイスとのやり取りにより生成されたデータのようなデータとのやり取りと関連付けられた一又はそれ以上の特性を含むことができる。この入力は、続いて、ユーザの状況を判定するために分析される。特定の実施形態では、730は省略されうる。フローは740へ進む。
740では、一又はそれ以上のハプティックパラメータの少なくとも1つのハプティックパラメータは、ユーザの測定された感情状態に基づいて調整される。特定の実施形態では、少なくとも1つのハプティックパラメータは、以下のように調整される。測定された感情状態と予め定義された感情状態との差を特定する。少なくとも1つのハプティックパラメータの少なくとも1つの値は、続いて、特定された差を低減するために、調整される。ユーザの状況も測定される特定の実施形態では、少なくとも1つのハプティックパラメータは、ユーザの測定された状況にも基づいて調整されることができる。フローは750へ進む。
750では、新たなハプティック効果は、一又はそれ以上のハプティックパラメータに基づいて生成され、少なくとも1つの調整されたハプティックパラメータは、新たなハプティック効果をハプティック効果とは異ならせる。新たなハプティック効果は、ユーザの新たな感情状態を生じることができ、新たな感情状態は、予め定義された感情状態により類似する。特定の実施形態では、新たなハプティック効果は、以下のように生成される。新たなハプティック信号は、少なくとも1つの調整されたハプティックパラメータを含む一又はそれ以上のハプティックパラメータに基づいて生成される。新たなハプティック信号は、続いて、新たなハプティック効果を生成するために、アクチュエータへ送信される。フローはその後終了する。
特定の実施形態では、710でのハプティック効果の生成、720での感情状態の測定、及び750での新たなハプティック効果の生成は、それぞれ、デバイスで実行される。これらの実施形態では、740での少なくとも1つのハプティックパラメータの調整は、サーバで実行される。また、これらの実施形態では、デバイスは、測定された感情状態及び測定された状況をサーバへ送信し、サーバは、一又はそれ以上のハプティックパラメータをデバイスへ送信する。これらの実施形態の幾つかでは、サーバは、複数のデバイスのハプティック効果を自動調整する。
別の実施形態では、710でのハプティック効果の生成、720での感情状態の測定、730での状況の測定、740での少なくとも1つのハプティックパラメータの調整、及び750での新たなハプティック効果の生成は、それぞれ、デバイスで実行される。これらの実施形態の幾つかでは、710でのハプティック効果の生成、720での感情状態の測定、730での状況の測定、740での少なくとも1つのハプティックパラメータの調整、及び750での新たなハプティック効果の生成は、新たなハプティック効果が、予め定義された感情状態に類似するユーザの新たな感情状態を生じるまで、連続的に実行される。さらに、これらの実施形態の幾つかでは、710でのハプティック効果の生成、720での感情状態の測定、730での状況の測定、740での少なくとも1つのハプティックパラメータの調整、及び750での新たなハプティック効果の生成は、リアルタイムで実行される。さらに、これらの実施形態の幾つかでは、710でのハプティック効果の生成は、高い忠実度のアクチュエータにより実行される。最後に、これらの実施形態の幾つかでは、720での感情状態の測定は、高い忠実度の感情センサにより実行される。
よって、実施形態によれば、ハプティック効果を生成し、ハプティック効果を体験するユーザの感情状態を測定し、感情状態に基づいてハプティック効果を自動調整することができるシステムを提供する。システムは、追加で、ハプティック効果を体験するユーザの状況を測定し、さらに、状況に基づいてハプティック効果を自動調整することができる。ハプティック効果を生成することと、ハプティック効果を体験するユーザの感情状態(及び追加で、ハプティック効果を体験するユーザの状況)を測定することの間のループを閉じることにより、システムは、ハプティック効果を調整するのに要求される時間を芸展することができ、ハプティック効果を調整するために使用可能なデータの量を増加することができる。システムは、さらに、リアリズム及びユーザの感情状態を測定することのための条件をテストする種類を増加することができ、ハプティック効果のパーソナライズを可能にし、時間に亘ってハプティック効果の調整を可能にすることができる。
本明細書を通して記載された本発明の特徴、構造、又は特性は、1つ以上の実施形態において任意の適切な方法において組み合わされてよい。例えば、「一実施形態」、「一部の実施形態」、「特定の実施形態」、「特定の実施形態(複数)」、又は他の類似の言語の使用は、本明細書を通じて、実施形態に関連して記載された特定の特徴、構造、又は特性が、本発明の少なくとも1つの実施形態に含まれ得るという事実に言及している。従って、「一実施形態」、「一部の実施形態」、「特定の実施形態」、「特定の実施形態(複数)」の言い回し、又は他の類似の言語の登場は、これら全てが、実施形態の同じ群のことを必ずしも言及しているのではなく、記載された特徴、構造、又は特性は、1つ以上の実施形態において任意の適切な方法において組み合わされてよい。
当業者は、上述した発明が、異なる順序におけるステップを用いて実施されてよく、及び/又は、記載された構成とは異なる構成における要素を用いて実施されてよいことを容易に理解する。それゆえ、本発明はこれらの好ましい実施形態に基づいて記載されているけれども、特定の修正、変更、及び代替の構成が明白であり、他方で本発明の趣旨及び範囲内にあることは、当業者にとって明白である。本発明の境界を決定するために、それゆえ、添付の特許請求の範囲に参照がなされるべきである。

Claims (15)

  1. ハプティック効果を自動的に調整するコンピュータ実装方法であって、
    一又はそれ以上のハプティックパラメータに基づいてハプティック効果を生成するステップと、
    前記ハプティック効果を体験するユーザの感情状態を測定するステップと、
    前記ユーザの測定された前記感情状態に基づいて前記一又はそれ以上のハプティックパラメータの少なくとも1つのハプティックパラメータを調整するステップと、
    前記一又はそれ以上のハプティックパラメータに基づいて新たなハプティック効果を生成するステップと、を備え、
    少なくとも1つの調整されたハプティックパラメータは、新たなハプティック効果を前記ハプティック効果とは異ならせる、コンピュータ実装方法。
  2. 前記ハプティック効果を体験する前記ユーザの状況を測定するステップをさらに備え、
    前記少なくとも1つのハプティックパラメータを調整するステップは、さらに、測定された前記ユーザの前記状況に基づく、請求項1に記載のコンピュータ実装方法。
  3. 前記感情状態を測定するステップは、
    前記ユーザの一又はそれ以上の特性を含む感情データを検出するように構成される感情センサにより生じる入力を測定するステップと、
    前記ユーザの前記感情状態を判定するために前記入力を分析するステップと、をさらに備え、
    前記感情状態は、バレンス値及び覚醒値を含む、請求項1に記載のコンピュータ実装方法。
  4. 前記少なくとも1つのハプティックパラメータを調整するステップは、
    測定された前記感情状態と予め定義された感情状態との差を特定するステップと、
    特定された前記差を低減するために前記少なくとも1つのハプティックパラメータの少なくとも1つの値を調整するステップと、をさらに備え、
    前記新たなハプティック効果は、前記ユーザの新たな感情状態を生じ、
    前記新たな感情状態は、前記予め定義された感情状態とより類似する、請求項1に記載のコンピュータ実装方法。
  5. 前記少なくとも1つのハプティックパラメータは、振幅ハプティックパラメータ、周波数ハプティックパラメータ、持続期間ハプティックパラメータ、包絡線ハプティックパラメータ、密度ハプティックパラメータ、大きさハプティックパラメータ、強度ハプティックパラメータ、又はアクチュエータハプティックパラメータの少なくとも1つを含む、請求項1に記載のコンピュータ実装方法。
  6. 前記少なくとも1つのハプティックパラメータを調整するステップは、サーバで実行され、
    前記ハプティック効果を生成するステップ、前記感情状態を測定するステップ及び前記新たなハプティック効果を生成するステップは、デバイスで実行され、
    前記デバイスは、測定された前記感情状態を前記サーバへ送信し、
    前記サーバは、前記一又はそれ以上のハプティックパラメータを前記デバイスへ送信し、
    前記サーバは、複数のデバイスのハプティック効果を自動的に調整する、請求項1に記載のコンピュータ実装方法。
  7. 前記ハプティック効果を生成するステップ、前記感情状態を測定するステップ、前記少なくとも1つのハプティックパラメータを調整するステップ及び前記新たなハプティック効果を生成するステップは、デバイスで実行される、請求項1に記載のコンピュータ実装方法。
  8. 前記感情状態を測定するステップ、前記少なくとも1つのハプティックパラメータを調整するステップ及び前記新たなハプティック効果を生成するステップは、前記新たなハプティック効果が、予め定義された感情状態に類似する前記ユーザの新たな感情状態を生じるまで連続的に実行され、
    前記感情状態を測定するステップ、前記少なくとも1つのハプティックパラメータを調整するステップ及び前記新たなハプティック効果を生成するステップは、リアルタイムで実行される、請求項7に記載のコンピュータ実装方法。
  9. 前記感情状態を測定するステップは、前記ユーザの一又はそれ以上の特性を検出する高い忠実度の感情センサにより生じる入力を測定することをさらに備え、
    前記ハプティック効果を生成するステップは、前記ハプティック効果を生成するために生成されたハプティック信号を高い忠実度のアクチュエータへ送信することをさらに備える、請求項7に記載のコンピュータ実装方法。
  10. 前記ハプティック効果を生成するステップは、
    前記一又はそれ以上のハプティックパラメータに基づいてハプティック信号を生成するステップと、
    前記ハプティック効果を生成するために前記ハプティック信号をアクチュエータに送信するステップと、をさらに備え、
    前記新たなハプティック効果を生成するステップは、
    少なくとも1つの調整された前記ハプティックパラメータを含む前記一又はそれ以上のハプティックパラメータに基づいて新たなハプティック信号を生成するステップと、
    前記新たなハプティック効果を生成するために前記新たなハプティック信号を前記アクチュエータに送信するステップと、をさらに備える請求項1に記載のコンピュータ実装方法。
  11. ハプティック効果を自動的に調整するシステムであって、
    自動ハプティック効果調整モジュールを記憶するように構成されるメモリと、
    前記メモリに記憶される前記自動ハプティック効果調整モジュールを実行するように構成されるプロセッサと、を備え、
    前記自動ハプティック効果調整モジュールは、一又はそれ以上のハプティックパラメータに基づいてハプティック効果を生成するように構成され、
    前記自動ハプティック効果調整モジュールは、さらに、前記ハプティック効果を体験するユーザの感情状態を測定するように構成され、
    前記自動ハプティック効果調整モジュールは、さらに、測定された前記ユーザの前記感情状態に基づいて前記一又はそれ以上のハプティックパラメータの少なくとも1つのハプティックパラメータを調整するように構成され、
    前記自動ハプティック効果調整モジュールは、さらに、前記一又はそれ以上のハプティックパラメータに基づいて新たなハプティック効果を生成するように構成され、
    少なくとも1つの調整された前記ハプティックパラメータは、前記新たなハプティック効果を前記ハプティック効果とは異ならせる、システム。
  12. 前記自動ハプティック効果調整モジュールは、さらに、前記ハプティック効果を体験する前記ユーザの状況を測定するように構成され、
    前記自動ハプティック効果調整モジュールは、さらに、測定された前記ユーザの前記状況に基づいて前記少なくとも1つのハプティックパラメータを調整するように構成される請求項11に記載のシステム。
  13. 前記自動ハプティック効果調整モジュールは、さらに、感情データを検出するように構成される感情センサにより生じる入力を測定するように構成され、前記感情データは、前記ユーザの一又はそれ以上の特性を含み、
    前記自動ハプティック効果調整モジュールは、さらに、前記ユーザの前記感情状態を判定するために前記入力を分析するように構成される請求項11に記載のシステム。
  14. 前記自動ハプティック効果調整モジュールは、さらに、測定された前記感情状態と予め定義された感情状態との差を特定するように構成され、
    前記自動ハプティック効果調整モジュールは、さらに、特定された前記差に基づいて前記少なくとも1つのハプティックパラメータの値を調整するように構成される請求項11に記載のシステム。
  15. プロセッサにより実行されたときに、前記プロセッサに請求項1から10のいずれか一項に記載の方法を実行させる命令を有するコンピュータ可読媒体。
JP2018080525A 2013-03-11 2018-04-19 自動ハプティック効果調整システム Expired - Fee Related JP6526284B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/792,754 US9202352B2 (en) 2013-03-11 2013-03-11 Automatic haptic effect adjustment system
US13/792,754 2013-03-11

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014033280A Division JP6328954B2 (ja) 2013-03-11 2014-02-24 自動ハプティック効果調整システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019085885A Division JP2019125400A (ja) 2013-03-11 2019-04-26 自動ハプティック効果調整システム

Publications (2)

Publication Number Publication Date
JP2018116744A true JP2018116744A (ja) 2018-07-26
JP6526284B2 JP6526284B2 (ja) 2019-06-05

Family

ID=50230903

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2014033280A Expired - Fee Related JP6328954B2 (ja) 2013-03-11 2014-02-24 自動ハプティック効果調整システム
JP2018080525A Expired - Fee Related JP6526284B2 (ja) 2013-03-11 2018-04-19 自動ハプティック効果調整システム
JP2019085885A Pending JP2019125400A (ja) 2013-03-11 2019-04-26 自動ハプティック効果調整システム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2014033280A Expired - Fee Related JP6328954B2 (ja) 2013-03-11 2014-02-24 自動ハプティック効果調整システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019085885A Pending JP2019125400A (ja) 2013-03-11 2019-04-26 自動ハプティック効果調整システム

Country Status (5)

Country Link
US (3) US9202352B2 (ja)
EP (2) EP2778843B1 (ja)
JP (3) JP6328954B2 (ja)
KR (1) KR20140111959A (ja)
CN (2) CN108388349A (ja)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7765333B2 (en) 2004-07-15 2010-07-27 Immersion Corporation System and method for ordering haptic effects
US9116546B2 (en) * 2012-08-29 2015-08-25 Immersion Corporation System for haptically representing sensor input
US9202352B2 (en) * 2013-03-11 2015-12-01 Immersion Corporation Automatic haptic effect adjustment system
US9274603B2 (en) 2013-05-24 2016-03-01 Immersion Corporation Method and apparatus to provide haptic feedback based on media content and one or more external parameters
US9520036B1 (en) * 2013-09-18 2016-12-13 Amazon Technologies, Inc. Haptic output generation with dynamic feedback control
US9330547B2 (en) * 2014-05-20 2016-05-03 Immersion Corporation Haptic effect authoring tool based on a haptification model
KR102254705B1 (ko) 2014-09-19 2021-05-24 삼성전자주식회사 단말 장치 및 그 제어방법
US9691238B2 (en) * 2015-07-29 2017-06-27 Immersion Corporation Crowd-based haptics
US9990040B2 (en) 2015-09-25 2018-06-05 Immersion Corporation Haptic CAPTCHA
DE102015016152A1 (de) * 2015-12-12 2017-06-14 Daimler Ag Haptische Rückmeldung bei einer Nutzerschnittstelle
US10200332B2 (en) * 2015-12-14 2019-02-05 Immersion Corporation Delivery of haptics to select recipients of a message
IL262065B2 (en) 2016-04-01 2023-12-01 Univ Pittsburgh Commonwealth Sys Higher Education Regulatory device and related method
US9886829B2 (en) 2016-06-20 2018-02-06 Immersion Corporation Systems and methods for closed-loop control for haptic feedback
US9756604B1 (en) * 2016-07-21 2017-09-05 Immersion Corporation Haptic functionality for network connected devices
US10234945B2 (en) 2016-09-09 2019-03-19 Immersion Corporation Compensated haptic rendering for flexible electronic devices
US10078370B2 (en) * 2016-11-23 2018-09-18 Immersion Corporation Devices and methods for modifying haptic effects
US10696249B2 (en) * 2017-02-10 2020-06-30 Koninklijke Philips N.V. Automatic car setting adjustments by identifying driver with health watch wearable or in-car sensors
WO2019023726A1 (de) * 2017-07-31 2019-02-07 Keba Ag Industriebedienpanel
WO2019072389A1 (en) * 2017-10-12 2019-04-18 Telefonaktiebolaget Lm Ericsson (Publ) EXTENDING A HAPTICAL SIGNAL
WO2019144542A1 (en) * 2018-01-26 2019-08-01 Institute Of Software Chinese Academy Of Sciences Affective interaction systems, devices, and methods based on affective computing user interface
US10832537B2 (en) * 2018-04-04 2020-11-10 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
WO2020008862A1 (ja) * 2018-07-02 2020-01-09 ソニー株式会社 情報処理装置、情報処理方法及び情報処理装置可読記録媒体
US11269415B2 (en) 2018-08-14 2022-03-08 Cirrus Logic, Inc. Haptic output systems
GB201817495D0 (en) 2018-10-26 2018-12-12 Cirrus Logic Int Semiconductor Ltd A force sensing system and method
KR20210113266A (ko) 2019-01-04 2021-09-15 아폴로 뉴로사이언스 인코포레이티드 경피 진동을 위한 파 생성 시스템들 및 방법들
US10828672B2 (en) 2019-03-29 2020-11-10 Cirrus Logic, Inc. Driver circuitry
US10955955B2 (en) 2019-03-29 2021-03-23 Cirrus Logic, Inc. Controller for use in a device comprising force sensors
US11644370B2 (en) 2019-03-29 2023-05-09 Cirrus Logic, Inc. Force sensing with an electromagnetic load
US11509292B2 (en) 2019-03-29 2022-11-22 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using least-mean-squares filter
GB2584167B (en) * 2019-05-24 2023-06-28 Sensae Aps User interface, user interface system and method
US10976825B2 (en) 2019-06-07 2021-04-13 Cirrus Logic, Inc. Methods and apparatuses for controlling operation of a vibrational output system and/or operation of an input sensor system
CN114008569A (zh) 2019-06-21 2022-02-01 思睿逻辑国际半导体有限公司 用于在装置上配置多个虚拟按钮的方法和设备
US11408787B2 (en) 2019-10-15 2022-08-09 Cirrus Logic, Inc. Control methods for a force sensor system
US11380175B2 (en) 2019-10-24 2022-07-05 Cirrus Logic, Inc. Reproducibility of haptic waveform
US11662821B2 (en) 2020-04-16 2023-05-30 Cirrus Logic, Inc. In-situ monitoring, calibration, and testing of a haptic actuator
JPWO2022196051A1 (ja) * 2021-03-18 2022-09-22
TW202248394A (zh) 2021-05-31 2022-12-16 日商陶氏東麗股份有限公司 顯示裝置、尤其是觸覺顯示裝置及其設計方法
US11933822B2 (en) 2021-06-16 2024-03-19 Cirrus Logic Inc. Methods and systems for in-system estimation of actuator parameters
US11765499B2 (en) 2021-06-22 2023-09-19 Cirrus Logic Inc. Methods and systems for managing mixed mode electromechanical actuator drive
US11908310B2 (en) 2021-06-22 2024-02-20 Cirrus Logic Inc. Methods and systems for detecting and managing unexpected spectral content in an amplifier system
CN114035686B (zh) * 2021-11-10 2024-04-16 浙江大学 融合触觉的多模态微动效广告情境构建方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010119563A (ja) * 2008-11-19 2010-06-03 Panasonic Electric Works Co Ltd 快適性評価モデル作成装置、快適性評価装置および快適環境提供装置
US20110009193A1 (en) * 2009-07-10 2011-01-13 Valve Corporation Player biofeedback for dynamically controlling a video game state
JP2013027570A (ja) * 2011-07-28 2013-02-07 Panasonic Corp 心理状態評価装置、心理状態評価システム、心理状態評価方法およびプログラム

Family Cites Families (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1256931A1 (en) * 2001-05-11 2002-11-13 Sony France S.A. Method and apparatus for voice synthesis and robot apparatus
US20030176806A1 (en) * 2002-02-26 2003-09-18 Pineda Jaime A. Method and system for an intelligent supervisory control system
JP4111278B2 (ja) * 2003-11-20 2008-07-02 独立行政法人産業技術総合研究所 触力覚情報提示システム
JP3953024B2 (ja) * 2003-11-20 2007-08-01 ソニー株式会社 感情算出装置及び感情算出方法、並びに携帯型通信装置
US9948885B2 (en) 2003-12-12 2018-04-17 Kurzweil Technologies, Inc. Virtual encounters
US20070063849A1 (en) * 2005-09-02 2007-03-22 Francesca Rosella Wearable haptic telecommunication device and system
CA2622365A1 (en) * 2005-09-16 2007-09-13 Imotions-Emotion Technology A/S System and method for determining human emotion by analyzing eye properties
CN101341458A (zh) * 2005-12-22 2009-01-07 皇家飞利浦电子股份有限公司 情侣枕头
JP2009530071A (ja) * 2006-03-13 2009-08-27 アイモーションズ−エモーション テクノロジー エー/エス 視覚的注意および感情反応の検出表示システム
US9370704B2 (en) 2006-08-21 2016-06-21 Pillar Vision, Inc. Trajectory detection and feedback system for tennis
CN101707944B (zh) * 2007-03-19 2013-09-04 马奎特紧急护理公司 用于呼吸设备中的患者关键的运行参数的手动输入和触觉输出的方法和装置
US8392253B2 (en) * 2007-05-16 2013-03-05 The Nielsen Company (Us), Llc Neuro-physiology and neuro-behavioral based stimulus targeting system
US9754078B2 (en) * 2007-06-21 2017-09-05 Immersion Corporation Haptic health feedback monitoring
US8683378B2 (en) * 2007-09-04 2014-03-25 Apple Inc. Scrolling techniques for user interfaces
US20090088659A1 (en) * 2007-09-27 2009-04-02 Immersion Corporation Biological Sensing With Haptic Feedback
US9418368B2 (en) * 2007-12-20 2016-08-16 Invention Science Fund I, Llc Methods and systems for determining interest in a cohort-linked avatar
US8123660B2 (en) * 2007-12-28 2012-02-28 Immersion Corporation Method and apparatus for providing communications with haptic cues
GB2468811B (en) 2008-01-17 2012-12-19 Articulate Technologies Inc Methods and devices for intraoral tactile feedback
EP2313820B1 (en) * 2008-07-15 2017-04-05 Immersion Corporation Systems and methods for physics-based tactile messaging
KR101604602B1 (ko) * 2008-10-20 2016-03-18 코닌클리케 필립스 엔.브이. 렌더링 환경에서 사용자에게 미치는 영향의 제어
US8004391B2 (en) * 2008-11-19 2011-08-23 Immersion Corporation Method and apparatus for generating mood-based haptic feedback
US9727139B2 (en) * 2008-12-12 2017-08-08 Immersion Corporation Method and apparatus for providing a haptic monitoring system using multiple sensors
US20100152620A1 (en) * 2008-12-12 2010-06-17 Immersion Corporation Method and Apparatus for Providing A Haptic Monitoring System Using Multiple Sensors
US20120123232A1 (en) * 2008-12-16 2012-05-17 Kayvan Najarian Method and apparatus for determining heart rate variability using wavelet transformation
US20100167820A1 (en) * 2008-12-29 2010-07-01 Houssam Barakat Human interface device
US8009022B2 (en) * 2009-05-29 2011-08-30 Microsoft Corporation Systems and methods for immersive interaction with virtual objects
US9370459B2 (en) 2009-06-19 2016-06-21 Andrew Mahoney System and method for alerting visually impaired users of nearby objects
US8655437B2 (en) * 2009-08-21 2014-02-18 The Nielsen Company (Us), Llc Analysis of the mirror neuron system for evaluation of stimulus
KR101800042B1 (ko) * 2010-03-16 2017-11-21 임머숀 코퍼레이션 햅틱 정보 미리보기를 위한 시스템들 및 방법들
US9251721B2 (en) 2010-04-09 2016-02-02 University Of Florida Research Foundation, Inc. Interactive mixed reality system and uses thereof
WO2011153318A2 (en) * 2010-06-02 2011-12-08 Q-Tec Systems Llc Method and apparatus for monitoring emotion in an interactive network
US9335181B2 (en) * 2010-11-10 2016-05-10 Qualcomm Incorporated Haptic based personal navigation
AU2011329025A1 (en) * 2010-11-17 2013-05-23 Affectiva, Inc. Sharing affect across a social network
KR101154306B1 (ko) * 2010-11-22 2012-06-13 기아자동차주식회사 로터리 스위치의 선택 메뉴별 햅틱 필링 차별화 방법
US8573980B2 (en) * 2011-04-04 2013-11-05 Sheepdog Sciences, Inc. Apparatus, system, and method for modulating consolidation of memory during sleep
US8382484B2 (en) * 2011-04-04 2013-02-26 Sheepdog Sciences, Inc. Apparatus, system, and method for modulating consolidation of memory during sleep
US9462262B1 (en) 2011-08-29 2016-10-04 Amazon Technologies, Inc. Augmented reality environment with environmental condition control
US9762719B2 (en) * 2011-09-09 2017-09-12 Qualcomm Incorporated Systems and methods to enhance electronic communications with emotional context
US20130100008A1 (en) * 2011-10-19 2013-04-25 Stefan J. Marti Haptic Response Module
US9015084B2 (en) * 2011-10-20 2015-04-21 Gil Thieberger Estimating affective response to a token instance of interest
US10013857B2 (en) * 2011-12-21 2018-07-03 Qualcomm Incorporated Using haptic technologies to provide enhanced media experiences
US10852093B2 (en) 2012-05-22 2020-12-01 Haptech, Inc. Methods and apparatuses for haptic systems
US8896524B2 (en) 2012-08-24 2014-11-25 Immersion Corporation Context-dependent haptic confirmation system
US9116546B2 (en) * 2012-08-29 2015-08-25 Immersion Corporation System for haptically representing sensor input
KR101680502B1 (ko) * 2012-09-25 2016-11-28 노키아 테크놀로지스 오와이 촉각적 피드백을 갖는 방법 및 디스플레이 디바이스
US9007198B2 (en) * 2012-11-02 2015-04-14 Toyota Motor Engineering & Manufacturing North America, Inc. Adaptive Actuator interface for active driver warning
FR2999741B1 (fr) 2012-12-17 2015-02-06 Centre Nat Rech Scient Systeme haptique pour faire interagir sans contact au moins une partie du corps d'un utilisateur avec un environnement virtuel
US20130123570A1 (en) * 2012-12-18 2013-05-16 Design Poetry Llc Haptic Communicator and Sensor Device
US10504339B2 (en) * 2013-02-21 2019-12-10 Immersion Corporation Mobile device with instinctive alerts
US9550105B2 (en) * 2013-03-07 2017-01-24 Immersion Corporation Pacing system with feedback based adjustments
US9833697B2 (en) * 2013-03-11 2017-12-05 Immersion Corporation Haptic sensations as a function of eye gaze
US9202352B2 (en) * 2013-03-11 2015-12-01 Immersion Corporation Automatic haptic effect adjustment system
US9367136B2 (en) 2013-04-12 2016-06-14 Microsoft Technology Licensing, Llc Holographic object feedback
US9908048B2 (en) 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
US9811854B2 (en) 2013-07-02 2017-11-07 John A. Lucido 3-D immersion technology in a virtual store
WO2015002850A1 (en) 2013-07-05 2015-01-08 Rubin Jacob A Whole-body human-computer interface
US9520036B1 (en) * 2013-09-18 2016-12-13 Amazon Technologies, Inc. Haptic output generation with dynamic feedback control
US9630105B2 (en) 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
EP3095023A1 (en) 2014-01-15 2016-11-23 Sony Corporation Haptic notification on wearables
US10251552B2 (en) * 2014-03-21 2019-04-09 University Of Massachusetts Medical School Methods and systems for reducing irritability in infants
US9330547B2 (en) * 2014-05-20 2016-05-03 Immersion Corporation Haptic effect authoring tool based on a haptification model
US9551873B2 (en) 2014-05-30 2017-01-24 Sony Interactive Entertainment America Llc Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content
EP3648072A1 (en) 2014-07-28 2020-05-06 CK Materials Lab Co., Ltd. A method for providing haptic information
US9645646B2 (en) 2014-09-04 2017-05-09 Intel Corporation Three dimensional contextual feedback wristband device
US9173806B1 (en) * 2014-09-11 2015-11-03 Vibease Pte. Ltd. Systems and methods for a stimulation device
KR102254705B1 (ko) * 2014-09-19 2021-05-24 삼성전자주식회사 단말 장치 및 그 제어방법
US9799177B2 (en) 2014-09-23 2017-10-24 Intel Corporation Apparatus and methods for haptic covert communication
US20160170508A1 (en) 2014-12-11 2016-06-16 Toyota Motor Engineering & Manufacturing North America, Inc. Tactile display devices
US9922518B2 (en) 2014-12-11 2018-03-20 Elwha Llc Notification of incoming projectiles
US10166466B2 (en) 2014-12-11 2019-01-01 Elwha Llc Feedback for enhanced situational awareness
US9870718B2 (en) 2014-12-11 2018-01-16 Toyota Motor Engineering & Manufacturing North America, Inc. Imaging devices including spacing members and imaging devices including tactile feedback devices
US10073516B2 (en) 2014-12-29 2018-09-11 Sony Interactive Entertainment Inc. Methods and systems for user interaction within virtual reality scene using head mounted display
US9746921B2 (en) 2014-12-31 2017-08-29 Sony Interactive Entertainment Inc. Signal generation and detector systems and methods for determining positions of fingers of a user
US9843744B2 (en) 2015-01-13 2017-12-12 Disney Enterprises, Inc. Audience interaction projection system
US10322203B2 (en) 2015-06-26 2019-06-18 Intel Corporation Air flow generation for scent output
US9990040B2 (en) * 2015-09-25 2018-06-05 Immersion Corporation Haptic CAPTCHA
US9851799B2 (en) 2015-09-25 2017-12-26 Oculus Vr, Llc Haptic surface with damping apparatus
US20170103574A1 (en) 2015-10-13 2017-04-13 Google Inc. System and method for providing continuity between real world movement and movement in a virtual/augmented reality experience
US20170131775A1 (en) 2015-11-10 2017-05-11 Castar, Inc. System and method of haptic feedback by referral of sensation
WO2017095951A1 (en) 2015-11-30 2017-06-08 Nike Innovate C.V. Apparel with ultrasonic position sensing and haptic feedback for activities
US10310804B2 (en) 2015-12-11 2019-06-04 Facebook Technologies, Llc Modifying haptic feedback provided to a user to account for changes in user perception of haptic feedback
US10324530B2 (en) 2015-12-14 2019-06-18 Facebook Technologies, Llc Haptic devices that simulate rigidity of virtual objects
US10096163B2 (en) 2015-12-22 2018-10-09 Intel Corporation Haptic augmented reality to reduce noxious stimuli
US10065124B2 (en) 2016-01-15 2018-09-04 Disney Enterprises, Inc. Interacting with a remote participant through control of the voice of a toy device
US11351472B2 (en) 2016-01-19 2022-06-07 Disney Enterprises, Inc. Systems and methods for using a gyroscope to change the resistance of moving a virtual weapon
US9846971B2 (en) 2016-01-19 2017-12-19 Disney Enterprises, Inc. Systems and methods for augmenting an appearance of a hilt to simulate a bladed weapon
US10477006B2 (en) 2016-01-22 2019-11-12 Htc Corporation Method, virtual reality system, and computer-readable recording medium for real-world interaction in virtual reality environment
US9933851B2 (en) 2016-02-22 2018-04-03 Disney Enterprises, Inc. Systems and methods for interacting with virtual objects using sensory feedback
US10555153B2 (en) 2016-03-01 2020-02-04 Disney Enterprises, Inc. Systems and methods for making non-smart objects smart for internet of things
US20170352185A1 (en) 2016-06-02 2017-12-07 Dennis Rommel BONILLA ACEVEDO System and method for facilitating a vehicle-related virtual reality and/or augmented reality presentation
US10155159B2 (en) 2016-08-18 2018-12-18 Activision Publishing, Inc. Tactile feedback systems and methods for augmented reality and virtual reality systems
US20180053351A1 (en) 2016-08-19 2018-02-22 Intel Corporation Augmented reality experience enhancement method and apparatus
US10372213B2 (en) 2016-09-20 2019-08-06 Facebook Technologies, Llc Composite ribbon in a virtual reality device
US10779583B2 (en) 2016-09-20 2020-09-22 Facebook Technologies, Llc Actuated tendon pairs in a virtual reality device
US10300372B2 (en) 2016-09-30 2019-05-28 Disney Enterprises, Inc. Virtual blaster
US10281982B2 (en) 2016-10-17 2019-05-07 Facebook Technologies, Llc Inflatable actuators in virtual reality
US10088902B2 (en) 2016-11-01 2018-10-02 Oculus Vr, Llc Fiducial rings in virtual reality
US20170102771A1 (en) 2016-12-12 2017-04-13 Leibs Technology Limited Wearable ultrasonic haptic feedback system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010119563A (ja) * 2008-11-19 2010-06-03 Panasonic Electric Works Co Ltd 快適性評価モデル作成装置、快適性評価装置および快適環境提供装置
US20110009193A1 (en) * 2009-07-10 2011-01-13 Valve Corporation Player biofeedback for dynamically controlling a video game state
JP2013027570A (ja) * 2011-07-28 2013-02-07 Panasonic Corp 心理状態評価装置、心理状態評価システム、心理状態評価方法およびプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
吉本 早苗 他: "怒り顔の閾下提示による好感度向上と瞳孔反応", 電子情報通信学会技術研究報告 HCS2012−54−HCS2012−75 ヒューマンコミュニケーショ, vol. 第112巻、第412号, JPN6019000150, 17 January 2013 (2013-01-17), JP, pages 71 - 76, ISSN: 0003953894 *
山本 修一 他: "NIRSを用いた視覚刺激呈示時の快・不快情動の評価に関する研究", HUMAN INTERFACE 2012 九州から発信するデザイン戦略 [DVD−ROM] ヒューマ, JPN6019000151, 4 September 2012 (2012-09-04), JP, pages 511 - 514, ISSN: 0003953895 *
藤原 義久 他A: "研究 マッサージチェア利用時における自律神経系生体情報を用いた人間感覚推定手法とマッサージ制御手法の", 日本エム・イー学会誌 生体医工学, vol. 第43巻第1号, JPN6019000149, 10 March 2005 (2005-03-10), JP, pages 162 - 171, ISSN: 0003953893 *

Also Published As

Publication number Publication date
EP3614237A1 (en) 2020-02-26
KR20140111959A (ko) 2014-09-22
JP2019125400A (ja) 2019-07-25
EP2778843A2 (en) 2014-09-17
JP2014174988A (ja) 2014-09-22
CN104049733A (zh) 2014-09-17
US10228764B2 (en) 2019-03-12
EP2778843A3 (en) 2014-10-01
CN104049733B (zh) 2018-04-20
JP6526284B2 (ja) 2019-06-05
US20160139670A1 (en) 2016-05-19
EP2778843B1 (en) 2019-09-18
US20140253303A1 (en) 2014-09-11
CN108388349A (zh) 2018-08-10
US9202352B2 (en) 2015-12-01
US20190171292A1 (en) 2019-06-06
JP6328954B2 (ja) 2018-05-23

Similar Documents

Publication Publication Date Title
JP6526284B2 (ja) 自動ハプティック効果調整システム
US9955349B1 (en) Triggering a request for an authentication
US10748391B2 (en) Haptic signal conversion system
EP3147753A1 (en) Haptic captcha
EP2730223B1 (en) Apparatus and method for determining user's mental state
JP6494222B2 (ja) 自動遠隔検出およびハプティック変換システム
US10423232B2 (en) Automated haptic setting generation
WO2019086856A1 (en) Systems and methods for combining and analysing human states
US20240012480A1 (en) Machine learning configurations modeled using contextual categorical labels for biosignals
US20220108775A1 (en) Techniques for updating a health-related record of a user of an input/output device
Rincon et al. Using emotions in intelligent virtual environments: the EJaCalIVE framework
JP5858228B2 (ja) 同定装置、同定方法および同定プログラム
KR20200068058A (ko) 인공지능 학습을 통해 자기 계발을 도와주는 방법 및 장치
KR20200068057A (ko) 인공지능 학습을 통해 자기 계발을 도와주는 방법 및 장치
KR102676531B1 (ko) 웨어러블 디바이스 및 그 제어방법
JPWO2019230234A1 (ja) 情報処理装置、プログラム、及び、センシングデバイス
Quek Background Sensing Using Muscle Tremor Input on a Mobile Device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180427

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190507

R150 Certificate of patent or registration of utility model

Ref document number: 6526284

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees