JP2015232880A - 視野および/または近接度に基づいて触覚強度を変更するためのプログラマブル触覚デバイスおよび方法 - Google Patents

視野および/または近接度に基づいて触覚強度を変更するためのプログラマブル触覚デバイスおよび方法 Download PDF

Info

Publication number
JP2015232880A
JP2015232880A JP2015114385A JP2015114385A JP2015232880A JP 2015232880 A JP2015232880 A JP 2015232880A JP 2015114385 A JP2015114385 A JP 2015114385A JP 2015114385 A JP2015114385 A JP 2015114385A JP 2015232880 A JP2015232880 A JP 2015232880A
Authority
JP
Japan
Prior art keywords
haptic
haptic effect
processor
actuator
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015114385A
Other languages
English (en)
Other versions
JP6576697B2 (ja
Inventor
リーン ウィリアム
Rihn William
リーン ウィリアム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2015232880A publication Critical patent/JP2015232880A/ja
Application granted granted Critical
Publication of JP6576697B2 publication Critical patent/JP6576697B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1037Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted for converting control signals received from the game device into a haptic signal, e.g. using force feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/013Force feedback applied to a game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/015Force feedback applied to a joystick
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】より没入できより楽しい経験をユーザに与えるために以前には利用可能でなかった変種の触覚効果を与える触覚フィードバック・システムを提案すること。
【解決手段】触覚フィードバックを与えるためのシステムは、ユーザへの仮想環境をディスプレイ上に生成するように構成されたホスト・コンピュータと、プロセッサと、触覚周辺機器と、近接センサとを含む。触覚周辺機器はアクチュエータを含み、アクチュエータは、プロセッサからの制御信号を受け取り、プロセッサからの制御信号に応答して触覚効果を触覚周辺機器に出力するように構成される。プロセッサは、仮想カメラと仮想物体との間の仮想環境内の仮想距離に応じてアクチュエータのための制御信号を変えるように構成される。加えてまたは代替として、プロセッサは、仮想環境内の仮想カメラの視野に応じてアクチュエータのための制御信号を変えるように構成される。
【選択図】図1

Description

本発明は、触覚効果(haptic effect)または触覚フィードバックを与えるためのシステムおよび方法に関し、特に、視野(perspective)および/または近接度に基づいて触覚強度を変更するためのプログラマブル触覚デバイスおよび方法に関する。
関連出願の相互参照
本願は、2014年6月9日に出願された米国特許仮出願第62/009898号の利益を主張し、その全体がすべての目的のために参照により本明細書に組み込まれる。
ビデオ・ゲームおよび仮想現実システムは、カジュアル・ゲーマーへのマーケティング、およびカジュアル・ゲーマーからの結果として生じる関与のために一層人気が高まっている。典型的な実施態様では、コンピュータ・システムが、ユーザへの視覚またはグラフィカル環境をディスプレイ・デバイスに表示する。ユーザは、インタフェース・デバイスからコマンドまたはデータを入力することによって、表示された環境と対話することができる。コンピュータは、ジョイスティック・ハンドルなどの移動型操作子(manipulandum:マニピュランダム)のユーザ操作に応答して環境を更新し、ディスプレイ画面を使用してユーザに視覚フィードバックを与える。
従来のビデオ・ゲーム・デバイスまたはコントローラは視覚および聴覚キュー(cue)を使用して、ユーザにフィードバックを与える。いくつかのインタフェース・デバイスでは、運動感覚フィードバック(能動的および抵抗性触覚フィードバックなど)および/または触感(tactile)フィードバック(振動、質感、および熱など)が、さらに、ユーザに与えられ、より一般的には、まとめて、「触覚フィードバック」または「触覚効果」として知られている。触覚フィードバックは、ユーザ・インターフェースを強化し簡単化するキューを与えることができる。例えば、振動効果または振動触感触覚効果(vibrotactile haptic effect)は、電子デバイスのユーザにキューを与えて特定のイベントについてユーザに警報を出すときに有用であり、または現実的なフィードバックを与えて、シミュレートされたもしくは仮想の環境内により大きい知覚没入を作り出すことができる。ゲーミング・デバイスおよび他のデバイスのための従来の触覚フィードバック・システムは、一般に、コントローラ/周辺機器のハウジングに取り付けられた、触覚フィードバックを生成するためのアクチュエータを含む。より詳細には、インタフェース・デバイスのモータまたは他のアクチュエータがコントローラ内に収納され、制御用コンピュータ・システムに接続される。コンピュータ・システムはインタフェース・デバイスからセンサ信号を受け取り、適切な触覚フィードバック制御信号をアクチュエータに送る。その後、アクチュエータは、触覚フィードバックをコントローラに与える。このようにして、コンピュータ・システムは、他の視覚および聴覚フィードバックとともにユーザに身体的感覚を伝えることができる。
より没入できより楽しい経験をユーザに与えるために以前には利用可能でなかった変種の触覚効果を与える触覚フィードバック・システムへの要求がある。
本発明の実施形態は、ユーザへの仮想環境をディスプレイ上に生成するように構成されたホスト・コンピュータと、プロセッサと、触覚周辺機器とを含むシステムに関連する。触覚周辺機器はアクチュエータを含み、アクチュエータは、プロセッサからの制御信号を受け取り、プロセッサからの制御信号に応答して触覚効果を触覚周辺機器に出力するように構成される。プロセッサは、仮想環境の仮想カメラのズーム状態に応じてアクチュエータのための制御信号を変え、その結果、第1のズーム状態により、アクチュエータは第1の触覚効果を生成し適用することになり、第2のズーム状態により、アクチュエータは第2の触覚効果を生成し適用することになる。仮想物体は第1のズーム状態におけるよりも第2のズーム状態においてより近くに現れ、第1の触覚効果は第2の触覚効果よりも弱い。
本発明の実施形態は、さらに、ユーザへの仮想環境をディスプレイ上に生成するように構成されたホスト・コンピュータと、触覚周辺機器と、プロセッサとを含むシステムに関連する。触覚周辺機器はアクチュエータを含み、アクチュエータは、プロセッサからの制御信号を受け取り、プロセッサからの制御信号に応答して触覚効果を触覚周辺機器に出力するように構成される。プロセッサは、仮想環境内の仮想カメラの視野に応じてアクチュエータのための制御信号を変え、その結果、第1の視野により、アクチュエータは第1の触覚効果を生成し適用することになり、第2の視野により、アクチュエータは第2の触覚効果を生成し適用することになり、第1の触覚効果は第2の触覚効果と異なるように構成される。
本発明の実施形態は、さらに、ユーザへの仮想環境をディスプレイ上に生成するように構成されたホスト・コンピュータと、触覚周辺機器と、プロセッサとを含むシステムに関連する。触覚周辺機器はアクチュエータを含み、アクチュエータは、プロセッサからの制御信号を受け取り、プロセッサからの制御信号に応答して触覚効果を触覚周辺機器に出力するように構成される。プロセッサは、仮想環境の仮想カメラのズーム状態に応じてアクチュエータのための制御信号を変え、その結果、第1のズーム状態により、アクチュエータは第1の触覚効果を生成し適用することになり、第2のズーム状態により、アクチュエータは第2の触覚効果を生成し適用することになるように構成される。仮想物体は第1のズーム状態におけるよりも第2のズーム状態においてより近くに現れる。プロセッサは、さらに、仮想環境内の仮想カメラの視野に応じてアクチュエータのための制御信号を変え、その結果、第1の視野により、アクチュエータは第3の触覚効果を生成し適用することになり、第2の視野により、アクチュエータは第4の触覚効果を生成し適用することになるように構成される。第1の触覚効果、第2の触覚効果、第3の触覚効果、および第4の触覚効果は互いに異なる。
本発明の実施形態による、触覚フィードバックを触覚周辺機器に与えるためのシステムのブロック図である。 図1のシステムの概略図であり、触覚周辺機器は触覚ジョイスティックである。 本発明の実施形態による触覚周辺機器の斜視図であり、触覚周辺機器は手持ち式ゲーミング・コントローラである。 本発明の実施形態による触覚周辺機器の斜視図であり、触覚周辺機器は手持ち式ゲーミング・コントローラである。 図3および4のゲーミング・コントローラのブロック図である。 本発明の実施形態による、触覚フィードバックを触覚周辺機器に与えるためのシステムの斜視図であり、触覚周辺機器は、タブレット・コンピュータとともに使用することができるゲーミング・タブレット・コントローラである。 図6のシステムのブロック図である。 図1のシステムのディスプレイの図であり、ディスプレイはその上に仮想物体を表示する。 図1のシステムの仮想カメラと図8の仮想物体との間の仮想距離の概略図である。 図1のシステムのディスプレイの図であり、ディスプレイはその上に仮想物体を表示する。 図1のシステムの仮想カメラと図10の仮想物体との間の仮想距離の概略図である。 本発明の実施形態による、触覚効果を触覚周辺機器のユーザに与える方法を示す流れ図であり、与えられる触覚効果は、触覚効果の発生源または原因である仮想物体に対する仮想カメラの位置または距離に応じて変わる。 本発明の実施形態による、ホスト・デバイスからの触覚信号を決定し送出する方法を示す流れ図であり、与えられる触覚効果は、触覚効果の発生源または原因である仮想物体に対する仮想カメラの位置または距離に応じて変わる。 ビデオ・ゲームの実施形態における三人称仮想カメラ視野の図である。 本発明の実施形態による触覚周辺機器の図であり、触覚周辺機器は手持ち式ゲーミング・コントローラであり、ユーザが図14に示すような三人称仮想カメラ視野にいる場合、弱いおよび/または周囲触覚フィードバックが触覚周辺機器に与えられる。 ビデオ・ゲームの実施形態における一人称仮想カメラ視野の図である。 本発明の実施形態による触覚周辺機器の図であり、触覚周辺機器は手持ち式ゲーミング・コントローラであり、ユーザが図16に示すような一人称仮想カメラ視野にいる場合、強いおよび/またはトリガ触覚フィードバックが触覚周辺機器に与えられる。 本発明の実施形態による、触覚効果を触覚周辺機器のユーザに与える方法を示す流れ図であり、与えられる触覚効果は仮想カメラ視野に応じて変わる。 本発明の実施形態による、ホスト・デバイスからの触覚信号を決定し送出する方法を示す流れ図であり、与えられる触覚効果は仮想カメラ視野に応じて変わる。 本発明の実施形態による、触覚効果を触覚周辺機器のユーザに与える方法を示す流れ図であり、与えられる触覚効果は、仮想カメラ位置ならびに仮想カメラ視野に応じて変わる。 図20の流れ図の2つの異なる状態に対する関連触覚効果が同時に存在する場合に生じる触覚効果の概略図であり、仮想カメラが仮想物体から遠く離れており、三人称視野にある場合、弱い周囲触覚効果が与えられる。 図20の流れ図の2つの異なる状態に対する関連触覚効果が同時に存在する場合に生じる触覚効果の概略図であり、仮想カメラが仮想物体から遠く離れており、一人称視野にある場合、弱いトリガ触覚効果が与えられる。 図20の流れ図の2つの異なる状態に対する関連触覚効果が同時に存在する場合に生じる触覚効果の概略図であり、仮想カメラが仮想物体の近くにまたはすぐ近くにあり、かつ三人称視野にある場合、強い周囲触覚効果が与えられる。 図20の流れ図の2つの異なる状態に対する関連触覚効果が同時に存在する場合に生じる触覚効果の概略図であり、仮想カメラが仮想物体の近くにまたはすぐ近くにあり、かつ一人称視野にある場合、強いトリガ触覚効果が与えられる。
本発明の前述のおよび他の特徴および利点は、添付図面に示されるような本発明の実施形態の以下の説明から明らかになる。本明細書に組み込まれ、本明細書の一部を形成する添付図面は、本発明の原理を説明し、当業者が本発明を実施し使用することを可能にするのにさらに役立つ。図面は正しい縮尺ではない。
次に、本発明の特定の実施形態が図を参照しながら説明され、同様の参照番号は同一のまたは機能的に同様の要素を示す。以下の詳細な説明は、単に本質的に例示であり、本発明または本発明の適用および使用を限定することを意図していない。さらに、前出の技術分野、背景技術、発明の概要、または以下の発明を実施するための形態で提示される任意の明示または示唆された理論によって拘束されることを意図しない。さらに以下の説明は、主として、ゲーミング・デバイスおよびゲーミング・デバイス用コントローラに関するが、説明は他の仮想現実システムおよび仮想現実システム用周辺機器に同等に当てはまることを当業者は認識されよう。
本発明の実施形態は、ユーザへの仮想環境をディスプレイ上に生成するように構成されたホスト・コンピュータと、プロセッサと、触覚周辺機器とを含むシステムに関連する。触覚周辺機器はアクチュエータを含み、アクチュエータは、プロセッサからの制御信号を受け取り、プロセッサからの制御信号に応答して触覚効果を触覚周辺機器に出力するように構成される。図に関してより詳細に本明細書で説明される本発明の実施形態によれば、プロセッサは、仮想カメラと、触覚効果の発生源または原因である仮想物体との間の仮想環境内の仮想距離に応じて、アクチュエータのための制御信号を変えるように構成される。別の言い方をすれば、プロセッサは、仮想カメラのズーム状態に応じてアクチュエータのための制御信号を変えるように構成される。例えば、第1の仮想距離(または第1のズーム状態)により、アクチュエータは第1の触覚効果を生成し適用することになり、第2の仮想距離(または第2のズーム状態)により、アクチュエータは第2の触覚効果を生成し適用することになる。第1の仮想距離は第2の仮想距離よりも大きく(または仮想物体が、第1のズーム状態におけるよりも第2のズーム状態においてユーザ寄りに現れ)、第1の触覚効果は第2の触覚効果よりも弱い。図に関してより詳細に本明細書で説明する本発明の別の実施形態によれば、プロセッサは、第1の視野により、アクチュエータが第1の触覚効果を生成し適用することになり、第2の視野により、アクチュエータが第2の触覚効果を生成し適用することになるように、仮想環境内の仮想カメラの視野に応じてアクチュエータのための制御信号を変え、その結果、第1の視野は一人称の視点であり、第2の視野は三人称の視点であり、第1の触覚効果は第2の触覚効果と異なるように構成される。例えば、第1の触覚効果はトリガ効果に関連し、第2の触覚効果は周囲効果(ambient effect)に関連する。図に関してより詳細に本明細書で説明する本発明のさらなる別の実施形態によれば、プロセッサは、仮想環境内の仮想カメラ位置に応じてアクチュエータのための制御信号を変えるように構成することができ、さらに、仮想環境内の仮想カメラ視野に応じてアクチュエータのための制御信号を変えるように構成することができる。
より詳細には、図1は、本発明の実施形態による、触覚フィードバックを触覚周辺機器102に与えるためのシステム100のブロック図であり、図2は、図1のシステムの概略図である。図1〜2の実施形態において、触覚周辺機器102は、単一の操作子122のみをもつ触覚ジョイスティックである。しかしながら、触覚ジョイスティックは単に触覚周辺機器の例示的な実施形態であり、他の構成、形状、およびサイズをもつ触覚周辺機器を使用することができることを当業者は認識されよう。例えば、本明細書でより詳細に説明するように、触覚周辺機器は、ビデオ・ゲーム・コンソール・システムで現在利用可能な多くの「ゲームパッド」と同様の形状およびサイズである図3〜5に示すようなゲーミング・システムのための手持ち式ゲーミング・コントローラ302、図6〜7に示すようなタブレット・コンピュータ604とともに使用することができる触覚周辺機器602、または、限定はしないが、電話、携帯情報端末(PDA)、タブレット、コンピュータ、ゲーミング周辺機器、および当業者に知られている仮想現実システムのための他のコントローラなどのユーザ入力(UI)要素を有する他のコントローラとすることができる。
図1〜2の実施形態を参照すると、触覚周辺機器102は、ユーザへの仮想環境をディスプレイ106上に生成するように構成されたホスト・コンピュータまたはコンピュータ・システム104と連通する。ホスト・コンピュータ104は、ビデオ・ゲーム・コンソール、またはモバイル・デバイス、またはユーザへの仮想環境をディスプレイ上に生成するように構成されたプロセッサを含む任意の他のタイプのコンピュータ・システムを含むことができる。図1のブロック図に示すように、ホスト・コンピュータ104は、ホスト・プロセッサ108、メモリ110、およびディスプレイ106を含む。ホスト・コンピュータ104は、メモリ110に格納され、ホスト・プロセッサ108によって実行されるソフトウェア・アプリケーションを実行する。ホスト・プロセッサ108は、任意のタイプの汎用プロセッサとすることができ、または触覚効果信号を供給するように特別に設計されたプロセッサとすることができる。ホスト・プロセッサ108は、ホスト・コンピュータ104全体を操作する同じプロセッサとすることができ、または別個のプロセッサとすることができる。ホスト・プロセッサ108は、どの触覚効果を触覚周辺機器102に送るべきか、およびどの順序で触覚効果を送るべきかを決定することができる。メモリ110は、限定はしないが、ランダム・アクセス・メモリ(RAM)または読み取り専用メモリ(ROM)などの任意のタイプの記憶デバイスまたはコンピュータ可読媒体とすることができる。メモリ110は、さらに、ホスト・プロセッサの内部に配置されるか、または内部および外部メモリの任意の組合せとすることができる。
ホスト・コンピュータ104は、有線または無線手段を介してディスプレイ106に結合される。ディスプレイ106は、ユーザにグラフィカル情報を与える任意のタイプの媒体とすることができ、これは、限定はしないが、モニタ、テレビジョン画面、プラズマ、LCD、プロジェクタ、または他のディスプレイ・デバイスを含む。一実施形態では、ホスト・コンピュータ104はゲーミング・デバイス・コンソールであり、ディスプレイ106は、当技術分野で知られているような、ゲーミング・デバイス・コンソールに結合されるモニタである。別の実施形態では、当業者に知られているように、ホスト・コンピュータ104およびディスプレイ106は単一デバイスに組み合わせることができる。
図1〜2に示した実施形態では、ホスト・コンピュータ104は、有線またはUSB接続103によって触覚周辺機器102と連通する。しかしながら、他の実施形態では、触覚周辺機器102は、当業者に知られている他の有線通信または無線通信手段を使用してホスト・コンピュータ104と通信することができる。これは、限定はしないが、シリアルまたはBluetooth(登録商標)接続を含むことができる。
図2に最もよく示されるように、触覚周辺機器102は、ハウジングまたは基部120と、1つまたは複数の自由度で移動できる操作子またはユーザ入力デバイス122とを含む。操作子122はハウジング120から延在する。図2はジョイスティックを触覚周辺機器の操作子として示しているが、本開示はジョイスティック・操作子に限定されず、全体的にまたは部分的に1つまたは複数の自由度で移動可能な任意のデバイスをさらに含むことを当業者は理解されよう。ジョイスティックはコントローラの操作子の単なる例示的な実施形態であり、トリガ、ボタン、または他のユーザ入力要素などの他の構成をもつ操作子を、本明細書でより詳細に説明するように、使用することができることを当業者は認識されよう。
図1をさらに参照すると、触覚周辺機器102は、ローカル・プロセッサ112、ローカル・メモリ114、操作子・センサ123、および少なくとも1つのアクチュエータ118を含む。触覚周辺機器102は、接近センサ116と、視野センサ117とをさらに含むことができるが、そのようなセンサは、本明細書でより詳細に説明するように、すべての実施形態で必要とされるとは限らない。代替として、触覚周辺機器102はローカル・プロセッサ112を含まないように構成することができ、それによって、触覚周辺機器102からのすべての入力/出力信号は、ホスト・コンピュータ104によって直接扱われ処理される。本明細書でより詳細に説明するように、ローカル・プロセッサ112はアクチュエータ118に結合されて、ホスト・コンピュータ104からの高レベルの監視(supervisory)またはストリーミング・コマンドに基づいて触覚効果をアクチュエータ118に与える。ホスト・プロセッサ108と同様に、ローカル・プロセッサ112は、どの触覚効果を送るべきか、およびどの順序で触覚効果を送るべきかを決めることもできる。加えて、触覚周辺機器102が1つを超えるアクチュエータを含む場合、ローカル・プロセッサ112はどのアクチュエータが触覚効果信号を受け取ることになるかを決めることができる。加えて、ホスト・コンピュータ104のメモリ110と同様に、ローカル・メモリ114は、限定はしないが、ランダム・アクセス・メモリ(RAM)または読み取り専用メモリ(ROM)などの任意のタイプの記憶デバイスまたはコンピュータ可読媒体とすることができる。ローカル・メモリ114は、さらに、ローカル・プロセッサの内部に配置されるか、または内部および外部のメモリの任意の組合せとすることができる。
上述のように、触覚周辺機器102の操作子122は、1つまたは複数の自由度内で物理的に移動することができる。例えば、ユーザは、操作子122を、前に、後に、左に、または右に移動させることができる。ユーザが操作子122を移動させると、操作子・センサ123は、操作子の移動および/または位置を検出し、センサ信号をローカル・プロセッサ112に送出する。次に、ローカル・プロセッサ112は、センサ信号をホスト・コンピュータ104に通信するかまたは送出する。受け取ったセンサ信号に基づいて、ホスト・コンピュータ104は、ビデオ・ゲーム内のアクションを実行し、仮想環境を更新する。別の言い方をすれば、触覚周辺機器102の操作子122の移動はユーザからの入力を表し、その入力により、ユーザは、限定はしないが、一人称射手に関連するビデオ・ゲーム、三人称キャラクタ・インタラクション、車両関連ゲーム、またはコンピュータ・シミュレーションを含む、ホスト・コンピュータ104で作動しているソフトウェア・アプリケーションと対話することができるようになる。操作子122の移動は、カーソルもしくは他の画像などのコンピュータ生成グラフィカル物体、またはディスプレイ106を介してホスト・コンピュータ104によって表示される何か他のグラフィカル物体の移動に対応する入力、あるいは人、車両、またはゲームもしくコンピュータ・シミュレーションで見いだすことができる何か他のエンティティなどの仮想キャラクタまたはゲーミング・アバターを制御するための入力をホスト・コンピュータ104に供給することができる。
操作子・センサ123からのセンサ信号を受け取ることに加えて、ローカル・プロセッサ112は、さらに、アクチュエータ118から出力されるべき触覚効果に関連するホスト・コンピュータ104からの高レベル監視またはストリーミング・コマンドを受け取る。次に、ローカル・プロセッサ112は、ホスト・コンピュータ104からの高レベル監視またはストリーミング・コマンドに基づいてアクチュエータ118に制御または駆動信号を供給する。例えば、作動時に、電圧の大きさおよび期間がホスト・コンピュータ104から触覚周辺機器102に流され、情報はローカル・プロセッサ112を介してアクチュエータ118に供給される。ホスト・コンピュータ104は、アクチュエータ118によって出力されるべき触覚効果のタイプなど(例えば振動、急激な揺れ(jolt)、デテント(detent)、ポップ(pop)など)の高レベルのコマンドをローカル・プロセッサ112に供給することができ、それによって、ローカル・プロセッサ112は、出力されるべき触覚効果の特定の特性(例えば、大きさ、周波数、期間など)についてアクチュエータ118に命令する。ローカル・プロセッサ112は、それに結合されたローカル・メモリ114から触覚効果のタイプ、大きさ、周波数、期間、または他の特性を読み出すことができる。ホスト・コンピュータ104から受け取ったゲーム・アクションおよび制御信号に応じて、ローカル・プロセッサ112は制御または駆動信号をアクチュエータ118に送って、振動、デテント、質感、急激な揺れ、またはポップを含む多種多様な触覚効果または感覚のうちの1つを出力することができる。
アクチュエータ118は、仮想現実システムの当業者に知られているような慣性または運動感覚アクチュエータとすることができる。あり得るアクチュエータには、限定はしないが、偏心質量がモータによって移動される偏心回転質量(「ERM」)アクチュエータ、ばねに取り付けられた質量が前後に駆動される線形共振アクチュエータ(「LRA」)、圧電アクチュエータ、偏心質量がモータによって移動される電磁モータ、振動触感アクチュエータ、慣性アクチュエータ、形状記憶合金、信号に応答して変形する電気活性ポリマー、剛性、静電気摩擦(ESF)、超音波表面摩擦(USF)を変化させるための機構、または他の好適なタイプの作動デバイスが含まれる。別の実施形態では、アクチュエータは、例えば、操作子122および/またはハウジング120の剛性/減衰(damping)を変化させるソレノイド、操作子122および/またはハウジング120におけるサイズを変化させる小さいエアバッグ、または形状変化材料を含む運動触覚フィードバックを使用することができる。
前に述べたように、触覚周辺機器102は単に触覚周辺機器の例示的な実施形態であり、他の構成、形状、およびサイズをもつ触覚周辺機器を使用することができる。例えば、図3〜5は、本発明の実施形態で利用することができる触覚周辺機器302の別の実施形態を示す。図3および4は、触覚周辺機器302の異なる斜視図であり、触覚周辺機器は手持ち式ゲーミング・コントローラであり、一方、図5は、ホスト・コンピュータ104およびディスプレイ106をさらに含むゲーミング・システム300で使用される触覚周辺機器302のブロック図を示す。触覚周辺機器302のハウジング324は、左利きのユーザによってもまたは右利きのユーザによっても、デバイスを把持する2つの手を容易に収容するように整形される。触覚周辺機器302は、単に、ビデオ・ゲーム・コンソール・システムで現在利用可能な多くの「ゲームパッド」と同様の形状およびサイズのコントローラの例示的な実施形態であり、限定はしないが、Wii(登録商標)リモートまたはWii(登録商標)Uコントローラ、Sony(登録商標)SixAxis(登録商標)コントローラまたはSony(登録商標)Wandコントローラ、Xbox(登録商標)コントローラまたは類似のコントローラなどのコントローラならびに実在の物体(テニスラケット、ゴルフクラブ、野球用バットなどのような)および他の形状のように整形されたコントローラを含む、他のユーザ入力要素の構成、形状、およびサイズをもつコントローラを使用することができることを当業者は認識されよう。
触覚周辺機器302は、ジョイスティック322、ボタン330、およびトリガ332を含むいくつかのユーザ入力要素または操作子を含む。本明細書で使用するユーザ入力要素は、ホスト・コンピュータ104と対話するためにユーザによって操作されるトリガ、ボタン、ジョイスティックなどのようなインタフェース・デバイスを指す。図3〜4で見て分かるように、および当業者に知られているように、各ユーザ入力要素および追加のユーザ入力要素について1つを超えるものが触覚周辺機器302に含まれ得る。したがって、トリガ332の本説明は、例えば、触覚周辺機器302を単一のトリガに限定しない。さらに、図5のブロック図は、ジョイスティック322、ボタン330、およびトリガ332の各々について1つのみを示している。しかしながら、多数のジョイスティック、ボタン、およびトリガ、ならびに他のユーザ入力要素を上述のように使用することができることを当業者は理解されよう。
図5のブロック図で見て分かるように、触覚周辺機器302は、そのユーザ入力要素の各々を直接駆動するためのターゲット・アクチュエータまたはモータならびにユーザの手が一般に置かれる場所でハウジング324に結合される1つまたは複数の全体またはランブル(rumble)・アクチュエータ326、328を含む。より詳細には、ジョイスティック322はそれに結合されたターゲット・アクチュエータまたはモータ318Aを含み、ボタン330はそれに結合されたターゲット・アクチュエータまたはモータ318Bを含み、トリガ332はそれに結合されたターゲット・アクチュエータまたはモータ318Cを含む。複数のターゲット・アクチュエータに加えて、触覚周辺機器302は、そのユーザ入力要素の各々に結合された位置センサを含む。より詳細には、ジョイスティック322はそれに結合された位置センサ323を含み、ボタン330はそれに結合された位置センサ331を含み、トリガ332はそれに結合された位置センサ333を含む。ローカル・プロセッサ312は、それぞれ、ターゲット・アクチュエータ318A、318B、318C、ならびにジョイスティック322、ボタン330、およびトリガ332の位置センサ323、331、333に結合される。位置センサ323、331、333から受け取った信号に応答して、ローカル・プロセッサ312は、それぞれ、ジョイスティック322、ボタン330、およびトリガ332に指向性またはターゲット効果を直接与えるようにターゲット・アクチュエータ318A、318B、318Cに命令する。そのようなターゲット効果は、全体アクチュエータ326、328によってコントローラの本体全体に沿って生成される全体またはランブル触覚効果から識別可能または区別可能である。集合的な触覚効果は、多数の感覚の種類、例えば、映像、音声、および触覚が同時に関与するとき、ゲームへのより大きい没入感をユーザに与える。触覚周辺機器102およびホスト・コンピュータ104と同様に、触覚周辺機器302は、ディスプレイ106を有するホスト・コンピュータ104に結合され、それと通信する。触覚周辺機器302のローカル・プロセッサ312は各アクチュエータに結合されて、ホスト・コンピュータ104からの高レベル監視またはストリーミング・コマンドに基づいて触覚効果を各アクチュエータに与える。触覚周辺機器302のアクチュエータは、触覚周辺機器102のアクチュエータ118に対して本明細書で列記した任意のタイプのアクチュエータとすることができる。触覚周辺機器302は、近接センサ116と同様の近接センサ(図示せず)および/または視野センサ117と同様の視野センサ(図示せず)をさらに含むことができるが、センサは、本明細書でより詳細に説明するように、すべての実施形態で必要とされるとは限らない。
図6〜7は、本発明の別の実施形態による触覚周辺機器602を示し、触覚周辺機器602は、タブレット・コンピュータ604とともに使用することができるゲーミング・タブレット・コントローラである。タブレット・コンピュータ604は、ゲーミング・アクティビティのために特別に設計することができ、例えば、Razer Inc.などから入手可能であり、または市場でよく知られており入手可能であるタブレット・コンピュータ、例えば、Apple(登録商標)Ipad(登録商標)、Kindle(登録商標)Fire(登録商標)、およびSamsung(登録商標)Galaxy Tab(登録商標)などとすることができる。触覚周辺機器602は、タブレット・コンピュータ604を受け取るように構成されたドッキング部分640と、ユーザがタブレット・コンピュータ604上のゲームを制御するために操作子が上に配設されているハンドル642、644とを含む。ドッキング部分640は触覚周辺機器602をタブレット・コンピュータ604に接続し、その結果、ボタンを押す、ジョイスティックを動かす、トリガを押すなどのハンドル642、644へのユーザによるアクションが、タブレット・コンピュータ604でプレーされているゲームへのアクションをもたらす。
ハンドル642、644は、コントローラ上にある一般的な操作子またはユーザ入力要素を含む。操作子は、ハンドル644に関して説明されることになる。しかしながら、当業者は、同じまたは同様の操作子をハンドル642上で使用することができることを認識されよう。特に、ハンドル644は、ジョイスティック622、ボタン630、およびトリガ632を含む。図6で見て分かるように、および当業者に知られているように、これらのユーザ入力要素の各々について2つ以上を各ハンドル642、644に含めることができる。さらに、ハンドル642、644は、全体またはランブル・アクチュエータ326、328に関して上述したように全体またはランブル触覚効果をハンドル642、644に与えるために、ユーザの手が一般に配置される場所でハンドル642、644に取り付けられた全体およびランブル・アクチュエータ626、628を含む。
図7のブロック図に示すように、触覚周辺機器602は、ドッキング部分640を介してタブレット・コンピュータ604と通信するローカル・プロセッサ612を含む。図7のブロック図は、ジョイスティック622、ボタン630、およびトリガ632の各々について1つのみを示している。しかしながら、多数のジョイスティック、ボタン、およびトリガ、ならびに他のユーザ入力要素を上述のように使用することができることを当業者は理解されよう。ローカル・プロセッサ612は、それぞれ、ターゲット・アクチュエータ618A、618B、618Cならびにジョイスティック622、ボタン630、およびトリガ632の位置センサ623、631、633に結合される。位置センサ623、631、633から受け取った信号に応答して、ローカル・プロセッサ612は、それぞれ、ジョイスティック622、ボタン630、およびトリガ632に指向性またはターゲット効果を直接与えるようにターゲット・アクチュエータ618A、618B、618Cに命令する。触覚周辺機器602のローカル・プロセッサ612は各アクチュエータに結合されて、ホスト・コンピュータ604からの高レベル監視またはストリーミング・コマンドに基づいて触覚効果を各アクチュエータに与える。触覚周辺機器602のアクチュエータは、触覚周辺機器102のアクチュエータ118に対して本明細書で列記した任意のタイプのアクチュエータとすることができる。触覚周辺機器602は、近接センサ116と同様の近接センサ(図示せず)をさらに含むことができるが、そのようなセンサは、本明細書でより詳細に説明するように、すべての実施形態で必要とされるとは限らない。
どの触覚周辺機器構成または実施形態が利用されるかにかかわらず、ホスト・プロセッサ108および/またはローカル・プロセッサ112は、仮想カメラのズーム状態に応じてアクチュエータのための制御信号を変えるように構成される。別の言い方をすれば、プロセッサ108および/またはローカル・プロセッサ112は、仮想カメラと、触覚効果の発生源または原因である仮想物体との間の仮想環境内の仮想距離に応じて、アクチュエータ118のための制御信号を変えるかまたは変更するように構成される。例えば、仮想物体が仮想カメラからより離れている、すなわち第1のズーム状態である場合、より弱い触覚効果がプレーまたは出力され、仮想物体が仮想カメラにより近い、すなわち、仮想物体がより大きくおよび/またはより近くなるように現れるかまたはユーザによって知覚される第2のズーム状態である場合、より強い触覚効果がプレーまたは出力される。例証のために、仮想カメラの例示的なズーム状態が、仮想カメラと仮想物体との間の仮想環境内の仮想距離を参照しながら本明細書で説明される。しかしながら、仮想環境について当業者によって理解されるように、仮想距離の変化は、シミュレートされるかまたはコンピュータ生成され、仮想カメラの物理的な移動を含まない(仮想カメラそれ自体が、物理的なカメラではなく、シミュレートされるかまたはコンピュータ生成されるので)。さらに、システム100および触覚周辺機器102を参照しながら説明するが、図3〜5の実施形態および図6〜7の実施形態のホスト・プロセッサおよび/またはローカル・プロセッサは、やはり、仮想カメラと仮想物体との間の仮想環境内の仮想距離に応じてそれぞれのアクチュエータの制御信号を変えるように構成されることを当業者は理解されよう。
仮想距離を、図8〜11を参照しながらより詳細に説明する。図8はディスプレイ106の図であり、ディスプレイはその上に仮想物体852を表示する。図8は、さらに、仮想カメラ850の第1のズーム状態を示すと見なすことができる。この例では、仮想物体852は自動車であるが、仮想物体は仮想現実環境に表示される任意の物体またはイベントとすることができることを当業者は理解されよう。仮想物体は触覚効果の発生源または原因であり、その結果、仮想物体に関連する触覚効果がユーザに対して生成またはプレーされる。さらに、仮想物体は、触覚効果の1つまたは複数の発生源または原因を含むことができる。例えば、仮想物体が自動車である場合、自動車は全体として第1の触覚効果を生成することができ、一方、タイヤなどの自動車の特定の点は第2のまたは異なる触覚効果を生成することができる。図9は、システム100の仮想カメラ850と、仮想物体852との間の第1の仮想距離Dの概略図である。本明細書で使用する「仮想カメラ」は、仮想環境で視界を捕捉するプロセッサ・ソフトウェア内の機構を指す。仮想カメラは、カメラまたはデジタル・カメラが現実世界の状況にあるのと同じように働き振る舞うプロセッサ・ソフトウェアの機能である。このソフトウェアでは、仮想カメラは、仮想物体がソフトウェア・プログラム中の仮想カメラの場所および角度に基づいてどのように描画されるかを決定する数学的計算から構成される。実際のカメラと同様に、仮想現実プログラム中の仮想カメラを扱う場合、ユーザはパン、ズームのような機能を使用するか、またはピントおよび焦点を変化させることができる。
図10もディスプレイ106の図であり、ディスプレイはその上に仮想物体852を表示し、図11は、システム100の仮想カメラ850と仮想物体852との間の第2の仮想距離Dの概略図である。図10は、さらに、仮想カメラ850の第2のズーム状態を示すと見なすことができ、仮想物体852は、図8に示した仮想カメラ850の第1のズーム状態と比較して、より大きくおよび/またはユーザ寄りに現れる。第1の仮想距離Dと第2の仮想距離Dとの比較から見て分かるように、第1の仮想距離Dは第2の仮想距離Dよりも大きいかまたは長く、仮想物体852は、図10におけるよりも図8において小さくおよびより離れて現れる。仮想カメラ850と仮想物体852との間の第1の仮想距離Dにより、アクチュエータ118は第1の触覚効果を生成し適用することになり、仮想カメラ850と仮想物体852との間の第2の仮想距離Dにより、アクチュエータ118は第2の触覚効果を生成し適用することになる。一実施形態では、第1の触覚効果は第2の触覚効果よりも弱い。別の言い方をすれば、仮想カメラ850と仮想物体852との間の距離が比較的長い場合、比較的より弱い触覚効果が出力され、一方、仮想カメラ850と仮想物体852との間の距離が比較的短い場合、比較的より強い触覚効果が出力される。仮想物体852の近接度に基づいて触覚効果を変更することは、ゲームへのより大きい没入感をユーザに与える。例えば、仮想物体852が、図8に示した位置などの遠く離れた位置から図10に示した位置などの近くまたはすぐ近くの位置まで移動するにつれて、関連触覚効果を徐々に増加させて、仮想物体852が視聴者の方に移動するドップラー効果の感覚をシミュレートすることができる。別の例では、仮想物体852は爆発などの仮想環境内で起こるイベントを含むことができ、関連触覚効果は振動を含むことができる。爆発が図8に示した位置などの遠く離れた位置で起こる場合、そのような関連する振動は、遠く離れたまたは遠隔の場所からの爆発を経験する感覚をシミュレートするように比較的弱い。爆発が図10に示した位置などのすぐ近くまたは近くの位置で起こる場合、そのような関連する振動は、すぐ近くまたは近くの場所からの爆発を経験する感覚をシミュレートするように比較的強い。
第1の仮想距離Dおよび第2の仮想距離Dなどの仮想距離は、いくつかの方法のうちの1つで検出または計算することができる。本発明のいくつかの実施形態では、仮想距離は近接センサ116を介して検出することができる。近接センサ116は、触覚周辺機器102とホスト・コンピュータ104との間の距離の変化を検出することによって、ユーザのアクションを検出する。より詳細には、一実施形態では、近接センサ116は、触覚周辺機器102とホスト・コンピュータ104との間の実際の距離を検出するように構成され、さらに、実際の距離をホスト・プロセッサ108および/またはローカル・プロセッサ112に送るように構成される。触覚周辺機器102とホスト・コンピュータ104との間の検出された実際の距離の変化に基づいて、ホスト・プロセッサ108および/またはローカル・プロセッサ112は、仮想カメラ850と仮想物体852との間の動きを生成し、それによって、仮想カメラ850と仮想物体852との間の仮想距離を変化させる。触覚周辺機器102とホスト・コンピュータ104との間の実際の距離が変化すると、仮想カメラ850と仮想物体852との間の仮想距離において関連したまたは関係した変化がある。例えば、ユーザ(したがって、ユーザによって保持されるか、またはユーザに結合された触覚周辺機器102)がホスト・コンピュータ104により近づく場合、近接センサ116は、そのような移動を、触覚周辺機器102とホスト・コンピュータ104との間の実際の距離の減少として検出し、その結果、ホスト・プロセッサ108および/またはローカル・プロセッサ112は、仮想カメラ850と仮想物体852との間の仮想距離を減少させる。加えて、近接センサ116は、物体の辺を物理的におよび仮想的に決定し、ならびに辺が互いに接触する点を決定するように構成することができる。近接センサ116の例には、限定はしないが、レーザ・センサ、超音波センサ、光センサ、深さセンサ、デバイスが互いに限定された領域を認識する近接場通信(NFC)またはBluetooth(登録商標) 4.0で利用されるセンサ、および当技術分野で知られている他の距離または測定センサが含まれる。例えば、一実施形態では、近接センサ116は、2つのWii(登録商標)コントローラまたは2つのRazor Hydra/Sixense STEMデバイスなどの2つの別個のまたは独立した手持ち式触覚周辺機器に配置することができ、触覚効果は、2つの手持ち式触覚周辺機器がユーザによってどれくらい離して保持されているか、ならびに手持ち式触覚周辺機器と、表示デバイス、または充電ステーションなどの他の関連周辺機器に装着されたセンサなどのシステムの装着型近接センサとの間の距離に基づいて変えることができる。このようにして、近接センサ116は、図1に示したような触覚周辺機器102の内部に配置するか、またはそれに物理的に結合することができる。代替として、近接センサは、ホスト・コンピュータ104内に配置することができ、またはホスト・コンピュータ104および触覚周辺機器102の両方から離れた別個の/独立したセンサ・デバイスとすることができる。本発明の一実施形態では、近接センサ116は、ユーザに結合されるように構成されたウェアラブル・センサ・デバイスであるか、またはウェアラブル触覚周辺機器に取り付けられたセンサ・デバイスである。さらに、本発明の一実施形態では、近接センサ116は、ユーザに結合されるように構成されたヘッドマウント・センサ・デバイスであるか、またはヘッドマウント触覚周辺機器に取り付けられたセンサ・デバイスである。
本発明の別の実施形態では、近接センサ116はユーザの動作を検出するように構成され、さらに、ユーザの動作をホスト・プロセッサ108および/またはローカル・プロセッサ112に送るように構成される。検出または感知されたユーザの動作に基づいて、ホスト・プロセッサ108および/またはローカル・プロセッサ112は、仮想カメラ850と仮想物体852との間の動きを生成し、それによって、上述の段落で説明したように仮想カメラ850と仮想物体852との間の仮想距離を変化させる。別の言い方をすれば、検出または感知されたユーザの動作は、ホスト・プロセッサ108および/またはローカル・プロセッサ112を介して仮想現実環境に反映される。この実施形態の近接センサ116の例には、限定はしないが、ビデオカメラ・デバイス、ウェブカメラ・デバイス、いかなる物理的接触もなしに近くの物体の存在を検出するセンサ、モーション・センサ、ユーザの身振りを判断するために筋肉の動きを検出する、ユーザの皮膚に貼られたセンサ、赤外線センサ、超音波センサ、近接電磁界、ステレオ三角測量、符号化開口(coded aperture)、干渉測定、またはXBOX(登録商標) Kinect(登録商標)のようなデバイスなどの任意の他の距離画像センサが含まれる。単一の近接センサで説明しているが、ユーザの動作を判断するために多数のセンサを同時にまたは併せて利用できることを当業者は理解されよう。例えば、センサ・システムは、空間中のユーザのリアルタイムの3D画像を多数のセンサを使用して捕捉するために、テレビジョン、モニタ、またはKinect(登録商標)付属品の中に配置することができる。センサ・システムは、さらに、ウェブカメラを使用して顔を識別し、ならびにユーザの手などのユーザおよび触覚周辺機器などの他の物体と対話する点(points of interaction)を識別するように構成される。センサ・システムはこの情報を使用して、システムおよび/または周辺機器に対するユーザ位置を判断し、ユーザおよび/またはシステムに対する周辺機器の位置を判断する。物体に配置されたインテリジェント・センサは、周辺機器内のセンサ(ジャイロスコープ、加速度計などのような)が、これらの周辺機器の方位および場所を追加として知らせるように、さらに互いを認識することができる。
さらなる別の実施形態では、仮想距離は、近接センサ116を使用することなく検出することができる(したがって、近接センサ116はこの実施形態では必要とされない)。より詳細には、仮想距離は、仮想環境内の状態の変化を検出することにより、ホスト・プロセッサ108および/またはローカル・プロセッサ112によって検出される。例えば、ユーザは操作子122を操作して、仮想環境内のキャラクタを移動させ、それによって、キャラクタと仮想物体852との間の仮想距離を変化させることができる。キャラクタの移動は、状態の変化としてホスト・プロセッサ108および/またはローカル・プロセッサ112で検出することができ、関連触覚効果は、仮想距離の変化に応じて変えるかまたは変更することができる。
図8〜11はビデオ・ゲームの例を示しているが、仮想現実環境は、限定はしないが、ライブもしくは放送映像(broadcast footage)または事前記録されるかもしくはオーサリングされたコンテンツ・トラックを含む様々なタイプのコンテンツを含むことができる。例えば、仮想現実環境は、2Dまたは3Dコンテンツを含むことができ、ユーザもしくは視聴者が世界の遠隔地にいることをシミュレートすることができ(すなわち、教育またはレクリエーションの目的のために)、ユーザもしくは視聴者がイベント(すなわち、スポーツ・ゲーム、音楽コンサート、または劇場の演劇)に参加していることをシミュレートすることができ、またはユーザもしくは視聴者がファンタジーもしくは歴史的環境内にいることをシミュレートすることができる。仮想現実環境が3Dコンテンツを含む場合、シミュレーションは360度であり、その結果、ユーザは、向きを変えるかまたは回転するとき、ユーザを囲む仮想環境を見る。映像および音声の観点から、マルチチャネル・ビデオ・システムは、実際のカメラの映像が様々な周囲のまたは取り巻いている風景から撮影されるかまたは作り出される状態で使用することができ、ソフトウェアはクリップを綴じ合わせて(stitch)、継目なしの映像/音声仮想現実体験を作り出す。これらの非ビデオ・ゲーム実施形態では、少なくとも1つの触覚周辺機器が、触覚フィードバックを受け取るために必要とされる。しかしながら、触覚周辺機器は、仮想環境との対話/接続が許可されていない場合、操作子または操作子・センサを必要としない。本質的に、仮想環境との対話/接続が許可されないかまたは望まれない場合、触覚周辺機器は、触覚効果を出力するための少なくとも1つのアクチュエータを含むことしか必要とされず、本明細書で説明するようなローカル・メモリおよび/またはローカル・プロセッサを含むことができる。
触覚効果の発生源または原因である仮想物体に対する仮想カメラのズーム状態に基づいて触覚効果を変更することは、前の段落で説明した非ビデオ・ゲームの実施形態では非常に望ましい。より詳細には、ユーザまたは視聴者がイベント(すなわち、スポーツ・ゲーム、音楽コンサート、または劇場の演劇)に参加していることを仮想現実環境がシミュレートする例では、触覚周辺機器に出力される触覚効果は、仮想現実環境内のユーザの場所に基づいて変わることになる。ユーザまたは視聴者(したがって、仮想カメラ)がシミュレートされるイベント(すなわち、触覚効果の発生源または原因である仮想物体)のすぐ近くまたは近くに配置される場合、触覚周辺機器に出力される触覚効果は、ユーザまたは視聴者(したがって、仮想カメラ)がシミュレートされるイベントから遠く離れて配置される場合よりも強いことになる。例えば、シミュレートされるイベントがロック・コンサートである場合、ユーザまたは視聴者(したがって、仮想カメラ)がステージから遠く離れた列または区域に位置する場合と比べて、ユーザまたは視聴者(したがって、仮想カメラ)がステージに近い列または区域に位置する場合、より強い振動を触覚周辺機器に出力することができる。同様に、シミュレートされるイベントがバスケットボール・ゲームなどのスポーツ・イベントである場合、ユーザまたは視聴者(したがって、仮想カメラ)がバスケット・コートから遠く離れた列または区域に位置する場合と比べて、ユーザまたは視聴者(したがって、仮想カメラ)がバスケット・コートに近い列または区域に位置する場合、より強い振動を触覚周辺機器に出力することができる。
上述の非ビデオ・ゲーム実施形態では、仮想カメラと仮想物体(すなわち、触覚効果の発生源または原因であるスポーツ・ゲーム、音楽コンサート、または劇場の演劇)との間の仮想距離の検出は、多数の近接センサ、ならびにユーザに結合されるかまたはユーザによって着用される多数の触覚周辺機器を利用することが好ましい。近接センサ116に関して上述したように、そのような近接センサは、当技術分野で知られている距離または測定センサ、および/または当技術分野で知られているカメラ・デバイスまたはモーション・センサとすることができる。近接センサはユーザによる実際の動作を検出し、その結果、その動作は仮想現実環境に反映されることになる。ユーザ(およびユーザに関連する仮想カメラ)が移動するにつれて、触覚周辺機器により出力される触覚効果は、ユーザ主動(user-initiated)の位置変化に従って継目なしに自動的に更新されるかまたは変わることができる。各触覚周辺機器は触覚チャネルと見なすことができ、触覚効果を特定の触覚周辺機器に出力することは、触覚チャネル選択と見なすことができる。ホスト・コンピュータはユーザの動作を検出し、それによって、仮想カメラの位置変化がもたらされる。仮想カメラの位置変化およびそれに関連する触覚効果の変化の結果として、ホスト・コンピュータは、順次および/または同時に様々な触覚効果を特定の触覚周辺機器に出力して、継目なしのジェスチャ・ベースの触覚チャネル選択を達成する。そのような触覚チャネル選択は、触覚チャネル選択の補間を含むことができる。より詳細には、補間システムは、触覚混合器の役割をする。3D環境の多数の物体は、現実または仮想世界の多数の物体が音声放出器であるのと同様に、触覚放出器の役割をすることになる。補間システムは、センサから入手可能なデータ(すなわち、ユーザの位置、方位、対話性の物体、カメラ視界)、および環境の性質(すなわち、効果のタイプおよび強度、視界内にある間対話するとき、カメラ・フレームから外れている間対話するとき、視界内にあるが対話しないときなどに何をすべきかのパラメータ)を使用して、どの触覚感覚を優先すべきか、かつ、もしあれば、どのフィルタまたは変調を効果に適用すべきかを自動的に決定する。
図12は、本発明の実施形態による、触覚効果を触覚周辺機器のユーザに与える方法を示す流れ図であり、与えられる触覚効果は、上述のように仮想カメラ850のズーム状態に応じて変わる。一実施形態では、図12の流れ図の機能は、ホスト構成要素104のホスト・メモリ110に格納され、ホスト・プロセッサ108によって実行されるソフトウェアによって、かつ/または触覚周辺機器102のローカル・メモリ114に格納され、ローカル・プロセッサ112によって実行されるソフトウェアによって実施される。他の実施形態では、機能は、特定用途向け集積回路(「ASIC」)、プログラマブル・ゲート・アレイ(「PGA」)、フィールド・プログラマブル・ゲート・アレイ(「FPGA」)、またはハードウェアとソフトウェアとの任意の組合せの使用を通してハードウェアによって実行することができる。
ステップ1254において、ホスト・プロセッサ108および/またはローカル・プロセッサ112は、触覚効果の発生源または原因である仮想物体852に対する仮想カメラ850の位置または場所を決定する。仮想カメラ850の位置を決定する際に、ホスト・プロセッサ108および/またはローカル・プロセッサ112は、仮想カメラ850と仮想物体852との間の仮想距離を決定する。ステップ1256において、仮想カメラ850と仮想物体852との間の第1の仮想距離Dは比較的長く、その結果、ステップ1258において、アクチュエータ118は弱い触覚効果を生成し適用する。ステップ1260において、仮想カメラ850と仮想物体852との間の第2の仮想距離Dは比較的短く、その結果、ステップ1262において、アクチュエータ118は強い触覚効果を生成し適用する。単なる例証のために、図12の方法は、第1の仮想距離D(仮想物体852が仮想カメラ850から比較的遠く離れている)または第2の仮想距離D(仮想物体852が仮想カメラ850の比較的にすぐ近くまたは近くにある)のいずれかとして仮想距離を説明している。しかしながら、仮想カメラ850と仮想物体852との間の仮想距離は任意の数のあり得る距離を含むことができ、その各々は触覚効果について関連する強度を有することができることを当業者は理解されよう。
アクチュエータ118によって出力される触覚効果は、限定はしないが、様々な程度の振動、様々な程度のデテント、または他のタイプの触覚効果を含むことができる。一例として、ユーザがキャラクタまたは何か他のグラフィカル物体を制御しており、そのとき、仮想環境で爆発に出会う場合、関連触覚効果は振動とすることができる。この場合、ローカル・プロセッサ112は、ゲーム中のキャラクタまたは他のグラフィカル物体への爆発の近接度に応じて変わる強度で触覚周辺機器102が振動すべきことを示す信号を受け取る。その結果、ローカル・プロセッサ112は、適切な触覚効果を与えるようにアクチュエータ118に信号を送り、この例では、適切な触覚効果は、仮想カメラ850と仮想物体852との間の仮想距離に依存する特定の強度をもつ振動である。ユーザに対して実行され与えられるべき触覚効果のタイプを決定する際に、高レベル触覚パラメータまたはストリーミング値がソフトウェア・コードで生成され、触覚エンジン(図示せず)に送られ、そこで処理され、適切な電圧レベルがアクチュエータのために生成される。これにより、触覚周辺機器は、ユーザに適切な触覚フィードバックを与え、アクチュエータのために生成される様々な電圧レベルを通して触覚フィードバックの量またはタイプを変えることができることになる。加えて、ゲーミング・ソフトウェアおよび触覚ソフトウェアは、同じプロセッサまたは多数のプロセッサ上に存在することができる。
図13は、本発明の実施形態による、ホスト・コンピュータからの触覚信号を決定し送出する方法を示す流れ図であり、与えられる触覚効果は仮想カメラ位置に応じて変わる。一実施形態では、図13の流れ図の機能は、ホスト構成要素104のメモリ110に格納され、ホスト・プロセッサ108によって実行されるソフトウェアによって、かつ/または触覚周辺機器102のメモリ114に格納され、ローカル・プロセッサ112によって実行されるソフトウェアによって実施される。他の実施形態では、機能は、特定用途向け集積回路(「ASIC」)、プログラマブル・ゲート・アレイ(「PGA」)、フィールド・プログラマブル・ゲート・アレイ(「FPGA」)、またはハードウェアとソフトウェアとの任意の組合せの使用を通してハードウェアによって実行することができる。
ステップ1354において、ホスト・プロセッサ108および/またはローカル・プロセッサ112は、触覚効果の発生源または原因である仮想物体852に対する仮想カメラ850の位置または場所を決定する。仮想カメラ850の位置を決定する際に、ホスト・プロセッサ108および/またはローカル・プロセッサ112は、仮想カメラ850と仮想物体852との間の仮想距離を決定する。
ステップ1364において、ホスト・プロセッサ108は、状態の変化があるかどうかを判断する。1つの実施形態では、この変化は、ゲームまたはシミュレーションのための仮想空間の変化とすることができる。一例として、ユーザは、キャラクタまたは他のグラフィカル物体を移動させていることができ、そのとき、仮想環境で爆発に出会う。キャラクタ移動、および/または爆発(または触覚効果の発生源もしくは原因である他の仮想物体)との出会いは、状態の変化とすることができる。状態の変化は上述の例に限定されないことを当業者は理解されよう。
ステップ1366において、次に、ホスト・プロセッサ108は、状態の変化を用いて関連触覚効果を決定する。例えば、ユーザが仮想キャラクタを制御し、そのキャラクタが爆発などの仮想物体に出会うシナリオでは、そのような出会いは、関連触覚効果、例えば振動などを有することができる。上述のように、関連触覚効果は仮想カメラ位置に応じて変わる。仮想カメラ850と仮想物体852との間の距離が比較的長い場合、比較的より弱い触覚効果が出力され、一方、仮想カメラ850と仮想物体852との間の距離が比較的短い場合、比較的より強い触覚効果が出力される。爆発が遠く離れた位置で起こる場合、そのような関連する振動は、遠く離れた場所からの爆発を経験する感覚をシミュレートするように比較的弱い。爆発がすぐ近くまたは近くの位置で起こる場合、そのような関連する振動は、すぐ近くまたは近くの場所からの爆発を経験する感覚をシミュレートするように比較的強い。
状態の変化に伴う関連触覚効果があるかどうかを決定するプロセスは、多くの方法で行うことができる。状態の変化が関連触覚効果を有すると決定された場合、触覚信号が送られることになる。状態の変化が関連触覚効果を有していないと決定された場合、触覚信号が送られないことになる。1つの実施形態では、ホスト・コンピュータ104は、状態の変化および触覚効果の事前定義マッピングにアクセスする。例えば、ホスト・プロセッサは、状態の変化が存在し(すなわち、仮想カメラが仮想物体に近く)、関連触覚効果が仮想物体に関連した効果を強めるべきであると決定することができる。この状態の変化に対する関連触覚効果は、ホスト・プロセッサおよび/またはローカル・プロセッサによって利用される事前定義マッピング・システムにより決定され得る。例えば、事前定義マッピング・システムは、オーサリングされた触覚効果の特定のコンテンツ・トラックまたはシーケンスが、検出された仮想距離に応じてプレーされることを指示する(dictate)ことができる。別の実施形態では、事前定義マッピング・システムは、オーサリングされた触覚効果の現在プレーしているコンテンツ・トラックまたはシーケンスが、検出された仮想距離に応じて変更されるかまたは変えられることを指示することができる。例えば、現在プレーしているコンテンツ・トラックに従って出力される触覚効果は、所定の時間の間、徐々に強くなるか、または所定のレベルに強くなることができる。そのため、仮想カメラと仮想物体との間の検出された近接度に起因して、触覚ボリュームが増加されるか、または仮想物体に触覚強調がかけられる。事前定義マッピング・システムの上述の例は本質的に例示であり、任意の事前定義マッピング・システムが、所望に応じて、仮想環境の開発者によって利用され得ることが当業者には明らかであろう。
ステップ1368において、ホスト・コンピュータ104は、関連触覚情報をもつ触覚または制御信号を使用して、触覚情報を触覚周辺機器102に送出する。触覚情報の送出は、前に説明したように有線または無線通信のいずれかで行うことができる。したがって、触覚周辺機器102のローカル・プロセッサ112は、ゲーム中のキャラクタまたは他のグラフィカル物体への爆発の近接度に応じて変わる強度で触覚周辺機器102が振動すべきであることを示す制御信号を受け取る。
上述の実施形態は、触覚効果の発生源または原因である仮想物体に対する仮想カメラのズーム状態に基づいて触覚効果を変更することに関連する。代替としておよび/または加えて、本明細書の実施形態は、仮想カメラの視野に基づいて触覚効果を変更することを含むことができる。ビデオ・ゲームまたはホスト・コンピュータが一人称の視点または視野および三人称の視点または視野を可能にするビデオ・ゲーム実施形態では、そのとき、触覚効果はユーザの現在の視野または視点に応じて変わることになる。例えば、仮想カメラが一人称の視点または視野中にある場合、トリガ触覚効果が出力されるかまたは強調され、仮想カメラが三人称の視点または視野にある場合、周囲触覚効果が出力されるかまたは強調される。そのため、仮想カメラの検出された視野に起因して、触覚ボリュームが増加されるか、または触覚強調がトリガ効果もしくは周囲効果のいずれかにかけられる。システム300および触覚周辺機器302を参照しながら説明したが、図1〜2の実施形態および図6〜7の実施形態のホスト・プロセッサおよび/またはローカル・プロセッサも、仮想カメラの視野に応じてそれぞれのアクチュエータの制御信号を変えるように構成されることを当業者は理解されよう。
図14はディスプレイ106の図であり、ディスプレイは、その上に三人称の視点または視野で戦闘交戦ビデオ・ゲームを表示している。この例では、ビデオ・ゲームが表示されているが、任意のタイプの仮想現実環境を表示できることを当業者は理解されよう。図15は、図14のディスプレイ106と対話するためにユーザによって操作される上述のシステム300の触覚周辺機器302の概略図である。本明細書で使用する三人称の視点または視野は、ユーザの仮想キャラクタの後ろでわずかに上方の固定距離から描画されたグラフィカル視野を指す。ユーザは、完全にまたは限定的に意識的に(awareness)仮想環境全体を見ることができる。加えて、ほとんどの三人称視野ビデオ・ゲームでは、ユーザは、仮想キャラクタの全身ならびにその周囲または環境を見ており、したがって、三人称の視点または視野により、ユーザは、より強く特徴づけられた仮想キャラクタを見ることができることになる。本発明の実施形態は一人称および/または三人称の視点に対して説明されているが、触覚効果は、鳥瞰またはトップダウンの視点、サイド・スクローリング(2D)の視点、等角投影の三人称の視点、および/または他の仮想カメラ視野を含む仮想カメラの他の視野に従って変えるかまたは変更することができる。
逆に、図16はディスプレイ106の図であり、ディスプレイは、その上に一人称の視点または視野で戦闘交戦ビデオ・ゲームを表示している。図17は、図16のディスプレイ106と対話するためにユーザによって操作される上述のシステム300の触覚周辺機器302の概略図である。本明細書で使用する一人称の視点または視野は、ユーザの仮想キャラクタそれ自身から描画されたグラフィカル視野を指す。一人称の視点または視野は、仮想キャラクタの眼により見られるような仮想環境を示す。例えば、図16に示した戦闘交戦ビデオ・ゲームでは、ディスプレイ106は、まさに、仮想キャラクタの手が武器を保持し連動していることをディスプレイ106の下の方で示している。カーレース・ビデオ・ゲームでは、ディスプレイは、まさに、仮想キャラクタの手がハンドルを保持していることをディスプレイの下の方で示し、スポーツ・ビデオ・ゲームでは、ディスプレイは、まさに、仮想キャラクタの手がボールを保持していることをディスプレイの下の方で示す。
本発明の実施形態では、ホスト・プロセッサおよび/またはローカル・プロセッサは、仮想環境内の仮想カメラの視野に応じてアクチュエータ318A、318B、318C、326、328のための制御信号を変えるように構成される。アクチュエータ318A、318B、318Cは図15および17に示されていないが、ターゲット触覚効果を生成し、それぞれ、ジョイスティック322、ボタン330、およびトリガ332に適用するために図5に関して上述している。図16の一人称の視点または視野により、アクチュエータのうちの少なくとも1つが、第1の触覚効果を生成し適用することになり、一方、図14の三人称の視点または視野により、アクチュエータのうちの少なくとも1つが、第1の触覚効果と異なる第2の触覚効果を生成し適用することになる。例えば、図16の一人称の視点または視野により、アクチュエータ318A、318B、318Cのうちの少なくとも1つがそれぞれのユーザ入力要素へのターゲット触覚効果(図17に1572として表された)を生成し適用することになる。そのようなターゲット・トリガ効果、すなわち、触覚周辺機器のユーザ入力要素に出力される効果は、フィードバックを本質的に物語形式(narrative)であるかまたはオーサリングされているように調整することによってユーザのための現実性の知覚を生成する。戦闘交戦ビデオ・ゲームの例では、仮想環境の武器は、トリガ連携を強調するためにトリガ・アクチュエータを使用することによって強調される。例えば、トリガ効果は、三人称では存在しないかまたは著しく弱く、しかし、一人称では完全に存在することができる。
図14の三人称の視点または視野により、全体またはランブル・アクチュエータ326、328のうちの少なくとも1つが、周囲効果をシミュレートするために触覚周辺機器302のハウジング324への触覚効果(図15に1570として表された)を生成し適用することになる。そのような周囲効果、すなわち、触覚周辺機器のハウジングに出力される効果により、ユーザは多数の視野の間を区別し、その結果、触覚効果はどの視野が現在利用されているかに応じてユーザに違いを感じさせることができる。追加として、仮想カメラ視野の変化は、多くの場合、ゲームプレーの変化を表し、本発明の実施形態では、与えられる触覚効果は、ゲームプレーのそのような変化を反映する。したがって、本発明の実施形態では、他のすべてのことが同じであって、仮想カメラ視野が異なる場合、同じイベント/仮想物体は異なる触覚効果をトリガすることができる。仮想カメラの視野に基づいて触覚効果を変更することにより、仮想環境内でのより没入した触覚経験が可能になり、異なる仮想カメラ角度からユーザが何を知覚するかの制御を向上させることができる。
仮想カメラ視野は、仮想環境内の状態の変化を検出することにより、ホスト・プロセッサおよび/またはローカル・プロセッサで検出することができる。別の言い方をすれば、この実施形態では、仮想カメラ視野は、視野センサ117を使用することなく検出することができる(したがって、視野センサ117はこの実施形態では必要とされない)。例えば、ユーザは、仮想カメラ視野を変化させるために触覚周辺機器を操作することができ、または仮想カメラ視野の変化は、記録されたコンテンツ・トラックまたはビデオ・ゲームの所定のシーケンスに従って生じることができる。仮想カメラ視野の変化を状態の変化としてホスト・プロセッサおよび/またはローカル・プロセッサで検出することができ、関連触覚効果を、必要に応じて、変えるかまたは変更することができる。本発明の別の実施形態では、ユーザの動作を検出するように構成され、さらに、ユーザの動作をホスト・プロセッサ108および/またはローカル・プロセッサ112に送るように構成された、視野センサ117によって、仮想カメラ視野を検出することができる。検出または感知されたユーザの動作に基づいて、ホスト・プロセッサ108および/またはローカル・プロセッサ112は仮想カメラの視野を変化させることができ、それによって、仮想カメラ視野に関連する触覚効果も変化することができる。一実施形態では、視野センサ117はヘッドマウント触覚周辺機器に取り付けられる。ヘッドマウント触覚周辺機器に取り付けることができる視野センサ117の例には、限定はしないが、加速度計、IR送信器/受信器の組み合わせ、またはジャイロスコープが含まれる。代替として、別の実施形態では、視野センサ117は、物質世界におけるユーザの注視/視野の変化をはっきり示すために顔/眼の認識ができるウェブカメラ・デバイスである。
図18は、本発明の実施形態による、触覚効果を触覚周辺機器のユーザに与える方法を示す流れ図であり、与えられる触覚効果は、上述のように、仮想カメラ視野に応じて変わる。一実施形態では、図18の流れ図の機能は、ホスト構成要素104のホスト・メモリ110に格納され、ホスト・プロセッサ108によって実行されるソフトウェアによって、かつ/または触覚周辺機器302のローカル・メモリ314に格納され、ローカル・プロセッサ312によって実行されるソフトウェアによって実施される。他の実施形態では、機能は、特定用途向け集積回路(「ASIC」)、プログラマブル・ゲート・アレイ(「PGA」)、フィールド・プログラマブル・ゲート・アレイ(「FPGA」)、またはハードウェアとソフトウェアとの任意の組合せの使用を通してハードウェアによって実行することができる。
ステップ1854において、ホスト・プロセッサ108および/またはローカル・プロセッサ312は、仮想カメラ視野を決定する。ステップ1856において、一人称の視点または視野により、アクチュエータ318A、318B、318Cのうちの少なくとも1つが、ステップ1858において触覚周辺機器302のそれぞれのユーザ入力要素へのターゲット触覚効果を生成し適用することになる。ステップ1860において、三人称の視点または視野により、全体またはランブル・アクチュエータ326、328のうちの少なくとも1つが、ステップ1862において触覚周辺機器302への触覚効果を生成し適用することになる。
触覚効果はユーザ入力要素によって変わることができる。例えば、いくつかの射撃ゲームは、別個のまたは対応するターゲット・アクチュエータを有する2つのトリガを含む。第1の触覚効果制御信号は第1のターゲット・アクチュエータによって第1のトリガに適用することができ、第2の触覚効果制御信号は第2のターゲット・アクチュエータによって第2のトリガに適用することができる。例えば、限定はしないが、Titanfallなどのいくつかのビデオ・ゲームでは、各トリガ(すなわち、左のトリガおよび右のトリガ)のための触覚効果制御信号は、コンピュータ制御キャラクタまたは物体の左および右の手で保持されている異なるタイプの武器に対応する。別の例では、各トリガ(すなわち、左のトリガおよび右のトリガ)のための触覚効果制御信号は、コンピュータ制御キャラクタまたは物体の左および右の側で生じている方向性イベントに対応する(すなわち、キャラクタの左側はビデオ・ゲームにおいて何かが衝突するかまたは当たる)。
図19は、本発明の実施形態による、ホスト・コンピュータからの触覚信号を決定し送出する方法を示す流れ図であり、与えられる触覚効果は仮想カメラ位置に応じて変わる。一実施形態では、図19の流れ図の機能は、ホスト構成要素104のメモリ110に格納され、ホスト・プロセッサ108によって実行されるソフトウェアによって、かつ/または触覚周辺機器302のメモリ314に格納され、ローカル・プロセッサ312によって実行されるソフトウェアによって実施される。他の実施形態では、機能は、特定用途向け集積回路(「ASIC」)、プログラマブル・ゲート・アレイ(「PGA」)、フィールド・プログラマブル・ゲート・アレイ(「FPGA」)、またはハードウェアとソフトウェアとの任意の組合せの使用を通してハードウェアによって実行することができる。
ステップ1954において、ホスト・プロセッサ108および/またはローカル・プロセッサ312は、仮想カメラ視野を決定する。ステップ1964において、ホスト・プロセッサ108は、状態の変化があるかどうかを判断する。1つの実施形態では、この変化は、ゲームまたはシミュレーションのための仮想空間の変化とすることができる。一例として、ユーザは、仮想カメラ視野を変化させるために触覚周辺機器302を操作することができ、または仮想カメラ視野の変化は、記録されたコンテンツ・トラックまたはビデオ・ゲームの所定のシーケンスに従って生じることができる。仮想カメラ視野の変化は状態の変化である。
ステップ1966において、次に、ホスト・プロセッサ108は、状態の変化に伴う関連触覚効果を決定する。上述のように、一人称の視点または視野により、アクチュエータのうちの少なくとも1つは第1の触覚効果を生成し適用することになり、一方、三人称の視点または視野により、アクチュエータのうちの少なくとも1つが、第1の触覚効果と異なる第2の触覚効果を生成し適用することになる。例えば、一人称の視点または視野により、アクチュエータのうちの少なくとも1つは、トリガ効果をシミュレートするための触覚効果を生成し適用することになり、一方、三人称の視点または視野により、少なくともアクチュエータは、周囲効果をシミュレートするための触覚効果を生成し適用することになる。図13に関して上述したように、状態の変化に伴う関連触覚効果があるかどうかを決定するプロセスは、多くの方法で行うことができ、状態の変化および触覚効果の事前定義マッピングにアクセスすることを含むことができる。
ステップ1968において、ホスト・コンピュータ104は、関連触覚情報をもつ触覚または制御信号を使用して、触覚情報を触覚周辺機器302に送出する。触覚情報の送出は、前に説明したように有線または無線通信のいずれかで行うことができる。したがって、触覚周辺機器302のローカル・プロセッサ312は、触覚周辺機器302が、仮想カメラ視野に応じて変わる触覚効果を出力すべきであることを示す制御信号を受け取る。
図20は、本発明の実施形態による、触覚効果を触覚周辺機器のユーザに与える方法を示す流れ図であり、与えられる触覚効果は、仮想カメラ位置ならびに仮想カメラ視野に応じて変わる。ユーザはどの触覚効果がプレーされるのを期待しているかのメンタル・モデルは、仮想カメラ位置および仮想カメラ視野の両方によって間違いなく影響を受ける。したがって、仮想カメラ位置および仮想カメラ視野の両方に応じて触覚効果を変更するかまたは変えるシステムは、より没入できより楽しい経験をユーザに与えることになる。触覚周辺機器によって出力される触覚効果は、仮想カメラの位置および/または視野のユーザ主動の変化に従って自動的に更新されるかまたは変わり、したがって、動的な触覚効果と見なすことができる。一実施形態では、図20の流れ図の機能は、ホスト構成要素のホスト・メモリに格納され、ホスト・プロセッサ108によって実行されるソフトウェアによって、かつ/または触覚周辺機器のローカル・メモリに格納され、ローカル・プロセッサによって実行されるソフトウェアによって実施される。他の実施形態では、機能は、特定用途向け集積回路(「ASIC」)、プログラマブル・ゲート・アレイ(「PGA」)、フィールド・プログラマブル・ゲート・アレイ(「FPGA」)、またはハードウェアとソフトウェアとの任意の組合せの使用を通してハードウェアによって実行することができる。
ステップ2080において、ホスト・プロセッサおよび/またはローカル・プロセッサは、触覚効果の発生源または原因である仮想物体に対する仮想カメラの位置または場所と、仮想カメラの視野とを決定する。仮想カメラの位置を決定する際に、ホスト・プロセッサおよび/またはローカル・プロセッサは、仮想カメラと仮想物体との間の仮想距離を決定する。
ステップ2082において、ホスト・プロセッサおよび/またはローカル・プロセッサは、仮想カメラと仮想物体との間の仮想距離が近くまたはすぐ近くの位置である状態1を決定し、その結果、ステップ2084において、アクチュエータは強い触覚効果を生成し適用する。ステップ2086において、ホスト・プロセッサおよび/またはローカル・プロセッサは、仮想カメラと仮想物体との間の仮想距離が遠いまたは遠隔の位置である状態2を決定し、その結果、ステップ2088において、アクチュエータは弱い触覚効果を生成し適用する。ステップ2090において、ホスト・プロセッサおよび/またはローカル・プロセッサは、一人称の視点または視野により、アクチュエータのうちの少なくとも1つがステップ2092において触覚周辺機器のユーザ入力要素へのターゲット触覚効果を生成し適用することになる状態3を決定する。ステップ2094において、ホスト・プロセッサおよび/またはローカル・プロセッサは、三人称の視点または視野により、全体またはランブル・アクチュエータのうちの少なくとも1つがステップ2096において触覚周辺機器への触覚効果を生成し適用することになる状態4を決定する。
本発明の実施形態による図20の流れ図に従って実行されユーザに与えられる触覚効果のタイプを決定する際に、優先順位システムを利用して、ユーザを圧倒しないように同時にプレーされる効果の数を制限することができる。より詳細には、図20を参照すると、ホスト・プロセッサおよび/またはローカル・プロセッサは、2つの異なる状態が同時に存在すると決定することができる。単一画面の実施形態では、2つの異なる状態が同じ画面に存在する。分割画面ディスプレイの実施形態では、第1の状態を分割画面の第1の半分に表示することができ、一方、第2の状態を分割画面の第2の半分に表示することができる。ピクチャ・イン・ピクチャ・ディスプレイの実施形態では、第1の状態を主画面に表示することができ、一方、第2の状態を、主画面の一部分の上に重ねられた二次画面に表示することができる。例えば、ホスト・プロセッサおよび/またはローカル・プロセッサは、状態2(仮想カメラが仮想物体から遠く離れている)ならびに状態3(仮想カメラが一人称の視野または視点を有する)が存在すると決定することができる。状態2に対する関連触覚効果は、仮想物体に関連する効果を弱めることであり、一方、状態3に対する関連触覚効果は、トリガ効果を強調するかまたは強くすることである。これらの2つの状態に対する関連触覚効果は、ホスト・プロセッサおよび/またはローカル・プロセッサによって利用される事前定義優先順位システムによって順序づけることができる。例えば、事前定義優先順位システムは、状態3の関連触覚効果が状態2の関連触覚効果と比べて優先権をとり、それにより、トリガ効果がプレーされ、その後、仮想物体に関連する弱められた効果が連続的にプレーされること、または、代替として、トリガ効果がプレーされ、仮想物体に関連する弱められた効果が省略されることを指示することができる。代替として、事前定義優先順位システムは、状態2の関連触覚効果は、状態3の関連触覚効果と比べて優先権をとるが、状態1が決定された場合および状態1が決定されたとき、状態1の関連触覚効果と比べて優先権をとらないことを指示することができる。本発明の別の実施形態では、優先順位システムはユーザの注意または興味に基づくことができる。例えば、分割画面の実施形態またはピクチャ・イン・ピクチャ・ディスプレイの実施形態において、カメラは、どの画面または画面の半分にユーザの眼が向いているかを感知または検出して、どの状態がより適切であるかまたはユーザによって好まれるかを判断することができる。事前定義優先順位システムの上述の例は本質的に例示であり、任意の事前定義優先順位システムが、所望に応じて、仮想環境の開発者によって利用され得ることが当業者には明らかであろう。
本発明の別の実施形態によれば、図20の流れ図に従って実行されユーザに与えられる触覚効果のタイプを決定する際に、ホスト・プロセッサおよび/またはローカル・プロセッサは、2つの異なる状態が同時に存在すると決定されると、関連触覚効果を組み合わせるかまたは混合することができる。例えば、ホスト・プロセッサおよび/またはローカル・プロセッサは、状態2(仮想カメラが仮想物体から遠く離れている)ならびに状態4(仮想カメラが三人称の視野または視点を有する)が存在すると決定することができる。状態2に対する関連触覚効果は、仮想物体に関連する効果を弱めることであり、一方、状態4に対する関連触覚効果は、周囲効果を出力することである。ホスト・プロセッサおよび/またはローカル・プロセッサが、状態2および状態4の関連触覚効果を組み合わせるかまたは混合する場合、弱められた周囲効果が触覚周辺機器によって出力される。
図21〜24は、ホスト・プロセッサおよび/またはローカル・プロセッサが、同時に存在する2つの異なる状態に対する関連触覚効果を組み合わせるかまたは混合する場合、生じ得る触覚効果の概略図である。関連触覚効果がどのように組み合わされる/混合されるかの以下の例は本質的に例示であり、効果を組み合わせる/混合する様々な方法は、所望に応じて、仮想環境の開発者によって利用され得ることが当業者には明らかであろう。図21は、状態2(仮想カメラ2050が、比較的長い仮想距離Dによって示されるように仮想物体から遠く離れている)ならびに状態4(仮想カメラ2050が三人称の視野または観点を有する)が存在するとホスト・プロセッサおよび/またはローカル・プロセッサが決定するシナリオを示す。三人称視野は、前部座席、または図22および図24の仮想カメラ2050に対して少し近い視点を有するユーザ(図21〜24に星印として表された)と対照的に、後部座席、または図21および図23の仮想カメラ2050に対して少し離れた視点を有するユーザによって示される。上述のように、状態2に対する関連触覚効果は、仮想物体に関連する効果を弱めることであり、一方、状態4に対する関連触覚効果は、周囲効果を出力することである。ホスト・プロセッサおよび/またはローカル・プロセッサが、状態2および状態4の関連触覚効果を組み合わせるかまたは混合する場合、弱められた周囲効果が触覚周辺機器によって出力される。別の実施形態では、上述のように、事前定義優先順位システムが、一方の状態の関連触覚効果が他方の状態の関連触覚効果に優先すると指示することができる。
図22は、状態2(仮想カメラ2050が、比較的長い仮想距離Dによって示されるように仮想物体から遠く離れている)ならびに状態3(仮想カメラ2050が一人称の視野または視点を有する)が存在するとホスト・プロセッサおよび/またはローカル・プロセッサが決定するシナリオを示す。状態2に対する関連触覚効果は、仮想物体に関連する効果を弱めることであり、一方、状態3に対する関連触覚効果は、トリガ効果を出力することである。ホスト・プロセッサおよび/またはローカル・プロセッサが、状態2および状態3の関連触覚効果を組み合わせるかまたは混合する場合、弱められたトリガ効果が触覚周辺機器によって出力される。別の実施形態では、上述のように、事前定義優先順位システムが、一方の状態の関連触覚効果が他方の状態の関連触覚効果に優先すると指示することができる。
図23は、状態1(仮想カメラ2050が、比較的短い仮想距離Dによって示されるように仮想物体のすぐ近くまたは近くにある)ならびに状態4(仮想カメラ2050が三人称の視野または視点を有する)が存在するとホスト・プロセッサおよび/またはローカル・プロセッサが決定するシナリオを示す。上述のように、状態1に対する関連触覚効果は、仮想物体に関連する効果を強めることであり、一方、状態4に対する関連触覚効果は、周囲効果を出力することである。ホスト・プロセッサおよび/またはローカル・プロセッサが、状態1および状態4の関連触覚効果を組み合わせるかまたは混合する場合、より強い周囲効果が触覚周辺機器によって出力される。別の実施形態では、上述のように、事前定義優先順位システムが、一方の状態の関連触覚効果が他方の状態の関連触覚効果に優先すると指示することができる。
図24は、状態1(仮想カメラ2050が、比較的短い仮想距離Dによって示されるように仮想物体のすぐ近くまたは近くにある)ならびに状態3(仮想カメラ2050が一人称の視野または視点を有する)が存在するとホスト・プロセッサおよび/またはローカル・プロセッサが決定するシナリオを示す。上述のように、状態1に対する関連触覚効果は、仮想物体に関連する効果を強めることであり、一方、状態3に対する関連触覚効果は、トリガ効果を出力することである。ホスト・プロセッサおよび/またはローカル・プロセッサが、状態1および状態3の関連触覚効果を組み合わせるかまたは混合する場合、より強いトリガ効果が触覚周辺機器によって出力される。別の実施形態では、上述のように、事前定義優先順位システムが、一方の状態の関連触覚効果が他方の状態の関連触覚効果に優先することを指示することができる。
上述の実施形態は、触覚効果の発生源または原因である仮想物体に対する仮想カメラのズーム状態に基づいて触覚効果を変更すること、および/または仮想カメラの視野に基づいて触覚効果を変更することに関連する。本発明の別の実施形態では、触覚効果は、仮想カメラのピントの程度に基づいて変更することができる。より詳細には、上述のように、仮想現実プログラム中の仮想カメラを扱う場合、ユーザはパン、ズームのような機能を使用するか、またはピントおよび焦点を変化させることができる。触覚強度またはボリュームは、仮想物体が合焦状態かまたは非合焦状態かに基づいて変わることができる。例えば、仮想物体が仮想カメラに対して非合焦状態である場合、より弱い触覚効果がプレーされまたは出力され、仮想物体が仮想カメラに対して合焦状態である場合、より強い触覚効果がプレーされまたは出力される。
加えて、上述の実施形態は、ユーザへの仮想環境をディスプレイ上に生成するように構成されたコンピュータに関連しているが、仮想カメラのズーム状態に基づいて触覚効果を変更すること、および/または仮想カメラの視野に基づいて触覚効果を変更することを、ユーザへの仮想環境を生成するように構成されていないデバイスを含む他のタイプのデバイスに適用することができる。例えば、メディア・サービスならびにDVDまたはブルーレイ・ディスクなどの記憶媒体は、ユーザの観視経験を向上させるために関連触覚効果を含めて構成することができる。メディア・サービスは、例えば、放送網サービス、ケーブル通信サービス、衛星通信サービス、クラウド・ビデオ・ストリーミング・サービス、ゲーミング・コンソール、またはオーディオ・ビデオ・コンテンツもしくはデータおよび関連する触覚コンテンツもしくはデータの発生源である任意の他のタイプのサービスとすることができる。メディア・サービスまたは記憶媒体を見るユーザは、触覚周辺機器を保持しているか、またはユーザにウェアラブル触覚周辺機器を取り付けていてもよい。触覚周辺機器はアクチュエータを含み、アクチュエータは、メディア・サービスまたは記憶媒体からの制御信号を受け取り、触覚効果を触覚周辺機器に出力するように構成される。触覚効果は、メディア・サービスまたは記憶媒体のコンテンツに関係するかまたは関連する。そのような触覚効果を、メディア・サービスまたは記憶媒体の仮想カメラのズーム状態に基づいて変えるかまたは変更することができ、かつ/またはその仮想カメラの視野に基づいて変えるかまたは変更することができる。さらなる別の例では、限定はしないが、カメラまたは双眼鏡などの現実の観視デバイスは、ユーザの観視経験を向上させるために関連触覚効果を含んで構成することができる。カメラ/双眼鏡を使用するユーザは、触覚周辺機器を保持しているか、またはユーザにウェアラブル触覚周辺機器を取り付けていてもよい。触覚周辺機器はアクチュエータを含み、アクチュエータは、カメラ/双眼鏡からの制御信号を受け取り、触覚効果を触覚周辺機器に出力するように構成される。そのような触覚効果は、カメラ/双眼鏡のズーム状態に基づいて変えるかまたは変更することができる。
本発明による様々な実施形態が上述されたが、それらは限定ではなく、単に例証および例として提示されたことが理解されるべきである。形態および詳細の様々な変更が、本発明の趣旨および範囲から逸脱することなく実施形態において行われ得ることが当業者には明らかであろう。したがって、本発明の広さおよび範囲は上述の例示の実施形態のいずれによっても限定されるべきでなく、添付の特許請求の範囲およびその均等物によってのみ規定されるべきである。本明細書で論じた各実施形態の各特徴、および本明細書で引用された各参考文献は、任意の他の実施形態の特徴と組み合わせて使用され得ることも理解されよう。本明細書で論じたすべての特許および刊行物は参照によりその全体が本明細書に組み込まれる。

Claims (20)

  1. ユーザへの仮想環境をディスプレイ上に生成するように構成されたホスト・コンピュータと、
    プロセッサと、
    アクチュエータを含む触覚周辺機器であり、該アクチュエータは、前記プロセッサからの制御信号を受け取り、前記プロセッサからの該制御信号に応答して触覚効果を該触覚周辺機器に出力するように構成される、触覚周辺機器と
    を備えるシステムであって、
    前記プロセッサは、前記仮想環境の仮想カメラのズーム状態に応じて前記アクチュエータのための前記制御信号を変え、その結果、第1のズーム状態により、前記アクチュエータが第1の触覚効果を生成し適用することになり、第2のズーム状態により、前記アクチュエータが第2の触覚効果を生成し適用することになり、仮想物体が該第1のズーム状態におけるよりも該第2のズーム状態においてより近くに現れ、該第1の触覚効果が該第2の触覚効果よりも弱くなるように構成される、システム。
  2. 前記仮想カメラの前記ズーム状態は、前記触覚周辺機器と前記ホスト・コンピュータとの間の実際の距離を検出するように構成された近接センサによって検出され、該近接センサは該実際の距離を前記プロセッサに送るように構成される、請求項1に記載のシステム。
  3. 前記近接センサは、前記触覚周辺機器に結合されるか、または前記ユーザが着用できる、請求項2に記載のシステム。
  4. 前記仮想カメラの前記ズーム状態は、ユーザの動作を検出するように構成された近接センサによって検出され、該近接センサは該ユーザの動作を前記プロセッサに送るように構成される、請求項1に記載のシステム。
  5. 前記近接センサはカメラ・デバイスである、請求項4に記載のシステム。
  6. 前記プロセッサが前記仮想環境内の状態の変化を検出することによって、前記仮想カメラの前記ズーム状態が検出される、請求項1に記載のシステム。
  7. 前記プロセッサは前記ホスト・コンピュータに配設される、請求項1に記載のシステム。
  8. 前記プロセッサは前記触覚周辺機器に配設される、請求項1に記載のシステム。
  9. 前記プロセッサは、さらに、前記仮想環境内の前記仮想カメラの視野に応じて前記アクチュエータのための前記制御信号を変え、その結果、第1の視野により、前記アクチュエータが第3の触覚効果を生成し適用することになり、第2の視野により、前記アクチュエータが第4の触覚効果を生成し適用することになり、該第3の触覚効果が該第4の触覚効果と異なるように構成される、請求項1に記載のシステム。
  10. 前記第1の視野は一人称の視点であり、前記第2の視野は三人称の視点であり、前記第3の触覚効果はトリガ効果に関連し、前記第4の触覚効果は周囲効果に関連する、請求項9に記載のシステム。
  11. 前記システムは多数の触覚周辺機器を含み、該多数の触覚周辺機器の各々がアクチュエータを含み、該アクチュエータは、前記プロセッサからの制御信号を受け取り、前記プロセッサからの該制御信号に応答して触覚効果を該触覚周辺機器に出力するように構成され、該アクチュエータによって出力される触覚効果は、前記プロセッサから受け取った制御信号に従って継目なしに自動的に更新されることになる、請求項1に記載のシステム。
  12. ユーザへの仮想環境をディスプレイ上に生成するように構成されたホスト・コンピュータと、
    プロセッサと、
    アクチュエータを含む触覚周辺機器であり、該アクチュエータは、前記プロセッサからの制御信号を受け取り、前記プロセッサからの該制御信号に応答して触覚効果を該触覚周辺機器に出力するように構成される、触覚周辺機器と
    を備えるシステムであって、
    前記プロセッサは、前記仮想環境内の仮想カメラの視野に応じて前記アクチュエータのための前記制御信号を変え、その結果、第1の視野により、前記アクチュエータが第1の触覚効果を生成し適用することになり、第2の視野により、前記アクチュエータが第2の触覚効果を生成し適用することになり、該第1の触覚効果が該第2の触覚効果と異なるように構成される、システム。
  13. 前記第1の視野は一人称の視点であり、前記第2の視野は三人称の視点であり、前記第1の触覚効果はトリガ効果に関連し、前記第2の触覚効果は周囲効果に関連する、請求項12に記載のシステム。
  14. 前記プロセッサが前記仮想環境内の状態の変化を検出することによって、前記仮想カメラの前記視野が検出される、請求項12に記載のシステム。
  15. 前記仮想カメラの前記視野は、ユーザの動作を検出するように構成された視野センサによって検出され、該視野センサは該ユーザの動作を前記プロセッサに送るように構成される、請求項12に記載のシステム。
  16. 前記プロセッサは、さらに、前記仮想環境の仮想カメラのズーム状態に応じて前記アクチュエータのための前記制御信号を変え、その結果、第1のズーム状態により、前記アクチュエータが第3の触覚効果を生成し適用することになり、第2のズーム状態により、前記アクチュエータが第4の触覚効果を生成し適用することになり、仮想物体が該第1のズーム状態におけるよりも該第2のズーム状態においてより近くに現れ、該第3の触覚効果が該第4の触覚効果よりも弱くなるように構成される、請求項12に記載のシステム。
  17. 前記プロセッサは前記ホスト・コンピュータに配設される、請求項12に記載のシステム。
  18. 前記プロセッサは前記触覚周辺機器に配設される、請求項12に記載のシステム。
  19. ユーザへの仮想環境をディスプレイ上に生成するように構成されたホスト・コンピュータと、
    プロセッサと、
    アクチュエータを含む触覚周辺機器であり、該アクチュエータは、前記プロセッサからの制御信号を受け取り、前記プロセッサからの該制御信号に応答して触覚効果を該触覚周辺機器に出力するように構成される、触覚周辺機器と
    を備えるシステムであって、
    前記プロセッサは、前記仮想環境の仮想カメラのズーム状態に応じて前記アクチュエータのための前記制御信号を変え、その結果、第1のズーム状態により、前記アクチュエータが第1の触覚効果を生成し適用することになり、第2のズーム状態により、前記アクチュエータが第2の触覚効果を生成し適用することになり、仮想物体が該第1のズーム状態におけるよりも該第2のズーム状態においてより近くに現れるように構成され、
    前記プロセッサは、さらに、前記仮想環境内の前記仮想カメラの視野に応じて前記アクチュエータのための前記制御信号を変え、その結果、第1の視野により、前記アクチュエータが第3の触覚効果を生成し適用することになり、第2の視野により、前記アクチュエータが第4の触覚効果を生成し適用することになり、該第1の視野は一人称の視点であり、該第2の視野は三人称の視点であるように構成され、
    前記第1の触覚効果、前記第2の触覚効果、前記第3の触覚効果、および前記第4の触覚効果は互いに異なる、システム。
  20. 前記第1の触覚効果は前記第2の触覚効果よりも弱く、前記第3の触覚効果はトリガ効果に関連し、前記第4の触覚効果は周囲効果に関連する、請求項19に記載のシステム。
JP2015114385A 2014-06-09 2015-06-05 視野および/または近接度に基づいて触覚強度を変更するためのプログラマブル触覚デバイスおよび方法 Active JP6576697B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201462009898P 2014-06-09 2014-06-09
US62/009,898 2014-06-09
US14/534,398 US9588586B2 (en) 2014-06-09 2014-11-06 Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
US14/534,398 2014-11-06

Publications (2)

Publication Number Publication Date
JP2015232880A true JP2015232880A (ja) 2015-12-24
JP6576697B2 JP6576697B2 (ja) 2019-09-18

Family

ID=53298256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015114385A Active JP6576697B2 (ja) 2014-06-09 2015-06-05 視野および/または近接度に基づいて触覚強度を変更するためのプログラマブル触覚デバイスおよび方法

Country Status (5)

Country Link
US (2) US9588586B2 (ja)
EP (1) EP2955608A1 (ja)
JP (1) JP6576697B2 (ja)
KR (1) KR20150141151A (ja)
CN (1) CN105278676A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018112953A (ja) * 2017-01-13 2018-07-19 任天堂株式会社 振動制御システム、振動制御装置、振動制御プログラムおよび振動制御方法
JP2018206058A (ja) * 2017-06-05 2018-12-27 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法
JP2018206012A (ja) * 2017-06-02 2018-12-27 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法
JP2019121368A (ja) * 2017-12-28 2019-07-22 イマージョン コーポレーションImmersion Corporation 直観的な触覚設計
US10661163B2 (en) 2017-06-02 2020-05-26 Nintendo Co., Ltd. Video game with haptic signal that is disabled based on losing contact with a surface
JP2020112975A (ja) * 2019-01-10 2020-07-27 東京瓦斯株式会社 設備環境出力システムおよびプログラム

Families Citing this family (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6319327B2 (ja) * 2014-02-14 2018-05-09 富士通株式会社 ゲームコントローラ
US10600245B1 (en) 2014-05-28 2020-03-24 Lucasfilm Entertainment Company Ltd. Navigating a virtual environment of a media content item
US9588586B2 (en) * 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
US9928878B2 (en) * 2014-08-13 2018-03-27 Intel Corporation Techniques and apparatus for editing video
KR102096146B1 (ko) 2014-09-02 2020-04-28 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크
FR3025902B1 (fr) * 2014-09-16 2017-12-08 E-Concept Souris vibrante multi-dimensions
FR3026638B1 (fr) * 2014-10-07 2016-12-16 Yannick Vaillant Ensemble environnement et interface de stimulation tactile de guidage sur une trajectoire dans l'environnement
US10449445B2 (en) 2014-12-11 2019-10-22 Elwha Llc Feedback for enhanced situational awareness
US10216277B2 (en) 2015-02-25 2019-02-26 Immersion Corporation Modifying haptic effects for slow motion
EP3263195A4 (en) * 2015-02-27 2018-09-12 Sony Corporation Information processing device, information processing method, information processing system
CN106371579B (zh) * 2015-12-24 2019-05-21 北京智谷睿拓技术服务有限公司 控制柔性的虚拟现实交互控制器形变的方法、装置和虚拟现实交互***
CN105677017B (zh) * 2015-12-28 2019-04-26 联想(北京)有限公司 一种控制方法、键盘、电子设备及电子装置
KR102365162B1 (ko) * 2016-02-29 2022-02-21 삼성전자주식회사 멀미 저감을 위한 영상 표시 장치 및 방법
WO2017155924A1 (en) * 2016-03-10 2017-09-14 Carrier Corporation Calibration of an actuator
US10096158B2 (en) * 2016-03-24 2018-10-09 Ford Global Technologies, Llc Method and system for virtual sensor data generation with depth ground truth annotation
US9919647B2 (en) 2016-05-02 2018-03-20 Ford Global Technologies, Llc Intuitive haptic alerts
JP2019516153A (ja) * 2016-05-12 2019-06-13 サーク・コーポレーション 容量性感知を用いたコントローラの予兆
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
DK201670737A1 (en) 2016-06-12 2018-01-22 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Haptic Feedback
US10060170B2 (en) 2016-08-15 2018-08-28 Ford Global Technologies, Llc Vehicle with active door zone
DK179278B1 (en) * 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
EP3531250B1 (en) * 2016-09-06 2021-02-24 Apple Inc. Devices, methods, and graphical user interfaces for haptic mixing
WO2018051383A1 (en) * 2016-09-13 2018-03-22 Yanmar Co., Ltd. Haptic device
US10324531B2 (en) 2016-12-27 2019-06-18 Immersion Corporation Haptic feedback using a field of view
US9928700B1 (en) * 2017-01-25 2018-03-27 Immersion Corporation Method and apparatus for controlling generation of electrostatic friction effects for a plurality of electrodes
US20180232051A1 (en) * 2017-02-16 2018-08-16 Immersion Corporation Automatic localized haptics generation system
US10183640B2 (en) 2017-02-17 2019-01-22 Ford Global Technologies, Llc Systems and methods for door collision avoidance
US10732714B2 (en) 2017-05-08 2020-08-04 Cirrus Logic, Inc. Integrated haptic system
DK201770372A1 (en) 2017-05-16 2019-01-08 Apple Inc. TACTILE FEEDBACK FOR LOCKED DEVICE USER INTERFACES
JP6701132B2 (ja) * 2017-07-12 2020-05-27 任天堂株式会社 ゲームシステム、ゲームプログラム、ゲーム装置、およびゲーム処理方法
US11259121B2 (en) 2017-07-21 2022-02-22 Cirrus Logic, Inc. Surface speaker
US20190105562A1 (en) * 2017-10-11 2019-04-11 Immersion Corporation Haptic effects with multiple peripheral devices
CN107748617A (zh) * 2017-10-24 2018-03-02 广州云友网络科技有限公司 一种虚拟场景与体感、触感同步的方法
WO2019082854A1 (ja) * 2017-10-26 2019-05-02 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法およびプログラム
US20190163271A1 (en) * 2017-11-27 2019-05-30 Immersion Corporation Systems and methods for providing haptic feedback according to tilt-based inputs
US10455339B2 (en) 2018-01-19 2019-10-22 Cirrus Logic, Inc. Always-on detection systems
US10620704B2 (en) 2018-01-19 2020-04-14 Cirrus Logic, Inc. Haptic output systems
US10572016B2 (en) 2018-03-06 2020-02-25 Microsoft Technology Licensing, Llc Spatialized haptic device force feedback
US11139767B2 (en) 2018-03-22 2021-10-05 Cirrus Logic, Inc. Methods and apparatus for driving a transducer
US10795443B2 (en) 2018-03-23 2020-10-06 Cirrus Logic, Inc. Methods and apparatus for driving a transducer
US10667051B2 (en) 2018-03-26 2020-05-26 Cirrus Logic, Inc. Methods and apparatus for limiting the excursion of a transducer
US10820100B2 (en) 2018-03-26 2020-10-27 Cirrus Logic, Inc. Methods and apparatus for limiting the excursion of a transducer
US10467819B2 (en) * 2018-03-28 2019-11-05 Authanaviz, LLC Real-time spatial authoring in augmented reality using additive and subtractive modeling
US10832537B2 (en) 2018-04-04 2020-11-10 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
US10775892B2 (en) * 2018-04-20 2020-09-15 Immersion Corporation Systems and methods for multi-user shared virtual and augmented reality-based haptics
US20190324538A1 (en) * 2018-04-20 2019-10-24 Immersion Corporation Haptic-enabled wearable device for generating a haptic effect in an immersive reality environment
US11069206B2 (en) 2018-05-04 2021-07-20 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
US20190377538A1 (en) 2018-06-08 2019-12-12 Curious Company, LLC Information Presentation Through Ambient Sounds
US10818088B2 (en) 2018-07-10 2020-10-27 Curious Company, LLC Virtual barrier objects
US10650600B2 (en) 2018-07-10 2020-05-12 Curious Company, LLC Virtual path display
US11269415B2 (en) 2018-08-14 2022-03-08 Cirrus Logic, Inc. Haptic output systems
US10902678B2 (en) 2018-09-06 2021-01-26 Curious Company, LLC Display of hidden information
GB201817495D0 (en) 2018-10-26 2018-12-12 Cirrus Logic Int Semiconductor Ltd A force sensing system and method
US11681415B2 (en) * 2018-10-31 2023-06-20 Apple Inc. Near-viewing notification techniques
US11055913B2 (en) 2018-12-04 2021-07-06 Curious Company, LLC Directional instructions in an hybrid reality system
CN109634413B (zh) * 2018-12-05 2021-06-11 腾讯科技(深圳)有限公司 对虚拟环境进行观察的方法、设备及存储介质
US11294467B2 (en) * 2018-12-18 2022-04-05 Immersion Corporation Systems and methods for integrating environmental haptics in virtual reality
US10970935B2 (en) 2018-12-21 2021-04-06 Curious Company, LLC Body pose message system
US11740071B2 (en) 2018-12-21 2023-08-29 Apple Inc. Optical interferometry proximity sensor with temperature variation compensation
US10872584B2 (en) 2019-03-14 2020-12-22 Curious Company, LLC Providing positional information using beacon devices
US10828672B2 (en) 2019-03-29 2020-11-10 Cirrus Logic, Inc. Driver circuitry
US10726683B1 (en) 2019-03-29 2020-07-28 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using a two-tone stimulus
US11509292B2 (en) 2019-03-29 2022-11-22 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using least-mean-squares filter
US20200313529A1 (en) 2019-03-29 2020-10-01 Cirrus Logic International Semiconductor Ltd. Methods and systems for estimating transducer parameters
US10992297B2 (en) 2019-03-29 2021-04-27 Cirrus Logic, Inc. Device comprising force sensors
US11644370B2 (en) 2019-03-29 2023-05-09 Cirrus Logic, Inc. Force sensing with an electromagnetic load
US12035445B2 (en) 2019-03-29 2024-07-09 Cirrus Logic Inc. Resonant tracking of an electromagnetic load
US10955955B2 (en) 2019-03-29 2021-03-23 Cirrus Logic, Inc. Controller for use in a device comprising force sensors
US11156456B2 (en) * 2019-05-21 2021-10-26 Apple Inc. Optical proximity sensor integrated into a camera module for an electronic device
US11473898B2 (en) 2019-05-24 2022-10-18 Apple Inc. Wearable voice-induced vibration or silent gesture sensor
US10976825B2 (en) 2019-06-07 2021-04-13 Cirrus Logic, Inc. Methods and apparatuses for controlling operation of a vibrational output system and/or operation of an input sensor system
US11150733B2 (en) 2019-06-07 2021-10-19 Cirrus Logic, Inc. Methods and apparatuses for providing a haptic output signal to a haptic actuator
KR20220024091A (ko) 2019-06-21 2022-03-03 시러스 로직 인터내셔널 세미컨덕터 리미티드 디바이스 상에 복수의 가상 버튼을 구성하기 위한 방법 및 장치
US11524210B2 (en) * 2019-07-29 2022-12-13 Neofect Co., Ltd. Method and program for providing remote rehabilitation training
US11408787B2 (en) 2019-10-15 2022-08-09 Cirrus Logic, Inc. Control methods for a force sensor system
US11380175B2 (en) 2019-10-24 2022-07-05 Cirrus Logic, Inc. Reproducibility of haptic waveform
US11545951B2 (en) 2019-12-06 2023-01-03 Cirrus Logic, Inc. Methods and systems for detecting and managing amplifier instability
CN111298440A (zh) * 2020-01-20 2020-06-19 腾讯科技(深圳)有限公司 虚拟环境中的虚拟角色控制方法、装置、设备及介质
US11662821B2 (en) 2020-04-16 2023-05-30 Cirrus Logic, Inc. In-situ monitoring, calibration, and testing of a haptic actuator
US11698680B2 (en) 2020-06-23 2023-07-11 Immersion Corporation Methods and systems for decoding and rendering a haptic effect associated with a 3D environment
CN111803919A (zh) * 2020-07-16 2020-10-23 上海摩勤智能技术有限公司 游戏手柄装置及游戏***
CN111773657B (zh) * 2020-08-11 2024-06-04 网易(杭州)网络有限公司 一种游戏中视角切换的方法及装置、电子设备、存储介质
US11874110B2 (en) 2020-09-25 2024-01-16 Apple Inc. Self-mixing interferometry device configured for non-reciprocal sensing
US11571617B2 (en) * 2020-12-18 2023-02-07 Dell Products, Lp System and method for coordinating gaming haptic response across peripheral device ecosystem
US11933822B2 (en) 2021-06-16 2024-03-19 Cirrus Logic Inc. Methods and systems for in-system estimation of actuator parameters
US11765499B2 (en) 2021-06-22 2023-09-19 Cirrus Logic Inc. Methods and systems for managing mixed mode electromechanical actuator drive
US11908310B2 (en) 2021-06-22 2024-02-20 Cirrus Logic Inc. Methods and systems for detecting and managing unexpected spectral content in an amplifier system
US11973734B2 (en) * 2021-06-23 2024-04-30 Microsoft Technology Licensing, Llc Processing electronic communications according to recipient points of view
US11552649B1 (en) 2021-12-03 2023-01-10 Cirrus Logic, Inc. Analog-to-digital converter-embedded fixed-phase variable gain amplifier stages for dual monitoring paths

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207340A (ja) * 1997-01-24 1998-08-07 Sony Corp 仮想空間生成装置及び仮想空間生成方法
JP2003058912A (ja) * 2001-05-18 2003-02-28 Sony Computer Entertainment Inc 表示装置及び画像処理方法
JP2003199974A (ja) * 2000-09-28 2003-07-15 Immersion Corp 触覚フィードバックインターフェースデバイス用の方向接触フィードバック
WO2010038822A1 (ja) * 2008-10-01 2010-04-08 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理方法、情報記憶媒体及びプログラム
JP2011258150A (ja) * 2010-06-11 2011-12-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2013524351A (ja) * 2010-03-31 2013-06-17 イマージョン コーポレーション 位置に基づいて触覚刺激を提供するシステム及び方法
WO2013116247A1 (en) * 2012-01-30 2013-08-08 Microsoft Corporation Force feedback triggers

Family Cites Families (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5629594A (en) * 1992-12-02 1997-05-13 Cybernet Systems Corporation Force feedback system
US6131097A (en) * 1992-12-02 2000-10-10 Immersion Corporation Haptic authoring
US5389865A (en) * 1992-12-02 1995-02-14 Cybernet Systems Corporation Method and system for providing a tactile virtual reality and manipulator defining an interface device therefor
US5461711A (en) * 1993-12-22 1995-10-24 Interval Research Corporation Method and system for spatial accessing of time-based information
US5684722A (en) * 1994-09-21 1997-11-04 Thorner; Craig Apparatus and method for generating a control signal for a tactile sensation generator
US5913727A (en) * 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
US5691898A (en) * 1995-09-27 1997-11-25 Immersion Human Interface Corp. Safe and low cost computer peripherals with force feedback for consumer applications
US5694013A (en) * 1996-09-06 1997-12-02 Ford Global Technologies, Inc. Force feedback haptic interface for a three-dimensional CAD surface
US6005551A (en) 1997-04-25 1999-12-21 Microsoft Corporation Offline force effect rendering
US6002184A (en) * 1997-09-17 1999-12-14 Coactive Drive Corporation Actuator with opposing repulsive magnetic forces
US8020095B2 (en) 1997-11-14 2011-09-13 Immersion Corporation Force feedback system including multi-tasking graphical host environment
US6563487B2 (en) * 1998-06-23 2003-05-13 Immersion Corporation Haptic feedback for directional control pads
WO2000060571A1 (en) * 1999-04-02 2000-10-12 Massachusetts Institute Of Technology Haptic interface system for collision detection and applications therefore
US6833826B1 (en) * 2000-05-06 2004-12-21 Novint Technologies, Inc. Human-computer interface
US8996169B2 (en) * 2011-12-29 2015-03-31 Mako Surgical Corp. Neural monitor-based dynamic haptics
US7643054B2 (en) * 2002-12-09 2010-01-05 Hewlett-Packard Development Company, L.P. Directed guidance of viewing devices
JP4030437B2 (ja) * 2003-01-23 2008-01-09 アルプス電気株式会社 画像情報表示装置
JP4220355B2 (ja) * 2003-11-10 2009-02-04 アルプス電気株式会社 力覚付与型入力装置
US8730156B2 (en) * 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
JP4798705B2 (ja) * 2006-03-23 2011-10-19 任天堂株式会社 位置算出装置、位置算出プログラム、ゲーム装置、およびゲームプログラム
JP3949701B1 (ja) * 2006-03-27 2007-07-25 株式会社コナミデジタルエンタテインメント 音声処理装置、音声処理方法、ならびに、プログラム
US8378964B2 (en) 2006-04-13 2013-02-19 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US8508486B2 (en) 2007-10-01 2013-08-13 Immersion Corporation Directional haptic effects for a handheld device
CA2708259A1 (en) * 2007-12-19 2009-06-25 Ivo Research Limited Vehicle competition implementation system
KR101628782B1 (ko) 2009-03-20 2016-06-09 삼성전자주식회사 휴대용 단말기에서 복수의 진동자를 이용한 햅틱 기능 제공방법 및 장치
KR101553842B1 (ko) * 2009-04-21 2015-09-17 엘지전자 주식회사 멀티 햅틱 효과를 제공하는 휴대 단말기 및 그 제어방법
US8009022B2 (en) 2009-05-29 2011-08-30 Microsoft Corporation Systems and methods for immersive interaction with virtual objects
KR20110005587A (ko) * 2009-07-10 2011-01-18 삼성전자주식회사 휴대 단말의 진동 발생 방법 및 장치
GB2471905B (en) * 2009-07-17 2011-08-31 Sony Comp Entertainment Europe User interface and method of user interaction
CN102473034B (zh) 2009-07-22 2015-04-01 意美森公司 用于在输入控制手势以及关于虚拟设备的控制期间提供复杂触觉激励的***和方法
US20120188279A1 (en) * 2009-09-29 2012-07-26 Kent Demaine Multi-Sensor Proximity-Based Immersion System and Method
US9880621B2 (en) 2010-04-08 2018-01-30 Disney Enterprises, Inc. Generating virtual stimulation devices and illusory sensations using tactile display technology
JP5541974B2 (ja) * 2010-06-14 2014-07-09 任天堂株式会社 画像表示プログラム、装置、システムおよび方法
US20120200600A1 (en) * 2010-06-23 2012-08-09 Kent Demaine Head and arm detection for virtual immersion systems and methods
US8576171B2 (en) * 2010-08-13 2013-11-05 Immersion Corporation Systems and methods for providing haptic feedback to touch-sensitive input devices
FR2964761B1 (fr) 2010-09-14 2012-08-31 Thales Sa Dispositif d'interaction haptique et procede de generation d'effets haptiques et sonores
US8670554B2 (en) 2011-04-20 2014-03-11 Aurenta Inc. Method for encoding multiple microphone signals into a source-separable audio signal for network transmission and an apparatus for directed source separation
US20150077234A1 (en) * 2011-07-12 2015-03-19 Aliphcom System of wearable devices with sensors for synchronization of body motions based on haptic prompts
KR101328054B1 (ko) * 2011-08-09 2013-11-08 엘지전자 주식회사 실감 진동을 발생시키는 영상표시장치 및 실감 진동 구현방법
EP2786591B1 (en) 2011-10-05 2018-06-27 Immerz Inc. Systems and methods for improved acousto-haptic speakers
US10013857B2 (en) 2011-12-21 2018-07-03 Qualcomm Incorporated Using haptic technologies to provide enhanced media experiences
JP5610095B2 (ja) * 2011-12-27 2014-10-22 株式会社村田製作所 触覚提示装置
US20130178257A1 (en) * 2012-01-06 2013-07-11 Augaroo, Inc. System and method for interacting with virtual objects in augmented realities
EP2821892A4 (en) * 2012-03-02 2015-10-28 Nec Corp DISPLAY DEVICE AND METHOD OF OPERATION
US9715276B2 (en) 2012-04-04 2017-07-25 Immersion Corporation Sound to haptic effect conversion system using multiple actuators
JP5580855B2 (ja) * 2012-06-12 2014-08-27 株式会社ソニー・コンピュータエンタテインメント 障害物回避装置および障害物回避方法
US20130335405A1 (en) * 2012-06-18 2013-12-19 Michael J. Scavezze Virtual object generation within a virtual environment
JP5949234B2 (ja) * 2012-07-06 2016-07-06 ソニー株式会社 サーバ、クライアント端末、およびプログラム
US20140056461A1 (en) 2012-08-21 2014-02-27 Immerz, Inc. Systems and methods for a vibrating input device
US20140168261A1 (en) * 2012-12-13 2014-06-19 Jeffrey N. Margolis Direct interaction system mixed reality environments
US9128523B2 (en) 2012-12-20 2015-09-08 Amazon Technologies, Inc. Dynamically generating haptic effects from audio data
US8754757B1 (en) 2013-03-05 2014-06-17 Immersion Corporation Automatic fitting of haptic effects
CN103488291B (zh) * 2013-09-09 2017-05-24 北京诺亦腾科技有限公司 一种基于运动捕捉的浸入式虚拟现实***
US9207764B2 (en) 2013-09-18 2015-12-08 Immersion Corporation Orientation adjustable multi-channel haptic device
US9715863B2 (en) * 2013-09-30 2017-07-25 Microsoft Technology Licensing, Llc Scale factor based on viewing distance
US9619029B2 (en) 2013-11-14 2017-04-11 Immersion Corporation Haptic trigger control system
US9164587B2 (en) * 2013-11-14 2015-10-20 Immersion Corporation Haptic spatialization system
JP6264542B2 (ja) * 2014-01-30 2018-01-24 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法
US10067566B2 (en) * 2014-03-19 2018-09-04 Immersion Corporation Systems and methods for a shared haptic experience
US9338552B2 (en) 2014-05-09 2016-05-10 Trifield Ip, Llc Coinciding low and high frequency localization panning
US10579207B2 (en) * 2014-05-14 2020-03-03 Purdue Research Foundation Manipulating virtual environment using non-instrumented physical object
US9600073B2 (en) * 2014-05-21 2017-03-21 International Business Machines Corporation Automated adjustment of content composition rules based on evaluation of user feedback obtained through haptic interface
US9913033B2 (en) 2014-05-30 2018-03-06 Apple Inc. Synchronization of independent output streams
US9588586B2 (en) * 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
KR102096146B1 (ko) * 2014-09-02 2020-04-28 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크
DK179278B1 (en) * 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
US10324531B2 (en) * 2016-12-27 2019-06-18 Immersion Corporation Haptic feedback using a field of view

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207340A (ja) * 1997-01-24 1998-08-07 Sony Corp 仮想空間生成装置及び仮想空間生成方法
JP2003199974A (ja) * 2000-09-28 2003-07-15 Immersion Corp 触覚フィードバックインターフェースデバイス用の方向接触フィードバック
JP2003058912A (ja) * 2001-05-18 2003-02-28 Sony Computer Entertainment Inc 表示装置及び画像処理方法
US20040085356A1 (en) * 2001-05-18 2004-05-06 Tomokazu Kake Display apparatus
WO2010038822A1 (ja) * 2008-10-01 2010-04-08 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理方法、情報記憶媒体及びプログラム
US20110210947A1 (en) * 2008-10-01 2011-09-01 Sony Computer Entertainment Inc. Information processing apparatus, information processing method, information recording medium, and program
JP2013524351A (ja) * 2010-03-31 2013-06-17 イマージョン コーポレーション 位置に基づいて触覚刺激を提供するシステム及び方法
JP2011258150A (ja) * 2010-06-11 2011-12-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
WO2013116247A1 (en) * 2012-01-30 2013-08-08 Microsoft Corporation Force feedback triggers

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
岩瀬 康太郎,外3名, サイレントヒル シャッタードメモリーズ 公式ガイド, vol. 初版, JPN6018049137, 15 April 2010 (2010-04-15), JP, pages 80, ISSN: 0003938754 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018112953A (ja) * 2017-01-13 2018-07-19 任天堂株式会社 振動制御システム、振動制御装置、振動制御プログラムおよび振動制御方法
JP2018206012A (ja) * 2017-06-02 2018-12-27 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法
US10471346B2 (en) 2017-06-02 2019-11-12 Nintendo Co., Ltd. Information processing system, non-transitory storage medium having stored therein information processing program, information processing apparatus, and information processing method
US10661163B2 (en) 2017-06-02 2020-05-26 Nintendo Co., Ltd. Video game with haptic signal that is disabled based on losing contact with a surface
JP2018206058A (ja) * 2017-06-05 2018-12-27 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法
US10596459B2 (en) 2017-06-05 2020-03-24 Nintendo Co., Ltd. Systems, methods, and/or computer readable storage medium having program, for localized haptic feedback based on position of virtual object
JP2019121368A (ja) * 2017-12-28 2019-07-22 イマージョン コーポレーションImmersion Corporation 直観的な触覚設計
JP2020112975A (ja) * 2019-01-10 2020-07-27 東京瓦斯株式会社 設備環境出力システムおよびプログラム
JP7240180B2 (ja) 2019-01-10 2023-03-15 東京瓦斯株式会社 設備環境出力システムおよびプログラム

Also Published As

Publication number Publication date
JP6576697B2 (ja) 2019-09-18
EP2955608A1 (en) 2015-12-16
US20170173457A1 (en) 2017-06-22
CN105278676A (zh) 2016-01-27
US20150355711A1 (en) 2015-12-10
US9588586B2 (en) 2017-03-07
KR20150141151A (ko) 2015-12-17

Similar Documents

Publication Publication Date Title
JP6576697B2 (ja) 視野および/または近接度に基づいて触覚強度を変更するためのプログラマブル触覚デバイスおよび方法
US10347093B2 (en) Programmable haptic devices and methods for modifying haptic effects to compensate for audio-haptic interference
US20180341332A1 (en) Systems and Methods for a Shared Haptic Experience
KR102398252B1 (ko) 오디오 트랙들을 통해 햅틱 효과들을 제공하는 햅틱 디바이스들 및 방법들
JP6679747B2 (ja) 仮想現実(vr)ユーザインタラクティブ性に関連付けられた仮想現実環境の観戦
US9933851B2 (en) Systems and methods for interacting with virtual objects using sensory feedback
KR101659424B1 (ko) 부가 3d 사용자 인터페이스를 제공하는 컴퓨터 주변 디스플레이 및 통신 기기
EP3036620B1 (en) Systems and methods for providing audio to a user based on gaze input
JP2019522849A (ja) 方向インタフェースオブジェクト
EP3364272A1 (en) Automatic localized haptics generation system
WO2012173998A2 (en) Volumetric video presentation
JP7249975B2 (ja) 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム
US11833428B2 (en) Positional haptics via head-mounted peripheral
WO2018234318A1 (en) REDUCING VIRTUAL DISEASE IN VIRTUAL REALITY APPLICATIONS

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190821

R150 Certificate of patent or registration of utility model

Ref document number: 6576697

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250