JP2009505207A - 対話型娯楽システム及びその動作方法 - Google Patents

対話型娯楽システム及びその動作方法 Download PDF

Info

Publication number
JP2009505207A
JP2009505207A JP2008525705A JP2008525705A JP2009505207A JP 2009505207 A JP2009505207 A JP 2009505207A JP 2008525705 A JP2008525705 A JP 2008525705A JP 2008525705 A JP2008525705 A JP 2008525705A JP 2009505207 A JP2009505207 A JP 2009505207A
Authority
JP
Japan
Prior art keywords
gesture
user
detection means
devices
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008525705A
Other languages
English (en)
Other versions
JP2009505207A5 (ja
Inventor
デイヴィッド エイ イヴス
リチャード エス コール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2009505207A publication Critical patent/JP2009505207A/ja
Publication of JP2009505207A5 publication Critical patent/JP2009505207A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Cardiology (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

対話型娯楽システムは、周囲環境を提供する複数の装置と、ユーザのジェスチャを検出するジェスチャ検出手段と、ジェスチャ検出手段からの出力を受信し少なくとも1つの装置と通信する制御手段とを有する。制御手段は、その出力から周囲環境の位置を得てジェスチャ検出手段の出力に応じてその判定した位置における1つ又は複数の装置の動作を変更するよう構成される。

Description

この発明は、対話型娯楽システム及び対話型娯楽システムを動作する方法に関する。
数多くの様々なタイプの娯楽システムが知られている。従来のテレビからパーソナルコンピュータ及びゲーム盤まで、このような装置において対話型ゲームが利用可能である。こうしたシステム及びこうしたシステムと相互動作するユニットの開発は進展中である。例えば、Marie-Louise Rinman氏らによるProceedings of the Stockholm Music Acoustics Conference, August 6-9, 2003 (SMAC 03), Stockholm, Swedenの「EPS - an interactive collaborative game using non-verbal communication」は、EPS(expressive performance space)と呼ばれている対話型ゲーム環境を記述しており、EPSは、非言語感情表現を用いた活動の参加者を含む。2つのチームは、競い合うために音声か又は身体の動きによる表現ジェスチャを用いる。各チームは、マイクに向かって歌を歌うか又はビデオカメラの前で動くことにより制御されるアバタを有する。参加者/プレーヤは、音響又はモーションキューを用いることによりそれらのアバタを制御する。このアバタは、3次元分布された仮想環境において誘導/運動させられる。音声入力は、テンポ、音声レベル及びアーティキュレーションのような性能変数や感情予測をもたらす音楽キュー分析モジュールを用いて処理される。同様に、ビデオカメラから取り込まれた動きは、種々の動きのキューに関して分析される。
このシステム及びソニーのEyetoy製品のような同様のシステムは、参加者の動きに応じてユーザを表すアバタの表示画面を変更するために1つ又は複数の個人の動きを検出する。ユーザの動きは、対話動作しているゲームにより提供される仮想世界に影響を及ぼすことに限定されている。
したがって、本発明の目的は、既知の技術を改良することである。
本発明の第1の態様によれば、周囲環境を提供する複数の装置と、ユーザのジェスチャを検出するジェスチャ検出手段と、前記ジェスチャ検出手段からの出力を受信し少なくとも1つの装置と通信する制御手段とを有する対話型娯楽システムであって、前記制御手段は、前記出力から前記周囲環境の位置を得て前記ジェスチャ検出手段の出力に応じてその判定した位置における1つ又は複数の装置の動作を変更するよう構成され、前記装置(12)は、規定位置におけるイベントを演出するよう構成され、前記制御手段(18)は、前記規定位置が前記ジェスチャ検出手段(16)の出力から得られる位置と合致するかどうかを確認するよう構成される、システムが提供される。
本発明の第2の態様によれば、周囲環境を提供するよう複数の装置を動作させること、規定位置におけるイベントを演出すること、ユーザのジェスチャを検出すること、前記周囲環境における位置を検出すること、前記規定位置がその判定された位置と合致するかどうかを確認すること、及び当該検出されたジェスチャに応じて当該判定位置における1つ又は複数の装置の動作を変更することを有する、対話型娯楽システムを動作させる方法が提供される。
本発明により、ユーザによりなされるジェスチャが周囲環境における特定の箇所に関係するものと解釈されることになるユーザを取り巻く周囲環境を提供する装置のセットを提供することができ、これに従ってこの特定の箇所における装置が変更される。ユーザに対してかなり没入した経験が与えられ、例えばゲームの仮想世界がユーザの実世界へと拡張される。
ジェスチャ認識及び演出エンジンの組み合わせは、周囲環境周辺におけるトリガ効果に基づいて創造的ゲーム又はエンターテイメントの形態を形成するために用いられる。例えばユーザに対して手の動きを検出することにより、当該空間における適切な箇所に差し向けられた効果の演出を始動させるためにアクションを作ることができる。これらは、それら箇所において又は単にそれら自体で生じるイベントに応答するものとすることができる。
身体上の(又はプレーヤにより保持された装置における)多数のセンサは、ジェスチャマップ化器(gesture mapper)にフィードバックを提供する。これは、プレーヤ又はリモートホストマシン上にあるようにすることができる。これは、例えば、重力加速度、基準のポイントに対する位置、接合の角度などのセンサ入力を、プレーヤ動作のモデルを形成するために用いる。したがって、例えばこれは、ステレオタイプの値のセットに対して整合可能なプレーヤの現在のスタンスを動かすことができる。
そして、プレーヤが存在することのできるこれら状態の各々は、内容の特定の断片のためのトリガとして演出すべき内容の箇所を示すために用いることができる。必須ではないが、ゲームは、プレーヤの動作に反応するシステムの一部として動作するものとすることができる。このゲームはまた、トリガイベントを提供することもでき、これらはまた、例えばイベントのレートを変更したり或いはスコアを計算するゲーム状態により変更可能である。
有利なのは、前記ジェスチャ検出手段は、前記ユーザのジェスチャの方向成分を検出するよう構成され、前記ユーザのジェスチャの前記方向成分は、前記複数の装置のうちのどの装置が動作を変更するかを決めることである。ユーザのジェスチャの支配的な方向を検出しユーザのジェスチャの方向に対応する領域に位置する装置又は複数の装置を識別することによって、対話型の経験は容易に演出される。
好ましくは、前記ジェスチャ検出手段は、前記ユーザのジェスチャの動き成分を検出するよう構成され、前記ユーザのジェスチャの前記動き成分は、前記装置の動作の変化の性質を決めるのが良い。
ユーザの動作は、制御手段のロケーションモデル(例えばコンパスポイントを用いたもの)において用いられる周囲環境の領域にマップ化され、イベントが発生されそれらロケーションにおいて実行される。例えば、これにより、ユーザは、魔法使いの配役のひと仕事の役目を担うことができる。これらは、それら周辺の空間においる様々な効果をもたらす。種々の仕事は、例えばジェスチャを異ならせること、メニューから選択し又は代替えのボタンを押すことを用いる或る範囲の手段により選択可能である。兵器を発射すること又は軟らかい物体を投げることをも含む同様のゲームを想定することができる。
一実施例において、前記ジェスチャ検出手段は、1つ又は複数のウェラブル検出構成部を有する。ユーザの動きは、例えば、手袋内の加速度計又は制御装置を用いて又はウェブカムからの視覚的追跡により、多くの手法により検出可能である。また、センサジャケットのようなウェラブル動きセンサ装置もこのような動きを検出するために用いることができる。
以下、本発明の実施例を添付図面を参照しつつ専ら例示により説明する。
図1及び図2に示される対話型娯楽システム10は、ユーザ14を取り巻く周囲環境を提供する複数の装置12を有する。装置12の各々は、当該環境の1つ又は複数の様相を提供することができ、ライト、ディスプレイ、スピーカ、ヒータ、ファン、備品アクチュエータ、プロジェクタなどのような電子的、機械的かつ機構の装置により作ることができる。図1には、星の集まりを示す投射光ディスプレイ12aが描かれている。図2には、ヒータ12b及びランプ12cが示される。
システム10はまた、ユーザ14のジェスチャを検出するためのジェスチャ検出手段16と、ジェスチャ検出手段(GDM)16からの出力を受信する制御手段18とを含む。ジェスチャ検出手段16はまた、ウェアラブル検出部20も含む。ジェスチャ検出手段16は、ユーザの動きを識別するためにカメラ及び画像検出ソフトウェアを用いて単独で機能することができ、或いは特定の構成部20を持つユーザの手足の動きを監視することのできるウェアラブル構成部20から無線リンクを介して受信されるデータに基づくものとすることができる。ジェスチャの検出はまた、画像形成と構成部20からのフィードバックとの組み合わせによるものとすることができる。
制御手段18は、周囲環境を発生している装置12と通信するためのものであり、この環境における装置12の制御は、多くの異なる方法により構成可能であり、例えば、コマンド命令により直接的に、或いは受信装置により解釈される総称により間接的に可能である。
制御手段18は、ジェスチャ検出手段16の出力から周囲環境における位置を得るように構成される。図1に示される例では、ユーザ14は、自分の腕により特定のジェスチャをなしており、これは、当該環境の領域NEにおける星の所望に対応するものとして識別される。
これは、星構成部にリンクされる検出されるユーザジェスチャに関する記憶データ11に対応する。これは、エンジン18に通る「星NE」により構成されるイベント13を導く。これは、ジェスチャ検出手段16の出力に応じて、判定された位置において1つ又は複数の装置の動作を変更するために用いられる。かかる変更が行われるためのメカニズムは、システム10のセットアップに応じて、多数の異なる方法のうちの1つとすることができる。エンジン18は、システム10における装置の詳細パラメータ命令を発生することができ、或いは可能な程度において受信装置により演出されるべき1つ又は複数の装置に通される新しいオブジェクト(又はエンジン18により変更された現行のもの)が形成可能である。後者のシステムの例は、例えば、国際特許出願に係る文献のWO02/092183から知られている。
2つのさらに記憶されるビットのデータは、異なるユーザジェスチャに対応する音声構成部のブーム音及びさらに第3のジェスチャに対応する第3の構成部のフラッシュとともに示される。
ジェスチャ検出手段16は、ユーザジェスチャの方向成分22(図2に示される)を検出するよう構成可能である。ユーザジェスチャの方向成分22は、周囲環境を発生する装置のうちどの装置12が動作を変更するかを決める。ジェスチャ検出手段16はまた、ユーザジェスチャの動き成分24を検出することもできる。ユーザジェスチャの動き成分24は、当該装置の動作の変化の性質を判定するために用いることができる。
図2において、ユーザ14は、自分の右手により螺旋状のジェスチャをなし、そしてランプ12cの方向に指し示している。この螺旋状のジェスチャは、ジェスチャの動き成分24であり、その指向は、ジェスチャの方向成分22である。方向成分22は、ジェスチャ検出手段16により検出されることになり、制御手段はこれを装置12cの動作の変更に変換し、方向成分22は、変更すべき装置の位置を示すものとなっている。動き成分24は、ユーザがなした動作のタイプを示し、この例では螺旋状のジェスチャが発射の仕草の配役に対応するものとすることができ、ランプ12cの動作の変更は、その発射の仕草を反映するよう赤及びオレンジに光るようにすることができる。
本システムは、プレーヤの動作により打ち返され又は変更される必要のある位置に効果を形成することによりプレーヤ動作のキューを形成することができる。これは、どちらかと言えば3次元形態の「モグラ叩き」のようなものである。システム10における装置12は、規定される位置においてイベントを演出するように構成され、制御手段18は、当該規定された位置がジェスチャ検出手段16の出力から得られた位置と合致するかどうかを確認するように構成される。
本システムは、実世界空間に位置付けられる物理的経験に基づいて娯楽の創作を可能とする。これは、必ずしも常にではないが、概して表示内容の近辺に基づいて、娯楽体験の新しい形態の機会を解放するものである。本システムは、ユーザが空間に立ち爆発や稲妻、緑のスライムを投げることを可能にすることをサポートするものである。
また、この形態のインターフェースは、当該体験(指揮者のようなもの)の部分を調整するためにジェスチャを用いて創造システムに作用させるための創始環境において用いることができることも可能性としてある。また、他の装置の制御のための新規な対話動作メタファのための可能性を広げるものである。
図3は、各装置の動作の方法を要約して示している。この方法は、周囲環境を提供するよう複数の装置を動作すること(ステップ310)、当該ジェスチャの方向及び動き成分をオプションとして含むユーザのジェスチャを検出すること(ステップ314)、周囲環境の位置を判定すること(ステップ316)、及び検出したジェスチャに応じて判定した位置の1つ又は複数の装置の動作を変更すること(ステップ318)を有する。本方法はまた、規定された位置におけるイベントを演出すること、及び当該規定位置が判定された位置と合致するかどうかを確認すること(ステップ312)を含むことができる。
対話型娯楽システムの概略図。 対話型娯楽システムの図1と同様の図。 対話型娯楽システムを動作する方法のフローチャート。

Claims (14)

  1. 周囲環境を提供する複数の装置と、ユーザのジェスチャを検出するジェスチャ検出手段と、前記ジェスチャ検出手段からの出力を受信し少なくとも1つの装置と通信する制御手段とを有する対話型娯楽システムであって、前記制御手段は、前記出力から前記周囲環境の位置を得て前記ジェスチャ検出手段の出力に応じてその判定した位置における1つ又は複数の装置の動作を変更するよう構成される、システム。
  2. 請求項1に記載のシステムであって、前記ジェスチャ検出手段は、前記ユーザのジェスチャの方向成分を検出するよう構成される、システム。
  3. 請求項2に記載のシステムであって、前記ユーザのジェスチャの前記方向成分は、前記複数の装置のうちのどの装置が動作を変更するかを決める、システム。
  4. 請求項1,2又は3に記載のシステムであって、前記ジェスチャ検出手段は、前記ユーザのジェスチャの動き成分を検出するよう構成される、システム。
  5. 請求項4に記載のシステムであって、前記ユーザのジェスチャの前記動き成分は、前記装置の動作の変化の性質を決める、システム。
  6. 請求項1ないし5のうちいずれか1つに記載のシステムであって、前記装置は、規定位置においてイベントを演出するよう構成され、前記制御手段は、前記規定位置が前記ジェスチャ検出手段の出力から得られる位置に合致しているかどうかを確認するよう構成される、システム。
  7. 請求項1ないし6のうちいずれか1つに記載のシステムであって、前記ジェスチャ検出手段は、1つ又は複数のウェラブル検出構成部を有する、システム。
  8. 周囲環境を提供するよう複数の装置を動作させること、ユーザのジェスチャを検出すること、前記周囲環境における位置を検出すること、及び当該検出されたジェスチャに応じて当該判定位置における1つ又は複数の装置の動作を変更することを有する、対話型娯楽システムを動作させる方法。
  9. 請求項8に記載の方法であって、前記ユーザのジェスチャの検出は、前記ユーザのジェスチャの方向成分を検出することを有する、方法。
  10. 請求項9に記載の方法であって、前記ユーザのジェスチャの前記方向成分は、前記複数の装置のうちのどの装置が動作を変更するかを決める、方法。
  11. 請求項8,9又は10に記載の方法であって、前記ユーザのジェスチャの検出は、前記ユーザのジェスチャの動き成分を検出することを有する、方法。
  12. 請求項11に記載の方法であって、前記ユーザのジェスチャの前記動き成分は、前記装置の動作の変化の性質を決める、方法。
  13. 請求項8ないし12のうちいずれか1つに記載の方法であって、規定位置においてイベントを演出すること、及び前記規定位置が当該判定された位置と合致するかどうかを確認することをさらに有する方法。
  14. 請求項8ないし13のうちいずれか1つに記載の方法であって、前記ユーザのジェスチャの検出は、1つ又は複数のウェラブル検出構成部から読み取り値を得ることを有する、方法。
JP2008525705A 2005-08-12 2006-08-10 対話型娯楽システム及びその動作方法 Pending JP2009505207A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP05107460 2005-08-12
PCT/IB2006/052766 WO2007020573A1 (en) 2005-08-12 2006-08-10 Interactive entertainment system and method of operation thereof

Publications (2)

Publication Number Publication Date
JP2009505207A true JP2009505207A (ja) 2009-02-05
JP2009505207A5 JP2009505207A5 (ja) 2009-10-01

Family

ID=37530109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008525705A Pending JP2009505207A (ja) 2005-08-12 2006-08-10 対話型娯楽システム及びその動作方法

Country Status (7)

Country Link
US (1) US20100162177A1 (ja)
EP (1) EP1915204A1 (ja)
JP (1) JP2009505207A (ja)
KR (1) KR101315052B1 (ja)
CN (1) CN101237915B (ja)
TW (1) TWI412392B (ja)
WO (1) WO2007020573A1 (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7015950B1 (en) 1999-05-11 2006-03-21 Pryor Timothy R Picture taking method and apparatus
US7328119B1 (en) 2000-03-07 2008-02-05 Pryor Timothy R Diet and exercise planning and motivation including apparel purchases based on future appearance
US7148879B2 (en) 2000-07-06 2006-12-12 At&T Corp. Bioacoustic control system, method and apparatus
US8306635B2 (en) 2001-03-07 2012-11-06 Motion Games, Llc Motivation and enhancement of physical and mental exercise, rehabilitation, health and social interaction
WO2009042896A1 (en) * 2007-09-26 2009-04-02 Aq Media, Inc. Audio-visual navigation and communication dynamic memory architectures
EP2227729B1 (en) * 2007-11-29 2022-10-19 Koninklijke Philips N.V. Method of providing a user interface
US8502704B2 (en) * 2009-03-31 2013-08-06 Intel Corporation Method, apparatus, and system of stabilizing a mobile gesture user-interface
US8922368B2 (en) * 2009-10-19 2014-12-30 Koninklijke Philips N.V. Device and method for conditionally transmitting data
US8381108B2 (en) * 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
EP2666070A4 (en) 2011-01-19 2016-10-12 Hewlett Packard Development Co METHOD AND SYSTEM FOR MULTIMODAL CONTROL AND GESTURE CONTROL
US20120226981A1 (en) * 2011-03-02 2012-09-06 Microsoft Corporation Controlling electronic devices in a multimedia system through a natural user interface
JP6110857B2 (ja) 2011-09-15 2017-04-05 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ユーザフィードバックを伴うジェスチャベースのユーザインターフェイス
US8908894B2 (en) 2011-12-01 2014-12-09 At&T Intellectual Property I, L.P. Devices and methods for transferring data through a human body
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
KR101885295B1 (ko) 2011-12-26 2018-09-11 엘지전자 주식회사 전자기기 및 그 제어방법
DE102012201589A1 (de) * 2012-02-03 2013-08-08 Robert Bosch Gmbh Brandmelder mit Mensch-Maschinen-Schnittstelle sowie Verfahren zur Steuerung des Brandmelders
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
US10108984B2 (en) 2013-10-29 2018-10-23 At&T Intellectual Property I, L.P. Detecting body language via bone conduction
US9594433B2 (en) 2013-11-05 2017-03-14 At&T Intellectual Property I, L.P. Gesture-based controls via bone conduction
US10678322B2 (en) 2013-11-18 2020-06-09 At&T Intellectual Property I, L.P. Pressure sensing via bone conduction
US9349280B2 (en) 2013-11-18 2016-05-24 At&T Intellectual Property I, L.P. Disrupting bone conduction signals
US9715774B2 (en) 2013-11-19 2017-07-25 At&T Intellectual Property I, L.P. Authenticating a user on behalf of another user based upon a unique body signature determined through bone conduction signals
US9405892B2 (en) 2013-11-26 2016-08-02 At&T Intellectual Property I, L.P. Preventing spoofing attacks for bone conduction applications
US10924472B2 (en) * 2013-11-27 2021-02-16 Shenzhen GOODIX Technology Co., Ltd. Wearable communication devices for secured transaction and communication
US10045732B2 (en) 2014-09-10 2018-08-14 At&T Intellectual Property I, L.P. Measuring muscle exertion using bone conduction
US9882992B2 (en) 2014-09-10 2018-01-30 At&T Intellectual Property I, L.P. Data session handoff using bone conduction
US9589482B2 (en) 2014-09-10 2017-03-07 At&T Intellectual Property I, L.P. Bone conduction tags
US9582071B2 (en) 2014-09-10 2017-02-28 At&T Intellectual Property I, L.P. Device hold determination using bone conduction
US9600079B2 (en) 2014-10-15 2017-03-21 At&T Intellectual Property I, L.P. Surface determination via bone conduction
CN107436678B (zh) * 2016-05-27 2020-05-19 富泰华工业(深圳)有限公司 手势控制***及方法
US10186065B2 (en) * 2016-10-01 2019-01-22 Intel Corporation Technologies for motion-compensated virtual reality
US10838505B2 (en) * 2017-08-25 2020-11-17 Qualcomm Incorporated System and method for gesture recognition
US10831316B2 (en) 2018-07-26 2020-11-10 At&T Intellectual Property I, L.P. Surface interface
LU100922B1 (en) * 2018-09-10 2020-03-10 Hella Saturnus Slovenija D O O A system and a method for entertaining players outside of a vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04127674A (ja) * 1990-09-18 1992-04-28 Sony Corp 画像処理装置及び画像処理方法
JPH06301476A (ja) * 1993-04-09 1994-10-28 Casio Comput Co Ltd 位置検出装置
JPH11175061A (ja) * 1997-12-09 1999-07-02 Yamaha Corp 制御装置およびカラオケ装置
JP2004187125A (ja) * 2002-12-05 2004-07-02 Sumitomo Osaka Cement Co Ltd 監視装置および監視方法
JP2004303251A (ja) * 1997-11-27 2004-10-28 Matsushita Electric Ind Co Ltd 制御方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9505916D0 (en) * 1995-03-23 1995-05-10 Norton John M Controller
US6176782B1 (en) * 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
US6195104B1 (en) * 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6181343B1 (en) * 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6351222B1 (en) * 1998-10-30 2002-02-26 Ati International Srl Method and apparatus for receiving an input by an entertainment device
US7071914B1 (en) * 2000-09-01 2006-07-04 Sony Computer Entertainment Inc. User input device and method for interaction with graphic images
JP2004513443A (ja) * 2000-11-02 2004-04-30 エッセンシャル リアリティー,インコーポレイティド 電子ユーザ装着インタフェイス装置及びそれを使用した方法
US7259747B2 (en) * 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
JP3917456B2 (ja) * 2001-08-09 2007-05-23 株式会社コナミスポーツ&ライフ 評価プログラム、その記録媒体、タイミング評価装置、タイミング評価システム
US6937742B2 (en) * 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
JP4054585B2 (ja) * 2002-02-18 2008-02-27 キヤノン株式会社 情報処理装置および方法
US7752544B2 (en) * 2003-11-17 2010-07-06 International Business Machines Corporation Method, system, and apparatus for remote interactions

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04127674A (ja) * 1990-09-18 1992-04-28 Sony Corp 画像処理装置及び画像処理方法
JPH06301476A (ja) * 1993-04-09 1994-10-28 Casio Comput Co Ltd 位置検出装置
JP2004303251A (ja) * 1997-11-27 2004-10-28 Matsushita Electric Ind Co Ltd 制御方法
JPH11175061A (ja) * 1997-12-09 1999-07-02 Yamaha Corp 制御装置およびカラオケ装置
JP2004187125A (ja) * 2002-12-05 2004-07-02 Sumitomo Osaka Cement Co Ltd 監視装置および監視方法

Also Published As

Publication number Publication date
WO2007020573A1 (en) 2007-02-22
CN101237915A (zh) 2008-08-06
EP1915204A1 (en) 2008-04-30
KR101315052B1 (ko) 2013-10-08
KR20080033352A (ko) 2008-04-16
US20100162177A1 (en) 2010-06-24
TW200722151A (en) 2007-06-16
CN101237915B (zh) 2012-02-29
TWI412392B (zh) 2013-10-21

Similar Documents

Publication Publication Date Title
JP2009505207A (ja) 対話型娯楽システム及びその動作方法
JP6263252B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2010253277A (ja) ビデオゲームにおいてオブジェクトの動きを制御する方法およびシステム
WO2020218625A1 (ja) プログラム、方法、および情報端末装置
JP6719633B1 (ja) プログラム、方法、および視聴端末
JP6419932B1 (ja) 仮想空間において楽器の演奏を支援するためのプログラム、楽器の選択を支援するためにコンピュータで実行される方法、および情報処理装置
US10928915B2 (en) Distributed storytelling environment
JP7488867B2 (ja) プログラムおよびシステム
WO2022202126A1 (ja) プログラム、方法、および情報処理装置
US20220323862A1 (en) Program, method, and information processing terminal
JP2020141813A (ja) 配信プログラム、配信方法、コンピュータ、および視聴端末
WO2020255991A1 (ja) ゲームプログラム、ゲーム方法、および情報端末装置
JP5318016B2 (ja) ゲームシステム、ゲームシステムの制御方法、及びプログラム
WO2021240601A1 (ja) 仮想空間体感システム
JP2009061159A (ja) プログラム、情報記憶媒体、及び、ゲームシステム
JP6776425B1 (ja) プログラム、方法、および配信端末
JP2018092635A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2022000218A (ja) プログラム、方法、情報処理装置、およびシステム
JP6826626B2 (ja) 視聴プログラム、視聴方法、および視聴端末
JP2021010756A (ja) プログラム、方法、および情報端末装置
JP2020163039A (ja) ゲームプログラム、ゲーム方法、および情報端末装置
JP7087148B2 (ja) ゲームプログラム、ゲーム方法、および情報端末装置
JP2019126444A (ja) ゲームプログラムおよびゲーム装置
WO2022137375A1 (ja) 方法、コンピュータ可読媒体、および情報処理装置
JP7440401B2 (ja) ゲームプログラム、ゲーム方法、および情報端末装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090810

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110714

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110930

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121129

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130104

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20130301

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130723

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130730