JP5797757B2 - サーマルイメージングを用いたユーザインタフェースシステムおよび方法 - Google Patents

サーマルイメージングを用いたユーザインタフェースシステムおよび方法 Download PDF

Info

Publication number
JP5797757B2
JP5797757B2 JP2013530212A JP2013530212A JP5797757B2 JP 5797757 B2 JP5797757 B2 JP 5797757B2 JP 2013530212 A JP2013530212 A JP 2013530212A JP 2013530212 A JP2013530212 A JP 2013530212A JP 5797757 B2 JP5797757 B2 JP 5797757B2
Authority
JP
Japan
Prior art keywords
user
vital signs
computer program
users
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013530212A
Other languages
English (en)
Other versions
JP2013545163A (ja
JP2013545163A5 (ja
Inventor
チェン、ルーシン
オスマン、スティーヴン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US12/889,347 external-priority patent/US8786698B2/en
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2013545163A publication Critical patent/JP2013545163A/ja
Publication of JP2013545163A5 publication Critical patent/JP2013545163A5/ja
Application granted granted Critical
Publication of JP5797757B2 publication Critical patent/JP5797757B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Radiation Pyrometers (AREA)
  • Position Input By Displaying (AREA)

Description

[優先権主張]
本願は、2010年9月23日に出願された、BLOW TRACKING INTERFACE SYSTEM AND METHODと題する同一出願人Ruxin Chen およびSteven Osmanによる米国特許出願第12/889,347号の優先権の利益を主張し、その開示内容全体を参照によりここに組み入れる。
[技術分野]
本発明の実施の形態は、コンピュータシステムに対するユーザインタフェースに関し、特にコンピュータプログラムに対する制御入力を提供あるいは増強するためにサーマルイメージング(熱画像)を用いるユーザインタフェースに関する。
コンピュータプログラムに入力を提供するために用いることのできる数多くの制御インタフェースがある。そのようなインタフェースの例には、コンピュータキーボード、マウスまたはジョイスティックコントローラのような周知のインタフェースが含まれる。そのようなインタフェースは典型的には、コンピュータプログラムの実行に影響を与える特定のコマンドや入力信号にマップされる電気信号を提供するアナログまたはデジタルのスイッチをもつ。
最近、他のタイプの入力に依存するビデオゲームとともに利用するためにインタフェースが開発されている。マイクロホンやマイクロホンアレイにもとづくインタフェースや、カメラやカメラアレイにもとづくインタフェースがある。マイクロホンにもとづくシステムは、キーボード入力を話し言葉の入力で置き換える音声認識システムのために用いられる。マイクロホンアレイにもとづくシステムは、音を解釈するだけでなく音源を追跡することができる。カメラにもとづくインタフェースは、ジョイスティックを、ユーザまたはユーザが持っているオブジェクトのジェスチャや動きで置き換えることを試みる。
インタフェースが違えば長所短所も異なる。キーボードインタフェースはテキスト入力には適しているが方向コマンドの入力にはあまり役に立たない。ジョイスティックとマウスは方向コマンドの入力に適しているがテキスト入力にはあまり役に立たない。カメラにもとづくインタフェースは2次元でオブジェクトを追跡するのに適しているが、3次元でオブジェクトを追跡するには、一般的に何らかの増強を要する(たとえば、二つのカメラを使用するか、エコーロケーション(反響定位)のある単一のカメラを用いる)。そのような補強はカメラにもとづくシステムのコストを増大させる。カメラにもとづくシステムの中には、1以上のカメラで取得された画像においてユーザの顔の動きを追跡するための顔トラッキングシステムを用いるものがある。しかしながら、イメージトラッキングシステムは、人の顔と似たオブジェクトによって混乱することがある。さらに、そのようなシステムは、画像内の人物を画像内の背景と区別するのが難しい。
直感的に利用でき、比較的実装に費用がかからないインタフェースを提供して上記の欠点を克服することが望ましい。
本発明の実施の形態はこのような文脈の中で生じた。
本発明のある態様は、コンピュータプログラムの制御のためのサーマルイメージングインタフェース方法である。この方法は、a)1以上のサーモグラフィックカメラを用いて1以上のオブジェクトの1以上の熱赤外線画像を取得するステップと、b)前記1以上の熱赤外線画像を分析するステップと、c)前記1以上の熱赤外線画像から前記1以上のオブジェクトの1以上の特徴を特定するステップと、d)前記1以上の特徴をコンピュータプログラムにおける制御入力として用いるステップとを含む。
本発明の教示内容は、添付の図面と併せて、以下の詳細な説明を考慮すれば容易に理解できる。
本発明の実施の形態に係るコンピュータプログラムの制御のためのサーマルイメージングインタフェースを説明する概略図である。 本発明の実施の形態に係るサーマルイメージングインタフェースの利用を説明する概略図である。 本発明の実施の形態に係るサーマルイメージングインタフェースの利用を説明する概略図である。 本発明の代替的な実施の形態に係るサーマルイメージングインタフェースの利用を説明する概略図である。 本発明の別の代替的な実施の形態に係るサーマルイメージングインタフェースの利用を説明する概略図である。 本発明の実施の形態に係るサーマルイメージングインタフェースを利用するコンピュータ実装された装置の例を説明するブロック図である。 本発明の実施の形態に係るサーマルイメージングインタフェース方法を実装するためのコンピュータ読み取り可能なインストラクションが含まれた持続的なコンピュータ読み取り可能な記録媒体を説明するブロック図である。
本発明の実施の形態は、制御入力を提供するためにサーマルイメージング(熱画像)を通じて様々なユーザ特性を検出することにもとづいた、コンピュータプログラムのための新しいユーザインタフェースを実装する。
イントロダクション
本発明の実施の形態は、コンピュータシステムに対する入力を提供または増強するためにユーザインタフェースとともにサーマルイメージング(熱画像)を用いることを通して、先行技術の欠点を克服することができる。サーマルイメージングカメラは、画像内のオブジェクトの温度または温度変化に関する情報を提供することができる。温度変化によって、従来の(可視光の)カメラで撮られた画像では同一に見えるオブジェクトを区別することができる。温度変化はまた、コンピュータプログラムを制御するために使うことのできる、各オブジェクトの特徴を検出するためにも用いられる。
実施の形態
本発明の実施の形態の例は図1を参照してまず理解される。図1は、サーマルイメージングインタフェースを用いてコンピュータプログラムを制御するためのシステムを説明する概略図である。システム100は、一般にはコンピュータプロセッシングシステム105と結合されたサーモグラフィックカメラ103を含む。サーモグラフィックカメラ103は、ユーザ101がディスプレイ107に顔を向けたときにカメラ103に顔を向けることになるように、プロセッシングシステム105と結合されたビデオディスプレイ107に隣接する位置に置かれる。
様々なユーザの特徴(心拍数(heat rate)、呼吸数(respiration rate)など)を追跡するためにサーモグラフィックカメラ103を利用することは、ユーザの体にセンサをつける必要がないため、特に有利である。ユーザに関する付加的な情報は、あまり侵入すること(intrusion)なく取得することができる。サーモグラフィックイメージングを通してユーザの心拍数を追跡することにより、身体に脈拍計を取り付ける必要がなくなる。同様に、サーモグラフィックイメージングを通して呼吸数を追跡することにより、ユーザの顔にヘッドセットやマイクロホンを取り付ける必要がなくなる。究極的には、ユーザの可動性と快適さを犠牲にすることなく、コンピュータプログラムの機能性を、この付加的な情報の処理を通じてさらに最適化することができる。
サーモグラフィックカメラ103を用いてユーザの特徴を判定することはまた、ユーザの特徴を解明するためにユーザがコントローラデバイスを手でもつ必要がないため、有利である。これによってユーザは他のタスクに手を使うことができたり、コントローラに他のタスクをさせることができる。
ここでは、サーモグラフィックカメラは、前方赤外線(FLIR; Forward Looking InfraRed)カメラと呼ばれるタイプのカメラ、すなわち赤外線放射を用いて画像を形成する赤外線カメラのことである。サーモグラフィックカメラ103は、可視光を用いて画像を形成するカメラに似た方法で1以上のレンズおよびセンサを用いて画像を形成する。可視光カメラの450〜750ナノメートルの範囲の代わりに、赤外線カメラは、14000ナノメートル(14マイクロメートル)の波長で動作する。
サーモグラフィックカメラ103は、すべての物体は、物体の温度の作用として、ある量の黒体放射を放射するという事実を利用することができる。一般的に言えば、物体の温度が高ければ高いほど、物体は、より多くの赤外線放射を黒体放射として放射する。通常のカメラが可視光を検出するのと似た方法で、赤外線カメラはこの放射を検出することができる。しかしながら、物体は完全な暗闇でさえ赤外線を放射するため、周辺光のレベルは問題とならない。
本発明の実施の形態は、2以上のサーモグラフィックカメラを用いてもよい。たとえば、3次元情報を提供できる立体(3D)画像を提供するために2つのサーモグラフィックカメラを並べて配置してもよい。センサまたはセンサアレイにシーンの異なるビューを結像する複数のレンズを並べた単一のデバイスにおいて、等価的なサーモグラフィ「ステレオ」カメラを実装してもよい。様々なユーザの特徴(呼吸量や呼吸流速など)の3次元的表現を生成するために複数のカメラを用いてもよい。
サーモグラフィックカメラ103は、冷却熱センサ、気温で動作する非冷却熱センサ、または小さな温度制御エレメントを用いて気温に近い温度で安定化されたセンサを用いてもよい。最新の非冷却検出器は、赤外線放射によって熱せられたときの抵抗、電圧または電流における変化を検出するセンサを用いる。これらの変化は測定され、センサの動作温度における値と比較される。非冷却赤外線センサは画像ノイズを減らすために動作温度まで安定化させることができるが、低温にまで冷却されることはなく、巨大で高価な低温冷却器を要しない。このことが赤外線カメラをより小さくコストのかからないものにしている。
非冷却検出器はたいてい焦電気性で強誘電性の物質すなわちマイクロボロメータ技術にもとづいている。これらの物質は、高度に温度依存の特性をもつピクセルアレイを有する検出器を形成するために用いられる。これらのピクセルは周囲の環境から熱的に絶縁され、電気的に読み取ることができる。
強誘電性検出器は、センサ物質の相転移温度に近いところで動作する。検出器のピクセル温度は、検出器の物質上の高度に温度依存の分極電荷にキャリブレートされる。f/1光学で320×240センサをもつ強誘電性検出器の達成された等価雑音温度差(NETD; noise equivalent temperature difference)は70〜80mKである。強誘電性センサアセンブリの例は、熱的に絶縁されたポリイミド結合によって接着されたバリウム・ストロンチウム・チタン酸塩の***物を含む。赤外線検出器に用いることのできる他のありうる相変化物質は、ランタン・バリウム・亜マンガン酸塩(LBMO)、メタル絶縁体相変化物質を含む。
センサ物質の電気的抵抗の小さな変化を検出することができる他の検出器がある。そのようなデバイスはマイクロボロメータと呼ばれる。マイクロボロメータは、20mKまでの等価雑音温度差まで到達可能である。典型的なマイクロボロメータは、シリコンベースのスキャニングエレクトロニクス上でシリコン窒化物ブリッジに浮遊した薄いフィルムバナジウム(V)酸化物のセンシングエレメントを含む。このセンシングエレメントの電気的抵抗はフレーム毎に一度測定される。
サーモグラフィックカメラ103の位置は、図1に示された例において任意であることに留意する。サーモグラフィックカメラ103は、ユーザ101に対面するビデオディスプレイ107の上に置くことができる。あるいは、サーモグラフィックカメラは、ハンドヘルドゲームコントローラまたはポータブルゲームデバイスに搭載することができる。もっとも、本発明の実施の形態はこれらの構成に限定されない。
サーモグラフィックカメラのイメージセンサの各ピクセルにおける温度(または温度差)の値はコンピュータシステム105のメモリに配列として格納することができる。コンピュータシステム105上で実行されるプログラムは、その配列における温度パターンを解析し、ユーザの周囲からユーザを区別したり、サーモグラフィックカメラ103からユーザまでの距離を測定することができる。さらに、その配列における温度パターンを用いて、ユーザの呼吸数115とユーザの心拍数113を判定してもよい。
ある実施の形態では、第2のサーモグラフィックカメラまたは通常の(すなわち可視光の)カメラを補助的なセンサ109として用いて、ユーザをさらに特徴づけるサーモグラフィ、音響、ビデオイメージの情報などの付加的な情報源を提供してもよい。一例として、限定するものではないが、別個の可視光カメラ109をサーモグラフィックカメラ103と結合してもよい。この別個の(付加的な)可視光カメラが最初に部屋のすべてのオブジェクトの位置を決定してもよい。しかしながら、オブジェクトとその背景の間で色やテクスチャの変化がないため、オブジェクトは周囲と混ざってしまうことがある。部屋のオブジェクトの位置とオブジェクトの特定の領域の位置をより正確に特定するために、サーモグラフィックカメラ103は、可視光カメラ109からの情報と結合することのできる付加的なサーモグラフィック情報を提供することができる。たとえば、サーモグラフィック情報をマイクロホンまたはマイクロホンアレイからの音響情報とともに用いて、与えられたサーモグラフィックイメージ内のどの部分が発声、口笛、せき、くしゃみなどの音源であるかを特定することができる。
図2Aおよび2Bは、本発明の実施の形態に係る熱赤外線イメージングを用いてユーザの周囲に対するユーザの位置を特定する例を説明する図である。
多くのビデオゲームプラットフォームは、現在は可視光カメラを用いて、オブジェクトや環境が現実の物理的位置にしたがって(たとえば拡張現実ソフトウェアを介して)ゲームと相互作用するように、オブジェクトと環境の空間的位置を決定している。オブジェクトの現実の物理的動きやアクションはゲームプレイ中の仮想オブジェクトのアクションにマップすることができる。このように、ビデオゲームシステムが視野内のオブジェクトを正確に知覚して区別することはますます重要になっている。
可視光カメラは視野内のオブジェクト間を区別する仕事をうまくこなすが、可視光カメラはすべての状況でオブジェクトを区別するようには作られていない。たとえば、オブジェクトの色またはテクスチャが背景の色またはテクスチャと似ているときは、可視光からの画像を分析するソフトウェアは、オブジェクトと背景の両方を、二つの区別できるオブジェクトではなく一つの大きなオブジェクトとして間違って分類するかもしれない。サーモグラフィックカメラで取得される情報を導入することにより、このタイプの不正確さの可能性を弱めることができる。
図2Aは、本発明の実施の形態にしたがってオブジェクトを環境から区別するために熱赤外線イメージングを用いるシステムの例を説明する。サーモグラフィックカメラ203はコンピュータプロセッシングシステム205に結合される。ユーザ201がディスプレイ207に対面するときにサーモグラフィックカメラ203に対面するように、サーモグラフィックカメラ203は、プロセッシングシステム205と結合されたビデオディスプレイ207の近くに位置づけられる。さらに、可視光カメラ209Aは、サーモグラフィックカメラ203と同じ方向に対面するように位置づけられる。可視光カメラ209Aは補助的なセンサとして使用することができる。
ユーザ201は、背景(たとえば壁)217のすぐ正面に位置づけられる。この例では、ユーザ201は、背景217の色に近い色の服を着ている。当初、可視光カメラ209Aは、視野内のすべてのオブジェクトの物理的位置を決定するために使われる。しかしながら、ユーザ201とその背景217の間で色の類似性があるために、可視光カメラ209Aからの画像を分析するソフトウェアは、ユーザ201と背景217の両方を単一のオブジェクトとして認識する。
この問題は、サーモグラフィックカメラ203で取得される情報を導入することで解決することができる。このケースでは、画像分析ソフトウェアは、ユーザ201と環境217を特徴づける際、可視光カメラ209Aで取得された情報をサーモグラフィックカメラ203で取得した情報で補う。上述のように、サーモグラフィックカメラ203は、黒体放射の放射にもとづいて環境の画像を取得することができる。ユーザ201は生きて呼吸している存在であるから、背景217(無生物の物体)とは完全に異なる黒体放射のスペクトルを放射する。黒体放射プロファイルをユーザ201と背景217の両方に対して比較することにより、コンピュータプロセッサ205によって実行される画像分析ソフトウェアは、一つではなく二つのユニークなオブジェクトが画像内に表されていると判定することができる。コンピュータプロセッサ205は、将来の識別と処理のためのセグメンテーションの手がかりをそれぞれのユニークなオブジェクトにタグ付けしてもよい。
いったんコンピュータプロセッサ205が、サーモグラフィックカメラ203によって視野内のオブジェクトの位置を特定することができるようになると、コンピュータプロセッサ205は、以前に決定されたセグメンテーションの手がかりを用いて、オブジェクトの動き(たとえば、ユーザの手や腕の動き)を追跡し続けるように構成される。サーモグラフィックカメラ203は、可視光カメラ209Aと結合された場合、動きを追跡するための付加的な情報源を提供してシステムの全体的な正確性を高める。
視野内でオブジェクトを互いに区別するための代替的または補完的なメカニズムを提供するのに加えて、サーモグラフィックカメラは、視野内のオブジェクトの奥行きを決定するための補助的なメカニズムとしても作用する。図2Bは、本発明の実施の形態にしたがってオブジェクトの奥行きを判定するために熱赤外線イメージングを用いるシステムの一例を説明する。
ここでも、ユーザ201がディスプレイ207に対面するときにサーモグラフィックカメラ203に対面するように、サーモグラフィックカメラ203は、プロセッシングシステム205と結合されたビデオディスプレイ207の近くに位置づけられる。一例として、限定するものではないが、サーモグラフィックカメラ203と同じ方向に対面するように位置づけられた赤外線エミッタ・センサ209Bを補助的なセンサとして用いる。
奥行き検出の実施の形態において、赤外線エミッタ・センサ209Bを用いてオブジェクト(たとえばユーザ201)の距離を決定することができる。エミッタ209Bはユーザ201に向かって赤外光208のパルスを送出し、ユーザ201はそのパルスにおいて赤外光208の一部を反射する。センサ209Bは反射された赤外光208を検出する。エミッタ209Bによるパルスの放射とセンサ209Bによる反射パルスの検出の相対的なタイミングを判定することにより、エミッタ・センサ209Bからユーザ201の異なる部分までの距離dを推定することができる。
しかしながら、エミッタ・センサ209Bは、ときおり、対応するオブジェクトの全部または一部の奥行きdの検出に失敗することがある。オブジェクト(またはオブジェクトの一部)がIR黒体(すなわち赤外光を反射しない)である場合、エミッタ・センサ209Bは、赤外光の反射だけを使ってオブジェクトの特定の部分の奥行きを判定することができない。
この点において、サーモグラフィックカメラ203は、オブジェクトの奥行きを決定するための補完的な方法を提供してもよい。サーモグラフィックカメラ203は、上述のように、オブジェクトの黒体放射プロファイルを用いて物体を環境から識別してもよい。オブジェクト(たとえばユーザ201)を識別した後、コンピュータプロセッシングシステム205は、赤外線エミッタ・センサ209Bから取得された奥行きデータをサーマルイメージングから取得されたデータと比較してもよい。最終的にコンピュータプロセッシングシステム205は、サーマルイメージングデータを用いてオブジェクトの欠落部分の奥行きを補間してもよい。
本発明の他の実施の形態では、オブジェクトの奥行きdは、サーモグラフィックカメラだけを利用して決定してもよい。一例として、限定するものではないが、サーモグラフィックカメラの位置(または他の既知の位置)から発する冷気はオブジェクトに対して吹いてもよい。サーモグラフィックカメラからオブジェクトまでの距離は、その冷気がオブジェクトに到達することによって起こされる熱的摂動に必要な時間を測定することによって測定することができる。
視野内のオブジェクトを特定して区別することができ、オブジェクトの相対的な奥行きを決定することができることに加えて、サーモグラフィックカメラは、呼吸数を検出することのできる能力を通して、ユーザ(またはユーザのグループ)についての付加的な情報を提供するように構成することもできる。
図3は、本発明の実施の形態にしたがってユーザのグループの中で話者を特定するために熱赤外線イメージングを用いるシステムの例を説明する。ここでもサーモグラフィックカメラ303はコンピュータプロセッシングシステム305と結合することができる。ユーザ301がディスプレイ307に対面するときにサーモグラフィックカメラ303に対面するように、サーモグラフィックカメラ303は、プロセッシングシステム305と結合されたビデオディスプレイ307の近くに位置づけられる。可視光カメラ309は、サーモグラフィックカメラ303と同じ方向に対面するように位置づけられ、補助的なセンサとして用いることができる。
当初、可視カメラ309は、たとえば、顔追跡と顔識別を用いることにより、部屋にいるすべてのユーザ301を特定する。プロセッシングシステム305が可視光カメラ309で取得された画像を解析することによってユーザ301を特定する際に直面する困難は、上述のように可視光カメラ画像データを赤外線画像データで補うことにより解決することができる。プロセッシングシステム305はサーモグラフィックカメラ303からの画像を分析し、画像のサーモグラフィックパターンからユーザの鼻と口の近くの温度を測定するとともにユーザの鼻の周りの空気の流れを測定することにより、各ユーザ301の呼吸数を検出する。抽出される情報は、いつ呼吸が始まり、終わったか、すなわち一つの呼吸の期間あるいは呼吸していない期間、たとえば、呼吸と呼吸の間の期間、呼吸の方向、および呼吸が吸い込みまたは吐き出しのいずれに関わるものであるかを決定することを含む。呼吸検出器としてのサーモグラフィックカメラの役割についてのより詳細な説明のために、米国特許出願第12/889,347号を参照するべきであり、その内容を参照によりここに取り込む。
特定のユーザに関連づけられた多くの異なる特徴を特定するためにユーザの呼吸数315を用いてもよい。ある例では、特定のユーザが話しているかどうかを特定するために、サーモグラフィックカメラ303によって判定された呼吸数315を用いることができる。各ユーザの呼吸パターン315を基準値として用いて、コンピュータプロセッシングシステム305は、ユーザの呼吸パターン315における不規則性を見つけることによっていつユーザがスピーキング314しているかを認識する。ユーザの呼吸パターン315における特定の変化は、ユーザがスピーキング314のプロセスにあることを示す。我々の例で説明したように、大きなユーザのグループ301の中で、サーモグラフィックカメラ303は、どのユーザがスピーチ314のプロセスにあるかを特定するのに特に有益である。
ユーザの呼吸数を検出するためにサーモグラフィックカメラ303を使用することにより、より侵入式の(intrusive)検出メカニズム(たとえばヘッドセットやマイクロホン)を用いる必要がなくなる。呼吸器官の情報をコンピュータプログラムに提供するためにユーザが体にセンサを取り付ける必要がなくなることにより、ユーザの体験と快適さのレベルが大いに強化される。
コンピュータプログラムを制御するためにサーモグラフィックカメラによって決定されたユーザの呼吸数を使用することは、スピーチ検出に限定されない。サーマルイメージングインタフェースを用いることのできる数多くの異なるコンピュータアプリケーションがある。たとえば、マイクロホンをもって歌う人の音をキャプチャし、ピッチ、タイミング、および歌の歌詞を決定するために音を分析することにより、ユーザの歌唱を判定するコンピュータプログラムがある。これらの特徴は、特定の歌のピッチ、タイミング、および歌詞に対する参照パラメータと比較することができる。ユーザの歌唱能力を判定する基準は、判定パラメータとしてユーザの呼吸を導入することで大きく拡張できる。コンピュータプログラムはサーモグラフィックイメージからの情報を用いて、歌の期間中のユーザの呼吸タイミングを判定する。これを参照パラメータと比較することで、ユーザの歌唱能力のより正確な判定がもたらされる。
さらに、ユーザの呼吸パターンを音声認識およびセキュリティのために用いてもよい。上述のように、サーモグラフィックカメラを用いてユーザの呼吸数やユーザの呼吸にもとづくパターンを検出することができる。コンピュータプロセッシングシステムはこの情報を用いて、観察された呼吸パターンを参照パターンと比較することにより、ユーザの顔の画像が本当に現実のユーザに対応するかどうかを特定することができる。さらに、話中のユーザの個別の呼吸パターンにもとづいて特定のユーザを識別してもよい。さらに、すべての個人がユニークな呼吸パターンをもつことから、サーモグラフィックカメラは、コンピュータプログラムに対する権限のないアクセスを防ぐためのセキュリティバリアとして作用しうる。
可視光画像の分析からの顔特定、声による話者特定、およびサーモグラフィックイメージから判定されるユーザの呼吸の分析による呼吸パターン識別を組み合わせることにもとづいてユーザを識別することができる。ユーザ識別の異なるモードを組み合わせて用いることにより、顔と声だけでユーザを識別するシステムをだますために写真と録音を用いてユーザ識別を偽造する試みに対抗するのに適したメカニズムを提供することができる。人が話しているときの呼吸パターンの分析は、識別性能を向上させるために特に重要である。
サーモグラフィックカメラが、ユーザの呼吸パターンに全体的または部分的にもとづいて、権限のあるユーザを識別した場合、コンピュータプログラムに対するアクセスが許可される。サーモグラフィックカメラが特定のサーモグラフィックイメージを現実のユーザに対応するものとして認識できないか、呼吸パターンにもとづいてユーザとして認識できない場合、コンピュータプログラムに対するアクセスは拒否される。そのような音声認識の強化は、セキュリティの最前線の一部として、あるいは、配置済みの既存のセキュリティシステムを強化する付加的なセキュリティメカニズムとして実装してもよい。
ユーザの呼吸を制御入力として利用する他の例は、同一出願人による米国特許出願第12/889,347号に記載されている。
本発明の別の実施の形態は、ユーザの心拍数を判定するためにサーモグラフィックカメラを用いる。検出された心拍数はコンピュータプログラムに対する制御として用いられる。図4は、本発明の実施の形態にしたがってユーザの心拍数を特定するために熱赤外線イメージングを用いることのできるシステムの例を説明する。
図4に示すシステム400において、サーモグラフィックカメラ403はコンピュータプロセッシングシステム405に結合される。ユーザ401がディスプレイ407に対面するときにサーモグラフィックカメラ403に対面するように、サーモグラフィックカメラ403は、プロセッシングシステム405と結合されたビデオディスプレイ407の近くに位置づけられる。さらに、サーモグラフィックカメラ403と同じ方向に対面するように位置づけられた可視光カメラ409を補助的なセンサとして使用してもよい。
サーモグラフィックカメラ403はユーザ401の熱赤外線画像を取得する。熱赤外線画像は、ユーザの体の熱に関連づけられた黒体放射パターンを記録する。熱赤外線画像から、コンピュータプロセッシングシステム405は、1以上のユーザに対してユーザの心拍数、呼吸数、体温、または血圧のような1以上のバイタルサイン(生命兆候)413を測定してもよい。一例として、限定するものではないが、ユーザの心拍数は、ユーザの心拍から生じるユーザの皮膚における周期的な温度変化の速度または周期を判定することにより測定してもよい。ユーザの血圧は、たとえば、そのような周期的な温度変化の振幅から推定することができる。呼吸数は、ユーザの呼吸から生じるユーザの口および/または鼻の近くの周期的な温度変化の周期を決定することによって測定してもよい。ユーザの体温は、ユーザの体の関連する部分の温度測定値の長期的な平均値から決定されてもよい。温度測定値は、たとえば、ある期間の急激な変動を除去するためのローパスフィルタなどのフィルタリングにかけてもよい。皮膚温と中核体温の間の差を説明するために、加法的または乗法的なオフセットを長期的な平均値に適用してもよい。
本発明の実施の形態は、先の例で述べた特定のバイタルサインを用いる実装だけに限定されない。ある実施の形態は、心拍数、呼吸数、体温、および血圧以外のバイタルサインを用いてもよいことに留意する。そのような代替的なバイタルサインは、サーモグラフィックカメラ403によって取得された測定値から外挿してもよい。一例として、限定するものではないが、バイタルサインは、特定の場所の時間的または空間的温度変化、サーモグラフィック画像のある領域上の平均温度または平均温度変化から外挿してもよい。
サーマルイメージングを通してユーザのバイタルサイン413を決定することにより、侵入式(intrusive)デバイス(たとえば、パルスモニタ、パルス酸素濃度計、血圧バンド、あるいは体温計)をユーザに取り付ける必要性がなくなり、コンピュータプロセッシングシステム405にプログラムの制御に対する付加的な制御入力を提供することができる。
ユーザのバイタルサイン413をコンピュータプログラムのいろいろな面に対する制御として用いてもよい。一例として、限定するものではないが、ユーザの心拍数、呼吸数、体温、または血圧などを用いて、ビデオゲームのコンテクストにおいてプログラムを制御してもよい。ユーザの物理的環境に対応する仮想世界を生成するために使われるユーザ401やオブジェクト417の位置を決定するために、特定のビデオゲームはサーモグラフィックカメラ403の視野をスキャンすることが必要である。
オブジェクトを環境から区別するためにいろいろな方法が既に述べられてきたが、区別の手段としてユーザのバイタルサイン413を適用することは、上述の方法を補完する作用がある。ビデオゲームまたはコンピュータプログラムが生物のオブジェクトを無生物のオブジェクト417から区別する必要がある場合、たとえば、心拍数、呼吸数、体温、血圧などの1以上のユーザのバイタルサイン413を利用してもよい。無生物のオブジェクト417は周期的な表面温度の変化を受けないから、容易に生物のオブジェクト401から区別することができる。このように、オブジェクト(生物と無生物の両方)でいっぱいの部屋において、コンピュータプロセッシングシステム405は、サーモグラフィックカメラによって取得された熱赤外線画像を用いることで二つのカテゴリの間を区別することができる。
プロセッシングシステム405は、1以上のユーザのバイタルサインにしたがってプログラムの実行中にアクションが起きるレートを調整するように構成される。一例として、限定しないが、ビジュアルディスプレイ407上でグラフィックス419のアニメーションを制御するためにユーザの心拍数を使用してもよい。たとえば、ビジュアルディスプレイ407上のグラフィックス419は、ユーザ401の視覚的表現(すなわちアバター)であってもよい。ユーザの心拍数413を制御入力として用いることにより、アバターの表情、感情、またはアバターの他の視覚的兆候をそれに応じて変化させてもよい。興奮したユーザは、それに対応してその役割(たとえば、取り乱した動き、誇張された表情など)を振る舞う興奮したアバターをもってもよい。同様に、感情が抑制されたユーザは、それに対応して元気のないアバター(たとえば、落ち着いた動き、しんみりした表情など)をもってもよい。ユーザの呼吸数、血圧、体温、またはサーモグラフィ的に得られた他のバイタルサインを用いて、同様の方法でコンピュータアニメーションを制御してもよい。
あるいは、ビデオゲームのコンテクストでグラフィックス419のアニメーション以上のものを制御するためにユーザのバイタルサイン413を用いてもよい。たとえば、ゲームがプレイされるベースなど、ビデオゲームの他の側面をバイタルサインが制御してもよい。たとえば、ユーザ401がエクササイズゲームをしているならば、ゲームは、ユーザの心拍数、呼吸数、体温、血圧などに応じて困難さを増やしたり、減らしたりすることができる。一例として、限定しないが、ユーザの心拍数または呼吸数が比較的低い場合、ユーザ401により大きなチャレンジを提供するためにゲームは困難さを増やすことができる。ユーザの心拍数または呼吸数が有酸素容量を超える点にまで増えた場合、ユーザが息を正常に戻し、回復できるようにゲームは困難さを減らしてもよい。
さらに、本発明のある実施の形態では、プロセッサ405は、1以上のバイタルサイン413の分析の結果からユーザの健康状態を決定し、決定された健康状態にしたがってプログラムの実行状態を修正するように構成されてもよい。一例として、限定するものではないが、エクササイズゲームにおいて、ユーザの代謝作用が増えるにつれて、エクササイズの過程でユーザの体温が上がるかもしれない。サーモグラフィックカメラ403の感度に応じて、プロセッシングシステム405は、ユーザがいつになく高いまたは低い体温である(たとえば、これは、ユーザの通常の温度または典型的な人の期待温度によって測定される)ことを識別することができる。これは、熱があるか、または他の健康状態を示すものである。この情報は入力として用いられたり、ゲームにおける進行中のアクションを調整するために用いられたりする。
本発明の実施の形態は、エクササイズや代謝測定以外の理由で体温の異常を検出するなどのバイタルサインの分析に関わってもよいことに留意する。そのような分析は、体温以外のバイタルサインに関係することができる。たとえば、もしユーザの典型的な体温をシステム400が学習しているならば、システムは、(特に、速い呼吸数および/または上昇した心拍数のような他の兆候がない場合において)ユーザの温度が異常に高いならば、ユーザは熱があるか他の医学的状態にあると決定することができる。プロセッシングシステム405は、この情報を入力として用いて、たとえば、ユーザに通知するメッセージを表示するなどにより、それに応じて状態を変化させることができる。そのメッセージには、医療専門家にコンタクトし、関連する連絡先を提供するためのアドバイスが含まれる。ある実装では、システム400は、電子メール、ビデオ/ボイスチャット、スカイプ接続などにより、医療専門家にコンタクトしたり、サーモグラフィックカメラ403からのサーモグラフィックイメージおよび/またはプロセッシングシステム405からのバイタルサイン情報をリアルタイムで分析するために医療専門家に転送するように構成されてもよい。
別の実装では、システム400は、ユーザ401の決定された健康状態に応じて、他の方法でプロセッシングシステム405上で走っているプログラムの実行状態を修正してもよい。たとえば、ディスプレイ407上に表示されたシーン(たとえば、ゲームシーン、テレビプログラム、またはビデオ)を、ユーザのそのような状態を検出したことに応答して、病気または体が弱ったユーザが見るのにより心地よいシーンに変更してもよい。表示されたシーンとともに提示される音のボリュームや性質についても同様に修正してもよい。
心拍数または呼吸数のようなバイタルサインを用いてどのようなバックグラウンドサウンドまたは音楽をプレイするかを制御してもよい。たとえば、ガンシューティングに関するビデオゲームプレイのコンテクストにおいて、ユーザの心拍数や呼吸数の変化によって発砲レートを増やしたり減らしたりすることができる。固定された個数の銃弾(たとえば3)を心拍または呼吸毎に発砲してもよい。ゲームプレイ中に現れるミサイルまたは発射物のような仮想オブジェクトのアクションのトリガーにバイタルサインをマップすることができる。たとえば、バイタルサインによって、ミサイルが前進するときにどれくらい速く回転するかを決定することができる。他の実施の形態では、プロセッシングシステム405は、心拍数または呼吸数のようなユーザのバイタルサインにバックグラウンドミュージックのテンポを同期させることができる。たとえば、システムは、心拍数または呼吸数をアップサンプリングまたはダウンサンプリングし、心拍数の倍数または約数でバックグラウンドサウンド(たとえば発砲、ドラムビート)を生成することができる。このように同期されたドラムビートをバックグラウンドミュージックにブレンドしてもよい。
さらに、コンピュータプログラムのある側面を制御するためにユーザのバイタルサイン413をユーザインタフェースデバイス419(たとえば、コントローラ、キーボード、ジョイスティックなど)と結合させてもよい。ユーザのバイタルサイン413は、ユーザインタフェースデバイス421の応答速度を制御してもよい。たとえば、ユーザ401がコントローラ421を用いて仮想世界における仮想武器の機能を指示する場合に、ユーザの心拍数を用いてトリガーとなるレスポンスタイムを制御してもよい。ユーザの心拍数が増加するにつれて、武器のレスポンス速度も速くなる。コントローラ421はコンピュータプロセッシングシステム405と直接的に通信して、ユーザのバイタルサイン413に関する関連情報を取得してもよい。ユーザの動的なバイタルサイン413にしたがってユーザインタフェース421のレスポンス設定を調整することにより、ユーザにより現実的で本物のゲームプレイ体験を与えることができる。
図5は、上述のようにサーマルイメージングインタフェースを用いたコンピュータプログラムの制御を実装するために使われるコンピュータ装置500のブロック図である。装置500は、一般に、プロセッサモジュール501とメモリ505を備える。プロセッサモジュール501は1以上のプロセッサコアを含む。複数のプロセッサモジュールを用いるプロセッシングシステムの例は、セルプロセッサであり、その例は、たとえば、http://www-306.ibm.com/chips/techlib/techlib.nsf/techdocs/1AEEE1270EA2776387257060006E61BA/$file/CBEA_01_pub.pdfにおいてオンラインで参照可能なセルブロードバンドエンジンアーキテクチャに詳しく記述されており、その内容を参照によりここに組み込む。
メモリ505は、例えば、RAM、DRAM、ROMなどの集積回路の形態を取ってもよい。そのメモリはまた、すべてのプロセッサモジュール501によってアクセス可能なメインメモリであってもよい。ある実施の形態では、プロセッサモジュール501は、各コアに関連付けられたローカルメモリを含む。プログラム503は、プロセッサモジュール501上で実行することができるプロセッサ読み取り可能なインストラクションの形態でメインメモリ505に格納されてもよい。プログラム503は、上述のように、コンピュータプログラムを制御するためのサーマルイメージングインタフェース方法を実装するように構成されたインストラクションを含む。特に、プログラムインストラクションは、サーモグラフィックカメラを用いてオブジェクトの熱赤外線画像を取得し、熱赤外線画像を分析し、熱赤外線画像からオブジェクトの特徴を特定し、その特徴を、コンピュータプログラム503またはプロセッサモジュール503によって実行される他のプログラムにおける制御入力として用いる。プログラム503は、任意の適切なプロセッサ読み取り可能な言語、たとえば、C、C++、JAVA(登録商標)、アセンブリ、MATLAB、フォートラン、および他の様々な言語で書かれる。プログラム503の実行中、プログラムコードおよび/またはデータ507の一部は、メモリ505またはマルチプロセッサコアによる並列処理のためのプロセッサコアのローカルストアにロードされる。
入力データ507はメモリ505に格納されてもよい。一例であり、限定しないが、入力データ507は、サーモグラフィックカメラによって判定されるユーザ/オブジェクトの特徴を表現するデータを含んでもよい。
装置500はさらに、入出力(I/O)装置511、電源(P/S)513、クロック(CLK)515およびキャッシュ517などの周知のサポート機能509を備えてもよい。装置500はオプションとして、プログラムおよび/またはデータを格納するためのディスクドライブ、CD−ROMドライブ、テープドライブなどの大容量記憶装置519を備えてもよい。装置500はまた、オプションとして、装置500とユーザの相互作用を容易にするために、ディスプレイユニット521、熱的特徴検出部518、およびユーザインタフェースユニット525を備えてもよい。ディスプレイユニット521は、テキスト、数値、グラフィカルシンボルや画像を表示する陰極線管(CRT)、またはフラットパネルスクリーンの形態であってもよい。
熱的特性検出部518は、測定された温度変化からユーザの心拍数、呼吸数、および位置を識別するのに十分な温度の空間的および時間的変動を検知するセンサを含んでもよい。好適な実施の形態では、熱的特性検出部518は、図1を参照して上述したように動作するサーモグラフィックカメラを含む。サーモグラフィックカメラのイメージセンサの各ピクセルにおける温度(または温度差)の値は、メモリ505に配列として格納することができる。プログラム503は、ユーザの位置を特定し、ユーザの心拍数および呼吸数に対応する熱的パターンを特定するために配列に格納された温度パターンを分析することができる。この情報は制御入力として使用してもよい。
ある実施の形態では、2以上の熱的特性検出部518があってもよい。ある実施の形態では、各熱的特性検出部518は、オプションとして、好適に構成されたインストラクションを走らせる専用プロセッサユニット520を含むか、専用プロセッサユニット520に結合されていてもよい。そのような実施の形態では、各専用プロセッサユニット520が分散システムの一部であってもよく、分散システムにおいて、各専用プロセッサユニット520は、対応する検出部518のセンサによって生成された測定値を少なくとも処理してもよい。専用プロセッサユニット520の出力は、プロセッサモジュール501によって実装されるマスタ制御システムへの入力に寄与してもよい。そのような実装は、プログラムが熱的特性検出部518の詳細を知る必要がないから、プログラム503の設計を簡単化する。そのような構成はまた、プロセッサモジュール501上の処理負荷の一定量を、熱的特性検出部518に関連づけられた専用プロセッサにオフロードすることを可能にする。その結果、プロセッサモジュール501およびプログラム503は、装置500に含まれる熱的特性検出部の数によって影響されることが少なくなる。
一例として、限定しないが、専用プロセッサユニット520は、サーモグラフィックカメラによって取得された熱赤外線画像を分析し、1以上の熱赤外線画像から1以上のオブジェクトの1以上の特徴を識別し、その特徴を用いてコンピュータプログラム503の制御入力を提供するように構成される。
ユーザインタフェース525は、キーボード、マウス、ジョイスティック、ライトペン、マイクロホン、従来のデジタルカメラ、加速度計、ジャイロスコープや他の装置を備えてもよく、これらは、熱的特徴検出部518と併せて使われてもよい。装置500はまた、ネットワークインタフェース523を含み、これにより、当該装置がインターネットのようなネットワーク上で他の装置と通信することが可能になる。これらの構成要素はハードウェア、ソフトウェア、ファームウェアまたはこれらの2以上の組み合わせによって実装される。
プロセッサモジュール501、メモリ505、ユーザインタフェース525、および装置500の他のコンポーネントは、システムバス527を介して互いに信号(たとえばコードインストラクションおよびデータ)をやりとりする。
別の実施の形態によれば、コンピュータプログラムを制御するためのサーマルイメージングインタフェース方法を実行するためのインストラクションをコンピュータ読み取り可能な記憶媒体に格納してもよい。一例として、これに限られないが、図6は、本発明の実施の形態に係る持続的なコンピュータ読み取り可能な記憶媒体600の例を示す。記憶媒体600には、コンピュータ・プロセッシング・デバイスが読み取って解釈することのできるフォーマットで格納されたコンピュータ読み取り可能な命令が含まれる。一例として、これに限られないが、コンピュータ読み取り可能な記憶媒体600は、RAMまたはROMのようなコンピュータ読み取り可能なメモリ、固定ディスクドライブ(たとえば、ハードディスクドライブ)に対するコンピュータ読み取り可能なストレージディスク、またはリムーバブルディスクドライブであってもよい。さらに、コンピュータ読み取り可能な記憶媒体600は、フラッシュメモリデバイス、コンピュータ読み取り可能なテープ、CD−ROM、DVD−ROM、ブルーレイ(商標)、HD−DVD、UMD、あるいは他の光記憶媒体を含む。
ストレージメディア600は、サーマルイメージング(熱画像)インタフェースを実装するように構成されたサーマルイメージングインストラクション601を含む。サーマルイメージングインストラクション601は、図2から図4を参照して上述した方法にしたがってコンピュータプログラムを制御するサーマルイメージングインタフェース方法を実装するように構成される。具体的には、サーマルイメージングインタフェースインストラクション601は、サーモグラフィックカメラの視野において1以上のユーザの熱赤外線画像を取得する熱赤外線画像取得インストラクション603を含む。サーマルイメージングインストラクション601は、さらに熱赤外線画像分析インストラクション605を含む。これらのインストラクションが実行されると、プロセッサは入力デバイスからの信号を分析し、取得された熱赤外線画像に関連づけられた熱的パターンを決定する。
サーマルイメージングインストラクション601は、さらに、熱赤外線画像から取得された熱的パターンを評価して、ユーザを特定し、ある特徴(たとえば、位置、深さ、呼吸数、心拍数)を決定するためのユーザ特徴特定インストラクション607を含む。
本発明の好ましいバージョンを参照しながらかなり詳細に本発明を説明したが、他のバージョンも可能である。したがって、添付の請求項の趣旨および範囲は、ここに含まれる好ましいバージョンの説明に限定されるべきではない。むしろ、本発明の範囲は、添付の請求項をその均等物の全範囲とともに参照することで決定されるべきである。
この明細書(添付の請求項、要約、図面を含めて)に開示したすべての特徴は、明示的に断らない限り、同じ目的または等価ないしは類似の目的を達する代替的な特徴で置き換えることができる。したがって、明示的に断らない限り、開示された各特徴は、等価または類似の特徴の包括的な体系のほんの一例である。いずれの特徴も、好ましいかどうかを問わず、他の特徴と組み合わせてもよい。請求項において、明示的に断らない限り、各項目は1またはそれ以上の数量である。請求項において「〜のための手段」のような語句を用いて明示的に記載する場合を除いて、請求項のいずれの構成も、35USC§112第6パラグラフに規定された「手段」または「ステップ」として解釈されるものではない。特に請求項において「〜のステップ」を用いても35USC§112第6パラグラフの規定を行使することを意図したものではない。
この明細書と同時に提出され、この明細書とともに公衆の閲覧に付されたすべての書面に読者の注意は向けられるものであり、それらの書面の内容を参照によりここに組み込む。

Claims (26)

  1. コンピュータプログラムの制御のためのサーマルイメージングインタフェース方法であって、
    a)1以上のサーモグラフィックカメラを用いて1以上のオブジェクトの1以上の熱赤外線画像を取得するステップと、
    b)前記1以上の熱赤外線画像を分析するステップと、
    c)前記1以上の熱赤外線画像から前記1以上のオブジェクトの1以上の特徴を特定するステップと、
    d)前記1以上の特徴をコンピュータプログラムにおける制御入力として用いるステップとを含み、
    前記オブジェクトはユーザを含み、前記1以上の特徴は、前記1以上のユーザの前記1以上の熱赤外線画像における温度または温度変化を測定することによって判定される前記1以上のユーザの1以上のバイタルサインを含み、
    ステップd)は、前記1以上のユーザのバイタルサインにしたがってプログラムの実行中にアクションが起きるレートを調整するか、前記1以上のユーザのバイタルサインにしたがってグラフィックスのアニメーションを制御することにより、前記1以上のユーザのバイタルサインをコンピュータプログラムにおける制御入力として用いる方法。
  2. 前記コンピュータプログラムは、前記1以上のバイタルサインを、プログラムの実行中に起こるアクションのペースを制御するために利用する請求項1の方法。
  3. 前記アクションのペースは音楽のテンポを含む請求項2の方法。
  4. 前記コンピュータプログラムは、前記コンピュータプログラムに関連づけられたグラフィックスを制御するために前記1以上のバイタルサインを用いる請求項1の方法。
  5. 前記コンピュータプログラムは、前記コンピュータプログラムと連動して前記1以上のユーザの性能を測定するために前記1以上のバイタルサインを用いる請求項1の方法。
  6. 前記コンピュータプログラムは、生物オブジェクトを無生物オブジェクトから区別するために前記1以上のバイタルサインを用いる請求項1の方法。
  7. 前記コンピュータプログラムは、前記コンピュータプログラムに関連づけられたユーザインタフェースのレスポンス速度を制御するために前記1以上のバイタルサインを用いる請求項1の方法。
  8. 前記1以上のバイタルサインを仮想オブジェクトのアクションのトリガーにマップする請求項1の方法。
  9. 前記1以上のバイタルサインをサンプルし、前記コンピュータプログラムによって音を生成するために使用する請求項1の方法。
  10. 前記1以上のバイタルサインは心拍数、呼吸数、体温、または血圧である請求項1の方法。
  11. 前記1以上のバイタルサインを分析するステップと、前記1以上のバイタルサインの分析の結果からユーザの健康状態を判定するステップとをさらに含む請求項10の方法。
  12. ステップc)における前記1以上の特徴は、前記ユーザの鼻と口の周辺の空気の流れおよび温度を測定することによって判定される各ユーザに対する呼吸パターンを含む請求項1の方法。
  13. 前記1以上のユーザの間から発せられる音の発信源を特定するために前記1以上のユーザに対する呼吸パターンを用いる請求項12の方法。
  14. 前記1以上のユーザが権限のあるユーザであるかどうかを判定するために前記1以上のユーザに対する呼吸パターンを用いる請求項12の方法。
  15. ステップc)における前記1以上の特徴は、前記1以上の熱赤外線画像を用いた補間を加味して赤外線反射によって判定された、サーモグラフィックカメラに対する前記1以上のオブジェクトの奥行きを含む請求項1の方法。
  16. ステップd)は、前記1以上のユーザに関連づけられた体の部分の動きを追跡するために、前記1以上のユーザの通常の画像と組み合わせて、各ユーザに対する前記1以上の特徴を用いるステップを含む請求項15の方法。
  17. ステップc)における前記1以上の特徴は、前記1以上のオブジェクトをその背景から区別するセグメンテーションの手がかりを含む請求項1の方法。
  18. コンピュータプログラムの制御のための装置であって、
    1以上のサーモグラフィックカメラと、
    前記1以上のサーモグラフィックカメラと結合されたプロセッサと、
    前記プロセッサによって実行可能なインストラクションとを含み、前記インストラクションは、
    a)前記1以上のサーモグラフィックカメラを用いて1以上のオブジェクトの1以上の熱赤外線画像を取得し、
    b)前記1以上の熱赤外線画像を分析し、
    c)前記1以上の熱赤外線画像から前記1以上のオブジェクトの特徴を特定し、
    d)前記1以上の特徴をコンピュータプログラムに対する制御入力として用いるように構成され、
    前記オブジェクトはユーザを含み、前記1以上の特徴は、前記1以上のユーザの前記1以上の熱赤外線画像における温度または温度変化を測定することによって判定される前記1以上のユーザの1以上のバイタルサインを含み、
    ステップd)は、前記1以上のユーザのバイタルサインにしたがってプログラムの実行中にアクションが起きるレートを調整するか、前記1以上のユーザのバイタルサインにしたがってグラフィックスのアニメーションを制御することにより、前記1以上のユーザのバイタルサインをコンピュータプログラムにおける制御入力として用いる装置。
  19. ステップc)における前記1以上の特徴は、前記1以上のユーザの鼻と口の周辺の空気の流れおよび温度を測定することによって判定される各ユーザに対する呼吸数を含む請求項18の装置。
  20. ステップc)における前記1以上の特徴は、前記1以上の熱赤外線画像を用いた補間を加味して赤外線反射によって判定された、サーモグラフィックカメラに関する前記1以上のオブジェクトの奥行きを含む請求項18の装置。
  21. 前記1以上のサーモグラフィックカメラは、前記プロセッサに結合されたビデオディスプレイに搭載されたサーモグラフィックカメラを含む請求項18の装置。
  22. 前記プロセッサは、1以上の専用プロセッサを含み、各サーモグラフィックカメラは対応する専用プロセッサに結合されている請求項18の装置。
  23. ステップb)、c)およびd)は前記1以上の専用プロセッサによって実装される請求項22の装置。
  24. サーマルイメージングインタフェースを用いてコンピュータプログラムを制御するためのコンピュータ読み取り可能なプログラムが具体化された持続的なコンピュータ読み取り可能なストレージメディアであって、前記プログラムは、
    a)1以上のサーモグラフィックカメラを用いて1以上のオブジェクトの1以上の熱赤外線画像を取得するためのコンピュータ読み取り可能なプログラムコードと、
    b)前記1以上の熱赤外線画像を分析するためのコンピュータ読み取り可能なプログラムコードと、
    c)前記1以上の熱赤外線画像から前記1以上のオブジェクトの1以上の特徴を特定するためのコンピュータ読み取り可能なプログラムコードと、
    d)前記1以上の特徴をコンピュータプログラムにおける制御入力として用いるためのコンピュータ読み取り可能なプログラムコードとを含み、
    前記オブジェクトはユーザを含み、前記1以上の特徴は、前記1以上のユーザの前記1以上の熱赤外線画像における温度または温度変化を測定することによって判定される前記1以上のユーザの1以上のバイタルサインを含み、
    プログラムコードd)は、前記1以上のユーザのバイタルサインにしたがってプログラムの実行中にアクションが起きるレートを調整するか、前記1以上のユーザのバイタルサインにしたがってグラフィックスのアニメーションを制御することにより、前記1以上のユーザのバイタルサインをコンピュータプログラムにおける制御入力として用いるストレージメディア。
  25. 前記コンピュータプログラムは、コンピュータエンタテインメントプログラムである請求項1の方法。
  26. 前記制御入力はビデオゲームにおける状態の変化をもたらす請求項25の方法。
JP2013530212A 2010-09-23 2011-09-19 サーマルイメージングを用いたユーザインタフェースシステムおよび方法 Active JP5797757B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US12/889,347 US8786698B2 (en) 2010-09-23 2010-09-23 Blow tracking user interface system and method
US12/889,347 2010-09-23
US12/969,501 2010-12-15
US12/969,501 US8638364B2 (en) 2010-09-23 2010-12-15 User interface system and method using thermal imaging
PCT/US2011/045595 WO2012039836A1 (en) 2010-09-23 2011-07-27 Blow tracking user interface system and method
USPCT/US2011/045595 2011-07-27
PCT/US2011/052182 WO2012040114A1 (en) 2010-09-23 2011-09-19 User interface system and method using thermal imaging

Publications (3)

Publication Number Publication Date
JP2013545163A JP2013545163A (ja) 2013-12-19
JP2013545163A5 JP2013545163A5 (ja) 2014-10-09
JP5797757B2 true JP5797757B2 (ja) 2015-10-21

Family

ID=45870267

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013530212A Active JP5797757B2 (ja) 2010-09-23 2011-09-19 サーマルイメージングを用いたユーザインタフェースシステムおよび方法

Country Status (5)

Country Link
US (1) US8638364B2 (ja)
EP (1) EP2606638A4 (ja)
JP (1) JP5797757B2 (ja)
CN (2) CN103500008B (ja)
WO (1) WO2012040114A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102020641B1 (ko) * 2018-04-10 2019-09-10 성균관대학교산학협력단 영상을 이용한 맥박 조율을 위한 음원 생성 장치

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US20130314536A1 (en) * 2009-03-02 2013-11-28 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US8786698B2 (en) 2010-09-23 2014-07-22 Sony Computer Entertainment Inc. Blow tracking user interface system and method
WO2012120959A1 (ja) * 2011-03-04 2012-09-13 株式会社ニコン 電子機器、処理システム及び処理プログラム
EP2530442A1 (en) * 2011-05-30 2012-12-05 Axis AB Methods and apparatus for thermographic measurements.
US20130033965A1 (en) * 2011-08-05 2013-02-07 TrackDSound LLC Apparatus and Method to Locate and Track a Person in a Room with Audio Information
US9788792B2 (en) * 2011-10-26 2017-10-17 The United States of America, as represented by Department of Veterans Affairs, Office of General Counsel, Professional Staff Group IV(024) System for screening skin condition for tissue damage
KR101709282B1 (ko) * 2011-11-15 2017-02-24 삼성전자주식회사 이미지 센서, 이의 동작 방법, 및 이를 포함하는 장치들
WO2013097139A1 (en) * 2011-12-29 2013-07-04 Intel Corporation Communication using avatar
WO2013140268A2 (en) * 2012-03-20 2013-09-26 Novodigit Sarl Mobile handset accessory supporting touchless and occlusion-free user interaction
US9386268B2 (en) 2012-04-09 2016-07-05 Intel Corporation Communication using interactive avatars
US9587804B2 (en) * 2012-05-07 2017-03-07 Chia Ming Chen Light control systems and methods
US9678713B2 (en) * 2012-10-09 2017-06-13 At&T Intellectual Property I, L.P. Method and apparatus for processing commands directed to a media center
US9571816B2 (en) * 2012-11-16 2017-02-14 Microsoft Technology Licensing, Llc Associating an object with a subject
US9498705B2 (en) * 2012-12-17 2016-11-22 Activision Publishing, Inc. Video game system having novel input devices
DE102013201359A1 (de) * 2013-01-29 2014-07-31 Robert Bosch Gmbh Verfahren und Vorrichtung zum Steuern eines Werkstattgeräts
US9251701B2 (en) 2013-02-14 2016-02-02 Microsoft Technology Licensing, Llc Control device with passive reflector
KR102387314B1 (ko) 2013-03-11 2022-04-14 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
CN105229719B (zh) 2013-03-15 2018-04-27 奇跃公司 显示***和方法
EP3014407A4 (en) 2013-06-28 2017-08-02 Chia Ming Chen Controlling device operation according to hand gestures
US9717118B2 (en) 2013-07-16 2017-07-25 Chia Ming Chen Light control systems and methods
EP2876605B1 (en) * 2013-11-22 2016-04-06 Axis AB Gradient privacy masks
US20150185806A1 (en) * 2013-12-27 2015-07-02 Arvind S Method and apparatus for power management in an electronic device by sensing the presence and intent of an object
EP3108330B1 (en) 2014-02-17 2021-10-20 Apple Inc. Method and device for detecting a touch between a first object and a second object
GB2524247B (en) * 2014-03-17 2021-04-21 Sony Interactive Entertainment Europe Ltd Control of data processing
US9530080B2 (en) 2014-04-08 2016-12-27 Joan And Irwin Jacobs Technion-Cornell Institute Systems and methods for configuring baby monitor cameras to provide uniform data sets for analysis and to provide an advantageous view point of babies
US10708550B2 (en) 2014-04-08 2020-07-07 Udisense Inc. Monitoring camera and mount
US10406967B2 (en) 2014-04-29 2019-09-10 Chia Ming Chen Light control systems and methods
CN104090662A (zh) * 2014-07-15 2014-10-08 北京金和软件股份有限公司 一种用呼吸特征控制电子设备界面的方法
US9495008B2 (en) 2014-06-27 2016-11-15 Amazon Technologies, Inc. Detecting a primary user of a device
US9990043B2 (en) * 2014-07-09 2018-06-05 Atheer Labs, Inc. Gesture recognition systems and devices for low and no light conditions
US10127927B2 (en) 2014-07-28 2018-11-13 Sony Interactive Entertainment Inc. Emotional speech processing
CN105371963B (zh) * 2014-09-01 2018-08-24 宇龙计算机通信科技(深圳)有限公司 一种感光装置、感光方法及移动设备
CN107073346A (zh) 2014-09-10 2017-08-18 孩之宝公司 具有手动操作的扫描器的玩具***
CN104318248B (zh) * 2014-10-21 2018-04-06 北京智谷睿拓技术服务有限公司 动作识别方法及动作识别装置
CN104392204B (zh) * 2014-10-21 2018-03-09 北京智谷睿拓技术服务有限公司 姿态识别方法及姿态识别装置
US9596538B2 (en) * 2014-12-12 2017-03-14 Intel Corporation Wearable audio mixing
US9633622B2 (en) * 2014-12-18 2017-04-25 Intel Corporation Multi-user sensor-based interactions
WO2016101131A1 (en) 2014-12-23 2016-06-30 Intel Corporation Augmented facial animation
WO2016122143A1 (en) * 2015-01-28 2016-08-04 Samsung Electronics Co., Ltd. Method and apparatus for improving and monitoring sleep
CN105983235B (zh) * 2015-02-10 2019-12-10 安徽华米信息科技有限公司 一种提供游戏场景的方法和装置
DE102015104768B4 (de) * 2015-03-27 2023-03-16 Bundesdruckerei Gmbh Zugangssystem mit Personenerkennungsvorrichtung
AU2016250773A1 (en) 2015-04-23 2017-10-12 Hasbro, Inc. Context-aware digital play
CN106488741A (zh) * 2015-04-23 2017-03-08 珍-奈公司 活动和锻炼监测***
JP6647824B2 (ja) * 2015-09-25 2020-02-14 三菱重工業株式会社 異常診断システム及び異常診断方法
WO2017101094A1 (en) 2015-12-18 2017-06-22 Intel Corporation Avatar animation system
US20170294193A1 (en) * 2016-04-06 2017-10-12 Xerox Corporation Determining when a subject is speaking by analyzing a respiratory signal obtained from a video
CN105903167B (zh) * 2016-04-22 2018-11-02 潍坊科技学院 一种综合体育训练检测装置
CN107346172B (zh) * 2016-05-05 2022-08-30 富泰华工业(深圳)有限公司 一种动作感应方法及装置
USD854074S1 (en) 2016-05-10 2019-07-16 Udisense Inc. Wall-assisted floor-mount for a monitoring camera
DE112017002805T5 (de) * 2016-06-03 2019-02-28 Mitsubishi Electric Corporation Ausrüstungssteuerungseinrichtung und Ausrüstungssteuerungsverfahren
US20180060553A1 (en) * 2016-08-29 2018-03-01 Lenovo (Singapore) Pte. Ltd. Using eddy currents of exhaled breath for authentication
CN106485232B (zh) * 2016-10-21 2020-10-30 国家体育总局体育科学研究所 一种基于呼吸过程中鼻子图像特征的人员识别方法
US10789485B2 (en) * 2016-11-07 2020-09-29 Motorola Solutions, Inc. Guardian system in a network to improve situational awareness at an incident
CN108154161A (zh) * 2016-12-05 2018-06-12 上海西门子医疗器械有限公司 训练分类器的方法、确定受检对象***的方法和医疗器械
JP6266736B1 (ja) * 2016-12-07 2018-01-24 株式会社コロプラ 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
USD855684S1 (en) 2017-08-06 2019-08-06 Udisense Inc. Wall mount for a monitoring camera
CN111372516A (zh) 2017-11-22 2020-07-03 乌迪森斯公司 呼吸监控器
CN108245176A (zh) * 2017-12-07 2018-07-06 江苏大学 基于物联网交互式无接触心理检测治疗装置、***及方法
CN110013230A (zh) * 2018-01-08 2019-07-16 曹亮 一种采用多个红外传感器的测温装置及方法
US11087538B2 (en) * 2018-06-26 2021-08-10 Lenovo (Singapore) Pte. Ltd. Presentation of augmented reality images at display locations that do not obstruct user's view
US11393170B2 (en) 2018-08-21 2022-07-19 Lenovo (Singapore) Pte. Ltd. Presentation of content based on attention center of user
US10991139B2 (en) 2018-08-30 2021-04-27 Lenovo (Singapore) Pte. Ltd. Presentation of graphical object(s) on display to avoid overlay on another item
EP3864575A4 (en) 2018-10-09 2021-12-01 Magic Leap, Inc. VIRTUAL AND AUGMENTED REALITY SYSTEMS AND PROCESSES
USD900428S1 (en) 2019-01-28 2020-11-03 Udisense Inc. Swaddle band
USD900429S1 (en) 2019-01-28 2020-11-03 Udisense Inc. Swaddle band with decorative pattern
USD900430S1 (en) 2019-01-28 2020-11-03 Udisense Inc. Swaddle blanket
USD900431S1 (en) 2019-01-28 2020-11-03 Udisense Inc. Swaddle blanket with decorative pattern
CN110090392A (zh) * 2019-05-29 2019-08-06 苏州经贸职业技术学院 一种智能健身器
US11537351B2 (en) 2019-08-12 2022-12-27 Magic Leap, Inc. Systems and methods for virtual and augmented reality
TWI725524B (zh) * 2019-08-28 2021-04-21 技嘉科技股份有限公司 人員狀況偵測裝置
CN111228767B (zh) * 2020-01-20 2022-02-22 北京驭胜晏然体育文化有限公司 一种智能仿真室内滑雪安全***及其监测方法
US11771982B2 (en) * 2020-02-14 2023-10-03 Real Tech, Llc. Systems and methods for augmented reality role playing entertainment
WO2021184071A1 (en) * 2020-03-17 2021-09-23 Elenium Automation Pty Ltd "self-service station having thermal imaging camera"
CN111568388B (zh) * 2020-04-30 2021-09-07 清华大学 一种非接触式口呼吸检测装置、方法及存储介质
WO2021247733A1 (en) * 2020-06-02 2021-12-09 Rayos Jonathan C System and method utilizing software-enabled artificial intelligence for health monitoring and medical diagnostics
US11766181B2 (en) 2020-10-19 2023-09-26 Walmart Apollo, Llc Systems and methods for touchless temperature screening system
WO2022160044A1 (en) * 2021-01-27 2022-08-04 Baüne Ecosystem Inc. Systems and methods for targeted advertising using a customer mobile computer device or a kiosk

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4996161A (en) * 1987-10-16 1991-02-26 Guardian Technologies, Inc. Breath alcohol testing system
US5764786A (en) 1993-06-10 1998-06-09 Kuwashima; Shigesumi Moving object measurement device employing a three-dimensional analysis to obtain characteristics of the moving object
US5689241A (en) 1995-04-24 1997-11-18 Clarke, Sr.; James Russell Sleep detection and driver alert apparatus
JPH09128141A (ja) * 1995-11-07 1997-05-16 Sony Corp 制御装置および制御方法
US6173068B1 (en) * 1996-07-29 2001-01-09 Mikos, Ltd. Method and apparatus for recognizing and classifying individuals based on minutiae
US5994701A (en) * 1996-10-15 1999-11-30 Nippon Avonics Co., Ltd. Infrared sensor device with temperature correction function
US6072494A (en) * 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6421617B2 (en) 1998-07-18 2002-07-16 Interval Research Corporation Interface including fluid flow measurement for use in determining an intention of, or an effect produced by, an animate object
US6496594B1 (en) 1998-10-22 2002-12-17 Francine J. Prokoski Method and apparatus for aligning and comparing images of the face and body from different imagers
US6842877B2 (en) * 1998-12-18 2005-01-11 Tangis Corporation Contextual responses based on automated learning techniques
US8701015B2 (en) 2008-03-26 2014-04-15 Pierre Bonnat Method and system for providing a user interface that enables control of a device via respiratory and/or tactual input
US6938619B1 (en) 2000-06-13 2005-09-06 Scott Laboratories, Inc. Mask free delivery of oxygen and ventilatory monitoring
WO2002013672A2 (en) * 2000-08-16 2002-02-21 Nizan Yaniv Applications of the biofeedback technique
JP2002175579A (ja) * 2000-12-05 2002-06-21 Canon Inc 託児所監視システム及び方法
US7027621B1 (en) * 2001-03-15 2006-04-11 Mikos, Ltd. Method and apparatus for operator condition monitoring and assessment
US7259747B2 (en) * 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US7052470B2 (en) 2002-02-11 2006-05-30 Gannon Mark D Breathing detection/confirmation device
US7406184B2 (en) * 2002-07-03 2008-07-29 Equinox Corporation Method and apparatus for using thermal infrared for face recognition
AU2003253912A1 (en) 2002-07-10 2004-01-23 Lockheed Martin Corporation Infrared camera system and method
US20040210159A1 (en) * 2003-04-15 2004-10-21 Osman Kibar Determining a psychological state of a subject
AU2003289401A1 (en) 2003-12-17 2005-07-05 Seijiro Tomita Individual authentication system using cardiac sound waveform and/or breathing waveform pattern
JP2006285923A (ja) * 2005-04-05 2006-10-19 Nissan Motor Co Ltd コマンド入力装置
CA2674593A1 (en) 2005-06-13 2006-12-28 The University Of Vermont And State Agricultural College Breath biofeedback system and method
US8033996B2 (en) 2005-07-26 2011-10-11 Adidas Ag Computer interfaces including physiologically guided avatars
GB2430072B (en) 2005-08-18 2008-02-13 Mark Jones Teaching apparatus
US8313379B2 (en) * 2005-08-22 2012-11-20 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
US7732694B2 (en) 2006-02-03 2010-06-08 Outland Research, Llc Portable music player with synchronized transmissive visual overlays
TW200745996A (en) * 2006-05-24 2007-12-16 Objectvideo Inc Intelligent imagery-based sensor
JP5176311B2 (ja) 2006-12-07 2013-04-03 ソニー株式会社 画像表示システム、表示装置、表示方法
US8295542B2 (en) * 2007-01-12 2012-10-23 International Business Machines Corporation Adjusting a consumer experience based on a 3D captured image stream of a consumer response
US20080171596A1 (en) * 2007-01-17 2008-07-17 Hsu Kent T J Wireless controller for a video game console capable of measuring vital signs of a user playing a game on the console
US8144148B2 (en) * 2007-02-08 2012-03-27 Edge 3 Technologies Llc Method and system for vision-based interaction in a virtual environment
WO2009016624A2 (en) 2007-07-30 2009-02-05 Eyeclick Ltd. System and method employing thermal imaging for object detection
US7970176B2 (en) * 2007-10-02 2011-06-28 Omek Interactive, Inc. Method and system for gesture classification
US8218871B2 (en) 2008-03-05 2012-07-10 International Business Machines Corporation Detecting behavioral deviations by measuring respiratory patterns in cohort groups
KR20110008080A (ko) 2008-04-03 2011-01-25 카이 메디컬, 아이엔씨. 비접촉식 생리학적 모션 센서 및 모션 센서의 사용 방법
JP5309150B2 (ja) * 2008-10-16 2013-10-09 株式会社アルバック スパッタリング装置及び電界効果型トランジスタの製造方法
US8306265B2 (en) * 2009-01-12 2012-11-06 Eastman Kodak Company Detection of animate or inanimate objects
US8487938B2 (en) * 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US8448094B2 (en) * 2009-01-30 2013-05-21 Microsoft Corporation Mapping a natural input device to a legacy system
WO2010105034A2 (en) * 2009-03-11 2010-09-16 Corventis, Inc. Physiological monitoring for electronic gaming
KR20120011016A (ko) 2009-04-23 2012-02-06 예다 리서치 앤드 디벨럽먼트 캄파니 리미티드 코 기류 장치 콘트롤러
US8564534B2 (en) * 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US8522308B2 (en) 2010-02-11 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for providing a spatial-input-based multi-user shared display experience
US8786698B2 (en) 2010-09-23 2014-07-22 Sony Computer Entertainment Inc. Blow tracking user interface system and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102020641B1 (ko) * 2018-04-10 2019-09-10 성균관대학교산학협력단 영상을 이용한 맥박 조율을 위한 음원 생성 장치

Also Published As

Publication number Publication date
JP2013545163A (ja) 2013-12-19
CN103141080A (zh) 2013-06-05
CN103500008A (zh) 2014-01-08
CN103500008B (zh) 2017-09-12
EP2606638A4 (en) 2017-07-19
US20120075463A1 (en) 2012-03-29
WO2012040114A1 (en) 2012-03-29
CN103141080B (zh) 2016-10-05
EP2606638A1 (en) 2013-06-26
US8638364B2 (en) 2014-01-28

Similar Documents

Publication Publication Date Title
JP5797757B2 (ja) サーマルイメージングを用いたユーザインタフェースシステムおよび方法
US8786698B2 (en) Blow tracking user interface system and method
US11068050B2 (en) Method for controlling display of virtual image based on eye area size, storage medium and electronic device therefor
Chen et al. Unobtrusive sensor-based occupancy facing direction detection and tracking using advanced machine learning algorithms
KR102223693B1 (ko) Nui 관여의 검출
JP6407889B2 (ja) 頭部装着型ディスプレイにおいて物理的握手を活用すること
US10009581B2 (en) Room monitoring device
JP2012096027A (ja) 家庭用ゲームシステムにおいて実行中のゲーム又はアプリケーションをリアルタイムに記録又は変更するための携帯型ゲーム装置の使用
JP5407742B2 (ja) 形状認識方法及び形状認識装置
CN109145847B (zh) 识别方法、装置、穿戴式设备及存储介质
US10248852B2 (en) Method for recognizing facial expression of headset wearing user and apparatus enabling the same
TW201042577A (en) Motion image data generator, system using motion image data, and methods thereof
CN111163906A (zh) 能够移动的电子设备及其操作方法
JP2009277097A (ja) 情報処理装置
US20160213323A1 (en) Room monitoring methods
KR20150038877A (ko) 사용자 입력에 대응되는 이벤트를 이용한 유저 인터페이싱 장치 및 방법
US20210307492A1 (en) Smart-mirror display system
CN110955580B (zh) 壳体温度的获取方法、装置、存储介质和电子设备
JP2021018729A (ja) 個人識別装置、ヘッドマウントディスプレイ、コンテンツ配信サーバ、および個人識別方法
JP2020130528A (ja) 感情推定装置、感情推定方法、プログラム、及び感情推定システム
WO2021157691A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
CN114466172B (zh) 用于使用红外照明器阵列确定生物计量数据的方法和设备
CN115802021A (zh) 体积视频生成方法、装置、电子设备及存储介质
TWI519126B (zh) 觀賞區域提示方法及系統,及其電腦程式產品
CN116156141A (zh) 体积视频播放方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140825

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140825

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20140825

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20140911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150819

R150 Certificate of patent or registration of utility model

Ref document number: 5797757

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250