JP5382436B2 - データ処理装置、データ処理方法、およびプログラム - Google Patents

データ処理装置、データ処理方法、およびプログラム Download PDF

Info

Publication number
JP5382436B2
JP5382436B2 JP2009180780A JP2009180780A JP5382436B2 JP 5382436 B2 JP5382436 B2 JP 5382436B2 JP 2009180780 A JP2009180780 A JP 2009180780A JP 2009180780 A JP2009180780 A JP 2009180780A JP 5382436 B2 JP5382436 B2 JP 5382436B2
Authority
JP
Japan
Prior art keywords
state
user
activity
user activity
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009180780A
Other languages
English (en)
Other versions
JP2011034402A (ja
Inventor
真人 伊藤
浩太郎 佐部
洋貴 鈴木
順 横野
一美 青山
高志 蓮尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009180780A priority Critical patent/JP5382436B2/ja
Priority to EP10168206.0A priority patent/EP2284768A3/en
Priority to US12/839,321 priority patent/US8560467B2/en
Priority to CN2010102447473A priority patent/CN101989127B/zh
Publication of JP2011034402A publication Critical patent/JP2011034402A/ja
Application granted granted Critical
Publication of JP5382436B2 publication Critical patent/JP5382436B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、データ処理装置、データ処理方法、およびプログラムに関し、特に、未来の所望の時刻におけるユーザの活動状態の複数の可能性を確率的に予測するデータ処理装置、データ処理方法、およびプログラムに関する。
近年、ユーザが身に着けられるセンサであるウェアラブルセンサから得られる時系列データを用いてユーザの状態をモデル化して学習し、学習により得られたモデルを用いて現在のユーザの状態を認識する研究が盛んである。例えば、非特許文献1では、ユーザの活動を予めいくつかの活動モデル(ラベル)として定義することなく、単に時系列に撮り貯めた撮像データから、現在のユーザの活動場所を認識する方法が提案されている。また、センサから得られたセンサデータに基づいて、ユーザの次の時刻の行動を予測する予測方法が提案されている(例えば、特許文献1,2、非特許文献1)。
特開2006−134080号公報 特開2008−204040号公報
"Life Patterns: structure from wearable sensors",Brian Patrick Clarkson, Doctor Thesis, MIT, 2002
しかしながら、従来の技術では、単にユーザの次の時刻の行動を予測することができるのみであり、現在から所定時間経過した未来の時刻におけるユーザの活動状態の複数の可能性を確率的に予測することはできなかった。
本発明は、このような状況に鑑みてなされたものであり、未来の所望の時刻におけるユーザの活動状態の複数の可能性を確率的に予測することができるようにするものである。
本発明の一側面のデータ処理装置は、ウェアラブルセンサから時系列データを取得する取得手段と、取得された前記時系列データから、ユーザの活動状態を表す活動モデルを、確率的状態遷移モデルとして学習する活動モデル学習手段と、前記活動モデル学習手段により得られた前記ユーザの活動モデルを用いて、現在のユーザの活動状態を認識する認識手段と、前記認識手段により認識された前記現在のユーザの活動状態から、現在から所定時間経過後のユーザの活動状態を予測する予測手段とを備え、前記予測手段は、前記確率的状態遷移モデルの各時刻での各状態の観測確率を等確率と仮定して、前記確率的状態遷移モデルの状態遷移確率に基づいて所定時間経過後の前記各状態の生起確率を計算することにより、前記所定時間経過後のユーザの活動状態を予測する
本発明の一側面のデータ処理方法は、時系列データを処理するデータ処理装置が、ウェアラブルセンサから前記時系列データを取得し、取得された前記時系列データから、ユーザの活動状態を表す活動モデルを、確率的状態遷移モデルとして学習し、学習により得られた前記ユーザの活動モデルを用いて、現在のユーザの活動状態を認識し、認識された前記現在のユーザの活動状態から、現在から所定時間経過後のユーザの活動状態を予測するステップを含み、前記所定時間経過後のユーザの活動状態の予測においては、前記確率的状態遷移モデルの各時刻での各状態の観測確率を等確率と仮定して、前記確率的状態遷移モデルの状態遷移確率に基づいて所定時間経過後の前記各状態の生起確率を計算することにより、前記所定時間経過後のユーザの活動状態を予測する
本発明の一側面のプログラムは、コンピュータに、ウェアラブルセンサから時系列データを取得する取得手段と、取得された前記時系列データから、ユーザの活動状態を表す活動モデルを、確率的状態遷移モデルとして学習する活動モデル学習手段と、前記活動モデル学習手段により得られた前記ユーザの活動モデルを用いて、現在のユーザの活動状態を認識する認識手段と、前記認識手段により認識された前記現在のユーザの活動状態から、現在から所定時間経過後のユーザの活動状態を予測する予測手段として機能させ、前記予測手段は、前記確率的状態遷移モデルの各時刻での各状態の観測確率を等確率と仮定して、前記確率的状態遷移モデルの状態遷移確率に基づいて所定時間経過後の前記各状態の生起確率を計算することにより、前記所定時間経過後のユーザの活動状態を予測する
本発明の一側面においては、ウェアラブルセンサから時系列データが取得され、取得された時系列データから、ユーザの活動状態を表す活動モデルが確率的状態遷移モデルとして学習され、学習により得られたユーザの活動モデルを用いて、現在のユーザの活動状態が認識され、認識された現在のユーザの活動状態から、現在から所定時間経過後のユーザの活動状態が予測される。所定時間経過後のユーザの活動状態の予測においては、確率的状態遷移モデルの各時刻での各状態の観測確率を等確率と仮定して、確率的状態遷移モデルの状態遷移確率に基づいて所定時間経過後の各状態の生起確率を計算することにより、所定時間経過後のユーザの活動状態が予測される。
本発明の一側面によれば、未来の所望の時刻におけるユーザの活動状態の複数の可能性を確率的に予測することができる。
本発明を適用したデータ処理システムの一実施の形態の構成例を示すブロック図である。 図1のデータ処理装置の詳細な構成例を示すブロック図である。 ユーザ活動モデル学習処理を説明するフローチャートである。 対応処理学習処理を説明するフローチャートである。 ユーザ活動予測制御処理を説明するフローチャートである。 HMMの例を示す図である。 left-to-right型のHMMの例を示す図である。 スパース制約を与えたHMMを示す図である。 第1の実験の概要について説明する図である。 第1の実験例に用いたデータ処理装置の構成例を示すブロック図である。 前処理部の処理結果を示す図である。 前処理部の処理結果を示す図である。 ユーザ活動モデル学習部の学習結果を示す図である。 ユーザ活動モデル学習部の学習結果を示す図である。 ユーザ活動認識部の認識結果を示す図である。 ユーザ活動予測部の予測結果を示す図である。 対応処理学習部の学習テーブルを説明する図である。 対応処理選択部の選択処理を説明する図である。 実験2におけるデータ処理装置の認識結果および予測結果を説明する図である。 実験2におけるデータ処理装置の認識結果および予測結果を説明する図である。 本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
[本発明を適用した実施の形態の構成例]
図1は、本発明を適用した実施の形態であるデータ処理システムの構成例を示すブロック図である。
図1のデータ処理システムは、ウェアラブルセンサ1、データ処理装置2、および制御対象装置3により構成されている。
ウェアラブルセンサ1は、ユーザ自身が身に着けられるセンサであり、例えば、カメラ、マイクロホン、GPS(Global Positioning System)受信機、時計、加速度センサ、ジャイロセンサ、生体情報センサなどである。ウェアラブルセンサ1は、センシングにより得られた時系列データ(以下、センサデータともいう)を、データ処理装置2に出力する。
データ処理装置2は、ユーザが携帯可能なサイズの装置であり、ウェアラブルセンサ1から供給される時系列データに基づいて、ユーザの活動状態(行動・活動パターンを表した状態)を確率的状態遷移モデルとして学習する。学習に使用される確率的状態遷移モデルとしては、例えば、エルゴディックHMM(Hidden Markov Model)などの、隠れ状態を含む確率的状態遷移モデルを採用することができる。エルゴディックHMMについては、図6等を参照して後述する。
データ処理装置2は、学習した確率的状態遷移モデルを用いて、最初に、現在のユーザの活動状態を認識する。次に、データ処理装置2は、現在までに得られたセンサデータから、学習した確率的状態遷移モデルを用いて、未来の所望の時刻までの各状態の生起確率を予測することにより、未来の所望の時刻におけるユーザの活動状態を予測する。そして、データ処理装置2は、予測したユーザの活動状態に応じた所定の処理を制御対象装置3に行わせるため、制御対象装置3に制御信号を出力する。
なお、データ処理装置2が行う処理の一部は、無線通信及びインターネット等のネットワークを介した通信により遠隔にある装置にデータを送信し、そこで実行させることも可能である。
制御対象装置3は、データ処理装置2によって制御される対象の装置であり、例えば、ディスプレイ、スピーカ、AV機器、照明機器、空調機器等の家電製品である。或いは、制御対象装置3は、ディスプレイ、スピーカ、AV機器、照明機器、空調機器等の制御を行うコントローラなどであってもよい。したがって、制御対象装置3は、1つに限らず、複数存在する場合がある。
なお、ウェアラブルセンサ1とデータ処理装置2は、ウェアラブル(werable)なものである必要があるが、制御対象装置3は、ウェアラブルなものであるとは限らない。勿論、制御対象装置3もウェアラブルなものであってもよい。また、データ処理装置2と制御対象装置3との間の信号のやりとりは、有線でも無線でも構わない。
以上のように構成されるデータ処理システムによれば、次のようなことが可能である。
例えば、ユーザが自宅に居る場合の活動状態を、確率的状態遷移モデルとして学習した場合には、データ処理装置2は、ユーザが「リビングに居る」、「キッチンに居る」などの現在の活動状態を認識する。そして、データ処理装置2は、ユーザの所定時間経過後の活動状態を、確率的状態遷移モデルに基づいて予測する。例えば、データ処理装置2は、「所定時間経過後にはキッチンに居る」、「所定時間経過後にリビングに移動する」などの活動状態を予測する。
そして、データ処理装置2は、予測した活動状態に対応する制御対象装置3の制御を行う。例えば、データ処理装置2は、ユーザの現在の活動状態を「キッチンに居る」と認識し、「所定時間経過後にリビングに移動する」と予測した場合、制御対象装置3としての、リビングの照明機器や空調機器をオンさせる。また、データ処理装置2は、リビングのテレビジョン受像機(以下、単にテレビと称する)、記録再生装置、オーディオステレオなどのAV機器をオンさせることができる。
また、ユーザがオフィスにいる場合の活動状態を、確率的状態遷移モデルとして学習した場合には、データ処理装置2は、ユーザが「オフィス(自分の机)に居る」、「会議室に居る」などの現在の活動状態を認識することができる。そして、予測した所定時間経過後の活動状態に応じて、「会議室等の各場所の空調機器をオンさせる」、「コピー機をオンさせる」、「エレベータを自分のいるフロアに移動させる」などの制御を行うことができる。即ち、この場合の制御対象装置3は、空調機器、コピー機、エレベータなどである。
さらに例えば、ユーザがショップ内で買い物をしているような場面では、ユーザの現在の活動状態を認識して、即ち、ユーザが現在見ている商品等を予測して、その商品情報を制御対象装置3としてのディスプレイに表示させることができる。あるいは、進行方向先に陳列されている商品のお薦め商品などの情報を、制御対象装置3としてのディスプレイに表示させることができる。
また、ユーザが通勤・通学等で移動する移動経路を活動状態のモデルとして学習した場合には、データ処理装置2は、例えば、ユーザが駅に向かうことを予測したとき、時刻表を制御対象装置3としてのディスプレイに表示させることができる。また、データ処理装置2は、移動経路から立ち寄る店舗を予測して、その店舗の詳細情報(営業時間やセール情報など)を表示させたりすることができる。
以上のようなユーザの活動状態の予測とそれに対応する制御処理を可能とする、データ処理装置2の詳細について説明する。
[データ処理装置2の詳細構成例]
図2は、データ処理装置2の詳細な構成例を示すブロック図である。
センサ入力部111は、ウェアラブルセンサ1が出力するセンサデータを取得し、前処理部121に供給する。センサ入力部112および113も同様である。ただし、センサ入力部111乃至113が取得するセンサデータはそれぞれ異なる。従って、データ処理装置2は、複数のウェアラブルセンサ1からセンサデータを取得することができ、取得対象のウェアラブルセンサ1の数に応じたセンサ入力部11および前処理部12を設けることができる。なお、取得対象のウェアラブルセンサ1の数は、1つでも勿論良い。以下では、センサ入力部111乃至113および前処理部121乃至123それぞれを特に区別する必要がない場合、単に、センサ入力部11および前処理部12と称する。
前処理部121乃至123それぞれは、センサ入力部111乃至113から供給されたセンサデータに対して、画像特徴量の抽出処理、ローパスフィルタ処理等のデータの特性に応じた前処理を施し、ユーザ活動モデル学習部13およびユーザ活動認識部15に供給する。即ち、前処理部121乃至123それぞれは、ユーザ活動モデル学習部13およびユーザ活動認識部15に供給するのに最適なデータに変換し、変換後のセンサデータをユーザ活動モデル学習部13およびユーザ活動認識部15に供給する。
ユーザ活動モデル学習部13は、前処理部121乃至123それぞれから供給されるセンサデータに基づいて、ユーザの活動状態をモデル化した確率的状態遷移モデル(ユーザ活動モデル)を学習する。本実施の形態では、確率的状態遷移モデルとして、エルゴディックHMMにスパース制約を与えたものを採用する。ユーザ活動モデル学習部13は、学習の結果得られたユーザ活動モデルのパラメータを、ユーザ活動モデルパラメータ記憶部14に供給する。ユーザ活動モデルパラメータ記憶部14は、ユーザ活動モデル学習部13から供給されるパラメータを記憶し、必要に応じて、ユーザ活動認識部15およびユーザ活動予測部16に供給する。
なお、スパース制約を与えたエルゴディックHMM、エルゴディックHMMのパラメータの算出方法等については、図6乃至図8を参照して後述する。
ユーザ活動認識部15は、センサ入力部11および前処理部12を介して新たなセンサデータが入力されたとき、学習により得られたユーザ活動モデルに基づいて、現在のユーザの活動状態(以下、ユーザ活動状態とも称する)を認識(特定)する。ユーザ活動認識部15は、認識した現在のユーザ活動状態を表す状態IDをユーザ活動予測部16および対応処理学習部18に供給する。
ユーザ活動予測部16は、学習により得られたユーザ活動モデルに基づいて、所定時間経過後のユーザの活動状態を予測する。具体的には、ユーザ活動予測部16には、現在のユーザの状態を表す状態IDが供給される。ユーザ活動予測部16は、現在時刻T(T>0)のユーザの活動状態から、所定時間経過後の時刻T+N(N>0)において、生起確率が最大となっている活動状態、または、生起確率が所定の閾値以上となっている活動状態を決定する。そして、ユーザ活動予測部16は、決定された活動状態を表す状態IDを、時刻T+Nにおけるユーザの活動状態の予測結果として対応処理選択部19に供給する。
対応処理取得部17は、制御対象装置3に対してデータ処理装置2が行う制御のそれぞれに処理IDを付し、制御対象装置3において処理IDを付した制御が行われた場合に、その処理IDを取得して対応処理学習部18に供給する。
対応処理学習部18は、処理IDと状態IDとを対応付けた学習テーブルを記憶する。対応処理学習部18は、対応処理取得部17から処理IDが供給された場合に、学習テーブルの現在のユーザの活動状態を表す状態IDのところの、供給された処理IDのカウントをカウントアップする。その結果、ユーザの活動状態の状態IDごとの、処理IDの頻度がカウントされる。これにより、対応処理学習部18は、ユーザがどのような活動状態でいるとき、制御対象装置3に対してどのような操作(制御)を行うかを学習する。即ち、対応処理学習部18は、現在のユーザの活動状態を表す状態IDに対応する制御対象装置3の処理を学習する。
対応処理選択部19には、所定時間経過後の時刻T+Nにおける、ユーザの活動状態の予測結果としての状態IDが、ユーザ活動予測部16から供給される。対応処理選択部19は、対応処理学習部18に記憶された学習結果から、ユーザ活動予測部16から供給される状態IDに対応する処理の処理IDを選択(決定)する。対応処理選択部19は、選択した処理IDを対応処理出力部20に供給する。
対応処理出力部20は、対応処理選択部19から供給された処理IDに対応する制御を制御対象装置3に対して行う。
[ユーザ活動モデル学習処理]
図3は、データ処理装置2によるユーザ活動モデル学習処理のフローチャートである。
初めに、ステップS1において、センサ入力部11は、ウェアラブルセンサ1が出力するセンサデータを取得し、前処理部12に供給する。
ステップS2において、前処理部12は、センサ入力部11から供給されたセンサデータに対して前処理を施し、処理後のセンサデータをユーザ活動モデル学習部13に供給する。
ステップS3において、ユーザ活動モデル学習部13は、前処理部12から供給されるセンサデータに基づいて、ユーザ活動モデルを学習する。即ち、ユーザ活動モデル学習部13は、ユーザ活動モデルとしての確率的状態遷移モデルのパラメータを算出する。
ステップS4において、ユーザ活動モデルパラメータ記憶部14は、ユーザ活動モデル学習部13による学習の結果得られたユーザ活動モデルのパラメータ(ユーザ活動モデルパラメータ)を記憶して、処理を終了する。
[対応処理学習処理]
図4は、ユーザの活動状態に対応する制御対象装置3の処理を学習する対応処理学習処理のフローチャートである。この処理は、図3によるユーザ活動モデル学習処理によりユーザ活動モデルが決定された後に実行することができる。
初めに、ステップS11において、センサ入力部11は、ウェアラブルセンサ1が出力するセンサデータを取得し、前処理部12に供給する。
ステップS12において、前処理部12は、センサ入力部11から供給されたセンサデータに対して前処理を施し、処理後のセンサデータをユーザ活動認識部15に供給する。
ステップS13において、ユーザ活動認識部15は、ユーザ活動モデルのパラメータを、ユーザ活動モデルパラメータ記憶部14から読み出す。
ステップS14において、ユーザ活動認識部15は、読み出したパラメータに基づくユーザ活動モデルに基づいて、現在のユーザ活動状態を認識(特定)する。ユーザ活動認識部15は、認識結果としてのユーザの活動状態を表す状態IDを対応処理学習部18に供給する。
ステップS15において、対応処理取得部17は、制御対象装置3において行われた処理の処理IDを取得して対応処理学習部18に供給する。ステップS14とS15の処理は並行して行われる。
ステップS16において、対応処理学習部18は、対応処理取得部17から供給された処理IDと、ユーザ活動認識部15から供給された現在のユーザ活動状態を表す状態IDを学習テーブルに対応付けて記憶し、処理を終了する。
以上の処理を繰り返し実行することにより、データ処理装置2は、ユーザがどんな状態でいるとき、制御対象装置3に対してどのような操作(制御)を行うかを学習することができる。
[ユーザ活動予測制御処理]
図5は、入力されたセンサデータに基づいてユーザ活動状態を予測し、予測したユーザ活動状態に応じた制御対象装置3の制御を行うユーザ活動予測制御処理のフローチャートである。この処理は、図3のユーザ活動モデル学習処理と図4の対応処理学習処理の実行後、または、図4の対応処理学習処理と並列に実行することができる。
初めに、ステップS21において、センサ入力部11は、ウェアラブルセンサ1が出力するセンサデータを取得し、前処理部12に供給する。
ステップS22において、前処理部12は、センサ入力部11から供給されたセンサデータに対して前処理を施し、処理後のセンサデータをユーザ活動認識部15に供給する。ステップS21とS22の処理は、図4のステップS11とS12の処理と同一であり、図5の処理が図4の処理と並列に実行される場合には、ステップS11とS21、ステップS12とS22は、それぞれ1つの処理として実行することができる。
ステップS23において、ユーザ活動予測部16は、ユーザ活動モデルのパラメータを、ユーザ活動モデルパラメータ記憶部14から読み出す。またステップS23では、ユーザ活動認識部15も、ユーザ活動モデルのパラメータを、ユーザ活動モデルパラメータ記憶部14から読み出す。
ステップS24において、ユーザ活動認識部15は、読み出したパラメータに基づくユーザ活動モデルから、現在のユーザ活動状態を認識する。そして、ユーザ活動認識部15は、認識結果としてのユーザの活動状態を表す状態IDを対応処理学習部18に供給する。
ステップS25において、ユーザ活動予測部16は、現在時刻Tのユーザの活動状態を起点として、所定時間経過後の時刻T+Nのユーザ活動状態を予測する。ユーザ活動予測部16は、予測結果である、所定時間経過後のユーザの活動状態を表す状態IDを対応処理選択部19に供給する。
ステップS26において、対応処理選択部19は、ユーザ活動予測部16から供給された状態IDに対応する処理IDを、図4の処理により対応処理学習部18に記憶された学習テーブルから選択する。即ち、対応処理選択部19は、時刻T+Nに予測されるユーザの活動状態に対応する制御対象装置3の制御を選択する。選択された処理IDは、対応処理出力部20に供給される。
ステップS27において、対応処理出力部20は、対応処理選択部19から供給された処理IDに対応する制御を制御対象装置3に対して行い、処理を終了する。
以上のように、データ処理装置2においては、図3のユーザ活動モデル学習処理によりユーザ活動モデルのパラメータが算出され、算出されたパラメータを用いたユーザ活動モデルによって、現在のユーザの活動状態が認識される。そして、現在のユーザの活動状態から、未来の所定の時刻T+Nにおけるユーザの活動状態が予測され、予測されたユーザの活動状態に応じた制御対象装置3の制御が行われる。
[エルゴディックHMMについて]
次に、データ処理装置2が、学習モデルとして採用するエルゴディックHMMについて説明する。
図6は、HMMの例を示している。
HMMは、状態と状態間遷移とを有する状態遷移モデルである。
図6は、3状態のHMMの例を示している。
図6において(以降の図においても同様)、丸印は、状態(上述のユーザの活動状態に対応する)を表し、矢印は、状態遷移を表す。
また、図6において、si(図6では、i=1,2,3)は、状態を表し、aijは、状態siから状態sjへの状態遷移確率を表す。さらに、bj(x)は、状態sjへの状態遷移時に、観測値xが観測される出力確率密度関数を表し、πiは、状態siが初期状態である初期確率を表す。
なお、出力確率密度関数bj(x)としては、例えば、混合正規確率分布等が用いられる。
ここで、HMM(連続HMM)は、状態遷移確率aij、出力確率密度関数bj(x)、及び初期確率πiによって定義される。これらの状態遷移確率aij、出力確率密度関数bj(x)、及び初期確率πiを、HMMのパラメータλ={aij,bj(x), πi,i=1,2,・・・,M,j=1,2,・・・,M}という。Mは、HMMの状態数を表す。
HMMのパラメータλを推定する方法としては、Baum-Welchの再尤推定法が広く利用されている。Baum-Welchの再尤推定法は、EMアルゴリズム(EM(Expectation-Maximization) algorithm)に基づくパラメータの推定方法である。
Baum-Welchの再尤推定法によれば、観測される時系列データx=x1,x2,・・・,xTに基づき、その時系列データが観測(生起)される確率である生起確率から求まる尤度を最大化するように、HMMのパラメータλの推定が行われる。ここで、xtは、時刻tに観測される信号(サンプル値)を表し、Tは、時系列データの長さ(サンプル数)を表す。
Baum-Welchの再尤推定法については、例えば、“パターン認識と機械学習(下)”,C.M.ビショップ著,P. 333(英語原書:“Pattern Recognition and Machine Learning (Information Science and Statistics) ”,Christopher M. BishopSpringer, New York, 2006.)(以下、文献Aと称する)に記載されている。
センサ入力部11が取得したセンサデータが、時系列データx=x1,x2,・・・,xTとして、前処理部12に供給される。そして、前処理部12により所定の処理が施された後のセンサデータが、時系列データx'=x1',x2',・・・,xT'として、ユーザ活動モデル学習部13に供給される。
したがって、ユーザ活動モデル学習部13は、前処理後のセンサデータx'=x1',x2',・・・,xT'を用い、ユーザ活動モデルを表すHMMのパラメータλを推定する。
なお、Baum-Welchの再尤推定法は、尤度最大化に基づくパラメータ推定方法ではあるが、最適性を保証するものではなく、HMMの構造やパラメータλの初期値によっては、局所解に収束することがある。
HMMは、音声認識で広く利用されているが、音声認識で利用されるHMMでは、一般に、状態の数や状態遷移の仕方等はあらかじめ決定される。
図7は、音声認識で利用されるHMMの例を示している。
図7のHMMは、left-to-right型と呼ばれる。
図7では、状態数は3になっており、状態遷移は、自己遷移(状態siから状態siへの状態遷移)と、左から右隣の状態への状態遷移とのみを許す構造に制約されている。
図7のHMMのように、状態遷移に制約があるHMMに対して、図6に示した、状態遷移に制約がないHMM、すなわち、任意の状態siから任意の状態sjへの状態遷移が可能なHMMは、エルゴディック(Ergodic)HMMと呼ばれる。
エルゴディックHMMは、構造としては最も自由度の高いHMMであるが、状態数が多くなると、パラメータλの推定が困難となる。
例えば、エルゴディックHMMの状態数が、1000である場合、状態遷移の数は、100万(=1000×1000)となる。
したがって、この場合、パラメータλのうちの、例えば、状態遷移確率aijについては、100万個の状態遷移確率aijを推定することが必要となる。
そこで、状態に対して設定する状態遷移には、例えば、スパース(Sparse)な構造であるという制約(スパース制約)をかけることができる。
ここで、スパースな構造とは、任意の状態から任意の状態への状態遷移が可能なエルゴディックHMMのような密な状態遷移ではなく、ある状態から状態遷移することができる状態が非常に限定されている構造である。なお、ここでは、スパースな構造であっても、他の状態への状態遷移は、少なくとも1つ存在し、また、自己遷移は存在することとする。
図8は、スパース制約を与えたHMMを示している。
ここで、図8では、2つの状態を結ぶ双方向の矢印は、その2つの状態の一方から他方への状態遷移と、他方から一方への状態遷移とを表す。また、図8において、各状態は、自己遷移が可能であり、その自己遷移を表す矢印の図示は、省略されている。
図8では、16個の状態が、2次元空間上に格子状に配置されている。すなわち、図8では、横方向に、4個の状態が配置され、縦方向にも、4個の状態が配置されている。
いま、横方向に隣接する状態どうしの距離、及び、縦方向に隣接する状態どうしの距離を、いずれも1とすると、図8Aは、距離が1以下の状態への状態遷移は可能とし、他の状態への状態遷移はできないというスパース制約を与えたHMMを示している。
また、図8Bは、距離が√2以下の状態への状態遷移は可能とし、他の状態への状態遷移はできないというスパース制約を与えたHMMを示している。
ユーザ活動認識部15は、学習により得られたユーザ活動モデル(HMM)に対して、ビタビ法を適用し、前処理部12からの処理後センサデータx'=x1',x2',・・・,xT'が観測される尤度を最も大にする状態遷移の過程(状態の系列)(パス)(以下、最尤パスともいう)を求める。これにより、現在のユーザの活動状態が認識される。
ここで、ビタビ法とは、各状態siを始点とする状態遷移のパスの中で、時刻tに、状態siから状態sjに状態遷移する状態遷移確率aijと、その状態遷移において、処理後センサデータx'=x1',x2',・・・,xT'のうちの時刻tのサンプル値x'tが観測される確率(出力確率密度関数bj(x)から求められる出力確率)とを、処理後時系列データx'の長さTに亘って累積した値(生起確率)を最大にするパス(最尤パス)を決定するアルゴリズムである。
ユーザ活動予測部16は、学習により得られたユーザ活動モデル(HMM)に対して、フォワードバックワードアルゴリズム(Forward-Backward algorithm)を適用し、ユーザ活動認識部15で認識された現在のユーザ活動状態を起点として、時刻T+Nまでの各状態siの生起確率を計算することができる。なお、ユーザ活動予測部16は、生起確率を計算する際、各時刻での各状態siの観測確率を等確率と仮定して時刻T+Nまでの各状態siの生起確率を状態遷移確率aijに基づいて計算する方法か、または、状態遷移確率aijに基づいて乱数を用いて試行的に決定した時刻T+Nまでの各状態siの生起確率を計算する方法のいずれかを採用することができる。
ここで、フォワードバックワードアルゴリズムとは、各状態siに至る確率を、時間方向に前向きに伝搬することで求められる前向き確率αi(t)と、後ろ向きに伝搬することで求められる後ろ向き確率βi(t)とを統合した確率値を計算するアルゴリズムである。なお、前向き確率αi(t)を計算するフォワードアルゴリズム、もしくは、後ろ向き確率βi(t)を計算するバックワードアルゴリズムのいずれかのみを用いることもできる。
ビタビ法については上述の文献AのP.347に、フォワードバックワードアルゴリズムについては上述の文献AのP.336に記載されている。
[第1の実験例]
次に、データ処理装置2による、ユーザ活動モデルの学習および予測制御の具体例について説明する。最初に、図9を参照して第1の実験の概要について説明する。
第1の実験では、ユーザがウェアラブルセンサ1としてカメラを携行し、ユーザが視認する画像(映像)のデータが時系列データとして取得される。ユーザは、図9に示される住居内において、(1)リビングでテレビを視聴する、(2)ダイニングで食事する、(3)書斎で考えごとをする、(4)キッチンで料理する、(5)洗面所でメイクする、の活動(行動)をする。また、ユーザは、移動先の部屋で、部屋の照明をつける、テレビのスイッチを入れるなどの操作を制御対象装置3としての照明機器、テレビジョン受像機などに対して行う。
データ処理装置2は、ユーザの活動とともに取得された画像の時系列データに基づいて、ユーザの活動状態をエルゴディックHMMに学習させる。そして、学習後の検証として、ユーザが行動することにより得られる新たな画像の時系列データを入力させ、ユーザ活動認識部15によるユーザ活動状態の認識と、実際のユーザの活動との比較を行った。なお、ウェアラブルセンサ1としてのカメラからデータ処理装置2が取得するのは画像の時系列データのみであり、ユーザの活動に関するラベル付けのようなものは行わない。ただし、学習後の検証として実際のユーザの活動と認識結果とを比較するため、今回の実験では、取得された各画像に対し、住居内の位置を示す擬似座標を付加した。また、学習後の各状態に対しても、その状態に割り当てられた入力画像の擬似座標の平均値を対応付け、認識結果の各状態を擬似座標で確認できるようにした。
[第1の実験例におけるデータ処理装置2の構成]
図10は、第1の実験例に用いたデータ処理装置2の構成例を示すブロック図である。
センサ入力部11−1は、ウェアラブルセンサ1としてのカメラが出力した時系列の画像データをセンサデータとして取得し、前処理部12−1に供給する。
前処理部12−1は、センサ入力部11−1から供給される画像データに対し、画像特徴量を抽出する。即ち、前処理部12−1は、画像の時系列データを、画像特徴量の時系列データに変換する。さらに前処理部12−1は、画像特徴量の時系列データの次元数を圧縮し、次元圧縮後の画像特徴量の時系列データを、ユーザ活動モデル学習部13−1およびユーザ活動認識部15−1に供給する。
前処理部12−1は、抽出する画像特徴量として、例えば、GISTと呼ばれる特徴量を採用することができる。GISTについては、“Context-based vision system for place and object recognition”,A. Torralba, K. P. Murphy, W. T. Freeman and M. A. Rubin,IEEE Intl. Conference on Computer Vision (ICCV), Nice, France, October 2003.に、その詳細が記載されている。
なお、画像特徴量は、GISTに限定されるものではなく、例えば、HLCA(局所高次相関)や、LBP(Local Binary Patterns)、カラーヒストグラム、エッジヒストグラム等を採用することも可能である。
HLCAについては、例えば、N. Otsu, T. Kurita, "A new scheme for practical flexible and intelligent vision systems", Proc. IAPR Workshop on Computer Vision, pp.431-435, 1988に、詳細が記載されている。LBPについては、例えば、Ojala T, Pietikainen M & Maenpaa T, "Multiresolution gray-scale and rotation invariant texture classification with Local Binary Patterns", IEEE Transactions on Pattern Analysis and Machine Intelligence 24(7):971-987に、詳細が記載されている(Pietikainen、及び、Maenpaaの"a"は、正確には、"a"の上部に、"・・"を付加した文字)。
また、前処理部12−1は、主成分分析(PCA(principal component analysis))を行うことにより、画像特徴量の時系列データの次元圧縮を行うことができる。前処理部12−1は、PCAの結果に基づき、累積寄与率が、ある程度高い値(例えば、95%等以上の値)となるように、画像特徴量(GIST)の時系列データの次元数を圧縮(制限)することができる。
ユーザ活動モデル学習部13−1は、前処理部12−1から供給される次元圧縮後の画像特徴量の時系列データを、上述したセンサデータx'=x1',x2',・・・,xT'として、スパース制約を与えたエルゴディックHMMのパラメータλを算出する。なお、状態siの初期確率πiは、一様な値に設定することができる。例えば、M個の状態siそれぞれの初期確率πiが、1/Mに設定される。
ユーザ活動モデルパラメータ記憶部14−1は、ユーザ活動モデル学習部13−1によって算出されたパラメータλを記憶し、必要に応じて、ユーザ活動認識部15およびユーザ活動予測部16に供給する。
ユーザ活動認識部15−1は、学習により得られたユーザ活動モデル(HMM)に対して、ビタビ法を適用し、現在のユーザ活動状態を認識(特定)する。ユーザ活動認識部15−1は、認識した現在のユーザ活動状態を表す状態IDをユーザ活動予測部16および対応処理学習部18に供給する。
ユーザ活動予測部16−1は、現在のユーザ活動状態を表す状態IDに基づいて、現在の時刻Tから所望の時間経過後の時刻T+Nにおけるユーザの活動状態を予測し、予測した活動状態の状態IDを対応処理選択部19−1に供給する。ここで、ユーザ活動予測部16−1は、各状態siの時刻T+1乃至T+Nにサンプル値x' T+1乃至x' T+Nが観測される確率を1と仮定して時刻T+Nまでの各状態siの生起確率を計算する。そして、ユーザ活動予測部16−1は、所定時間経過後の時刻T+Nにおいて、生起確率が最大となっている状態、または、生起確率が所定の閾値以上となっている状態を、時刻T+Nにおけるユーザの活動状態であると予測する。
対応処理取得部17−1は、各部屋の照明のオン・オフ、テレビのスイッチのオン・オフ、エアコン(エアーコンディショナー)のオン・オフを示す信号を受信することにより取得し、各制御に対応する処理IDとして対応処理学習部18−1に供給する。
対応処理学習部18−1は、対応処理取得部17−1から処理IDが供給されたとき、学習テーブルの現在のユーザ活動状態を表す状態IDのところの、供給された処理IDの頻度をカウントアップする。これにより、対応処理学習部18−1は、各状態IDに対する各処理IDの共起頻度をカウントする。
対応処理選択部19−1は、ユーザ活動予測部16−1から所定の状態IDが供給されたとき、供給された状態IDに対して行うべき処理の処理IDを、対応処理学習部18−1の学習テーブルから選択(決定)する。具体的には、対応処理選択部19−1は、供給された状態IDに対して、頻度の最も高い処理IDを学習テーブルから選択し、対応処理出力部20−1に供給する。なお、対応処理選択部19−1は、供給された状態IDに対して、所定の閾値以上の頻度を有する複数の処理IDを選択するようにしてもよい。
対応処理出力部20−1は、対応処理選択部19−1から供給される処理IDに応じて、制御対象装置3を制御する。例えば、対応処理出力部20−1は、ユーザが時刻T+Nにリビングに居ると予測された場合には、リビングの照明とエアコンをオンするための制御信号を、制御対象装置3としての照明機器およびエアコンに送信する。
以上のデータ処理装置2を用いた第1の実験の実験結果について、図11乃至図18を参照して説明する。
[前処理部12−1の処理結果]
図11および図12は、前処理部12−1の処理結果を示している。
図11は、センサ入力部11−1から供給された入力画像の例と、前処理部12−1で抽出された画像特徴量の時系列データ、および、次元圧縮後の画像特徴量の時系列データを示している。なお、入力画像は、紙面の制約上、撮像した画像をイラスト化したものであり、画像の濃淡の表示も省略されている。
入力画像から抽出された画像特徴量の時系列データ(図11中央)は、1000次元程度の次元数が存在するのに対し、主成分分析による次元圧縮後の画像特徴量の時系列データ(図11右)では、50次元程度に次元数が圧縮されている。
図12は、前処理部12−1による入力画像の画像特徴量の抽出処理を示している。
図12は、グレースケール(8ビットの階調)の入力画像に対して、GISTを計算した例である。即ち、前処理部12−1は、グレースケールの入力画像に対して、ステアラブルフィルタ(steerable fiter)の出力を5×5に分割して平均化したものを画像特徴量とした。ここで、ステアラブルフィルタのパラメータは、解像度については大、中、小の3段階、微分フィルタについては1次微分、2次微分、3次微分の3段階、方向パラメータは4方向(上、下、右、左)とした。なお、2次微分の微分フィルタには、各軸方向の方向パラメータに加えて全軸方向の方向パラメータも計算できるため、5方向のフィルタ出力となっている。
[ユーザ活動モデル学習部13−1の学習結果]
図13および図14は、ユーザ活動モデル学習部13−1による学習の結果得られたHMMを示している。
図13および図14では、黒丸は、サモンマップという手法を用いて、状態遷移確率aijに基づいて遷移確率の大きい状態間ができるだけ近傍に配置されるように決定したHMMの各状態sjの座標(x,y)を表し、状態sjに相当する。ここで、状態数Mは600としている。
また、図13および図14では、状態siから状態sjへの状態遷移の状態遷移確率aijが0より大である場合(状態siから状態sjへの状態遷移が有効な状態遷移である場合)、状態siに相当する黒丸と、状態sjに相当する黒丸とを、直線(線分)で結んである。したがって、図13および図14において、黒丸どうしを接続する直線は、(有効な)状態遷移に相当する。
なお、図13および図14において、状態遷移の方向を表す矢印の図示は、省略してある。
図14は、図13に示した学習後のHMMに対し、(1)リビングでテレビを視聴する、(3)書斎で考えごとをする、(4)キッチンで料理する、などの各状態siに属する入力画像の一部を重ねて示した図である。なお、入力画像は灰色の四角形で表現されている。
状態si上に配置された入力画像をみると、(1)リビングでテレビを視聴する、(3)書斎で考えごとをする、(4)キッチンで料理する、など、同一のユーザ活動状態が、隣接したHMMの状態に配置されている。即ち、入力画像から認識されるユーザ活動状態が適切に認識され、分類されている。
HMMによる学習および認識は、画像特徴量に基づくクラスタリングの一種であると言える。しかし、単に画像特徴量を用いたクラスタリングは、画像の類似性にのみ着目するものであるため、画像に類似性がないものの相関は低くなる。一方、HMMによる学習および認識では、画像の特徴量のみならず、時間の前後関係をも含めてクラスタリングするため、ある特徴量をもつ画像の次に必ず所定の特徴量をもつ画像がくる場合には、それらの画像の特徴量自体に類似性がなくても相関が高くなる。従って、HMMを用いた学習により、入力される画像にラベル付けを行わなくても、ユーザ活動状態を適切に認識し、分類することができる。
[ユーザ活動認識部15−1の認識結果]
図15は、ユーザ活動認識部15−1による認識の結果を示している。
図15は、学習に用いていない新たな入力画像をデータ処理装置2に与えたときに、ユーザ活動認識部15−1が認識した認識結果としての状態siを、黒点として、図9と同様の間取り図上に示したものである。
なお、勿論、認識処理には、画像データに付加した擬似座標は使用していない。また、認識結果としての状態siに対応する擬似座標は、上述したように、その状態に割り当てられた入力画像の擬似座標の平均値から算出されている。
図15Aにおいて、バツ印(×)は、ユーザが「(3)書斎で考えごと」をしているある時刻の入力画像の真値、即ち、入力画像に付加した擬似座標を示している。一方、丸印(○)は、バツ印(×)の入力画像に対するユーザ活動認識部15−1の認識結果、即ち、バツ印の入力画像を認識した状態siに対応する擬似座標を示している。
図15Bにおいて、バツ印(×)は、ユーザが「リビングに移動」をしているある時刻の入力画像の真値、即ち、入力画像に付加した擬似座標を示している。一方、丸印(○)は、バツ印(×)の入力画像に対するユーザ活動認識部15−1の認識結果、即ち、バツ印の入力画像を認識した状態siに対応する擬似座標を示している。
図15Bにおいて、バツ印(×)は、ユーザが「(1)リビングでテレビを視聴」をしているある時刻の入力画像の真値、即ち、入力画像に付加した擬似座標を示している。一方、丸印(○)は、バツ印(×)の入力画像に対するユーザ活動認識部15−1の認識結果、即ち、バツ印の入力画像を認識した状態siに対応する擬似座標を示している。
図15A乃至図15Cのいずれのユーザ活動状態においても、バツ印と丸印は非常に近く、学習されたHMMにより、ユーザの活動状態を適切に認識することができているということができる。
[ユーザ活動予測部16−1の予測結果]
図16は、ユーザ活動予測部16−1の予測結果を示している。
図16A乃至図16Cは、いずれも、ユーザ活動予測部16−1が認識した現在のユーザ活動状態から3分後のユーザの活動の予測結果を、各活動状態の生起確率として示している。
なお、各活動状態の生起確率は、次のようにして求められている。例えば、「(1)リビングでテレビを視聴している」確率は、状態siに対応させた擬似座標がリビング内の所定の範囲内にある場合を「(1)リビングでテレビを視聴している」と定義し、認識結果の3分後の状態siに対応する擬似座標が、定義した所定の範囲内にある確率を求めた。その他のユーザ活動状態の生起確率についても同様である。
図16Aは、現在のユーザ活動状態が「(3)書斎で考えごと」である場合の、3分後に予測されるユーザの活動状態を示している。
現在のユーザ活動状態が「(3)書斎で考えごと」である場合には、3分後にユーザが、そのまま「(3)書斎で考えごとをしている」確率が42.9%である。3分後にユーザが「(1)リビングでテレビを視聴している」確率が24.5%である。3分後にユーザが「(5)洗面所でメイクしている」確率が5.4%である。また、「(4)キッチンで料理をしている」および「(2)ダイニングで食事をしている」確率は、それぞれ、2.6%および0.7%である。
図16Bは、現在のユーザ活動状態が「(1)リビングでTV視聴」である場合の、3分後に予測されるユーザの活動状態を示している。
現在のユーザ活動状態が「(1)リビングでTV視聴」である場合、3分後にユーザが、そのまま「(1)リビングでテレビを視聴している」確率が63.6%である。3分後にユーザが「(4)キッチンで料理をしている」確率が12.3%である。3分後にユーザが「(3)書斎で考えごとをしている」確率が8.4%である。また、「(2)ダイニングで食事をしている」および「(5)洗面所でメイクしている」確率は、それぞれ、4.0%および3.1%である。
図16Cは、現在のユーザ活動状態が「(4)キッチンで料理」である場合の、3分後に予測されるユーザの活動状態を示している。
現在のユーザ活動状態が「(4)キッチンで料理」である場合、3分後にユーザが、そのまま「(4)キッチンで料理」確率が22.2%である。3分後にユーザが「(1)リビングでテレビを視聴している」確率が38.8%である。3分後にユーザが「(2)ダイニングで食事をしている」確率が17.9%である。また、「(3)書斎で考えごとをしている」および「(5)洗面所でメイクしている」確率は、それぞれ、8.4%および3.0%である。
以上のように、ユーザ活動予測部16−1によれば、学習されたHMMを用いて、現在のユーザ活動状態から、所定時間経過後のユーザの活動状態を生起確率として予測することができる。
[対応処理学習処理および対応処理選択処理]
図17は、対応処理学習部18−1の学習処理により生成される学習テーブルの一部を示している。
学習テーブルでは、HMMの各状態のときに制御対象装置3で行われた対応処理の頻度が、状態IDと処理IDとを対応付ける形で記憶されている。
そして、図18に示されるように、ユーザ活動予測制御処理において、ユーザ活動予測部16から供給された状態IDが「5」であったとする。この場合、対応処理選択部19−1は、状態ID「5」に対して頻度の最も高い処理ID「5」を選択して、選択した処理ID「5」を対応処理出力部20−1に供給する。
例えば、状態ID「5」が「(1)リビングでテレビを視聴している」であり、処理ID「5」が「テレビのスイッチをオンにする」であるとすると、対応処理選択部19−1は、「テレビのスイッチをオンにする」旨の信号を対応処理出力部20−1に供給する。対応処理出力部20−1は、「テレビのスイッチをオンにする」旨の信号が供給されると、電源をオンするリモートコントロール信号をテレビに送信する。
以上のように、第1の実験によれば、ウェアラブルセンサ1から取得される画像データを用いて、ユーザの現在の状態を的確に認識するとともに、所望の時間経過後の未来のユーザの状態を確率的に予測することができる。また、予測結果に応じて外部の機器を制御することができる。
[第2の実験例]
次に、第2の実験例について説明する。データ処理装置2の構成は図10と同様であるので、データ処理装置2の説明には図10のデータ処理装置2の符号を引用して説明する。
第2の実験では、ウェアラブルセンサ1としてGPS受信機が用いられる。また、制御対象装置3には、例えば、携行可能な小型のディスプレイやスピーカが採用される。
データ処理装置2は、ユーザの行動、具体的にはユーザが移動した移動経路をユーザ活動モデルとしてのエルゴディックHMMに学習させる。そして、データ処理装置2は、現在の時刻Tから所望の時間経過後の時刻T+Nにおけるユーザの行き先(位置)を予測する。データ処理装置2は、予測した行き先に応じた情報をディスプレイに表示する。例えば、データ処理装置2は、予測した行き先が駅である場合、時刻表をディスプレイに表示させる。また例えば、データ処理装置2は、予測した行き先にユーザがよく行く店舗がある場合、その店舗の詳細情報(営業時間やセール情報など)をディスプレイに表示させる。
センサ入力部11−1は、ウェアラブルセンサ1としてのGPS受信機が出力した時系列の位置データをセンサデータとして取得し、前処理部12−1に供給する。前処理部12−1は、本実験では何も行わず、供給されたデータをそのまま出力する。しかし、前処理部12−1には、例えば、ローパスフィルタ処理やGPS信号を受信できないトンネル内のルートを補足する処理などを行わせることができる。
ユーザ活動モデル学習部13−1、ユーザ活動モデルパラメータ記憶部14−1、およびユーザ活動認識部15−1の処理は、処理対象のセンサデータ(時系列データ)が位置データであること以外、第1の実験例と同様であるので説明を省略する。
ユーザ活動予測部16−1は、現在のユーザ活動状態を表す状態IDに基づいて、所望の時間経過後の時刻T+Nにおけるユーザの活動状態を予測する。第2の実験では、ユーザ活動予測部16−1は、現在のユーザ活動状態を起点として、状態遷移確率aijに基づいて乱数を用いて試行的に決定した時刻T+Nまでの各状態siの生起確率を計算する。すなわち、ユーザ活動予測部16−1は、未来の所望の時刻T+n(n=1,2,・・,N)にどの状態siであるかを状態遷移確率aijに基づいて乱数により順次決定しながら時刻T+Nまでの状態siを決定することを1回以上試行する。そして、ユーザ活動予測部16−1は、1回以上の試行の結果、所望の時刻T+Nにおいて生起確率(生起回数)が最大となっている状態、または、生起確率(生起回数)が所定の閾値以上となっている状態を、時刻T+Nにおけるユーザの活動状態であると予測する。
なお、第2の実験においても、第1の実験例と同様に、各時刻での各状態siの観測確率を等確率と仮定して、状態遷移確率aijに基づいて時刻T+Nまでの各状態siの生起確率を計算する方法によって、時刻T+Nにおけるユーザの活動状態を予測することも可能である。
対応処理学習部18−1は、ユーザの現在地に対応する状態の状態IDと、ディスプレイに表示させる情報を示す処理IDとを対応付けた学習テーブルを記憶する。また、対応処理学習部18−1は、処理IDに紐付けたディスプレイに表示させる情報(ユーザ提示情報)も記憶する。
対応処理選択部19−1は、ユーザ活動予測部16から供給される状態IDに対応する処理IDを学習テーブルから選択(決定)し、選択した処理IDに対応するユーザ提示情報を対応処理学習部18−1から取得して対応処理出力部20−1に供給する。
対応処理出力部20−1は、対応処理選択部19−1から供給されるユーザ提示情報を制御対象装置3としてのディスプレイまたはスピーカに出力する。制御対象装置3は、ユーザ提示情報をディスプレイに表示したり、スピーカから音声として出力したりする。
図19および図20は、実験2におけるデータ処理装置2の認識結果および予測結果を示している。
図19において、地図上に示される細線の実線、点線、1点鎖線、および2点鎖線は、データ処理装置2に学習させたユーザの移動経路を示している。
また、図19において、地図上に示される太線の点線は、学習後に新たに入力したユーザの移動経路(の時系列データ)を示しており、星印が、ユーザの現在地を示している。
さらに、図19の太線の実線が、ユーザ活動認識部15−1による認識結果を示し、太線の1点鎖線が、ユーザ活動予測部16−1による予測結果を示している。
一方、図20では、ユーザ活動モデル学習部13−1により学習された各状態siが、点線の楕円状の輪で示されている。図20によれば、ユーザの移動経路のすべてが、学習されたいずれかの状態si(点線の楕円状の輪)に含まれており、HMMが正確にユーザの移動経路を学習できていることがわかる。なお、第2の実験では、状態数Mは100としている。
また、図20では、太線の実線の曲線が、学習後に新たに入力されたユーザの移動経路(の時系列データ)を示しており、それに対してユーザ活動認識部15−1が認識した各状態siが、太線の実線の楕円状の輪で示されている。
さらに、図20では、細線の実線が、ユーザ活動予測部16−1が所望の時刻T+Nまでのユーザの移動経路(活動状態)を予測した予測結果を示している。
図20の細線の実線の楕円状の輪が、図19の太線の1点鎖線に対応し、図20の太線の実線の楕円状の輪が、図19の太線の実線に対応する。また、図20の太線の実線の曲線が図19の太線の点線に対応する。
図19および図20によれば、ユーザ活動予測部16−1による予測結果として、適切な状態siが選択されていることがわかる。即ち、適切な予測がなされていることがわかる。
以上の第2の実験では、ウェアラブルセンサ1から取得される位置データを用いて、ユーザの現在の状態(現在地)を的確に認識するとともに、所望の時間経過後の未来のユーザの状態(現在地)を予測することができる。また、予測結果に応じて外部の機器を制御し、ユーザに情報提供することができる。
以上、本発明を適用したデータ処理装置2によれば、ユーザの現在の行動(状態)をユーザ活動状態として的確に認識するとともに、未来の所望の時刻におけるユーザの行動(状態)を生起確率として予測することができる。そして、予測結果に基づいて、外部の装置を制御したり、ユーザに情報を提示したりすることができる。
従来、ユーザの行動に応じて電子機器を自動制御するインテリジェントルームを構築する場合には、目的に応じた各種のセンサを居室内に設けることが必要とされていた。本発明によれば、ウェアラブルセンサ1をユーザが身に着けてさえいれば、ユーザの活動状態を認識し、予測して、制御することができるので、簡単な構成でインテリジェントルームの構築が可能である。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図21は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、入力部106、出力部107、記憶部108、通信部109、及びドライブ110が接続されている。
入力部106は、キーボード、マウス、マイクロホンなどよりなる。出力部107は、ディスプレイ、スピーカなどよりなる。記憶部108は、ハードディスクや不揮発性のメモリなどよりなる。通信部109は、ネットワークインタフェースなどよりなる。ドライブ110は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体111を駆動する。
以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU101)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体111に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブル記録媒体111をドライブ110に装着することにより、入出力インタフェース105を介して、記憶部108にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。その他、プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
なお、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる場合はもちろん、必ずしも時系列的に処理されなくとも、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで実行されてもよい。
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
1 ウェアラブルセンサ, 2 データ処理装置, 11 センサ入力部, 12 前処理部, 13 ユーザ活動モデル学習部, 14 ユーザ活動モデルパラメータ記憶部, 15 ユーザ活動認識部, 16 ユーザ活動予測部, 17 対応処理取得部, 18 対応処理学習部, 19 対応処理選択部, 20 対応処理出力部

Claims (8)

  1. ウェアラブルセンサから時系列データを取得する取得手段と、
    取得された前記時系列データから、ユーザの活動状態を表す活動モデルを、確率的状態遷移モデルとして学習する活動モデル学習手段と、
    前記活動モデル学習手段により得られた前記ユーザの活動モデルを用いて、現在のユーザの活動状態を認識する認識手段と、
    前記認識手段により認識された前記現在のユーザの活動状態から、現在から所定時間経過後のユーザの活動状態を予測する予測手段と
    を備え、
    前記予測手段は、前記確率的状態遷移モデルの各時刻での各状態の観測確率を等確率と仮定して、前記確率的状態遷移モデルの状態遷移確率に基づいて所定時間経過後の前記各状態の生起確率を計算することにより、前記所定時間経過後のユーザの活動状態を予測する
    データ処理装置
  2. 前記予測手段は、前記確率的状態遷移モデルの各時刻での各状態の観測確率を等確率と仮定して前記所定時間経過後の前記各状態の生起確率を計算する代わりに、前記確率的状態遷移モデルの状態遷移確率に基づいて乱数を用いて試行的に決定した前記確率的状態遷移モデルの前記所定時間経過後までの各状態の生起確率を計算することにより、ユーザの活動状態を予測する
    請求項に記載のデータ処理装置。
  3. 前記予測手段は、所定時間経過後の生起確率が最大となっている前記活動状態、または、所定の閾値以上となっている前記活動状態を、前記所定時間経過後のユーザの活動状態と予測する
    請求項に記載のデータ処理装置。
  4. 前記確率的状態遷移モデルは、スパース制約を与えた隠れ状態を含む確率的状態遷移モデルである
    請求項に記載のデータ処理装置。
  5. 前記認識手段により認識された前記現在のユーザの活動状態に対応する制御対象装置の処理を学習する対応処理学習手段と、
    前記対応処理学習手段の学習結果に基づいて、前記予測手段により予測された前記所定時間経過後のユーザの活動状態に対応する前記制御対象装置の処理を選択し、前記制御対象装置が選択された処理を行うように制御する選択手段と
    をさらに備える
    請求項に記載のデータ処理装置。
  6. 取得された前記時系列データに対して所定の前処理を行う前処理手段をさらに備える
    請求項に記載のデータ処理装置。
  7. 時系列データを処理するデータ処理装置が、
    ウェアラブルセンサから前記時系列データを取得し、
    取得された前記時系列データから、ユーザの活動状態を表す活動モデルを、確率的状態遷移モデルとして学習し、
    学習により得られた前記ユーザの活動モデルを用いて、現在のユーザの活動状態を認識し、
    認識された前記現在のユーザの活動状態から、現在から所定時間経過後のユーザの活動状態を予測する
    ステップを含み、
    前記所定時間経過後のユーザの活動状態の予測においては、前記確率的状態遷移モデルの各時刻での各状態の観測確率を等確率と仮定して、前記確率的状態遷移モデルの状態遷移確率に基づいて所定時間経過後の前記各状態の生起確率を計算することにより、前記所定時間経過後のユーザの活動状態を予測する
    データ処理方法
  8. コンピュータに、
    ウェアラブルセンサから時系列データを取得する取得手段と、
    取得された前記時系列データから、ユーザの活動状態を表す活動モデルを、確率的状態遷移モデルとして学習する活動モデル学習手段と、
    前記活動モデル学習手段により得られた前記ユーザの活動モデルを用いて、現在のユーザの活動状態を認識する認識手段と、
    前記認識手段により認識された前記現在のユーザの活動状態から、現在から所定時間経過後のユーザの活動状態を予測する予測手段
    として機能させ、
    前記予測手段は、前記確率的状態遷移モデルの各時刻での各状態の観測確率を等確率と仮定して、前記確率的状態遷移モデルの状態遷移確率に基づいて所定時間経過後の前記各状態の生起確率を計算することにより、前記所定時間経過後のユーザの活動状態を予測する
    プログラム
JP2009180780A 2009-08-03 2009-08-03 データ処理装置、データ処理方法、およびプログラム Expired - Fee Related JP5382436B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009180780A JP5382436B2 (ja) 2009-08-03 2009-08-03 データ処理装置、データ処理方法、およびプログラム
EP10168206.0A EP2284768A3 (en) 2009-08-03 2010-07-02 Data processing apparatus, data processing method, and program
US12/839,321 US8560467B2 (en) 2009-08-03 2010-07-19 Apparatus, method, and program for predicting user activity state through data processing
CN2010102447473A CN101989127B (zh) 2009-08-03 2010-07-27 数据处理装置、数据处理方法以及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009180780A JP5382436B2 (ja) 2009-08-03 2009-08-03 データ処理装置、データ処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2011034402A JP2011034402A (ja) 2011-02-17
JP5382436B2 true JP5382436B2 (ja) 2014-01-08

Family

ID=43037746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009180780A Expired - Fee Related JP5382436B2 (ja) 2009-08-03 2009-08-03 データ処理装置、データ処理方法、およびプログラム

Country Status (4)

Country Link
US (1) US8560467B2 (ja)
EP (1) EP2284768A3 (ja)
JP (1) JP5382436B2 (ja)
CN (1) CN101989127B (ja)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9529864B2 (en) 2009-08-28 2016-12-27 Microsoft Technology Licensing, Llc Data mining electronic communications
JP2012003494A (ja) * 2010-06-16 2012-01-05 Sony Corp 情報処理装置、情報処理方法及びプログラム
CN101937194B (zh) * 2010-09-27 2012-12-19 鸿富锦精密工业(深圳)有限公司 具有学习功能的智能控制***和方法
JP6078527B2 (ja) * 2011-04-14 2017-02-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 雰囲気レンダリング制御システム
US10395186B1 (en) 2011-05-20 2019-08-27 Opentable, Inc. Graphical user interface for a restaurant management system including a status indicator
JP5915006B2 (ja) * 2011-06-29 2016-05-11 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
JP2013205171A (ja) * 2012-03-28 2013-10-07 Sony Corp 情報処理装置、情報処理方法、およびプログラム
US9483308B2 (en) * 2012-06-29 2016-11-01 Intel Corporation Performance of predicted actions
WO2014074513A1 (en) 2012-11-06 2014-05-15 Intertrust Technologies Corporation Activity recognition systems and methods
US11041725B2 (en) * 2012-12-03 2021-06-22 Navisens, Inc. Systems and methods for estimating the motion of an object
CA2837414C (en) 2012-12-14 2022-12-13 Battelle Memorial Institute Transactive control and coordination framework and associated toolkit functions
US20140214480A1 (en) * 2013-01-30 2014-07-31 Hewlett-Packard Development Company, L.P. Determining a customer profile state
JPWO2014126131A1 (ja) * 2013-02-13 2017-02-02 株式会社構造計画研究所 生活行動推定システム、生活行動推定装置、生活行動推定プログラム、及び記録媒体
US9836700B2 (en) * 2013-03-15 2017-12-05 Microsoft Technology Licensing, Llc Value of information with streaming evidence based on a prediction of a future belief at a future time
JP6414925B2 (ja) * 2013-04-30 2018-10-31 住友重機械工業株式会社 ショベルの処理装置及び作業内容判定方法
US9267805B2 (en) * 2013-06-07 2016-02-23 Apple Inc. Modeling significant locations
WO2015035185A1 (en) 2013-09-06 2015-03-12 Apple Inc. Providing transit information
US9544721B2 (en) 2013-07-26 2017-01-10 Apple Inc. Address point data mining
CN104348855B (zh) * 2013-07-29 2018-04-27 华为技术有限公司 用户信息的处理方法、移动终端及服务器
GB2516865A (en) 2013-08-02 2015-02-11 Nokia Corp Method, apparatus and computer program product for activity recognition
JP6160399B2 (ja) 2013-09-20 2017-07-12 富士通株式会社 行先情報提供プログラム、行先情報提供装置および行先情報提供方法
CN104581622B (zh) * 2013-10-28 2018-09-07 华为技术有限公司 移动用户位置预测方法及设备
JP6027520B2 (ja) * 2013-11-13 2016-11-16 株式会社Agoop 情報処理システム、人口流量推定装置、プログラム、情報処理方法及び人口流量を推定する方法
CN104680046B (zh) * 2013-11-29 2018-09-07 华为技术有限公司 一种用户活动识别方法及装置
KR101558269B1 (ko) 2014-01-02 2015-10-12 홍익대학교 산학협력단 관심 대상의 특징에 따라 관심 대상의 위치를 예측하는 방법 및 이를 위한 장치
KR102306064B1 (ko) 2014-02-14 2021-09-30 쓰리엠 이노베이티브 프로퍼티즈 캄파니 가속도계 데이터를 사용하는 활동 인식
US9843894B2 (en) 2014-05-30 2017-12-12 Apple Inc. Determining a size of a significant user location
US10824958B2 (en) 2014-08-26 2020-11-03 Google Llc Localized learning from a global model
JP5989725B2 (ja) * 2014-08-29 2016-09-07 京セラドキュメントソリューションズ株式会社 電子機器及び情報表示プログラム
EP3193714B1 (en) 2014-09-15 2024-05-22 Attenti Electronic Monitoring Ltd. Impairment detection with environmental considerations
JP6458507B2 (ja) * 2015-01-21 2019-01-30 セイコーエプソン株式会社 ウェアラブルコンピューター、コマンド設定方法およびコマンド設定プログラム
US10270609B2 (en) * 2015-02-24 2019-04-23 BrainofT Inc. Automatically learning and controlling connected devices
CN104699787B (zh) * 2015-03-16 2019-08-16 安徽华米信息科技有限公司 一种用户活动状态记录的更新方法及装置
US20160377447A1 (en) * 2015-06-25 2016-12-29 International Business Machines Corporation Cognitive needs-based trip planning
GB2556780A (en) * 2015-08-20 2018-06-06 Beijing Didi Infinity Science And Tech Limited Method and system for predicting current order information on the basis of historical order
US20170124155A1 (en) * 2015-10-28 2017-05-04 Zan Quan Technology Co., Ltd Sports data matching system and method
US10685306B2 (en) * 2015-12-07 2020-06-16 Sap Se Advisor generating multi-representations of time series data
US10310852B2 (en) 2016-09-29 2019-06-04 Entit Software Llc Timing estimations for application lifecycle management work items determined through machine learning
EP3529755A1 (en) * 2016-10-21 2019-08-28 Datarobot, Inc. Systems for predictive data analytics, and related methods and apparatus
US11416764B2 (en) * 2017-01-23 2022-08-16 Google Llc Automatic generation and transmission of a status of a user and/or predicted duration of the status
KR101955939B1 (ko) * 2017-02-13 2019-03-11 남서울대학교 산학협력단 공간필터링과 기계학습을 통한 행위인식 방법 및 그 장치
US11159044B2 (en) 2017-07-14 2021-10-26 Battelle Memorial Institute Hierarchal framework for integrating distributed energy resources into distribution systems
KR101982929B1 (ko) * 2017-09-08 2019-05-27 연세대학교 산학협력단 행동 인식 장치 및 방법
JP7043786B2 (ja) * 2017-10-25 2022-03-30 日本電気株式会社 営業活動支援システム、営業活動支援方法および営業活動支援プログラム
JP7233868B2 (ja) * 2018-08-08 2023-03-07 キヤノン株式会社 情報処理装置の学習システム、情報処理装置、情報処理装置の制御方法及びプログラム
US11229407B2 (en) 2020-06-08 2022-01-25 GoX Studio, Inc. Systems and methods to determine a risk factor related to dehydration and thermal stress of a subject
US11055979B1 (en) * 2020-07-29 2021-07-06 GoX Studio, Inc. Systems and methods to provide a watch as a dashboard of a plurality of modules by utilizing a mesh protocol
US11205518B1 (en) 2020-08-17 2021-12-21 GoX Studio, Inc. System and method to provide indications of a subject's fitness based on values of fitness metrics for the subject
JPWO2022149325A1 (ja) * 2021-01-06 2022-07-14

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001072478A1 (fr) * 2000-03-31 2001-10-04 Sony Corporation Dispositif robotique, procede de commande de l'action du dispositif robotique, dispositif de detection de force exterieure, et procede de detection de force exterieure
US7233933B2 (en) * 2001-06-28 2007-06-19 Microsoft Corporation Methods and architecture for cross-device activity monitoring, reasoning, and visualization for providing status and forecasts of a users' presence and availability
JP2006134080A (ja) 2004-11-05 2006-05-25 Ntt Docomo Inc 携帯端末、及び、個人適応型コンテキスト獲得方法
JP2007328435A (ja) * 2006-06-06 2007-12-20 Mitsubishi Electric Corp 移動体行動分析装置
US7840031B2 (en) * 2007-01-12 2010-11-23 International Business Machines Corporation Tracking a range of body movement based on 3D captured image streams of a user
JP5018120B2 (ja) 2007-02-19 2012-09-05 Kddi株式会社 携帯端末、プログラム及び携帯端末への表示画面制御方法
US7957583B2 (en) * 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation

Also Published As

Publication number Publication date
EP2284768A2 (en) 2011-02-16
JP2011034402A (ja) 2011-02-17
US8560467B2 (en) 2013-10-15
EP2284768A3 (en) 2014-06-18
US20110029465A1 (en) 2011-02-03
CN101989127B (zh) 2013-09-11
CN101989127A (zh) 2011-03-23

Similar Documents

Publication Publication Date Title
JP5382436B2 (ja) データ処理装置、データ処理方法、およびプログラム
Al-Shamayleh et al. A systematic literature review on vision based gesture recognition techniques
Deep et al. A survey on anomalous behavior detection for elderly care using dense-sensing networks
US20210064882A1 (en) Method for searching video and equipment with video search function
JP6911866B2 (ja) 情報処理装置および情報処理方法
JP6018674B2 (ja) 被写体再識別のためのシステム及び方法
Jalal et al. Human Depth Sensors‐Based Activity Recognition Using Spatiotemporal Features and Hidden Markov Model for Smart Environments
JP5682563B2 (ja) 移動体軌跡識別システム、移動体軌跡識別方法および移動体軌跡識別プログラム
JP4936662B2 (ja) 人間の行動の確率的モデル化によるビデオ監視
Eldib et al. Behavior analysis for elderly care using a network of low-resolution visual sensors
Alemdar et al. Using active learning to allow activity recognition on a large scale
Pauwels et al. Sensor networks for ambient intelligence
Xia et al. Robust unsupervised factory activity recognition with body-worn accelerometer using temporal structure of multiple sensor data motifs
JP5889019B2 (ja) ラベル付加装置、ラベル付加方法及びプログラム
Azorín-López et al. Human behaviour recognition based on trajectory analysis using neural networks
Madhuranga et al. Real-time multimodal ADL recognition using convolution neural networks
Ogris et al. Continuous activity recognition in a maintenance scenario: combining motion sensors and ultrasonic hands tracking
Eldib et al. Discovering activity patterns in office environment using a network of low-resolution visual sensors
KR102110375B1 (ko) 학습 전이 기반의 비디오 감시 방법
JP2019194758A (ja) 情報処理装置、情報処理方法、およびプログラム
Meratwal et al. Multi-camera and multi-person indoor activity recognition for continuous health monitoring using long short term memory
CN115937662A (zh) 智能家居***控制方法、装置、服务器及存储介质
CN115151919A (zh) 使用人工智能机器定位和映射用户和对象的自适应学习***
Chong et al. Modeling video-based anomaly detection using deep architectures: Challenges and possibilities
CN111860070A (zh) 识别发生改变的对象的方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130918

LAPS Cancellation because of no payment of annual fees