JP6351860B2 - 行動識別装置、空気調和機およびロボット制御装置 - Google Patents

行動識別装置、空気調和機およびロボット制御装置 Download PDF

Info

Publication number
JP6351860B2
JP6351860B2 JP2017537157A JP2017537157A JP6351860B2 JP 6351860 B2 JP6351860 B2 JP 6351860B2 JP 2017537157 A JP2017537157 A JP 2017537157A JP 2017537157 A JP2017537157 A JP 2017537157A JP 6351860 B2 JP6351860 B2 JP 6351860B2
Authority
JP
Japan
Prior art keywords
distribution
unit
sensor value
basic
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017537157A
Other languages
English (en)
Other versions
JPWO2017037915A1 (ja
Inventor
俊之 八田
俊之 八田
三輪 祥太郎
祥太郎 三輪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2017037915A1 publication Critical patent/JPWO2017037915A1/ja
Application granted granted Critical
Publication of JP6351860B2 publication Critical patent/JP6351860B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1651Programme controls characterised by the control loop acceleration, rate control
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/62Control or safety arrangements characterised by the type of control or by internal processing, e.g. using fuzzy logic, adaptive control or estimation of values
    • F24F11/63Electronic processing
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F2120/00Control inputs relating to users or occupants
    • F24F2120/10Occupancy
    • F24F2120/14Activity of occupants
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • G05B19/0428Safety, monitoring
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/33Director till display
    • G05B2219/33051BBC behavior based control, stand alone module, cognitive, independent agent

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Fuzzy Systems (AREA)
  • Robotics (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Physiology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Image Analysis (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、対象の行動を識別する行動識別装置、行動識別装置を用いた空気調和機、及び行動識別装置を用いたロボット制御装置に関する。
従来の行動識別装置は、装着型端末あるいは携帯型端末に搭載された各種センサによって計測されたセンサ値を用いて、対象の行動を識別する。センサとしては、例えば加速度センサ、角速度センサ、心拍センサなどが使用される。従来、行動を構成する成分行動を設計者が予め定義し、センサ値を用いて成分行動を識別することによって、行動を識別する、行動識別装置が提案されている。
例えば、特許文献1に記載の行動識別装置は、予め成分行動毎に構築されている識別器を用いて、成分行動を識別し、成分行動の識別結果を並べたシーケンスを用いて、行動を識別する。また、特許文献2に記載の行動識別装置は、予め成分行動毎に構築されている識別器を効率よく利用するため、装置の性能、リソースなどに応じて選択された成分行動を識別し、成分行動の識別結果である評価値の組合せを用いて、行動を識別する。このように、特許文献1及び特許文献2に記載の行動識別装置は、行動を単一で識別するのではなく、成分行動の識別結果を並べたシーケンス、あるいは評価値の組合せを用いて、行動を構成する成分行動の組合せとして識別する。
特開2010−213782号公報 特開2011−156132号公報
従来の行動識別装置は、行動を構成する成分行動を設計者が予め具体的に定義し、成分行動毎に識別器を構築する必要があった。すなわち、従来の行動識別装置では、識別対象となる行動は、行動を構成する成分として成分行動を事前に定義可能なものに制限されていた。しかし、例えば、人の日常生活における行動は、成分行動が複雑に組み合わさっていると考えられ、このような行動を構成する成分行動を予め具体的に定義することは困難である。
本発明は上記の問題を解決するためになされたものであって、行動を構成する成分を設計者が予め具体的に定義することなく、多様な行動を識別可能な行動識別装置を得ることを目的とする。
この発明における行動識別装置は、対象者の行動に対してセンサによって計測されたセンサ値を用いて、対象者の行動を識別する行動識別装置であって、センサ値を取得して所定時間内に計測されたセンサ値の分布であるセンサ値分布を求めるセンサ値取得部と、センサ値分布を構成する基本的な成分となる分布である基本分布の集合を記憶する成分データベースと、センサ値分布に含まれる基本分布のそれぞれの割合である第1の成分割合を算出する割合算出部と、識別したい行動に対応付けて決定された第2の成分割合を記憶する成分割合データベースと、第1の成分割合と第2の成分割合とを比較して行動を識別する識別部とを備え、基本分布は、複数種類の行動のそれぞれに対して予め取得されたセンサ値分布の集合に基づいて、センサ値分布のそれぞれをベクトルと捉えた場合の基底となるセンサ値の分布として求められるものである。
この発明における行動識別装置によれば、成分データベースに記憶される基本分布は、複数種類の行動のそれぞれに対して予め取得されたセンサ値分布の集合に基づいて、センサ値分布のそれぞれをベクトルと捉えた場合の基底となるセンサ値の分布として求められるので、行動を構成する成分を、設計者が予め具体的に定義する必要がない。また、設計者が具体的に定義できないような行動についても識別することが可能となる。
本発明の実施の形態1による行動識別装置の構成の一例を示す図である。 本発明の実施の形態1によるセンサによって計測されるセンサ値の一例を示す図である。 本発明の実施の形態1による行動識別装置においてセンサ値取得部の動作を説明するための図である。 本発明の実施の形態1による行動識別装置においてセンサ値分布データベースのデータ構造を説明する図である。 本発明の実施の形態1による行動識別装置において分析部で仮定される生成過程をグラフィカルモデルで表す図である。 本発明の実施の形態1による行動識別装置において評価部の動作を説明する図である。 本発明の実施の形態1による行動識別装置において成分データベースのデータ構造を説明する図である。 本発明の実施の形態1による行動識別装置において成分割合データベースのデータ構造を説明する図である。 本発明の実施の形態1による行動識別装置において識別部の動作を説明する図である。 本発明の実施の形態1による行動識別装置の生成フェーズにおける動作を示すフローチャートである。 本発明の実施の形態1による行動識別装置の識別フェーズにおける動作を示すフローチャートである。 本発明の実施の形態1による行動識別装置のハードウェア構成の一例を示す図である。 本発明の実施の形態1による行動識別装置のハードウェア構成の別の例を示す図である。 本発明の実施の形態2による行動識別装置の構成の一例を示す図である。 本発明の実施の形態2による行動識別装置においてセンサ値分布データベースのデータ構造を説明する図である。 本発明の実施の形態2による行動識別装置において基本分布生成部で求められる基本分布の例を示す図である。 本発明の実施の形態2による行動識別装置において成分統合部で求められる類似度の一例を示す図である。 本発明の実施の形態2による行動識別装置において成分統合部の動作を説明する図である。 本発明の実施の形態2による行動識別装置においてモード対応データベースのデータ構造を説明する図である。 本発明の実施の形態2による行動識別装置において成分データベースのデータ構造を説明する図である。 本発明の実施の形態2による行動識別装置において成分割合データベースのデータ構造を説明する図である。 本発明の実施の形態2による行動識別装置の生成フェーズにおける動作を示すフローチャートである。 本発明の実施の形態2による行動識別装置の識別フェーズにおける動作を示すフローチャートである。 本発明の実施の形態3による行動識別装置の構成の一例を示す図である。 本発明の実施の形態3による行動識別装置において動作識別部の構成の一例を示す図である。 本発明の実施の形態3による行動識別装置において合成ルールデータベースのデータ構造を説明する図である。 本発明の実施の形態4による空気調和機の構成の一例を示す図である。 本発明の実施の形態4による空気調和機の使用例を説明する図である。 本発明の実施の形態4による空気調和機において成分割合データベースのデータ構造を説明する図である。 本発明の実施の形態4による空気調和機において制御ルールデータベースのデータ構造を説明する図である。 本発明の実施の形態5によるロボット制御装置の構成の一例を示す図である。 本発明の実施の形態5によるロボット制御装置の使用例を説明する図である。 本発明の実施の形態5によるロボット制御装置において成分割合データベースのデータ構造を説明する図である。 本発明の実施の形態5によるロボット制御装置において制御ルールデータベースのデータ構造を説明する図である。
実施の形態1.
図1は、本発明の実施の形態1における行動識別装置1の構成の一例を示す図である。行動識別装置1は、対象者の行動を識別する。例えば、行動識別装置1は、センサ2、表示部3、入力部4とともに、装着型端末又は携帯型端末に搭載され、対象者に装着又は携帯される。ここで、「行動」とは、人の行動・動作・姿勢等を総称したものであり、例えば「静止している」「歩いている」、「走っている」等が挙げられる。
図1を用いて、行動識別装置1の全体構成について述べる。行動識別装置1は、センサ値取得部10と、割合算出部21と、識別部22と、基本分布生成部30と、センサ値分布データベース41と、成分データベース42と、成分割合データベース43とを備える。また、基本分布生成部30は、分析部31と、評価部32とを備える。さらに、行動識別装置1には、センサ2と、表示部3と、入力部4とが接続される。行動識別装置1は、センサ2によって計測されたセンサ値を用いて行動を識別し、識別結果を表示部3に表示する。
ここで、行動識別装置1の動作について述べる前に、センサ2について説明する。本実施の形態において、センサ2は3軸加速度センサであり、例えば対象者の腰に装着されて、対象者の行動に対して3軸加速度値ax、ay、azを計測する。さらに、センサ2は、式(1)によって3軸加速度値ax、ay、azのノルム|a|を算出し、センサ値として50ミリ秒毎に出力する。
Figure 0006351860
図2は、本実施の形態におけるセンサ2によって計測されるセンサ値の一例を示す図である。図2において、縦軸はセンサ値である加速度ノルム、横軸はセンサ値の取得時刻である。なお、本実施の形態1においては、センサ2として3軸加速度センサを使用し、対象者の腰に装着した場合について説明するが、これに限定されるものではなく、対象の行動に対応したセンサ値を計測できるセンサであればよい。3軸加速度センサ以外であれば、例えば、角速度センサ、位置センサ、気圧センサ、心拍センサなどを挙げることができる。
次に、行動識別装置1の動作について述べる。行動識別装置1は、生成フェーズと識別フェーズとの、2つのフェーズで動作する。図1において、点線の矢印は、生成フェーズにおける各ブロックの関連を表し、実線の矢印は、識別フェーズにおける各ブロックの関連を表す。まず、生成フェーズにおける行動識別装置1の動作について述べる。生成フェーズにおいて、センサ値取得部10は、センサ2からセンサ値を取得し、所定時間内にセンサ2によって計測されたセンサ値の分布であるセンサ値分布hを求める。ここで、dは、複数のセンサ値分布のそれぞれを識別するためのデータ番号である。
図3は、本実施の形態の行動識別装置1において、センサ値取得部10の動作を説明するための図である。図3(a)は、センサ2によって出力されるセンサ値を所定時間毎に区切った図である。図3(a)において、縦軸はセンサ値である加速度ノルム、横軸はセンサ値の取得時刻である。本実施の形態では、所定時間を5秒と定義している。センサ値取得部10は、センサ2から出力されたセンサ値である3軸加速度値のノルムを、0.04gから2.00gまで0.04g刻みで量子化し、所定時間内におけるセンサ値のヒストグラム(発生頻度分布)を求める。生成されたヒストグラムがセンサ値分布となる。すなわち、センサ値分布hのそれぞれは、量子化されたセンサ値を階級(ビン)とするヒストグラムとなる。
なお、本実施の形態では、センサ2は50ミリ秒毎にセンサ値を取得するので、所定時間である5秒の間に取得されるセンサ値は100個である。図3(b)は、取得されたセンサ値分布の一例を示す図である。図3(b)において、横軸はセンサ値、縦軸はセンサ値の発生頻度(計測頻度)である。図3(b)において、左側の図は時刻0秒から5秒の間に取得されたセンサ値分布であり、側の図は時刻5秒から10秒の間に取得されたセンサ値分布である。
次に、センサ値分布データベース41について述べる。センサ値分布データベース41は、センサ値取得部10によって生成されたセンサ値分布hの集合を記憶する。図4は、本実施の形態の行動識別装置1において、センサ値分布データベース41のデータ構造を説明する図である。図において、センサ値分布データベース41はD個のセンサ値分布を記憶している。上述の通り、それぞれのセンサ値分布には、データ番号dが付けられている。ここで、センサ値分布はヒストグラムであるので、各センサ値の発生頻度(計測頻度)の集合として表される。すなわち、h={h(1),h(2),h(3),・・・,h(V)}である。h(v)は、d番目のセンサ値分布におけるv番目の階級に対応するセンサ値の発生頻度(計測頻度)である。また、Vは、ヒストグラムの階級(ビン)の数である。0.04gから2.00gまで0.04g刻みで量子化する場合、V=50となる。
次に、基本分布生成部30について述べる。基本分布生成部30は、分析部31と、評価部32とを備える。まず、分析部31について述べる。分析部31は、センサ値分布データベース41に記憶されたセンサ値分布の集合に基づき、基本分布と成分割合とを推定する。ここで、基本分布は、センサ値分布を構成する基本的な成分となる分布である。また、成分割合は、センサ値分布に含まれる基本分布のそれぞれの割合である。
本実施の形態1では、分析部31は、潜在的ディリクレ配分法(LDA: Latent Dirichlet Allocation)を用いることで、センサ値分布を構成する基本分布φjと、センサ値分布に含まれる基本分布のそれぞれの割合である成分割合θd,jとを推定する。ここで、jは、基本分布の番号であり、1からTまでの整数である。Tは、センサ値分布を構成する基本分布の数である。また、dは、上述の通り、センサ値分布データベース41に記憶されるセンサ値分布のデータ番号であり、1からDまでの整数である。上述の通り、Dはセンサ値分布データベース41に記憶されるセンサ値分布の数である。すなわち、成分割合θd,jは、d番目のセンサ値分布に含まれるj番目の基本分布の割合を表す。なお、d番目のセンサ値分布における成分割合の集合をθdと表す。すなわち、θd={θd,1,θd,2,・・・,θd,T}である。
本実施の形態において、分析部31は、モデル化された所定の生成過程に従ってセンサ値が生成されるものと仮定して処理を行う。分析部31は、基本分布φjを、センサ値が生成される際の確率分布とみなし、計測されたセンサ値の集合が生成されるための基本分布φjを推定する。本実施の形態において、センサ値の集合が生成されるための生成過程は、Dirをディリクレ分布、Multを多項分布として、式(2)から式(5)によって仮定される。なお、基本分布φjは、各センサ値の生成頻度の集合として表される。すなわち、φj={φj(1),φj(2),φj(3),・・・,φj(V)}である。φj(v)は、j番目の基本分布におけるv番目の階級に対応するセンサ値の生成頻度である。また、Vは、ヒストグラムの階級(ビン)の数である。
Figure 0006351860
Figure 0006351860
Figure 0006351860
Figure 0006351860
式(2)において、αは、成分割合の集合θdを生成するディリクレ分布のパラメータである。また、式(3)において、βは、基本分布φjを生成するディリクレ分布のパラメータである。式(4)、式(5)において、iは、各センサ値分布に含まれるセンサ値の番号であり、1からNまでの整数である。Nはセンサ値分布を求めた所定時間内に計測されたセンサ値の個数であり、本実施の形態ではN=100である。センサ値分布のそれぞれは、N個のセンサ値の分布を表している。iは、N個のセンサ値のうちの何番目のセンサ値であるかを表す。なお、センサ値の番号iは、行動に対してセンサ値を計測した時系列の順序と異なってもよい。例えば、センサ値が小さいものから順番に付けられた番号であってもよい。
式(5)において、wd,iは、センサ値分布データベース41に記憶されるd番目のセンサ値分布hに含まれるi番目のセンサ値である。式(4)において、zd,iは、wd,iがどの基本分布によって生成されたかを示す値である。本実施の形態1では、基本分布の数T、パラメータα、βは、予め行動識別装置1の設計者によって決定される所定の推定条件とする。図5は、本実施の形態の行動識別装置1において、分析部31で仮定される生成過程をグラフィカルモデルで表す図である。図5において、矢印はどのデータに基づいてどのデータが生成されるかを表しており、T、N、Dの表記は、データが生成される回数を表している。
センサ値分布のそれぞれの形状は、分析部31によって推定されるT個の基本分布φjの混合分布の形状によって近似でき、d番目のセンサ値分布において、基本分布φjの混合割合は成分割合θd,jとなる。したがって、センサ値分布hは、理想的には下記の式(6)で表すことができる。異なる見方をすれば、センサ値分布hを各センサ値の発生頻度を要素とするベクトルと捉えた場合、T個の基本分布φjは基底ベクトルであり、成分割合θd,jを係数としたT個の基本分布φjの線形和に比例係数を乗じることによって、センサ値分布を近似できる。なお、比例係数は、センサ値分布hを構成するセンサ値の数Nである。すなわち、分析部31によって推定されるT個の基本分布φjは、センサ値分布データベース41に記憶されるセンサ値分布hを構成する成分となっており、また、分析部31によって推定される成分割合θd,jは、その構成割合(混合割合)を表している。なお、センサ値分布h及び基本分布φjをベクトルと捉えた場合、ヒストグラムの階級(ビン)の数であるVは、ベクトルの次元数となる。
Figure 0006351860
「静止している」、「歩いている」、「走っている」等の行動において、行動を構成する成分である成分行動は、身体の各部位の動作であると考えられる。しかし、予め身体の各部位の動作を成分行動として具体的に定義し、成分行動毎に識別器を構築することは困難である。これに対して、本実施の形態の行動識別装置1においては、さまざまな行動のそれぞれに対してセンサ値の分布を予め取得し、取得したセンサ値の分布の集合に対する基底を演算することで、行動を構成する成分を、設計者が定義することなく求めることが可能である。
基本分布φjと成分割合θd,jとは、LDAの生成過程に基づき、変分ベイズ、ギブスサンプリング等の繰返し処理(例えば、David M. Blei, Andrew Y. Ng, and Michael I. Jordan, “Latent Dirichlet allocation”, Journal of Machine Learning Research, vol.3, pp.993-1022, 2003、及び、Thomas L. Griffiths and Mark Steyvers, “Finding scientific topics”, in Proceedings of the National Academy of Sciences of the United States of America, vol.101, pp.5228-5235, 2004)を用いて推定できる。これらの処理の詳細については、説明を省略する。
なお、パラメータα、βは、Minkaの不動点反復法(Thomas P. Minka, “Estimating a Dirichlet distribution”, Technical report, Massachusetts Institute of Technology, vol.2000, pp.1-13, 2000.)を利用することで、自動的に推定することができる。分析部31は、以上の通り動作する。
次に、評価部32について述べる。評価部32は、分析部31によって推定された基本分布と成分割合とを評価する。評価結果が所定の評価基準を満たさなかった場合、分析部31は、所定の推定条件を変更して、再び基本分布と成分割合とを推定する。本実施の形態では、評価部32は、センサ値分布データベース41に記憶されるセンサ値分布の集合に対して、成分割合θd,jの平均を基本分布φjごとに求め、求められた平均を評価基準とする。図6は、本実施の形態の行動識別装置1において、評価部32の動作を説明する図である。図6において、横軸は基本分布の番号jであり、縦軸は成分割合である。図6(a)は、センサ値分布のそれぞれに対して、分析部31によって推定された成分割合の集合θdの例である。成分割合の集合θdは、各センサ値分布におけるそれぞれの基本分布の成分割合θd,jによって構成される。評価部32は、まず、下記の式(7)によって、成分割合θd,jの基本分布ごとの平均である平均成分割合θajを算出する。
Figure 0006351860
図6(b)は、算出された平均成分割合θajの集合であるθaの例である。平均成分割合は、センサ値分布データベース41に記憶されるセンサ値分布の集合に対して、基本分布のそれぞれが平均してどのような割合で含まれているかを表している。平均成分割合が極端に小さい基本分布は、センサ値分布データベース41に記憶されるセンサ値分布にほとんど含まれていないことになる。すなわち、予め設定した基本分布の数Tが大きすぎる可能性がある。この評価のために、評価部32は、平均成分割合θajのそれぞれの値と、所定の閾値thとの比較を行う。
平均成分割合θajのそれぞれの値が、全て閾値th以上となった場合、評価部32は、基本分布を成分データベース42に記憶し、また、成分割合を成分割合データベース43に記憶する。一方、平均成分割合θajのそれぞれの値のうち、一つでも閾値th未満となった場合、評価部32は、予め決定していた基本分布の数Tの値を1だけ減じる。分析部31は、更新された基本分布の数Tを新しい条件として、センサ値分布データベース41に記憶されたセンサ値分布の集合に基づき、基本分布と成分割合とを再び推定する。図6(b)に示す例では、平均成分割合の集合θaにおいて、4番目の基本分布の割合θa4が閾値th未満となっている。したがって、分析部31は、基本分布の数Tを1だけ減じた条件で、基本分布と成分割合とを再び推定する。
なお、評価部32における評価基準は、これに限らず、分析部31で推定された基本分布と成分割合とを用いてセンサ値分布を再現し、再現したセンサ値分布と、センサ値分布データベース41に記憶されたセンサ値分布とを比較した差異を評価基準とすることもできる。評価部32は、以上のように動作する。次に、成分データベース42について述べる。成分データベース42は、基本分布生成部30によって求められた基本分布φjを記憶する。図7は、本実施の形態の行動識別装置1において、成分データベース42のデータ構造を説明する図である。成分データベース42は、基本分布φjを基本分布の番号jと対応付けて記憶する。
次に、成分割合データベース43及び入力部4について述べる。成分割合データベース43は、センサ値分布のそれぞれに対して、基本分布生成部30によって求められた成分割合の集合θdを記憶する。さらに、成分割合データベース43は、センサ値分布のそれぞれを計測した際の対象者の行動のラベルを成分割合と対応づけて記憶する。図8は、本実施の形態の行動識別装置1において、成分割合データベース43のデータ構造を説明する図である。成分割合データベース43は、成分割合の集合θdと行動のラベルとをセンサ値分布のデータ番号dと対応付けて記憶する。また、成分割合の集合θdを構成する成分割合θd,jのそれぞれは、基本分布の番号jとも対応付けて記憶される。
図8において、成分割合データベース43は、例えば、センサ値分布データベース41の1番目に記憶されるセンサ値分布について、センサ値分布に含まれる成分割合の集合θ1と共に、行動のラベルとして「静止している」を記憶している。行動のラベルは、入力部4によって入力される。入力部4は、キーボードやタッチパネル、メモリカード読み取り装置等、外部から情報を入力できる装置で構成される。なお、本実施の形態の行動識別装置1は、生成フェーズにおいて、対象者の行動に対して求められたセンサ値分布に基づいて、基本分布φjと、成分割合の集合θdとを生成した。しかし、行動識別装置1の動作はこれに限定されるものではない。例えば、予め対象者と異なる人物の行動に対して求められたセンサ値分布に基づいて、基本分布φjと、成分割合の集合θdとを生成してもよい。生成フェーズにおいて、本実施の形態の行動識別装置1は、以上のように動作する。
次に、識別フェーズにおける行動識別装置1の動作について述べる。まず、センサ値取得部10について述べる。センサ値取得部10は、生成フェーズにおける動作と同様に、センサ2からセンサ値を取得し、センサ値分布h2を求める。ここで、センサ値分布h2はヒストグラムであるので、各センサ値の計測頻度の集合として表される。すなわち、h2={h2(1),h2(2),h2(3),・・・,h2(V)}である。h2(v)は、センサ値分布h2におけるv番目の階級に対応するセンサ値の計測頻度である。
次に、割合算出部21について述べる。割合算出部21は、成分データベース42に記憶された基本分布φjを用いて、識別フェーズで求められたセンサ値分布h2に対して、センサ値分布h2に含まれる基本分布のそれぞれの割合である成分割合θ2jを算出する。上述の通り、jは、基本分布の番号である。すなわち、成分割合θ2jは、センサ値分布h2に含まれるj番目の基本分布の割合を表す。なお、センサ値分布h2における成分割合の集合をθ2と表す。すなわち、θ2={θ21,θ22,・・・,θ2T}である。具体的には、割合算出部21は、例えばEMアルゴリズムを用いることで、センサ値分布h2に含まれる基本分布φjの成分割合の集合θ2を算出する。なお、EMアルゴリズムは、最尤法に基づいて、確率モデルのパラメータを推定する手法である。
ここで、センサ値取得部10で求められたセンサ値分布h2を構成するセンサ値をw2とする。上述の通り、iは、センサ値分布h2に含まれるセンサ値の番号であり、1からNまでの整数である。割合算出部21は、EMアルゴリズムに基づいて、下記の手順1を実行した後に、手順2と手順3とを所定の回数だけ交互に繰り返す。手順1として、割合算出部21は、センサ値分布に含まれる成分割合θ2jの初期値を定める。次に、手順2として、割合算出部21は、j番目の基本分布φjによって、センサ値分布h2に含まれるi番目のセンサ値w2が生成された確率ψi,jを下記の式(8)を用いて算出する。式(8)において、v2は、i番目のセンサ値w2がヒストグラムにおける何番目の階級になるかを表す。次に、手順3として、割合算出部21は、成分割合θ2jを、下記の式(9)を用いて算出する。手順2はM−stepと呼ばれ、手順3はE−stepと呼ばれる。割合算出部21は、以上のように動作する。
Figure 0006351860
Figure 0006351860
次に、識別部22について述べる。識別部22は、割合算出部21によって算出された成分割合の集合θ2と、成分割合データベース43に記憶されたセンサ値分布ごとの成分割合の集合θdとの類似度を算出する。次に、識別部22は、成分割合データベース43に記憶された成分割合の集合θdのうち、最も高い類似度を示した成分割合の集合に対応する行動のラベルを識別結果として得る。図9は、本実施の形態の行動識別装置1において、識別部22の動作を説明する図である。図9を用いて、識別部22の動作を具体的に述べる。図9(a)は、割合算出部21によって算出された成分割合の集合θ2の一例を示している。また、図9(b)は、成分割合データベース43に記憶された成分割合の集合θdの一例を示している。
まず、識別部22は、割合算出部21によって算出された成分割合の集合θ2と、成分割合データベース43に記憶されたセンサ値分布ごとの成分割合の集合θdとの類似度を算出する。識別部22は、Histogram Intersectionを用いて成分割合の類似度を算出する。Histogram Intersectionは、2つのヒストグラムの類似度を示す指標であり、類似度が高いほど大きな値を示し、最大値は1であり、最小値は0である。識別部22は、式(10)を用いて、D個の類似度HIを算出する。式(10)において、min(A1,A2)は、A1とA2との最小値を算出することを意味する。図9(c)は、算出された類似度HIの一例を示している。
Figure 0006351860
上述の通り、成分割合データベース43は、成分割合の集合θdと行動のラベルとをセンサ値分布のデータ番号dと対応付けて記憶している。識別部22は、成分割合データベース43に記憶されたD個の成分割合の集合θdのうち、成分割合の集合θ2との類似度HIが最大となった成分割合を見つける。さらに、識別部22は、見つけられた成分割合の集合に対応付けられた行動のラベルを識別結果として出力する。図9(c)に示した例では、成分割合データベース43に記憶された2番目の成分割合の集合θ2との類似度が0.959であり、最大であるので、識別部22は、対応する行動のラベル「歩いている」を識別する。識別部22は、行動識別装置1の外部に備える表示部3へと識別結果を出力する。表示部3は、識別結果を表示する液晶表示装置等の画像装置である。表示部3の代わりに、識別結果を記憶する記憶装置や、識別結果を送信する通信装置を備えてもよい。本実施の形態の行動識別装置1は、以上のように動作する。
さらに、本実施の形態の行動識別装置1の動作について、フローチャートを用いて説明する。行動識別装置1は、予め生成フェーズで動作した後に、識別フェーズで動作する。なお、行動識別装置1は、生成フェーズで動作した後であれば、連続して識別フェーズで動作してもよい。まず、行動識別装置1の生成フェーズにおける動作について述べる。図10は、本実施の形態の行動識別装置1の生成フェーズにおける動作を示すフローチャートである。生成フェーズにおいて、まず、センサ値取得部10が、センサ2からセンサ値を取得し、センサ値分布を求める(ステップS101)。次に、センサ値分布データベース41が、ステップS101で求められたセンサ値分布を記憶する(ステップS102)。
次に、分析部31が、センサ値分布を構成する成分となる基本分布と、センサ値分布に含まれる基本分布のそれぞれの割合である成分割合とを推定する(ステップS103)。ステップS103において、分析部31は、ステップS102で記憶されたセンサ値分布に基づいて、基本分布と成分割合とを推定する。次に、評価部32が、ステップS103で推定された基本分布と成分割合とを評価する(ステップS104)。ステップS104において、評価部32は、基本分布に対応して求められた成分割合が、所定の評価基準を満たすか否かを判定することで、基本分布と成分割合とを評価する。成分割合が評価基準を満たさなかった場合、行動識別装置1の動作はステップS105へと移行する。ステップS105では、評価部32は、ステップS103で用いる推定条件を変更する。ステップS105が終了すると、行動識別装置1の動作はステップS103に戻る。
一方、成分割合が評価基準を満たした場合、行動識別装置1の動作はステップS106へと移行する。ステップS106では、成分データベース42は、基本分布の番号と対応付けて基本分布を記憶し、成分割合データベース43は、センサ値分布のデータ番号と対応付けて成分割合を記憶する。ステップS106では、成分データベース42は、基本分布を記憶し、成分割合データベース43は、成分割合を記憶する。次に、成分割合データベース43は、センサ値分布のデータ番号と対応付けて、センサ値分布を求めた際の対象者の行動のラベルを記憶する(ステップS107)。この結果、成分割合データベース43は、成分割合と行動のラベルとを対応付けて記憶することになる。ただし、行動識別装置1は、ステップS107の動作をステップS102以降のいずれの段階で実行してもよい。ステップS107の動作が終了すると、生成フェーズにおける行動識別装置1の動作は終了する。
次に、行動識別装置1の識別フェーズにおける動作について述べる。図11は、本実施の形態の行動識別装置1の識別フェーズにおける動作を示すフローチャートである。識別フェーズにおいて、まず、センサ値取得部10が、センサ2からセンサ値を取得し、センサ値分布を求める(ステップS201)。次に、割合算出部21は、成分データベース42に記憶された基本分布を用いて、ステップS201で求められたセンサ値分布における成分割合を算出する(ステップS202)。ステップS202で算出される成分割合は、センサ値分布に含まれる基本分布のそれぞれの割合である。
次に、識別部22は、ステップS202で算出された成分割合の集合と、生成フェーズのステップS106で記憶された成分割合の集合のそれぞれとの類似度を算出する(ステップS203)。次に、識別部22は、生成フェーズのステップS106で記憶された成分割合の集合のうち、類似度が最大となる成分割合の集合を選択する(ステップS204)。次に、識別部22は、ステップS204で選択された成分割合の集合に対応する行動のラベルを識別結果として出力する(ステップS205)。ステップS205の動作が終了すると、識別フェーズにおける行動識別装置1の動作は終了する。行動識別装置1は、以上のように動作する。
次に、本実施の形態の行動識別装置1を実現するハードウェア構成について述べる。行動識別装置1におけるセンサ値取得部10、割合算出部21、識別部22、基本分布生成部30の各機能は、処理回路により実現される。処理回路は、専用のハードウェアであっても、メモリに格納されるプログラムを実行するCPU(Central Processing Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSPともいう)であってもよい。また、センサ値分布データベース41、成分データベース42、成分割合データベース43の各機能は、メモリにより実現される。
処理回路が専用のハードウェアである場合、処理回路は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、またはこれらを組み合わせたものが該当する。センサ値取得部10、割合算出部21、識別部22、基本分布生成部30の各部の機能それぞれを処理回路で実現してもよいし、各部の機能をまとめて処理回路で実現してもよい。
処理回路がCPUの場合、センサ値取得部10、割合算出部21、識別部22、基本分布生成部30の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアやファームウェアはプログラムとして記述され、メモリに格納される。処理回路は、メモリに記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。これらのプログラムは、センサ値取得部10、割合算出部21、識別部22、基本分布生成部30の動作の手順や方法をコンピュータに実行させるものであるともいえる。ここで、メモリとは、例えば、RAM、ROM、フラッシュメモリー、EPROM、EEPROM等の、不揮発性または揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等が該当する。
なお、センサ値取得部10、割合算出部21、識別部22、基本分布生成部30の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、センサ値取得部10については専用のハードウェアとしての処理回路でその機能を実現し、 割合算出部21、識別部22及び基本分布生成部30については処理回路がメモリに格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
図12は、本実施の形態の行動識別装置1のハードウェア構成の一例を示す図である。図12は、処理回路1001が専用のハードウェアである場合の例を示している。図12の例では、センサ値取得部10、割合算出部21、識別部22、基本分布生成部30の各機能は、処理回路1001で実現される。また、センサ値分布データベース41、成分データベース42、成分割合データベース43の各機能は、メモリ1002により実現される。処理回路1001は、メモリ1002と、データバス1003を介して接続される。
また、図13は、本実施の形態の行動識別装置1のハードウェア構成の別の例を示す図である。図13は、処理回路がCPUである場合のハードウェア構成の例を示している。図13の例では、センサ値取得部10、割合算出部21、識別部22、基本分布生成部30の各機能は、メモリ1005に格納されるプログラムをプロセッサ1004が実行することで実現される。また、センサ値分布データベース41、成分データベース42、成分割合データベース43の各機能は、メモリ1002により実現される。プロセッサ1004は、メモリ1002及びメモリ1005と、データバス1003を介して接続される。なお、以降の実施の形態における行動識別装置においても、本実施の形態の行動識別装置1と同様のハードウェア構成で実現することができる。
以上のように、本実施の形態の行動識別装置1によれば、例えば「静止している」、「歩いている」、「走っている」等の行動に対して取得したセンサ値分布に基づいて、センサ値分布を構成する基本分布を求めることができる。したがって、行動を構成する成分を設計者が定義することなく、行動について、行動を構成する成分の組合せとして、より柔軟に識別することが可能となる。
また、本実施の形態の行動識別装置1によれば、設計者が具体的に定義できない行動についても、その行動を構成する成分の組合せとして、より柔軟に識別することが可能となる。例えば、「なんとなく慌てていそうな行動」等、設計者が漠然としか定義できない行動は、行動を構成する成分を設計者が定義することは困難である。漠然としか定義できない行動は、概念的にしか定義できない行動と言い換えることもできる。しかし、本実施の形態1における行動識別装置によれば、成分割合データベース43に記憶される行動のラベルが、前述の漠然としか定義できない行動に紐付けられていれば、そのような行動も識別することが可能となる。
なお、本実施の形態において、「行動」とは、対象者の行動・動作・姿勢等を総称したものとしたが、必ずしもこれに限定されるものではない。本発明は、人以外の対象の動作(例えば、動物の動作または制御内容が不明な機械の動作)に対しても適用することができる。人以外の対象の動作に対しては、行動識別装置の設計者にとって、行動を構成する成分の定義が困難な場合が多いと考えられ、本発明の適用が効果的となる。
実施の形態2.
対象者の日々の生活における行動には、いくつかのモードがある。モードとは、対象者の行動に影響を与える場面や生理的状態等を総称したものである。モードとは、対象者の行動に影響を与える条件と言うこともできる。したがって、モードは対象者の行動を識別する上での手掛かりとなる。例えば「家にいる」、「工場にいる」、「公園にいる」、「体調良好」、「体調不良」等がモードとして挙げられる。対象者の行動のモードが異なるとき、センサ値分布を構成する基本分布の集合が異なると考えられる。例えば、「家にいる」モードと「工場にいる」モードとでは、同じ「歩く」行動であっても、センサ値分布を構成する基本分布の集合が異なると考えられる。
図14は、本発明の実施の形態2における行動識別装置1bの構成の一例を示す図である。本実施の形態の行動識別装置1bは、上記の対象者のモードを検知することで、モードのそれぞれに対して適切な基本分布の集合を求める点で、実施の形態1における行動識別装置1と異なる。この結果、本実施の形態の行動識別装置1bは、より精度の高い行動識別を実現することができる。以下、実施の形態1における行動識別装置1との差異を中心に説明する。
なお、図1と同様に、図14において、点線の矢印は、生成フェーズにおける各ブロックの関連を表し、実線の矢印は、識別フェーズにおける各ブロックの関連を表す。本実施の形態の行動識別装置1bは、実施の形態1の行動識別装置1と比較して、モード対応データベース44、成分統合部61、成分選択部62、割合選択部63を新たに備える。また、本実施の形態の行動識別装置1bは、実施の形態1の行動識別装置1と比較して、基本分布生成部30bの動作の一部が異なる。また、本実施の形態の行動識別装置1bは、実施の形態1の行動識別装置1と比較して、センサ値分布データベース41b、成分割合データベース43bのデータ構造が異なる。また、行動識別装置1bには、モード検知部5が接続される。
まず、モード検知部5について述べる。本実施の形態においては、モード検知部5は、対象者のモードを検知する。モード検知部5は、モードとして「家にいる」、「工場にいる」など、対象者がいる場所を検知する。モード検知部5は、例えばGPS(Global Positioning System)に代表される地球上の絶対位置を検知できる装置、発信機の電波を複数の受信機で受信し、電波の到達時間や電界強度等を利用して位置を検知する位置測位システム、もしくは発信機により発信される電波を受信して発信機からの距離を推定する測距システム等で構成される。他の例としては、モード検知部5は、心拍、体温、脳波、血中酸素飽和度等の生理的な情報を取得し、対象者のモードとして、「体調良好」「体調不良」を検知してもよい。さらに別の例としては、モード検知部5は、センサ2によって計測された鉛直方向の加速度値を入力として、「寝転んでいる」、「立っている」といった対象者の姿勢をモードとして検知してもよい。
次に、本実施の形態の行動識別装置1bについて述べる。まず、センサ値分布データベース41bについて述べる。センサ値分布データベース41bは、モード検知部5によって検知された対象者のモード毎に、生成フェーズにおいてセンサ値取得部10によって求められたセンサ値分布の集合を記憶する。図15は、本実施の形態の行動識別装置1bにおいて、センサ値分布データベース41bのデータ構造を説明する図である。本実施の形態の行動識別装置1bにおいて、モードAは「家にいる」モードを表し、モードBは「工場にいる」モードを表す。図15の例では、センサ値分布データベース41bは、モードに対してDa個のセンサ値分布hの集合を記憶し、モードに対してDb個のセンサ値分布hの集合を記憶している。
次に、基本分布生成部30bについて述べる。基本分布生成部30bは、モード毎に記憶されたセンサ値分布の集合に基づき、基本分布と成分割合とをモード毎に求める。基本分布と成分割合とをモード毎に求める以外は、基本分布生成部30bは、実施の形態1の行動識別装置1におけるものと同様に動作する。次に、成分統合部61について述べる。成分統合部61は、異なるモードにおいて求められた基本分布について、各モードから1つずつ基本分布を順次選択して組合せを生成する。さらに、成分統合部61は、全ての組合せについて、組み合わせた基本分布を比較して、所定の比較条件を満たした基本分布を同一であるとみなして統合する。以下では、図面を用いて、成分統合部61の動作をより具体的に説明する。
図16は、本実施の形態の行動識別装置1bにおいて、基本分布生成部30bで求められる基本分布の例を示す図である。基本分布生成部30bは、モードAにおいて5つの基本分布φa1、φa2、φa3、φa4、φa5を求め、モードBにおいて5つの基本分布φb1、φb2、φb3、φb4、φb5を求める。なお、図16の例では、モードAにおいて求められた基本分布の数と、モードBにおいて求められた基本分布の数とは同じとなっているが、必ずしも同じである必要はない。成分統合部61は、モードAにおいて求められた基本分布のうちの1つと、モードBにおいて求められた基本分布のうちの1つとを順次組み合わせる。さらに、成分統合部61は、全ての組合せについて、組み合わせた基本分布を比較する。成分統合部61は、Histogram Intersectionによる類似度を指標として、基本分布を比較する。
図17は、本実施の形態の行動識別装置1bにおいて、成分統合部61で求められる類似度の一例を示す図である。図17は、図16に示した基本分布に対して、成分統合部61で求められる類似度を示している。さらに、成分統合部61は、算出された類似度が0.7を超えた場合に、組み合わせた基本分布が同一であるとみなして統合する。図18は、本実施の形態の行動識別装置1bにおいて、成分統合部61の動作を説明する図である。図17では、類似度が0.7を超えている基本分布の対はφa1とφb2、φa2とφb3、φa4とφb4であるため、成分統合部61はこれらを統合し、新たな基本分布φc1、φc2、φc3を得る。
成分統合部61は、同一の階級における頻度を平均することによって基本分布を統合する。基本分布をベクトルとみなすと、成分統合部61はベクトルの各要素を平均化することで、基本分布を統合する。成分統合部61が組み合わせた基本分布をφp、φqとすると、統合された基本分布φrは下記の式(11)で表される。ここで、φp(v)は、基本分布φpにおけるv番目の階級に対応するセンサ値の頻度である。また、φq(v)は、基本分布φqにおけるv番目の階級に対応するセンサ値の頻度である。また、φr(v)は、基本分布φrにおけるv番目の階級に対応するセンサ値の頻度である。
Figure 0006351860
次に、モード対応データベース44について述べる。モード対応データベース44は、モード毎に対応する基本分布がいずれであるかを記憶する。図19は、本実施の形態の行動識別装置1bにおいて、モード対応データベース44のデータ構造を説明する図である。モード対応データベース44は、モード毎に使用する基本分布の番号jと、成分データベース42に記憶される基本分布の中で、基本分布の番号jに対応する基本分布を特定するための情報とをモード毎に記憶している。モード対応データベース44は、基本分布を特定するための情報として、例えば分布名称を使用する。成分データベース42は、成分統合部61によって統合されなかった基本分布と、統合により求められた基本分布とを記憶する。図20は、本実施の形態の行動識別装置1bにおいて、成分データベース42のデータ構造を説明する図である。成分データベース42は、分布名称と対応付けて基本分布を記憶する。
次に、成分割合データベース43bについて述べる。成分割合データベース43bは、基本分布生成部30bによってモード毎に求められた成分割合の集合θdを記憶する。さらに、成分割合データベース43bは、センサ値分布データベース41bに記憶されるセンサ値分布を求めた際の対象者の行動のラベルを、成分割合の集合と対応づけて記憶する。図21は、本実施の形態の行動識別装置1bにおいて、成分割合データベース43bのデータ構造を説明する図である。成分割合データベース43bは、成分割合の集合θdと行動のラベルとをセンサ値分布のデータ番号dと対応付けて、モード毎に記憶する。また、成分割合の集合θdを構成する成分割合θd,jのそれぞれは、基本分布の番号jとも対応付けて記憶される。
次に、成分選択部62および割合選択部63について述べる。成分選択部62は、モード対応データベース44を参照して、モード検知部5によって検知された対象者のモードに対応する基本分布を成分データベース42から選択し、割合算出部21へと出力する。例えば、モード検知部5によって対象者のモードBが検知された場合、選択部62はモード対応データベース44を参照して、基本分布φb1、φc1、φc2、φc3、φb5を成分データベース42から選択し、割合算出部21へと出力する。また、割合選択部63は、対象者のモードに対応する成分割合を成分割合データベース43bから選択し、識別部22へと出力する。
さらに、本実施の形態の行動識別装置1bの動作について、フローチャートを用いて説明する。行動識別装置1bは、予め生成フェーズで動作した後に、識別フェーズで動作する。まず、行動識別装置1bの生成フェーズにおける動作について述べる。図22は、本実施の形態の行動識別装置1bの生成フェーズにおける動作を示すフローチャートである。生成フェーズにおいて、行動識別装置1bは、モード検知部5で検知されたモード毎に、ステップS301からステップS305までの処理を行う。まず、センサ値取得部10が、センサ2からセンサ値を取得し、センサ値分布を求める(ステップS301)。次に、センサ値分布データベース41bが、ステップS301で求められたセンサ値分布をモード毎に記憶する(ステップS302)。
次に、基本分布生成部30bが、基本分布と成分割合とを推定する(ステップS303)。次に、基本分布生成部30bが、ステップS303で推定された基本分布と成分割合とを評価する(ステップS304)。ステップS304において、基本分布生成部30bは、成分割合が所定の評価基準を満たすか否かを判定することで、基本分布と成分割合とを評価する。成分割合が評価基準を満たさなかった場合、行動識別装置1bの動作はステップS305へと移行する。ステップS305では、基本分布生成部30bは、ステップS303で用いる推定条件を変更する。ステップS305が終了すると、行動識別装置1bの動作はステップS303に戻る。行動識別装置1bは、ステップS301からステップS305までの処理をモード毎に行う。
一方、成分割合が評価基準を満たした場合、行動識別装置1bの動作はステップS306へと移行する。ステップS306では、成分統合部61は、異なるモードで求められた基本分布を比較し、類似する基本分布を同一であるとみなして統合する。次に、ステップS307において、成分データベース42が、基本分布の番号と対応付けて基本分布を記憶し、モード対応データベース44が、各モードで使用される基本分布の情報を記憶する。この結果、成分データベース42が、モード毎に基本分布を記憶するのと同等となるとともに、必要な記憶容量の削減も可能となる。また、ステップS307において、成分割合データベース43bが、成分割合をセンサ値分布のデータ番号と対応付けて、モード毎に記憶する。次に、ステップS308において、成分割合データベース43bは、センサ値分布のデータ番号と対応付けて、センサ値分布を求めた際の対象者の行動のラベルを記憶する。ステップS308の動作が終了すると、生成フェーズにおける行動識別装置1の動作は終了する。
次に、行動識別装置1bの識別フェーズにおける動作について述べる。図23は、本実施の形態の行動識別装置1bの識別フェーズにおける動作を示すフローチャートである。識別フェーズにおいて、まず、センサ値取得部10が、センサ2からセンサ値を取得し、センサ値分布を求める(ステップS401)。次に、成分選択部62及び割合選択部63は、モード検知部5で検知されたモードに対応する基本分布及び成分割合を選択する(ステップS402)。次に、割合算出部21は、ステップS402で選択された基本分布を用いて、ステップS401で求められたセンサ値分布における成分割合を算出する(ステップS403)。
次に、識別部22は、ステップS403で算出された成分割合の集合と、生成フェーズのステップS307で記憶された成分割合の集合のそれぞれとの類似度を算出する(ステップS404)。次に、識別部22は、生成フェーズのステップS307で記憶された成分割合の集合のうち、類似度が最大となる成分割合の集合を選択する(ステップS405)。次に、識別部22は、ステップS405で選択された成分割合に対応する行動のラベルを識別結果として出力する(ステップS406)。ステップS406が終了すると、識別フェーズにおける行動識別装置1bの動作は終了する。行動識別装置1bは、以上のように動作する。
本実施の形態の行動識別装置1bにおいては、対象者の行動に影響を与える「家にいる」「工場にいる」等のモードを検知し、モードのそれぞれに対して適切な基本分布の集合を選択して用いる。したがって、本実施の形態の行動識別装置1bにおいては、より精度の高い行動識別を実現することができる。また、対象者の行動のモードが異なる場合には、行動識別装置が識別すべき行動が異なる場合が多い。例えば、「家にいる」モードでは、対象者は「寝転ぶ」「テレビを見ている」などの行動をする可能性がある。一方、「工場にいる」モードでは、対象者が上記の行動をする可能性は低い。
本実施の形態の行動識別装置1bは、対象者のモード毎に、適切な行動のラベルのみを識別の候補とするので、より精度の高い行動識別を実現することができる。さらに、本実施の形態の行動識別装置1bは、異なるモードに対して求められた基本分布を比較し、類似する基本分布を統合するので、メモリを過剰に利用することを防ぐこともできる。また、本実施の形態の行動識別装置1bは、実施の形態1における行動識別装置1と同様の効果も有する。
実施の形態3.
実施の形態1における行動識別装置1は、1つのセンサで計測されたセンサ値を用いて、対象者の行動を識別する。センサとしては、例えば、対象者の腰に装着された3軸加速度センサが考えられる。この場合、センサは、対象者の体幹の動作に関わるセンサ値を計測することができる。行動識別装置1は、計測されたセンサ値を用いて、対象者の行動(例えば「静止している」、「歩いている」、「走っている」等)を識別する。しかしながら、例えば「階段を上っている」行動と「はしごを上っている」行動とでは、腰に装着した3軸加速度センサによって計測されるセンサ値には大きな違いが表れず、行動識別装置1における行動の識別精度が劣化する可能性が考えられる。
本実施の形態における行動識別装置は、例えば、対象者の腰に装着されたセンサに加えて、対象者の手首に装着されたセンサを用いて計測されたセンサ値に基づき、より精度の高い行動識別を実現するものである。すなわち、本実施の形態における行動識別装置は、複数のセンサで計測されるセンサ値を使用するものである。以下、実施の形態1における行動識別装置1との差異を中心に説明する。図24は、本発明の実施の形態3における行動識別装置1cの構成の一例を示す図である。本実施の形態の行動識別装置1cは、動作識別部100aおよび100bと、識別結果合成部70と、合成ルールデータベース45とを備える。なお、図1と同様に、図24において、点線の矢印は、生成フェーズにおける各ブロックの関連を表し、実線の矢印は、識別フェーズにおける各ブロックの関連を表す。
図25は、本実施の形態の行動識別装置1cにおいて、動作識別部100aおよび100bの構成の一例を示す図である。動作識別部100aおよび100bは、図1に示す実施の形態1における行動識別装置1とそれぞれ同様の構成となる。図1と同様に、図25において、点線の矢印は、生成フェーズにおける各ブロックの関連を表し、実線の矢印は、識別フェーズにおける各ブロックの関連を表す。なお、動作識別部100aおよび100bは、図14に示す実施の形態2における行動識別装置1bと同様の構成とすることもできる。
図24に示す通り、動作識別部100aは、センサ2aに接続され、動作識別部100bは、センサ2bに接続される。行動識別装置1cは、センサ2aおよびセンサ2bによって計測されたセンサ値を用いて、対象者の行動を識別する。センサ2aは、対象者の腰に装着されており、センサ2bは、対象者の手首に装着されている。また、センサ2a、センサ2bは、いずれも3軸加速度センサであり、3軸加速度値のノルムであるセンサ値を50ミリ秒毎に出力する。センサ2aは、対象者の体幹の行動に関する識別結果(例えば「上っている」、「下りている」等)に関わるセンサ値を計測できる。センサ2bは、対象者の手の行動(例えば「手を上げている」、「手を下している」、「手を振っている」等)に関わるセンサ値を計測できる。
動作識別部100aは、生成フェーズにおいて、センサ2aによって計測されたセンサ値に対して、実施の形態1における行動識別装置1と同様の処理を実行する。この結果、動作識別部100aには、対象者の体幹の動作に対する基本分布が記憶される。次に、動作識別部100aは、識別フェーズにおいて、センサ2aによって計測されたセンサ値に対して、実施の形態1における行動識別装置1と同様の処理を実行する。この結果、動作識別部100aは、対象者の体幹の動作に関する識別結果を出力する。
一方、動作識別部100bは、生成フェーズにおいて、センサ2bによって計測されたセンサ値に対して、実施の形態1における行動識別装置1と同様の処理を実行する。この結果、動作識別部100bには、対象者の手の動作に対する基本分布が記憶される。次に、動作識別部100bは、識別フェーズにおいて、センサ2bによって計測されたセンサ値に対して、実施の形態1における行動識別装置1と同様の処理を実行する。この結果、動作識別部100bは、対象者の手の動作に関する識別結果を出力する。
識別フェーズにおいて、識別結果合成部70は、動作識別部100aから出力された体幹の動作に関する識別結果と、動作識別部100bから出力された手の動作に関する識別結果とを合成して、対象者の行動を識別し、識別結果を出力する。また、合成ルールデータベース45は、体幹の動作に関する識別結果と、手の動作に関する識別結果とを合成するためのルールを記憶している。図26は、本実施の形態の行動識別装置1cにおいて、合成ルールデータベース45のデータ構造を説明する図である。図26に示すように、合成ルールデータベース45に記憶されるデータは、行列形式で表現されている。識別結果合成部70は、合成ルールデータベース45を参照して、体幹の動作に関する識別結果と、手の動作に関する識別結果との組合せによって、対象者の全身の行動を識別する。
本実施の形態の行動識別装置1cは、以上のように動作する。本実施の形態の行動識別装置1cによれば、対象者の体幹の動作に関する識別結果と、対象者の手の動作に関する識別結果とを合成することで、対象者の全身の行動をより高い精度で識別することが可能となる。
実施の形態4.
本発明の実施の形態4は、加速度センサ、角速度センサ、心拍センサ等のセンサを用いて、人の行動に対応する生体指標を識別し、室内機または室外機の動作を制御することで、より快適性の高い制御を実現する空気調和機に関するものである。ここで、生体指標としては、運動強度指標、ストレス指標などがある。図27は、本発明の実施の形態4における空気調和機200の構成の一例を示す図である。図27に示すように、空気調和機200は、行動識別装置1dと、室内機7と、室外機8と、制御ルールデータベース46aと、制御情報出力部80とを備える。また、空気調和機200には、センサ2と、入力部4とが接続される。
なお、行動識別装置1dは、図1に示す実施の形態1における行動識別装置1とほぼ同一であり、成分割合データベース43cのデータ構造のみが異なる。実施の形態1における行動識別装置1においては、成分割合データベース43は、センサ値分布のそれぞれを計測した際の対象者の行動のラベルを成分割合と対応づけて記憶する。一方、本実施の形態における行動識別装置1dにおいては、成分割合データベース43cは、センサ値分布のそれぞれを計測した際の対象者の生体指標を成分割合と対応づけて記憶する。詳細については後述する。
図28は、本実施の形態における空気調和機200の使用例を説明する図である。センサ2は、対象者に装着され、計測したセンサ値を無線で行動識別装置1dへと伝送する。行動識別装置1dは、室内機7に内蔵または搭載される。なお、制御ルールデータベース46aおよび制御情報出力部80は、図28に図示されていないが、制御ルールデータベース46aおよび制御情報出力部80の搭載場所は、適宜選択することができる。例えば、制御ルールデータベース46aおよび制御情報出力部80は、行動識別装置1dに内蔵されてもよいし、室内機7に内蔵されてもよい。
センサ2は、3軸加速度センサである。図28に示すように、センサ2は、対象者400の腰に装着され、対象者400の行動に対して3軸加速度値ax、ay、azを計測する。さらに、センサ2は、上記の式(1)によって3軸加速度値ax、ay、azのノルム|a|を算出し、50ミリ秒毎に出力する。なお、本実施の形態においては、センサ2として3軸加速度センサを対象者400の腰に装着した場合について説明するが、これに限定されるものではない。センサ2は、対象の行動に対して発生する何らかの変化量をセンサ値として計測できるセンサであればよい。3軸加速度センサ以外であれば、センサ2としては、例えば、角速度センサ、位置センサ、気圧センサ、心拍センサ等を挙げることができる。
次に、実施の形態1における行動識別装置1との差異を中心に、本実施の形態における行動識別装置1dについて説明する。上述の通り、本実施の形態の行動識別装置1dにおいて、成分割合データベース43cは、生成フェーズにおいてセンサ値分布を求めた際の対象者400の行動に対応する生体指標を記憶する。図29は、本実施の形態の空気調和機200において、成分割合データベース43cのデータ構造を説明する図である。成分割合データベース43cは、成分割合の集合θdと生体指標とをセンサ値分布のデータ番号dと対応付けて記憶する。本実施の形態の空気調和機200において、成分割合データベース43cは、行動のラベルとして生体指標を使用している。
図29に示す例では、成分割合データベース43cは生体指標として、運動強度指標であるMETs(Metabolic equivalents)の値を記憶している。METsは安静時(横になったり座って楽にしている状態)を基準の1.0METsとして、何倍の代謝(エネルギー消費)であるかによって、運動強度を示したものである。例えば、散歩しているときの運動強度は約2.5METsであるが、これは安静時の2.5倍の代謝(エネルギー消費)をしていることを示す。このほか、毎時8.0キロメートルでランニングしているときの運動強度は約8.0METs、ラジオ体操第1の運動強度は4.0METs等、様々な行動に対するMETsの値が知られている。識別部22は、割合算出部21によって算出された成分割合の集合と、成分割合データベース43cに記憶されたそれぞれの成分割合の集合との類似度を算出する。また、識別部22は、成分割合データベース43cに記憶された成分割合の集合のうち、最も高い類似度を示した成分割合の集合に対応する生体指標を識別結果として出力する。以上が、実施の形態1における行動識別装置1と、本実施の形態における行動識別装置1dとの差異である。
次に、制御ルールデータベース46aについて述べる。制御ルールデータベース46aは、行動識別装置1dから出力される生体指標に対応して、室内機7または室外機8を制御するためのルールを記憶する。図30は、本実施の形態の空気調和機200において、制御ルールデータベース46aのデータ構造を説明する図である。ここで、運動強度1.0METs未満の行動とは、例えば、安静時の横になって寝ている等の状態に相当する。この場合、対象者400は寝ている可能性が高い。このため、制御ルールデータベース46aは、運動強度1.0METs未満に対応する制御ルールとして「風を直接当てない」を記憶する。また、運動強度8.0METs以上の行動とは、例えば、毎時8.0キロメートルでのランニング等の激しい運動に相当する。この場合、対象者400は激しい運動をしている可能性が高い。このため、制御ルールデータベース46aは、運動強度8.0METs以上に対応する制御ルールとして「風を直接当てる」を記憶する。また、制御ルールデータベース46aは、運動強度1.0METs以上8.0METs未満に対応する制御ルールとして「通常と同様」を記憶する。
次に、制御情報出力部80について述べる。制御情報出力部80は、識別部22から出力された生体指標を入力として、制御ルールデータベース46aを参照して、制御ルールを決定し、制御情報として室内機7または室外機8に出力する。例えば、図30に示す制御ルールの例では、識別部22によって運動強度3.0METsと識別された場合、制御情報出力部80は、制御ルールデータベース46aを参照して、制御ルール「通常と同様」を出力する。また、識別部22によって運動強度9.0METsと識別された場合、制御情報出力部80は、制御ルールデータベース46aを参照して、制御ルール「風を直接当てる」を出力する。室内機7または室外機8は、制御情報出力部80から出力された制御情報に従って動作する。本実施の形態の空気調和機200は、以上のように動作する。
本実施の形態の空気調和機200は、人の行動を識別し、識別した行動に対応する生体指標を出力する。したがって、例えば、激しい運動をしている人に対して風が直接当たるよう送風したり、寝ている人に対して風を直接当てないようにしたりする等、より快適性の高い空気調和機制御システムが実現できる。
なお、本実施の形態においては、一例として3軸加速度センサを腰に装着し、生体指標として運動強度指標であるMETsを用いる場合について説明したが、本発明はこれに限定されるものではない。例えば、心拍/脈拍センサを胸部あるいは手首に装着したり、生体指標としてストレス指標であるLF/HFを用いたりすることによって、より快適性の高い空気調和機を実現することもできる。LF/HFとは、心拍変動におけるLow Frequency(LF)成分とHigh Frequency(HF)成分による自律神経機能のバランスを計測するストレス指標である。LF/HFは、人がリラックス状態にあるとき小さくなり、人がストレス状態にあるとき大きくなる。このため、例えば、LF/HFが大きいとき、空気調和機はゆらぎを加えた送風を行ったり、リラックス効果のある芳香剤を放ったりすることで、より快適性の高い制御を実現できる。
実施の形態5.
本発明の実施の形態5は、加速度センサ、角速度センサ、心拍センサ等のセンサを用いて、工場内のロボット周辺で作業する作業者の行動を識別し、識別結果に基づいてロボットの動作を制御するロボット制御装置に関するものである。本実施の形態のロボット制御装置は、対象者の行動として予め規定された安全行動と、予め規定された危険行動と、予め規定されない逸脱行動とを識別してロボットの動作を制御する。したがって、本実施の形態のロボット制御装置によれば、作業者の安全性がより高く、かつ、ロボットの不要な停止を回避できるロボットシステムを構築できる。
図31は、本発明の実施の形態5におけるロボット制御装置300の構成の一例を示す図である。図31に示すように、ロボット制御装置300は、行動識別装置1eと、制御ルールデータベース46bと、制御情報出力部80とを備える。また、ロボット制御装置300には、センサ2と、入力部4と、ロボット9と、確認装置90とが接続される。ロボット制御装置300と、センサ2と、入力部4と、ロボット9と、確認装置90とによって、ロボットシステムが構成される。なお、行動識別装置1eは、図1に示す実施の形態1における行動識別装置1とほぼ同一であり、確認装置90が成分割合データベース43dのデータを更新可能となっている点のみが異なる。詳細については後述する。
図32は、本実施の形態におけるロボット制御装置300の使用例を説明する図である。センサ2は、作業者401に装着され、計測したセンサ値を無線で行動識別装置1eへと伝送する。行動識別装置1eは、ロボット9に内蔵または搭載される。また、カメラ91と、表示装置92とによって、確認装置90が構成される。カメラ91は、ロボット9の周辺を撮影する。表示装置92は、液晶表示装置等を備え、カメラ91によって撮影された映像をリアルタイムで表示する。第三者402は、表示装置92を用いて、ロボット9と作業者401とを確認できる。また、表示装置92は、第三者402の操作によって、成分割合データベース43dのデータを更新する機能も備える。なお、制御ルールデータベース46bおよび制御情報出力部80は、図32に図示されていないが、制御ルールデータベース46bおよび制御情報出力部80の搭載場所は、適宜選択することができる。
本実施の形態において、センサ2は3軸加速度センサである。図32に示すように、センサ2は、作業者401の腰に装着され、作業者401の行動に対して3軸加速度値ax、ay、azを計測する。さらに、センサ2は、上記の式(1)によって3軸加速度値ax、ay、azのノルム|a|を算出し、50ミリ秒毎に出力する。なお、本実施の形態においては、センサ2として3軸加速度センサを作業者401の腰に装着した場合について説明するが、これに限定されるものではない。センサ2は、対象の行動に対して発生する何らかの変化量をセンサ値として計測できるセンサであればよい。3軸加速度センサ以外であれば、センサ2としては、例えば、角速度センサ、位置センサ、気圧センサ、心拍センサ等を挙げることができる。
次に、実施の形態1における行動識別装置1との差異を中心に、本実施の形態における行動識別装置1eについて説明する。センサ値分布データベース41は、作業者401が安全行動を行った場合に計測されるセンサ値分布と、作業者401が危険行動を行った場合に計測されるセンサ値分布とを記憶する。ここで、安全行動とは、ロボット9の周辺において、作業者401が通常の工程作業として実施する行動を指す。また、危険行動とは、ロボット9の周辺において作業者401が実施した場合に、作業者401に対して明らかに危険が生じると予め確認された行動を指す。成分割合データベース43dは、センサ値分布を計測した際の作業者401の行動のラベルとして「安全行動」あるいは「危険行動」を記憶する。図33は、本実施の形態のロボット制御装置300において、成分割合データベース43dのデータ構造を説明する図である。
識別部22は、割合算出部21によって算出された成分割合の集合と、成分割合データベース43dに記憶されたそれぞれの成分割合の集合との類似度を算出する。また、識別部22は、成分割合データベース43dに記憶された成分割合の集合のうち、最も高い類似度を示した成分割合の集合に対応する行動のラベルを識別結果として出力する。ただし、算出された最も高い類似度が予め定義された閾値未満だった場合には、識別部22は、識別結果として「逸脱行動」を出力する。したがって、識別部22は、識別結果として「安全行動」、「危険行動」、「逸脱行動」のいずれかを出力する。行動識別装置1eは、以上のように動作する。
次に、制御ルールデータベース46bについて述べる。制御ルールデータベース46bは、行動識別装置1eから出力される識別結果に対応して、ロボット9を制御するためのルールを記憶する。図34は、本実施の形態のロボット制御装置において、制御ルールデータベース46bのデータ構造を説明する図である。上述の通り、安全行動は、ロボット9の周辺において作業者401が通常の工程作業として実施する行動である。したがって、識別結果が「安全行動」の場合には、ロボット9の動作によって作業者401に危険が及ぶ可能性は低い。このため、制御ルールデータベース46bは、「安全行動」に対応する制御ルールとして「通常動作」を記憶する。
一方、危険行動は、ロボット9の周辺において作業者401が実施した場合に、作業者401に対して明らかに危険が生じると予め確認された行動である。このため、制御ルールデータベース46bは、「危険行動」に対応する制御ルールとして「緊急停止」を記憶する。また、識別結果が「逸脱行動」の場合には、安全行動または危険行動として予め分類されていない行動が行われた可能性が高い。この場合の作業者401の行動は、通常の工程作業として実施される行動とは異なり、作業者401に対して明らかに危険が生じると予め確認された行動でもない。このため、制御ルールデータベース46bは、「逸脱行動に」対応する制御ルールとして「動作速度低下」および「確認を要請」を記憶する。
次に、制御情報出力部80について述べる。制御情報出力部80は、識別部22によって識別された行動のラベルを入力として、制御ルールデータベース46bを参照して、制御ルールを制御情報としてロボット9へと出力する。例えば、識別部22によって「逸脱行動」が識別された場合、制御情報出力部80は、制御ルール「運転速度低下」および「確認を要請」を出力する。ロボット9は、入力された制御情報に従って動作する。ロボット9は、制御情報として「確認を要請」が入力されると、無線あるいは有線による通信手段によって、作業者401およびロボット9の状況確認を要請する信号を確認装置90に出力する。
次に、確認装置90について述べる。確認装置90は、カメラ91と、表示装置92とを備える。確認装置90は、ロボット9より状況確認を要請する信号が入力されると、カメラ91によってロボット9の周辺の映像を撮影し、表示装置92にリアルタイムで表示する。これにより、ロボット9の周辺における作業者401の逸脱行動を第三者402が確認することができ、必要に応じて第三者402が対処できる。作業者401の逸脱行動が、作業者401に対して明らかに危険であると第三者402が確認した場合には、第三者402は、ロボット9を緊急停止することができる。あるいは、作業者401の逸脱行動が、作業者401に対して危険ではないと第三者402が確認した場合には、第三者402は、動作速度を低下して動作中のロボット9を通常動作に復帰させることができる。
さらに、作業者401の逸脱行動が、作業者401に対して明らかに危険であると第三者402が確認した場合には、確認装置90は、割合算出部21によって算出された成分割合の集合を「危険行動」のラベルと対応付けて、成分割合データベース43dに追加する。また、作業者401の逸脱行動として識別された行動が、作業者401が通常の工程作業として実施する行動の誤検知であると第三者402が確認した場合には、確認装置90は、割合算出部21によって算出された成分割合の集合を「安全行動」のラベルと対応付けて、成分割合データベース43dに追加する。
なお、本実施の形態においては、一例として3軸加速度センサを腰に装着する場合について説明したが、本発明はこれに限定されるものではない。心拍/脈拍センサを胸部あるいは手首に装着し、作業者401の生理的な異常を直接的に識別することで、より安全性の高いロボットシステムを実現することも可能となる。本実施の形態のロボット制御装置300は、工場内のロボット9の周辺で作業をする作業者401の行動を識別し、識別結果に基づいてロボットの動作を制御するので、作業者の安全性を向上することが可能となる。例えば、作業者401の危険行動を識別した場合には、ロボット9を緊急停止することで、作業者401に危険が及ぶ可能性を低下させることが可能となる。また、作業者401の逸脱行動を識別した場合には、作業者401の危険性を第三者402が確認して対処することで、ロボットの不要な停止を回避するとともに、作業者401の安全性を向上することが可能となる。さらに、作業者401の逸脱行動を識別した場合には、識別結果と実際の作業者401の行動を確認し、データベースに追加記憶することで、識別性能を向上することが可能となる。
1、1b、1c、1d、1e 行動識別装置、2、2a、2b センサ、3 表示部、4 入力部、5 モード検知部、7 室内機、8 室外機、9 ロボット、10 センサ値取得部、21 割合算出部、22 識別部、30、30b 基本分布生成部、31 分析部、32 評価部、41、41b センサ値分布データベース、42 成分データベース、43、43b、43c、43d 成分割合データベース、44 モード対応データベース、45 合成ルールデータベース、46a、46b 制御ルールデータベース、61 成分統合部、62 成分選択部、63 割合選択部、70 識別結果合成部、80 制御情報出力部、90 確認装置、91 カメラ、92 表示装置、100a、100b 動作識別部、200 空気調和機、300 ロボット制御装置、400 対象者、401 作業者、402 第三者、1001 処理回路、1002、1005 メモリ、1003 データバス、1004 プロセッサ。

Claims (10)

  1. 対象者の行動に対してセンサによって計測されたセンサ値を用いて、前記対象者の行動を識別する行動識別装置であって、
    前記センサ値を取得して所定時間内に計測された前記センサ値の分布であるセンサ値分布を求めるセンサ値取得部と、
    前記センサ値分布を構成する基本的な成分となる分布である基本分布の集合を記憶する成分データベースと、
    前記センサ値分布に含まれる前記基本分布のそれぞれの割合である第1の成分割合を算出する割合算出部と、
    識別したい行動に対応付けて決定された前記割合である第2の成分割合を記憶する成分割合データベースと、
    前記第1の成分割合と前記第2の成分割合とを比較して前記行動を識別する識別部と
    を備え、
    前記基本分布は、複数種類の前記行動のそれぞれに対して予め取得された前記センサ値分布の集合に基づいて、前記センサ値分布のそれぞれをベクトルと捉えた場合の基底となるセンサ値の分布として求められる
    ことを特徴とする行動識別装置。
  2. 前記基本分布を求めて前記成分データベースに記憶する基本分布生成部を備えることを特徴とする請求項1に記載の行動識別装置。
  3. 前記基本分布生成部は、予め取得された前記センサ値分布に含まれる前記基本分布のそれぞれの割合を求め、前記センサ値を取得した際の前記行動と対応付けて前記成分割合データベースに記憶することを特徴とする請求項2に記載の行動識別装置。
  4. 前記基本分布生成部は、
    前記基本分布と、予め取得された前記センサ値分布に含まれる前記基本分布のそれぞれの割合とを推定する分析部と、
    前記分析部で推定された前記基本分布と前記割合とを評価し、所定の評価基準を満たす場合のみ前記基本分布を前記成分データベースに記憶する評価部と
    を備えることを特徴とする請求項2または請求項3に記載の行動識別装置。
  5. 前記評価部は、予め取得された前記センサ値分布に含まれる前記基本分布の割合の平均値を前記基本分布毎に求め、求められた全ての前記平均値が所定の割合を越える場合に前記評価基準を満たすと判断することを特徴とする請求項4に記載の行動識別装置。
  6. 対象者の行動のモードを検知するモード検知部を備え、
    前記基本分布生成部は、前記対象者の前記モード毎に取得された前記センサ値分布に基づき、前記モードのそれぞれに対する前記基本分布を求める
    ことを特徴とする請求項から請求項5のいずれか1項に記載の行動識別装置。
  7. 異なる前記モードにおいて求められた前記基本分布を比較し、類似する複数の前記基本分布を統合する成分統合部を備える
    ことを特徴とする請求項6に記載の行動識別装置。
  8. 前記センサ値取得部と、前記成分データベースと、前記割合算出部と、前記成分割合データベースと、前記識別部とを有し、それぞれ異なる前記センサから前記センサ値を取得する複数の動作識別部を備え、
    前記複数の動作識別部でそれぞれ求められた複数の識別結果に基づいて行動を識別する識別結果合成部を備える
    ことを特徴とする請求項1から請求項7のいずれか1項に記載の行動識別装置。
  9. 請求項1から請求項8のいずれか1項に記載の行動識別装置を備え、
    前記対象者の行動に対応する生体指標を識別して室外機または室内機の動作を制御する
    ことを特徴とする空気調和機。
  10. 請求項1から請求項8のいずれか1項に記載の行動識別装置を備え、
    前記対象者の行動として予め規定された安全行動と、予め規定された危険行動と、予め規定されない逸脱行動とを識別し、識別結果に基づいてロボットの動作を制御する
    ことを特徴とするロボット制御装置。
JP2017537157A 2015-09-03 2015-09-03 行動識別装置、空気調和機およびロボット制御装置 Active JP6351860B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/075067 WO2017037915A1 (ja) 2015-09-03 2015-09-03 行動識別装置、空気調和機およびロボット制御装置

Publications (2)

Publication Number Publication Date
JPWO2017037915A1 JPWO2017037915A1 (ja) 2018-02-08
JP6351860B2 true JP6351860B2 (ja) 2018-07-04

Family

ID=58186760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017537157A Active JP6351860B2 (ja) 2015-09-03 2015-09-03 行動識別装置、空気調和機およびロボット制御装置

Country Status (5)

Country Link
US (1) US10768591B2 (ja)
JP (1) JP6351860B2 (ja)
CN (1) CN107708553B (ja)
DE (1) DE112015006877B4 (ja)
WO (1) WO2017037915A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6895276B2 (ja) * 2017-03-03 2021-06-30 株式会社日立製作所 行動認識システムおよび行動認識方法
WO2019088990A1 (en) * 2017-10-31 2019-05-09 Hewlett-Packard Development Company, L.P. Control system for mobile robots
CN108363490A (zh) * 2018-03-01 2018-08-03 深圳大图科创技术开发有限公司 一种交互效果良好的智能机器人***
JP6997013B2 (ja) * 2018-03-05 2022-01-17 株式会社日立製作所 作業動作解析システム及び作業動作解析方法
CN108942939A (zh) * 2018-07-31 2018-12-07 深圳市山龙智控有限公司 基于滑动滤波的scara机器人速度规划方法及其***
JP7178931B2 (ja) * 2019-03-11 2022-11-28 本田技研工業株式会社 センサ配置態様の取得装置
CN111390884B (zh) * 2020-06-02 2020-12-04 季华实验室 一种基于可穿戴设备的机器人安全控制方法、装置及***

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1433417B1 (en) * 1995-05-12 2007-12-05 Seiko Epson Corporation Device for controlling a physiological state
JP3570163B2 (ja) * 1996-07-03 2004-09-29 株式会社日立製作所 動作及び行動の認識方法及び装置及びシステム
JP3936833B2 (ja) * 2000-08-28 2007-06-27 株式会社日立製作所 体動センシング装置及び体動センシングシステム
JP2008117293A (ja) 2006-11-07 2008-05-22 Toshiba Corp 最適化装置、方法およびプログラム
JP4797948B2 (ja) 2006-11-22 2011-10-19 株式会社デンソー 運転行動推定方法および装置
JP2009039486A (ja) 2007-08-08 2009-02-26 Toshitsugu Tanizawa 一定量の体液及び血流の循環路を確保する形状を持つシート
US9060714B2 (en) * 2008-12-04 2015-06-23 The Regents Of The University Of California System for detection of body motion
JP5359414B2 (ja) * 2009-03-13 2013-12-04 沖電気工業株式会社 行動認識方法、装置及びプログラム
WO2010137325A1 (ja) * 2009-05-27 2010-12-02 パナソニック株式会社 行動認識装置
WO2011040390A1 (ja) * 2009-09-30 2011-04-07 本田技研工業株式会社 運転者状態判定装置
JP5549802B2 (ja) * 2010-02-01 2014-07-16 日本電気株式会社 モード識別装置、モード識別方法、およびプログラム
JP5953673B2 (ja) 2011-08-11 2016-07-20 日本電気株式会社 行動識別装置、行動識別方法、及びプログラム
JP2014212915A (ja) 2013-04-25 2014-11-17 セイコーエプソン株式会社 行動判別装置、および行動判別方法
CN103984315A (zh) * 2014-05-15 2014-08-13 成都百威讯科技有限责任公司 一种家用多功能智能机器人
US10356649B2 (en) * 2014-09-26 2019-07-16 Intel Corporation Multisensory change detection for internet of things domain
CN104574817A (zh) * 2014-12-25 2015-04-29 清华大学苏州汽车研究院(吴江) 一种适用于智能手机的基于机器视觉疲劳驾驶预警***
CN104566868B (zh) 2015-01-27 2017-09-08 杭州宏成节能科技有限公司 一种中央空调控制***及其控制方法

Also Published As

Publication number Publication date
DE112015006877B4 (de) 2024-05-02
DE112015006877T5 (de) 2018-05-17
US20180136622A1 (en) 2018-05-17
CN107708553A (zh) 2018-02-16
CN107708553B (zh) 2020-10-27
JPWO2017037915A1 (ja) 2018-02-08
WO2017037915A1 (ja) 2017-03-09
US10768591B2 (en) 2020-09-08

Similar Documents

Publication Publication Date Title
JP6351860B2 (ja) 行動識別装置、空気調和機およびロボット制御装置
Hakim et al. Smartphone based data mining for fall detection: Analysis and design
US20200205697A1 (en) Video-based fall risk assessment system
Alvarez et al. Behavior analysis through multimodal sensing for care of Parkinson’s and Alzheimer’s patients
US9597016B2 (en) Activity analysis, fall detection and risk assessment systems and methods
US9408561B2 (en) Activity analysis, fall detection and risk assessment systems and methods
JP4590018B1 (ja) 特徴量変換装置、および特徴量変換方法
EP2648389A1 (en) Adaptive sensor data selection and sampling based on current and future context
US20120232430A1 (en) Universal actigraphic device and method of use therefor
US20170241797A1 (en) Pedometer with Accelerometer and Foot Motion Distinguishing Method
EP3254213A1 (en) Pain management wearable device
CN106999748B (zh) 与运动数据有关的***、设备和方法
CN114286644A (zh) 用于确定高级生物力学步态参数值的方法和***
US20180353090A1 (en) Adaptive Heart Rate Estimation
JP2008086479A (ja) 活動量計測システム
Rigas et al. Tremor UPDRS estimation in home environment
Liu et al. Automatic fall risk detection based on imbalanced data
Rastogi et al. Human fall detection and activity monitoring: a comparative analysis of vision-based methods for classification and detection techniques
Dobrucalı et al. Sensor-activity relevance in human activity recognition with wearable motion sensors and mutual information criterion
Ivanova et al. Climbing activity recognition and measurement with sensor data analysis
KR20200058737A (ko) 웨어러블 통신 단말 기반 긁음 행위 인식 시스템 및 그 방법
US20220151511A1 (en) System, apparatus and method for activity classification for a watch sensor
Wang et al. Multimodal gait analysis based on wearable inertial and microphone sensors
US11216074B2 (en) Motion classification user library
Galván-Tejada et al. Magnetic-field feature reduction for indoor location estimation applying multivariate models

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171010

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180605

R150 Certificate of patent or registration of utility model

Ref document number: 6351860

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250