JP6011127B2 - 行為検出プログラム及び行為検出装置 - Google Patents

行為検出プログラム及び行為検出装置 Download PDF

Info

Publication number
JP6011127B2
JP6011127B2 JP2012174069A JP2012174069A JP6011127B2 JP 6011127 B2 JP6011127 B2 JP 6011127B2 JP 2012174069 A JP2012174069 A JP 2012174069A JP 2012174069 A JP2012174069 A JP 2012174069A JP 6011127 B2 JP6011127 B2 JP 6011127B2
Authority
JP
Japan
Prior art keywords
candidate area
action
variance
section
acceleration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012174069A
Other languages
English (en)
Other versions
JP2014032606A (ja
Inventor
湯澤 秀人
秀人 湯澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2012174069A priority Critical patent/JP6011127B2/ja
Priority to US13/768,628 priority patent/US9638713B2/en
Publication of JP2014032606A publication Critical patent/JP2014032606A/ja
Application granted granted Critical
Publication of JP6011127B2 publication Critical patent/JP6011127B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/18Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration in two or more dimensions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P13/00Indicating or recording presence, absence, or direction, of movement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/02Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration by making use of inertia forces using solid seismic masses
    • G01P15/08Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration by making use of inertia forces using solid seismic masses with conversion into electric or magnetic values
    • G01P15/0891Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration by making use of inertia forces using solid seismic masses with conversion into electric or magnetic values with indication of predetermined acceleration values
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、行為検出プログラム及び行為検出装置に関する。
従来の行為検出装置として、利用者の首に巻きつけて装着され、利用者の頭部の動きを検出するものが知られている(例えば、特許文献1参照)。
特許文献1の行為検出装置は、利用者の首に巻きつけて装着される環状に形成された装置本体と、本体の内周面に設けられて利用者の頸の前面、左面及び右面によって押圧される圧電素子と、利用者の動きに応じて圧電素子から出力される信号を外部のパーソナルコンピュータ(PC)等に出力する制御部とを有し、外部のPCにおいて圧電素子から出力される信号を処理させることで利用者の行為を検出する。
特開平10−198476号公報
本発明の目的は、従来に比べて簡易な構成で利用者の行為を検出する行為検出プログラム及び行為検出装置を提供することにある。
[1]コンピュータを、動きを伴う行為を判別する対象から検出された複数の軸の加速度情報について、予め定めた時間幅で複数の区間に分割された各区間の加速度の分散を算出し、連続する前記複数の区間内において複数の軸の分散の合計値に基づいて分散が最大となる区間を前記複数の軸に共通する候補領域として抽出する候補領域抽出手段と、前記候補領域の前後に予め定めた時間幅だけ移動した区間において分散を算出し、前記候補領域及び前記前後の区間のうち分散が高い区間を新たに候補領域として選定する候補領域選定手段と、前記候補領域選定手段が選定した前記候補領域について特徴量を算出する特徴量算出手段と、前記特徴量算出手段が算出した前記特徴量に基づいて、前記対象の行為を判別する判別手段として機能させるための行為検出プログラム。
[2]前記判別手段は、決定木に基づいて前記特徴量から前記対象の行為を判別する前記[1]に記載の行為検出プログラム。
[3]前記判別手段は、前記特徴量のうち前記対象の側方の方向成分に基づいてノイズを判別し、記対象の行為としてうなずき動作を判別する前記[2]に記載の行為検出プログラム。
[4]前記加速度情報は、前記対象としての人物の首部に取り付けられた加速度センサから検出される前記[1]〜[3]のいずれかに記載の行為検出プログラム。
[5]動きを伴う行為を判別する対象から検出された複数の軸の加速度情報について、予め定めた時間幅で複数の区間に分割された各区間の加速度の分散を算出し、連続する前記複数の区間内において複数の軸の分散の合計値に基づいて分散が最大となる区間を前記複数の軸に共通する候補領域として抽出する候補領域抽出手段と、前記候補領域の前後に予め定めた時間幅だけ移動した区間において分散を算出し、前記候補領域及び前記前後の区間のうち分散が高い区間を新たに候補領域として選定する候補領域選定手段と、前記候補領域選定手段が選定した前記候補領域について特徴量を算出する特徴量算出手段と、前記特徴量算出手段が算出した前記特徴量に基づいて、前記対象の行為を判別する判別手段とを有する行為検出装置。
請求項1又は5に係る発明によれば、従来に比べて簡易な構成で利用者の行為を検出することができる。
請求項2に係る発明によれば、決定木に基づいて利用者の行為を検出することができる。
請求項3に係る発明によれば、従来に比べて簡易な構成で利用者のうなずきを検出することができる。
請求項4に係る発明によれば、従来に比べて簡易な構成のセンサで利用者の行為を検出することができる。
図1(a)及び(b)は、本発明の実施の形態に係る行為検出装置に用いられるセンサの構成例を示す概略図である。 図2は、行為検出装置の構成例を示す概略ブロック図である。 図3は、行為検出装置の動作例を示すフローチャートである。 図4(a)は加速度情報の各軸方向の値の一例を示すグラフ図であり、図4(b)は加速度情報の各軸方向の分散値の一例を示すグラフ図である。 図5(a)は加速度情報の各軸方向の値の他の例を示すグラフ図であり、図5(b)は加速度情報の各軸方向の分散値の他の例を示すグラフ図である。 図6(a)は加速度情報の各軸方向の値及び候補領域の一例を示すグラフ図であり、図6(b)はシフトされた候補領域の一例を示すグラフ図である。 図7(a)は加速度情報の各軸方向の値及び候補領域の他の例を示すグラフ図であり、図7(b)はシフトされた候補領域の他の例を示すグラフ図である。 図8は、うなずき判別手段の動作例を示すフローチャートである。 図9(a)〜(c)は、それぞれ各軸方向の分散値についてうなずき判別手段の判別結果を示したグラフ図である。 図10(a)は加速度情報のZ軸方向の値の一例を示すグラフ図であり、図10(b)はZ軸方向の分散値についてうなずき判別手段の判別結果を示したグラフ図である。 図11(a)は加速度情報のZ軸方向の値の他の例を示すグラフ図であり、図11(b)はZ軸方向の分散値についてうなずき判別手段の判別結果を示したグラフ図である。 図12(a)は加速度情報の各軸方向の値の一例を示すグラフ図であり、図12(b)は加速度情報の各軸方向の分散値の一例を示すグラフ図である。 図13(a)は加速度情報の各軸方向の値の他の例を示すグラフ図であり、図13(b)は加速度情報の各軸方向の分散値の他の例を示すグラフ図である。 図14(a)は加速度情報の各軸方向の値及び候補領域の一例を示すグラフ図であり、図14(b)はシフトされた候補領域の一例を示すグラフ図である。 図15(a)は加速度情報の各軸方向の値及び候補領域の他の例を示すグラフ図であり、図15(b)はシフトされた候補領域の他の例を示すグラフ図である。
(センサの構成)
図1(a)及び(b)は、本発明の実施の形態に係る行為検出装置に用いられるセンサの構成例を示す概略図である。
図1(a)に示すように、センサ1は、一般的にICカード等を収容するICカードホルダ22を備えたネックストラップ2等のストラップ部20に取り付けられる。ストラップ部20とICカードホルダ22とはクリップ部21によって連結される。
図1(b)に示すように、利用者3がネックストラップ2を装着することによって、センサ1はICカードホルダ22の自重により利用者3の首の後部に接するようにして配置され、利用者3の動きに追従するものとする。なお、以降においてセンサ1の座標系は、図中に示すように、利用者3の前方をZ軸方向、上方をY軸方向、右側方をX軸方向とする。
なお、センサ1は、ネックストラップ2に取り付ける他、利用者3の頭部に直接取り付けてもよいし、利用者3の着用するシャツの胸ポケットに入れてもよい。
(行為検出装置の構成)
図2は、行為検出装置の構成例を示す概略ブロック図である。
この行為検出装置4は、利用者3の運動を表す量の一例として複数の軸方向の加速度をセンサ1によって検出して、当該複数の軸方向それぞれの加速度から算出される特徴量に基づいて利用者3の行為を検出するものである。なお、以下において行為の一例として利用者3の首の動き、さらにその一例としてうなずきを検出する場合について説明する。従って、否定を表す首ふりや、悩みを示す首かしげ等の首の動きに適用してもよいし、センサ1の装着位置を変更して、首以外の動き、例えば、手、腕、足等の動きを検出してもよい。
また、行為検出装置4は、CPU(Central Processing Unit)等から構成され各部を制御するとともに各種のプログラムを実行する制御部40と、HDD(Hard Disk Drive)やフラッシュメモリ等の記憶媒体から構成され情報を記憶する記憶部41と、利用者の複数の軸方向の加速度を検出するセンサ1の通信部11と無線又は有線で通信する通信部42と、LCD(Liquid Crystal Display)等の表示部43とを有する。
なお、センサ10は、加速度を検出する加速度センサの他、ジャイロセンサ、地磁気センサ、振動センサ等を用いて利用者3の他の運動に関する量を検出してもよい。
また、行為検出装置4は、例えば、PCであり、PDA(Personal Digital Assistant)又は携帯電話機等でもよい。
制御部40は、後述する行為検出プログラム410を実行することで、加速度情報処理手段400、候補領域抽出手段401、候補領域選定手段402、特徴量算出手段403、うなずき判別手段404及び判別結果出力手段405等として機能する。
加速度情報処理手段400は、センサ1が検出した加速度を加速度情報として受け付けて、正規化、方向の判別等の処理を行い記憶部41に加速度情報411として記憶する。
候補領域抽出手段401は、加速度情報411を時系列の区間で分割し、複数の区間から特徴量を抽出する候補を抽出する。
候補領域選定手段402は、候補領域抽出手段401が抽出した候補から特徴量が抽出される最適な領域を選定する。
特徴量算出手段403は、候補領域選定手段402が選定した領域から特徴量を算出する。
うなずき判別手段404は、特徴量算出手段403が算出した特徴量を後述する決定木に基づいて利用者3がうなずいているか否かを判別する。また、過去の判別結果から得られた学習情報412を利用して、特徴量と比較することで判別してもよい。
判別結果出力手段405は、うなずき判別手段404が判別した結果を判別結果413として出力する。出力される判別の結果としては、うなずきの回数、うなずきの時間、うなずいた人物等が挙げられる。
記憶部41は、制御部40を上述した各手段400〜405として動作させる行為検出プログラム410、加速度情報411、学習情報412及び判別結果413等を記憶する。
加速度情報411は、加速度情報処理手段400がセンサ1から受信して、記憶部41に記憶されたものである。
学習情報412は、うなずき判別手段404が過去に判別した結果であり、特徴量算出手段403の算出した特徴量と比較する対象として用いられる。
判別結果413は、うなずき判別手段404が判別した結果である。
(行為検出装置の動作)
以下に、行為検出装置4の動作を図1〜図12を参照しつつ説明する。
図3は、行為検出装置4の動作例を示すフローチャートである。
まず、加速度情報処理手段400は、センサ1の検出した加速度を、センサ1の各検出軸方向200〜202について加速度情報として取得し、前処理として鉛直方向をセンサ1のY軸方向として、重力加速度成分を引いた値を算出して加速度情報411として記憶する(S1)。
次に、候補領域抽出手段401は、加速度情報411を時間軸について分割した区間のそれぞれの分散を算出する(S2)。これは加速度の分散が大きい区間において、利用者3によって何らかの行為がなされたと判別できるためである。
また、分割する幅は一例として1secとする。これは、「うなずき」が「うん」というように、1回の場合もあれば、「うん、うん、うん」と複数回の場合があり、これら双方を検出するためである。
以下、加速度情報の例及び加速度の分散の例について説明する。
図4(a)は加速度情報の各軸方向の値の一例を示すグラフ図であり、図4(b)は加速度情報の各軸方向の分散値の一例を示すグラフ図である。図5(a)は加速度情報の各軸方向の値の他の例を示すグラフ図であり、図5(b)は加速度情報の各軸方向の分散値の他の例を示すグラフ図である。
加速度情報411は、一例として時間軸を横軸として図4(a)及び図5(a)のように示される。候補領域抽出手段401は、時間軸について1sec毎に区間を分割し、各区間について加速度の分散を算出し、図4(b)及び図5(b)に示すような情報を得る。
次に、候補領域抽出手段401は、分散が最大となる時点、図4(b)では2sec目の区間、図5(b)では2sec目の区間を候補領域として抽出し、候補領域選定手段402は、候補領域の前後に区間を予め定めた時間だけ変更(以下、「シフト」という。)して、候補領域として抽出する(S3)。以下、区間をシフトする方法の例について説明する。
図6(a)は加速度情報の各軸方向の値及び候補領域の一例を示すグラフ図であり、図6(b)はシフトされた候補領域の一例を示すグラフ図である。図7(a)は加速度情報の各軸方向の値及び候補領域の他の例を示すグラフ図であり、図7(b)はシフトされた候補領域の他の例を示すグラフ図である。
候補領域抽出手段401は、図6(b)に示す例では、図6(a)に示す2sec目の区間に対して前後500msec分シフトさせた区間を候補領域として抽出する。また、候補領域選定手段402は、図7(b)に示す例では、図7(a)に示す2sec目の区間に対して前後500msec分シフトさせた区間を候補領域として抽出する。
次に、特徴量算出手段403は、候補領域選定手段402が抽出した候補領域について特徴量を算出する(S4)。ここでは、特徴量として各軸の加速度の分散を算出する。
次に、うなずき判別手段404は、特徴量算出手段403が算出した特徴量に基づいて、うなずきか否かを判別する(S5)。うなずきの判別は、以下に示す決定木に基づいて行う。
図8は、うなずき判別手段404の動作例を示すフローチャートである。図9(a)〜(c)は、それぞれ各軸方向の分散値についてうなずき判別手段404の判別結果を示したグラフ図である。
まず、うなずき判別手段404は、特徴量算出手段403が算出した特徴量としての分散について、Y軸の分散が0・15以上である場合(S11)、利用者3の行為は「歩行」であると判別する(S16)。これは、「歩行」は「うなずき」と加速度の波形が似通っているが、「歩行」は利用者3の鉛直方向の加速度の分散が「うなずき」に比べて大きいため、この特性を利用して排除するものである。
次に、うなずき判別手段404は、Z軸の加速度の分散が0.02以上であり(S12)、Y軸の加速度の分散が0.10以下であり(S13)、X軸の加速度の分散が0.05以下である場合(S14)、利用者3の行為は「うなずき」であると判別する(S15)。なお、Y軸の加速度の分散が一例として0.10以下である理由は、当該分散値が実験データや学習データに基づき定められたものであり、うなずきと他の動作を識別するために有効な閾値として設定されたものであるためである。また、Z軸の加速度の分散が一例として0.05以下である理由は、「うなずき」において利用者3の側方の動きがうなずきと他の動作を識別するため、当該分散値が実験データ、あるいは学習データに基づいて設定されたためである。
図9(a)〜(c)は、上記した判別方法によって判別された判別結果である。まず、図8のステップS12に対応した判別結果として、図9(c)に示すように、Z軸の加速度の分散の閾値Tz=0.02以上を満たすデータは、Az1〜Az9となる。また、上記した図9(c)のデータ(Az1〜Az9に対応するデータ)のうち、図8のステップS13に対応した判別結果として、図9(b)に示すように、Y軸の加速度の分散の閾値Ty=0.10以下を満たすデータは、Ay1〜Ay4となる。さらに、上記した図9(b)のデータ(Ay1〜Ay4に対応するデータ)のうち、図8のステップS14に対応した判別結果として、図9(a)に示すように、X軸の加速度の分散の閾値Tx=0.005以下を満たすデータは、Ax1〜Ax4で囲んだ区間に属するデータである。
これらの共通する区間(X軸方向においてAx1〜Ax4で囲んだ区間)において利用者3の行為が「うなずき」であると判別でき、発明者らが実際に検証した結果、正解率は84.8%であった。
また、他の検証結果として以下のものが挙げられる。
図10(a)は加速度情報のZ軸方向の値の一例を示すグラフ図であり、図10(b)はZ軸方向の分散値についてうなずき判別手段404の判別結果を示したグラフ図である。図11(a)は加速度情報のZ軸方向の値の他の例を示すグラフ図であり、図11(b)はZ軸方向の分散値についてうなずき判別手段404の判別結果を示したグラフ図である。
なお、図10は利用者の行為が「うなずき」であった場合、図11は利用者の行為が「うなずき」以外であった場合である。
図10(a)に示すZ軸の加速度の分散値のうち、閾値Tz=0.02以上のデータは、図10(b)に示す判別結果(うなずきの場合の値を1とする)と照合すると正解率は97.1%であった。なお、うなずき判別手段404は、600msec以下のものはノイズとして判定し、ノイズを除去する(S6)。
図11(a)に示すZ軸の加速度の分散値のうち、閾値Tz=0.02以上のデータは、図11(b)に示す判別結果(うなずきの場合の値を1とする)と照合すると正解率は94.3%であった。
(実施の形態の効果)
上記した実施の形態によれば、利用者3の首の後部にセンサ1を取り付けて、各軸の特徴量から決定木に基づいて行為の一例としてうなずきを判別したため、利用者3に大掛かりなセンサを取り付けることなく、従来に比べて簡易な構成のセンサを用いて利用者の行為を検出することができる。
また、センサ1の各軸方向について分散値を求めるとともに、分散値の高い区間の前後に候補領域として区間をシフトして各軸の特徴量を算出したため、計算コストを減少して、行為検出の精度を向上することができる。
[他の実施の形態]
なお、本発明は、上記実施の形態に限定されず、本発明の要旨を逸脱しない範囲で種々な変形が可能である。
例えば、うなずき判別手段404は、うなずきの判別の際に、学習情報412に予め用意されたうなずきの特徴量を基準としてMT法を用いてもよい。また、DTW(Dynamic Time Warping)により、学習情報412に予め用意されたうなずきの波形との波形マッチングを行ってうなずきを判別してもよい。
また、候補領域抽出手段401は、以下に示すように、1secと異なる時間間隔によって区間を分割してもよい。
図12(a)は加速度情報の各軸方向の値の一例を示すグラフ図であり、図12(b)は加速度情報の各軸方向の分散値の一例を示すグラフ図である。図13(a)は加速度情報の各軸方向の値の他の例を示すグラフ図であり、図13(b)は加速度情報の各軸方向の分散値の他の例を示すグラフ図である。
加速度情報411は、他の例として時間軸を横軸として図12(a)及び図13(a)のように示される。候補領域抽出手段401は、時間軸について600msec毎に区間を分割し、各区間について加速度の分散を算出し、図12(b)及び図13(b)に示すような情報を得る。
次に、候補領域抽出手段401は、分散が最大となる時点、図12(b)では3sec目の区間、図13(b)では5sec目の区間を候補領域として抽出し、候補領域選定手段402は、候補領域の前後に区間をシフトして、新たな候補領域として抽出する(S3と同様)。
図14(a)は加速度情報の各軸方向の値及び候補領域の一例を示すグラフ図であり、図14(b)はシフトされた候補領域の一例を示すグラフ図である。図15(a)は加速度情報の各軸方向の値及び候補領域の他の例を示すグラフ図であり、図15(b)はシフトされた候補領域の他の例を示すグラフ図である。
候補領域抽出手段401は、図14(b)に示す例では、図14(a)に示す3sec目の区間に対して前後300msec分シフトさせた区間を候補領域として抽出する。また、候補領域抽出手段401は、図15(b)に示す例では、図15(a)に示す5sec目の区間に対して前後300msec分シフトさせた区間を候補領域として抽出する。
次に、特徴量算出手段403は、候補領域選定手段402が抽出した候補領域について特徴量を算出する(S4と同様)。ここでは、特徴量として各軸の加速度の分散を算出する。
上記したように区間を1secから600msecに変更することで、特徴量解析に必要最低限な区間のみを得ることができ、判別精度を向上することができる。
また、上記行為検出プログラム110をCD−ROM等の記憶媒体に格納して提供することも可能であり、インターネット等のネットワークに接続されているサーバ装置等から装置内の記憶部にダウンロードしてもよい。また、加速度情報処理手段400、候補領域抽出手段401、候補領域選定手段402、特徴量算出手段403、うなずき判別手段404及び判別結果出力手段405等の一部又は全部をASIC等のハードウェアによって実現してもよい。なお、上記実施の形態の動作説明で示した各ステップは、順序の変更、ステップの省略、追加が可能である。
1 センサ
2 ネックストラップ
3 利用者
4 行為検出装置
10 センサ
11 通信部
20 ストラップ部
21 クリップ部
22 ICカードホルダ
40 制御部
41 記憶部
42 通信部
43 表示部
110 行為検出プログラム
400 加速度情報処理手段
401 候補領域抽出手段
402 候補領域選定手段
403 特徴量算出手段
404 うなずき判別手段
405 判別結果出力手段
410 行為検出プログラム
411 加速度情報
412 学習情報
413 判別結果

Claims (5)

  1. コンピュータを、
    動きを伴う行為を判別する対象から検出された複数の軸の加速度情報について、予め定めた時間幅で複数の区間に分割された各区間の加速度の分散を算出し、連続する前記複数の区間内において複数の軸の分散の合計値に基づいて分散が最大となる区間を前記複数の軸に共通する候補領域として抽出する候補領域抽出手段と、
    前記候補領域の前後に予め定めた時間幅だけ移動した区間において分散を算出し、前記候補領域及び前記前後の区間のうち分散が高い区間を新たに候補領域として選定する候補領域選定手段と、
    前記候補領域選定手段が選定した前記候補領域について特徴量を算出する特徴量算出手段と、
    前記特徴量算出手段が算出した前記特徴量に基づいて、前記対象の行為を判別する判別手段として機能させるための行為検出プログラム。
  2. 前記判別手段は、決定木に基づいて前記特徴量から前記対象の行為を判別する請求項1に記載の行為検出プログラム。
  3. 前記判別手段は、前記特徴量のうち前記対象の側方の方向成分に基づいてノイズを判別し、記対象の行為としてうなずき動作を判別する請求項2に記載の行為検出プログラム。
  4. 前記加速度情報は、前記対象としての人物の首部に取り付けられた加速度センサから検出される請求項1〜3のいずれかに記載の行為検出プログラム。
  5. 動きを伴う行為を判別する対象から検出された複数の軸の加速度情報について、予め定めた時間幅で複数の区間に分割された各区間の加速度の分散を算出し、連続する前記複数の区間内において複数の軸の分散の合計値に基づいて分散が最大となる区間を前記複数の軸に共通する候補領域として抽出する候補領域抽出手段と、
    前記候補領域の前後に予め定めた時間幅だけ移動した区間において分散を算出し、前記候補領域及び前記前後の区間のうち分散が高い区間を新たに候補領域として選定する候補領域選定手段と、
    前記候補領域選定手段が選定した前記候補領域について特徴量を算出する特徴量算出手段と、
    前記特徴量算出手段が算出した前記特徴量に基づいて、前記対象の行為を判別する判別手段とを有する行為検出装置。
JP2012174069A 2012-08-06 2012-08-06 行為検出プログラム及び行為検出装置 Expired - Fee Related JP6011127B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012174069A JP6011127B2 (ja) 2012-08-06 2012-08-06 行為検出プログラム及び行為検出装置
US13/768,628 US9638713B2 (en) 2012-08-06 2013-02-15 Non-transitory computer readable medium, action detection apparatus, and action detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012174069A JP6011127B2 (ja) 2012-08-06 2012-08-06 行為検出プログラム及び行為検出装置

Publications (2)

Publication Number Publication Date
JP2014032606A JP2014032606A (ja) 2014-02-20
JP6011127B2 true JP6011127B2 (ja) 2016-10-19

Family

ID=50026291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012174069A Expired - Fee Related JP6011127B2 (ja) 2012-08-06 2012-08-06 行為検出プログラム及び行為検出装置

Country Status (2)

Country Link
US (1) US9638713B2 (ja)
JP (1) JP6011127B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3234731B1 (en) 2014-12-16 2020-07-01 Somatix Inc. Methods and systems for monitoring and influencing gesture-based behaviors
WO2017038248A1 (ja) 2015-09-04 2017-03-09 富士フイルム株式会社 機器操作装置、機器操作方法、及び電子機器システム
US10665207B2 (en) * 2017-12-13 2020-05-26 Kyocera Document Solutions Inc. Back-and-forth displacement detecting device and information processing device
CN113110228B (zh) * 2021-05-08 2022-10-28 北京有竹居网络技术有限公司 一种智能工卡绳和智能工卡

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3219001B2 (ja) 1997-01-07 2001-10-15 日本電気株式会社 頭部動き検出装置
JP2000163196A (ja) 1998-09-25 2000-06-16 Sanyo Electric Co Ltd ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置
JP4126388B2 (ja) * 2002-04-08 2008-07-30 カシオ計算機株式会社 歩行方向検出装置及びプログラム
US7753861B1 (en) * 2007-04-04 2010-07-13 Dp Technologies, Inc. Chest strap having human activity monitoring device
JP4954792B2 (ja) * 2007-05-24 2012-06-20 セイコーインスツル株式会社 速度計
US8942764B2 (en) * 2007-10-01 2015-01-27 Apple Inc. Personal media device controlled via user initiated movements utilizing movement based interfaces
JP5649808B2 (ja) * 2009-01-28 2015-01-07 ソニー株式会社 情報処理装置、情報処理方法、プログラム
JP5590301B2 (ja) * 2010-03-30 2014-09-17 日本電気株式会社 行動判定装置、行動判定システム、端末装置、行動判定方法、及びプログラム
KR20120001925A (ko) * 2010-06-30 2012-01-05 삼성전자주식회사 휴대용 단말기를 이용한 보폭 추정을 위한 보행 상태 추정 장치 및 방법
US9436231B2 (en) * 2011-04-07 2016-09-06 Qualcomm Incorporated Rest detection using accelerometer
US10145707B2 (en) * 2011-05-25 2018-12-04 CSR Technology Holdings Inc. Hierarchical context detection method to determine location of a mobile device on a person's body

Also Published As

Publication number Publication date
JP2014032606A (ja) 2014-02-20
US9638713B2 (en) 2017-05-02
US20140039827A1 (en) 2014-02-06

Similar Documents

Publication Publication Date Title
KR102141288B1 (ko) 홈 트레이닝 제공 방법 및 시스템
JP6171615B2 (ja) 情報処理装置及びプログラム
WO2018161906A1 (zh) 动作识别方法、装置、***以及存储介质
KR101872907B1 (ko) 듀얼 스마트 밴드를 이용한 모션 분석 장치 및 방법
WO2014158363A1 (en) Method and system for gesture recognition
ES2813611T3 (es) Aprovechamiento de un apretón de manos físico en pantallas montadas en la cabeza
JP6083799B2 (ja) 携帯デバイスの携帯場所判定方法、携帯デバイス、携帯デバイスの携帯場所判定システム、プログラム及び情報記憶媒体
JP6011127B2 (ja) 行為検出プログラム及び行為検出装置
KR102245267B1 (ko) 서명 등록 방법, 서명 인증 방법 및 그 장치
JP6197702B2 (ja) 入力方法,プログラム及び入力装置
US9354712B2 (en) Recognition device, intelligent device and information providing method for human machine interaction
EP3289435B1 (en) User interface control using impact gestures
US11045116B1 (en) Enhanced determination of cadence for control in mobile
JP6458739B2 (ja) 解析装置、記録媒体および解析方法
US11237632B2 (en) Ring device having an antenna, a touch pad, and/or a charging pad to control a computing device based on user motions
JP2017191426A (ja) 入力装置、入力制御方法、コンピュータプログラム、及び記憶媒体
JP2012252568A (ja) 入力システム、頭部装着型表示装置、情報端末装置及びプログラム
KR101639351B1 (ko) 웨어러블 입력 시스템 및 모션 인식 방법
KR102570783B1 (ko) 전자 장치 및 이를 이용한 생체 신호에 기초하여 개인화된 생체 정보 제공 방법
KR101870542B1 (ko) 모션 인식 방법 및 장치
US11262850B2 (en) No-handed smartwatch interaction techniques
JP6409918B2 (ja) 端末装置、モーション認識方法及びプログラム
US20220218230A1 (en) System and method of detecting walking activity using waist-worn inertial sensors
JP6940813B2 (ja) 歩数計測装置、歩数計測方法及びプログラム
US10569161B2 (en) Operation information measurement apparatus, function control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160905

R150 Certificate of patent or registration of utility model

Ref document number: 6011127

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees