JP2011224122A - Behavior recognition device - Google Patents

Behavior recognition device Download PDF

Info

Publication number
JP2011224122A
JP2011224122A JP2010096134A JP2010096134A JP2011224122A JP 2011224122 A JP2011224122 A JP 2011224122A JP 2010096134 A JP2010096134 A JP 2010096134A JP 2010096134 A JP2010096134 A JP 2010096134A JP 2011224122 A JP2011224122 A JP 2011224122A
Authority
JP
Japan
Prior art keywords
acceleration sensor
output
subject
neural network
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010096134A
Other languages
Japanese (ja)
Inventor
Akihiro Okazaki
昭広 岡崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2010096134A priority Critical patent/JP2011224122A/en
Publication of JP2011224122A publication Critical patent/JP2011224122A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a behavior recognition device which can recognize a variety of complex behaviors by a simple and low-cost construction including only an acceleration sensor as a detection means for a subject.SOLUTION: The behavior recognition device is provided with the acceleration sensor 2 to be fitted to the subject 90. It is provided with a neural network 5 which has learnt in advance to recognize actions or behaviors done by the subject 90 from the output of the acceleration sensor 2 on the basis of each correspondence between the several kinds of actions or behaviors done by the subject 90 and the output of the acceleration sensor 2 fitted to the subject 90. It is also provided with an input processing part which subjects the output of the acceleration sensor 2 to statistical processing and generates several kinds of statistical data as feature data representing movements of the subject 90. The several kinds of statistical data generated by the input processing part is parallelly input to the neural network 5.

Description

この発明は行動認識装置に関し、より詳しくは、加速度センサを用いて、被験体の動作又は行動を認識する行動認識装置に関する。   The present invention relates to a behavior recognition device, and more particularly to a behavior recognition device that recognizes the motion or behavior of a subject using an acceleration sensor.

ここで、「被験体」とは、代表的には人間を指すが、動物や、機械その他の移動体も含む。   Here, the “subject” typically refers to a human, but also includes animals, machines, and other moving objects.

また、「動作」とは、被験体の動きを指す。「行動」とは、意識的なものも含まれる動きや行いを指す。本明細書では、簡単のため、動作と行動とを併せて、適宜「動作」と呼ぶ。   The “motion” refers to the movement of the subject. “Behavior” refers to movements and actions that include conscious things. In this specification, for the sake of simplicity, an operation and an action are collectively referred to as an “operation” as appropriate.

この発明の行動認識装置は、典型的には、歩数計・活動量計、携帯電話、モバイルコンピュータなどに組み込んで用いられ得る。   The action recognition device of the present invention can typically be used by being incorporated in a pedometer / activity meter, mobile phone, mobile computer, or the like.

従来、この種の行動認識装置としては、例えば特許文献1(特開昭62−106742号公報)に開示されているように、使用者の動作に応じた振動を検出する加速度センサと、各種動作に対する振動パターンデータを記憶する振動パターンテーブルと、この振動パターンテーブルに記憶された振動パターンデータと上記加速度センサの検出信号とを比較して、使用者の動作を認識する認識手段とを備えたものが知られている。認識される動作としては、立つ、座る、歩く、走る、および静止が挙げられている。   Conventionally, as this type of action recognition device, for example, as disclosed in Patent Document 1 (Japanese Patent Laid-Open No. Sho 62-106742), an acceleration sensor that detects vibrations according to a user's action, and various actions are disclosed. A vibration pattern table for storing vibration pattern data for the motor, and a recognition means for comparing the vibration pattern data stored in the vibration pattern table with the detection signal of the acceleration sensor to recognize the user's movement It has been known. Recognized movements include standing, sitting, walking, running, and resting.

特許文献2(特開平10−24026号公報)には、3軸の加速度センサに加えてジャイロセンサを備えて、上下運動,水平運動,回転運動の変化を検出し、検出した運動状態の変化とパターン格納部に記憶した行動モデルパターンとから人の行動を特定(認識)するものが開示されている。認識される動作としては、歩く、座る、会議をする、および食事をすることが挙げられている。   Patent Document 2 (Japanese Patent Laid-Open No. 10-24026) includes a gyro sensor in addition to a triaxial acceleration sensor, detects changes in vertical motion, horizontal motion, and rotational motion, The thing which specifies (recognizes) a human action from the action model pattern memorize | stored in the pattern storage part is disclosed. Recognized actions include walking, sitting, meeting, and eating.

特許文献3(特開平10−113343号公報)には、被験体の動作又は行動に伴う状態変化を観測する計測手段と、前記観測結果における特徴量を抽出する特徴量抽出手段と、当該認識装置により認識すべき動作又は行動についての特徴量を記憶する記憶手段と、前記観測結果から抽出した特徴量と記憶してある特徴量とから、前記被験体の動作又は行動を認識する認識手段とを備えたものが開示されている。前記計測手段が観測する状態変化としては、加速度,角加速度,速度,角速度,位置,回転、および曲げ角と、被験体の生体情報である脈拍,血圧,体温,血糖値,呼吸,筋電,心電,血流、および脳波とが挙げられている。認識される動作としては、しゃがむ,走る,歩くという基本的な動作から、梯子を登る,階段を下りる,高所での制御盤操作,床面でバルブ操作,突然倒れた,高所から落ちた,静止,のんびり歩く,力強く歩く,非常に静かな走り,標準的に歩く,元気に歩く,元気に走る,患者が倒れた,苦しんでいるなど複雑な動作までが挙げられている。   Patent Document 3 (Japanese Patent Application Laid-Open No. 10-113343) discloses a measurement unit that observes a state change associated with a motion or action of a subject, a feature amount extraction unit that extracts a feature amount in the observation result, and the recognition device. Storage means for storing the feature amount of the action or action to be recognized by the recognition means, and recognition means for recognizing the action or action of the subject from the feature quantity extracted from the observation result and the stored feature quantity. What has been disclosed is disclosed. The state changes observed by the measuring means include acceleration, angular acceleration, velocity, angular velocity, position, rotation, and bending angle, and biological information of the subject, pulse, blood pressure, body temperature, blood glucose level, respiration, myoelectricity, Examples include electrocardiogram, blood flow, and electroencephalogram. Recognized movements include basic actions such as squatting, running, walking, climbing ladder, going down stairs, control panel operation at high altitude, valve operation at floor, suddenly falling, falling from high altitude , Rest, walking leisurely, walking powerfully, running very quiet, walking normally, walking well, running well, patients falling down, suffering complicated movements and so on.

特開昭62−106742号公報Japanese Patent Laid-Open No. 62-106742 特開平10−24026号公報JP-A-10-24026 特開平10−113343号公報JP-A-10-113343

特許文献1、2の技術では、装置の構成が比較的簡単であるが、立つ、座る、歩く、走るなどの基本的な動作しか認識できず、多種類の複雑な動作(例えばダンスの中の一動作、武術の型の中の一動作)の認識ができないという問題がある。   In the techniques of Patent Documents 1 and 2, the configuration of the device is relatively simple, but only basic operations such as standing, sitting, walking, and running can be recognized, and many kinds of complicated operations (for example, in dance) There is a problem that it cannot recognize one action, one action in the type of martial arts).

一方、特許文献3の技術では、認識される動作の種類が多いが、例えば、被験体から検出する情報として、速度、位置に加えて生体情報も必要とするため、検出手段として加速度センサだけでなく、脈拍,血圧等を測定する手段をも必要とする。このため、装置(システム)の構成が複雑で高コストになるという問題がある。   On the other hand, in the technique of Patent Document 3, there are many types of motions recognized. For example, since information detected from a subject requires biological information in addition to speed and position, only an acceleration sensor is used as a detection means. There is also a need for means for measuring pulse, blood pressure, and the like. For this reason, there exists a problem that the structure of an apparatus (system) is complicated and becomes high-cost.

そこで、この発明の課題は、被験体に対する検出手段として加速度センサのみを含む簡単かつ安価な構成で、多種類の複雑な動作を認識できる行動認識装置を提供することにある。   Therefore, an object of the present invention is to provide an action recognition apparatus that can recognize a variety of complex operations with a simple and inexpensive configuration that includes only an acceleration sensor as a detection means for a subject.

上記課題を解決するため、この発明の行動認識装置は、
被験体に取り付けられるべき加速度センサと、
予め、上記被験体がした複数種類の動作又は行動と上記被験体に取り付けられた上記加速度センサの出力との間のそれぞれの対応関係に基づいて、上記加速度センサの出力から上記被験体がした動作又は行動を認識する学習を済ませたニューラルネットワークとを備えて、
上記被験体に取り付けられた上記加速度センサの出力から、上記ニューラルネットワークを通して上記被験体がした動作又は行動を認識する行動認識装置において、
上記加速度センサの出力に対して統計処理を施して、上記被験体の動きを表す特徴データとして複数種類の統計データを生成する入力処理部を備え、
上記入力処理部が生成した上記複数種類の統計データが並行して上記ニューラルネットワークに入力されるようになっていることを特徴とする。
In order to solve the above problems, the action recognition device of the present invention is:
An acceleration sensor to be attached to the subject;
Based on the correspondence between the plurality of types of actions or actions performed by the subject in advance and the output of the acceleration sensor attached to the subject, the action performed by the subject from the output of the acceleration sensor Or a neural network with learning to recognize actions,
From the output of the acceleration sensor attached to the subject, in the behavior recognition device that recognizes the action or behavior of the subject through the neural network,
An input processing unit that performs statistical processing on the output of the acceleration sensor and generates a plurality of types of statistical data as feature data representing the movement of the subject,
The plurality of types of statistical data generated by the input processing unit are input to the neural network in parallel.

この発明の行動認識装置は、予め、上記被験体がした複数種類の動作又は行動と上記被験体に取り付けられた上記加速度センサの出力との間の対応関係に基づいて、上記加速度センサの出力から上記被験体がした動作又は行動を認識する学習を済ませたニューラルネットワークを備えている。そして、上記被験体に取り付けられた上記加速度センサの出力から、上記ニューラルネットワークを通して上記被験体がした動作又は行動を認識するようになっている。このニューラルネットワークには、上記学習により、予め多種類のアルゴリズムを実質的に保持しておくことができる。したがって、この発明の行動認識装置によれば、多種類の複雑な動作を認識できる。   The behavior recognition apparatus according to the present invention is based on the correspondence relationship between a plurality of types of actions or behaviors performed by the subject and the output of the acceleration sensor attached to the subject in advance. A neural network that has completed learning for recognizing the movement or action of the subject is provided. And the operation | movement or action which the said subject performed through the said neural network from the output of the said acceleration sensor attached to the said subject is recognized. In this neural network, various types of algorithms can be substantially held in advance by the above learning. Therefore, according to the action recognition device of the present invention, it is possible to recognize many kinds of complicated operations.

また、この行動認識装置では、入力処理部が、上記加速度センサの出力に対して統計処理を施して、上記被験体の動きを表す特徴データとして複数種類の統計データを生成する。したがって、上記ニューラルネットワークの学習段階で、上記加速度センサの出力から生成された上記複数種類の統計データが並行して上記ニューラルネットワークに入力される。したがって、上記ニューラルネットワークによる学習の精度を高めることができる。また、上記ニューラルネットワークの認識段階で、上記ニューラルネットワークは、上記加速度センサの出力から生成された上記複数種類の統計データを受けて、上記被験体がした動作又は行動を認識する。したがって、上記ニューラルネットワークによる認識の精度を高めることができる。この結果、多種類の複雑な動作認識できる。例えば、立つ、座る、歩く、走るなどの基本的な動作に加えて、上記被験体がダンスの中の一動作をしていること、武術の型の中の一動作をしていること、ラジオ体操の中の一動作をしていることなどを認識できる。   Moreover, in this action recognition device, the input processing unit performs statistical processing on the output of the acceleration sensor, and generates a plurality of types of statistical data as feature data representing the movement of the subject. Accordingly, at the learning stage of the neural network, the plurality of types of statistical data generated from the output of the acceleration sensor are input to the neural network in parallel. Therefore, the accuracy of learning by the neural network can be increased. In the neural network recognition stage, the neural network receives the plurality of types of statistical data generated from the output of the acceleration sensor, and recognizes the movement or action of the subject. Therefore, the accuracy of recognition by the neural network can be increased. As a result, it is possible to recognize many kinds of complicated operations. For example, in addition to basic movements such as standing, sitting, walking, and running, the subject is performing a movement in a dance, performing a movement in a martial arts type, radio You can recognize that you are doing one movement in the gymnastics.

なお、上記ニューラルネットワークの「学習段階」とは、上記ニューラルネットワークが予め上記学習を行う段階を意味する。また、上記ニューラルネットワークの「認識段階」とは、上記被験体がした動作又は行動を実際に認識する段階を意味する。   The “learning stage” of the neural network means a stage where the neural network performs the learning in advance. The “recognition stage” of the neural network means a stage of actually recognizing the action or action performed by the subject.

また、上記行動認識装置は、被験体に対する検出手段として加速度センサのみを備えているので、簡単かつ安価に構成され得る。また、部品数が少なくなるので、信頼性が高まる。また、被験体が特に人である場合は、上記加速度センサ以外のセンサを体の色々なところに取り付ける必要がないので、上記行動認識装置は、面倒がなく、気軽に使用され得る。   Moreover, since the said action recognition apparatus is provided only with the acceleration sensor as a detection means with respect to a test subject, it can be comprised simply and cheaply. Further, since the number of parts is reduced, reliability is improved. In addition, when the subject is a person in particular, it is not necessary to attach sensors other than the acceleration sensor to various parts of the body. Therefore, the behavior recognition device is not troublesome and can be used easily.

一実施形態の行動認識装置では、上記統計データとして、或る期間についての上記加速度センサの出力の平均値と、上記期間における上記加速度センサの出力の分散または標準偏差とを含むことを特徴とする。   In the behavior recognition apparatus according to an embodiment, the statistical data includes an average value of the output of the acceleration sensor for a certain period and a variance or standard deviation of the output of the acceleration sensor in the period. .

この一実施形態の行動認識装置では、上記学習段階で、上記ニューラルネットワークによる学習の精度を高めることができる。また、上記認識段階で、上記ニューラルネットワークによる認識の精度を高めることができる。   In the behavior recognition apparatus according to this embodiment, the accuracy of learning by the neural network can be increased at the learning stage. In the recognition stage, the accuracy of recognition by the neural network can be increased.

一実施形態の行動認識装置では、上記統計データとして、或る期間についての上記加速度センサの出力の平均値と、上記期間において上記加速度センサの出力が所定値になった回数とを含むことを特徴とする。   In the behavior recognition apparatus according to an embodiment, the statistical data includes an average value of the output of the acceleration sensor for a certain period and the number of times the output of the acceleration sensor becomes a predetermined value in the period. And

ここで、「所定値」とは、例えば0(ゼロ)のような或る値を指す。   Here, the “predetermined value” refers to a certain value such as 0 (zero).

この一実施形態の行動認識装置では、上記学習段階で、上記ニューラルネットワークによる学習の精度を高めることができる。また、上記認識段階で、上記ニューラルネットワークによる認識の精度を高めることができる。   In the behavior recognition apparatus according to this embodiment, the accuracy of learning by the neural network can be increased at the learning stage. In the recognition stage, the accuracy of recognition by the neural network can be increased.

一実施形態の行動認識装置では、上記統計データとして、或る期間についての上記加速度センサの出力の平均値と、上記期間における上記加速度センサの出力の最大値および最小値、または上記最大値と最小値との間の差とを含むことを特徴とする。   In the action recognition device of one embodiment, as the statistical data, the average value of the output of the acceleration sensor for a certain period, the maximum value and the minimum value of the output of the acceleration sensor in the period, or the maximum value and the minimum And the difference between the values.

この一実施形態の行動認識装置では、上記学習段階で、上記ニューラルネットワークによる学習の精度を高めることができる。また、上記認識段階で、上記ニューラルネットワークによる認識の精度を高めることができる。   In the behavior recognition apparatus according to this embodiment, the accuracy of learning by the neural network can be increased at the learning stage. In the recognition stage, the accuracy of recognition by the neural network can be increased.

一実施形態の行動認識装置では、上記統計データとして、或る期間についての上記加速度センサの出力の平均値と、上記期間における上記加速度センサの出力の分散または標準偏差と、上記期間において上記加速度センサの出力が所定値になった回数と、上記期間における上記加速度センサの出力の最大値および最小値、または上記最大値と最小値との間の差とのうち、少なくとも2つを含むことを特徴とする。   In the action recognition device of one embodiment, as the statistical data, the average value of the output of the acceleration sensor for a certain period, the variance or standard deviation of the output of the acceleration sensor in the period, and the acceleration sensor in the period Including at least two of the number of times the output of the acceleration sensor reaches a predetermined value and the maximum and minimum values of the output of the acceleration sensor in the period or the difference between the maximum and minimum values. And

ここで、「少なくとも2つ」とは、全部であっても良い、という意味である。   Here, “at least two” means that all may be sufficient.

この一実施形態の行動認識装置では、上記学習段階で、上記ニューラルネットワークによる学習の精度を高めることができる。また、上記認識段階で、上記ニューラルネットワークによる認識の精度を高めることができる。   In the behavior recognition apparatus according to this embodiment, the accuracy of learning by the neural network can be increased at the learning stage. In the recognition stage, the accuracy of recognition by the neural network can be increased.

以上より明らかなように、この発明の行動認識装置によれば、被験体に対する検出手段として加速度センサのみを含む簡単かつ安価な構成で、多種類の複雑な動作を認識できる。また、部品数が少なくなるので、信頼性が高まる。また、被験体が特に人間である場合は、上記加速度センサ以外のセンサを体の色々なところに取り付ける必要がないので、上記行動認識装置は、面倒がなく、気軽に使用され得る。   As is clear from the above, according to the action recognition apparatus of the present invention, it is possible to recognize many kinds of complicated operations with a simple and inexpensive configuration including only an acceleration sensor as a detection means for a subject. Further, since the number of parts is reduced, reliability is improved. In addition, when the subject is a human being in particular, it is not necessary to attach sensors other than the acceleration sensor to various parts of the body. Therefore, the behavior recognition device can be easily used without trouble.

(A)は、この発明の一実施形態の行動認識装置の外観を正面から見たところを示す図である。(B)は、上記行動認識装置を右側方から見たところを示す図である。(C)は、上記行動認識装置を分解状態で右側方から見たところを示す図である。(D)は、上記行動認識装置に含まれた部品を示す図である。(E)は、被験体としての人が上記行動認識装置を装着した態様を示す図である。(A) is the figure which shows the place which looked at the external appearance of the action recognition apparatus of one Embodiment of this invention from the front. (B) is the figure which shows the place which looked at the said action recognition apparatus from the right side. (C) is the figure which shows the place which looked at the said action recognition apparatus from the right side in the decomposition | disassembly state. (D) is a figure which shows the components contained in the said action recognition apparatus. (E) is a figure which shows the aspect which the person as a test subject mounted | wore with the said action recognition apparatus. 上記行動認識装置に含まれた演算装置のブロック構成を示す図である。It is a figure which shows the block configuration of the arithmetic unit contained in the said action recognition apparatus. 上記演算装置に含まれたニューラルネットワークの構成を示す図である。It is a figure which shows the structure of the neural network contained in the said arithmetic unit. 上記行動認識装置による認識結果が携帯電話に送信された態様を示す図である。It is a figure which shows the aspect by which the recognition result by the said action recognition apparatus was transmitted to the mobile telephone. 上記行動認識装置に含まれた加速度センサの出力についての一定期間毎の平均値を例示する図である。It is a figure which illustrates the average value for every fixed period about the output of the acceleration sensor contained in the said action recognition apparatus. 上記ニューラルネットワークの出力層の各ニューロンと、上記被験体としての人の動作状態との間の対応を示す図である。It is a figure which shows the correspondence between each neuron of the output layer of the said neural network, and the operating state of the person as said subject. (A)は、上記行動認識装置の学習段階の処理フローを示す図である。(B)は、上記行動認識装置の認識段階の処理フローを示す図である。(A) is a figure which shows the processing flow of the learning stage of the said action recognition apparatus. (B) is a figure which shows the processing flow of the recognition stage of the said action recognition apparatus.

以下、この発明の一実施形態の行動認識装置について、図面を参照しながら詳細に説明する。   Hereinafter, an action recognition device according to an embodiment of the present invention will be described in detail with reference to the drawings.

図1(A)に示すように、この発明の一実施形態の行動認識装置1は、本体ケーシング7と、この本体ケーシング7の前面部7Aに設けられたLCD(液晶表示素子)からなるディスプレイ部3とを備えている。   As shown in FIG. 1A, an action recognition apparatus 1 according to an embodiment of the present invention includes a display unit including a main body casing 7 and an LCD (liquid crystal display element) provided on a front surface portion 7A of the main body casing 7. 3 is provided.

図1(B)(行動認識装置1を右側方から見たところに相当する)に示すように、本体ケーシング7の後面部7Bには、この行動認識装置1を被験体(この例では人)90に装着するためのクリップ8が設けられている。具体的には、クリップ8は、蝶番9を介して後面部7Bに取り付けられており、クリップ8の先端8aが後面部7Bに近づくように、図示しないばねによって付勢されている。これにより、図1(E)に示すように、行動認識装置1は、被験体90の腰の横に容易に装着され得る(例えば、被験体90が着けている図示しないベルトにクリップ8を引っ掛ければ良い。)。   As shown in FIG. 1B (corresponding to the behavior recognition device 1 viewed from the right side), the behavior recognition device 1 is placed on the rear surface portion 7B of the main body casing 7 (the person in this example). A clip 8 is provided for mounting on 90. Specifically, the clip 8 is attached to the rear surface portion 7B via a hinge 9, and is urged by a spring (not shown) so that the tip 8a of the clip 8 approaches the rear surface portion 7B. Thereby, as shown in FIG. 1 (E), the action recognition device 1 can be easily attached to the side of the waist of the subject 90 (for example, the clip 8 is hooked on a belt (not shown) worn by the subject 90). Just do it.)

図1(C)および図1(D)によって分かるように、ケーシング7の内部には、電子回路基板10と、この電子回路基板10へ電力を供給するための充電可能な電池6とが収容されている。   As can be seen from FIGS. 1C and 1D, the casing 7 contains an electronic circuit board 10 and a rechargeable battery 6 for supplying power to the electronic circuit board 10. ing.

電子回路基板10には、無線通信装置4と、加速度センサ2と、演算装置5とが搭載されている。   On the electronic circuit board 10, the wireless communication device 4, the acceleration sensor 2, and the arithmetic device 5 are mounted.

無線通信装置4は、この行動認識装置1の近傍に存在する携帯電話やパーソナルコンピュータ等との間で、Bluetooth(ブルートゥース)規格によって無線通信を行う公知の装置である。この無線通信装置4により、この行動認識装置1の認識結果(後述)を上記携帯電話やパーソナルコンピュータ等へ送信することが可能となる。   The wireless communication device 4 is a known device that performs wireless communication with a mobile phone, a personal computer, or the like that exists in the vicinity of the action recognition device 1 according to the Bluetooth standard. The wireless communication device 4 can transmit a recognition result (described later) of the action recognition device 1 to the mobile phone, personal computer, or the like.

加速度センサ2は、X軸・Y軸・Z軸の3軸方向の加速度を、この例では±2Gの範囲で検知可能な半導体式の公知のものである。この加速度センサ2は、10ミリ秒周期でX,Y,Z方向の加速度をそれぞれ計測して出力する。加速度センサ2が出力した値は、次に述べる制御部50に内蔵されたメモリ54(図2参照)に順次格納され、少なくとも5秒間保持される。   The acceleration sensor 2 is a well-known semiconductor type capable of detecting accelerations in the X axis, Y axis, and Z axis directions in the range of ± 2 G in this example. The acceleration sensor 2 measures and outputs accelerations in the X, Y, and Z directions with a period of 10 milliseconds. Values output from the acceleration sensor 2 are sequentially stored in a memory 54 (see FIG. 2) built in the control unit 50 described below, and held for at least 5 seconds.

演算装置5は、図2に示すように、この演算装置5全体の動作を制御するCPU(中央演算処理装置)からなる制御部50と、加速度センサ2の出力を受けて処理する入力処理部51と、ニューラルネットワーク52と、ニューラルネットワーク52の出力を受けて処理する出力処理部53と、データを一時的に格納し得るメモリ54とを備えている。   As shown in FIG. 2, the arithmetic device 5 includes a control unit 50 composed of a CPU (central processing unit) that controls the overall operation of the arithmetic device 5, and an input processing unit 51 that receives and processes the output of the acceleration sensor 2. A neural network 52, an output processing unit 53 that receives and processes the output of the neural network 52, and a memory 54 that can temporarily store data.

入力処理部51は、制御部50による制御下で、加速度センサ2の出力に対して信号処理を施して、人90の動きを表す特徴データとして複数種類の統計データを生成する。具体的には、入力処理部51は、次のような統計データを生成する。   The input processing unit 51 performs signal processing on the output of the acceleration sensor 2 under the control of the control unit 50, and generates a plurality of types of statistical data as feature data representing the movement of the person 90. Specifically, the input processing unit 51 generates the following statistical data.

まず、現在の時刻(人90の動作状態の認識を行う時刻に相当)をt1とし、そこから5秒前の時刻をt0とする。入力処理部51は、時刻t0からt1までの5秒間にメモリ54に格納された加速度センサ2のX,Y,Z方向の出力(10ミリ秒周期の値)の平均値をそれぞれ統計データとして算出する。算出された平均値を、それぞれ特徴データX1,Y1,Z1とする。   First, the current time (corresponding to the time when the operating state of the person 90 is recognized) is set to t1, and the time 5 seconds before is set to t0. The input processing unit 51 calculates, as statistical data, average values of outputs in the X, Y, and Z directions (10-millisecond cycle values) of the acceleration sensor 2 stored in the memory 54 for 5 seconds from time t0 to t1. To do. The calculated average values are referred to as feature data X1, Y1, and Z1, respectively.

また、入力処理部51は、時刻t0からt1までの5秒間における加速度センサ2のX,Y,Z方向の出力の標準偏差を統計データとして算出する。算出された標準偏差を、それぞれ特徴データX2,Y2,Z2とする。   Further, the input processing unit 51 calculates the standard deviation of the output in the X, Y, and Z directions of the acceleration sensor 2 for 5 seconds from time t0 to t1 as statistical data. The calculated standard deviations are referred to as feature data X2, Y2, and Z2, respectively.

また、入力処理部51は、時刻t0からt1までの5秒間における加速度センサ2のX,Y,Z方向それぞれの出力の最大値と最小値とを探索して、上記最大値と最小値との間の差をそれぞれ統計データとして算出する。算出された上記最大値と最小値との間の差を、それぞれ特徴データX3,Y3,Z3とする。   Further, the input processing unit 51 searches for the maximum value and the minimum value of the output in the X, Y, and Z directions of the acceleration sensor 2 for 5 seconds from the time t0 to the time t1, and calculates the maximum value and the minimum value. Each difference is calculated as statistical data. The difference between the calculated maximum value and minimum value is referred to as feature data X3, Y3, and Z3, respectively.

また、入力処理部51は、時刻t0からt1までの5秒間において加速度センサ2のX,Y,Z方向の出力が0になった回数(以下「ゼロクロス回数」という。)をそれぞれカウントして統計データとして求める。求められたゼロクロス回数を、それぞれX4,Y4,Z4とする。   In addition, the input processing unit 51 counts the number of times the output of the acceleration sensor 2 in the X, Y, and Z directions becomes 0 in 5 seconds from time t0 to time t1 (hereinafter referred to as “the number of times of zero crossing”). Find as data. The obtained zero crossing numbers are X4, Y4, and Z4, respectively.

このように、入力処理部51は、12種類の統計データである特徴データX1〜X4,Y1〜Y4,Z1〜Z4を生成する。入力処理部51による特徴データX1〜X4,Y1〜Y4,Z1〜Z4の生成は、100ミリ秒周期で行われる。1つの軸方向、例えばX軸方向に関して言えば、メモリ54に格納された5000個の1種類のデータ(5秒間にわたる加速度センサ2の出力値)から、入力処理部51によって4種類の特徴データX1〜X4が100ミリ秒毎に生成される、ということになる。   In this way, the input processing unit 51 generates feature data X1 to X4, Y1 to Y4, and Z1 to Z4 that are 12 types of statistical data. The generation of the feature data X1 to X4, Y1 to Y4, and Z1 to Z4 by the input processing unit 51 is performed at a cycle of 100 milliseconds. With respect to one axial direction, for example, the X-axis direction, four types of feature data X1 are input by the input processing unit 51 from one type of 5000 data (output value of the acceleration sensor 2 over 5 seconds) stored in the memory 54. ~ X4 is generated every 100 milliseconds.

ニューラルネットワーク52は、この例では図3に示すように、12個の入力素子i,i,…,i12を含む入力層52iと、7個の素子m,m,…,mを含む中間層52mと、7個の出力素子n,n,…,nを含む出力層52nとの3層から構成されている。このニューラルネットワーク52は、この例では逆誤差伝搬法(Back Propagation algorithm)と呼ばれる学習法によって、入力層52iの入力素子i,i,…,i12に入力された入力から、出力層52nの出力素子n,n,…,nに正しい出力が得られるような学習を行えるように構成されている。 In this example, as shown in FIG. 3, the neural network 52 includes an input layer 52 i including 12 input elements i 1 , i 2 ,..., I 12 and 7 elements m 1 , m 2 ,. 7 and an output layer 52n including seven output elements n 1 , n 2 ,..., N 7 . In this example, the neural network 52 is connected to an output layer 52n from an input input to the input elements i 1 , i 2 ,..., I 12 of the input layer 52i by a learning method called a back error propagation method (Back Propagation algorithm). output element n 1, n 2 of, ..., correct output to n 7 is configured to perform the learning, as obtained.

具体的には、まず、入力素子i,i,…,i12に対する入力にそれぞれ重み係数wj1,wj2,…,wj12(j=1,2,…,7とする。)を乗算し、次のようにそれらの入力と重み係数との積の線形和ujを求める。

Figure 2011224122
Specifically, first, an input element i 1, i 2, ..., respectively weighting factor inputs to i 12 w j1, w j2, ..., w j12 a (j = 1, 2, ..., is. 7) Multiplication is performed to obtain a linear sum u j of products of these inputs and weighting factors as follows.
Figure 2011224122

出力素子n,n,…,nの出力を、次のようにその線形和ujのシグモイド関数f(u)であるものとする。
f(u)=1/(1+exp(−u))
次に、入力素子i,i,…,i12に或る入力データセットが入力されたときの出力素子n,n,…,nの出力と、正しい解答を表す教師データとの間の誤差を求める。
Assume that the output of the output elements n 1 , n 2 ,..., N 7 is a sigmoid function f (u j ) of its linear sum u j as follows.
f (u j ) = 1 / (1 + exp (−u j ))
Then, the input element i 1, i 2, ..., output element n 1 when a certain set of input data is input to the i 12, n 2, ..., an output of n 7, and teacher data representing the correct answer Find the error between.

出力素子n,n,…,nの出力とその教師データとの間の誤差が解消するように、上記重み係数wj1,wj2,…,wj12を変更してゆく。誤差の元となった中間層の出力も順次調整してゆく。 Output element n 1, n 2, ..., as the error between the output of the n 7 and the teacher data is eliminated, the weight coefficient w j1, w j2, ..., slide into change w j12. The output of the intermediate layer that caused the error is also adjusted sequentially.

このようにして学習を行ってゆくと、或る入力データセットに対して出力層52nの出力素子n,n,…,nのうち、1つの出力素子のみが反応し(値が1になり)、残りの出力素子の値は略0になるようになる。ニューラルネットワーク52は、このような逆誤差伝搬法による学習を行えるように構成されている。 When learning is performed in this manner, only one output element among the output elements n 1 , n 2 ,..., N 7 of the output layer 52n reacts to a certain input data set (the value is 1). The remaining output element values become substantially zero. The neural network 52 is configured to perform learning by such an inverse error propagation method.

図2中の出力処理部53は、制御部50による制御下で、ニューラルネットワーク52の出力層52nの出力を受けて、それに応じた判定結果を画像として出力する処理を行う。この判定結果は、行動認識装置1のディスプレイ部3に表示され、さらには通信装置4を介して、行動認識装置1の近傍に存在する携帯電話101のディスプレイ部103(図4参照)に表示される。   The output processing unit 53 in FIG. 2 performs a process of receiving an output of the output layer 52n of the neural network 52 and outputting a determination result corresponding to the output as an image under the control of the control unit 50. The determination result is displayed on the display unit 3 of the behavior recognition device 1 and further displayed on the display unit 103 (see FIG. 4) of the mobile phone 101 existing in the vicinity of the behavior recognition device 1 via the communication device 4. The

上述の入力処理部51、ニューラルネットワーク52、出力処理部53は、ソフトウェアによって構成されている。   The above-described input processing unit 51, neural network 52, and output processing unit 53 are configured by software.

次に、被験体90がラジオ体操の中の複数種類の動作を行う場合を想定して、図7(A)を参照しながら、行動認識装置1におけるニューラルネットワーク52の学習段階の処理について説明する。この例では、複数種類の動作とは、「腕を振ってあしをまげのばす運動」、「からだをまわす運動」などの7種類の動作を指す(動作の種類数は、出力素子n,n,…,nの個数に対応している。)。 Next, assuming that the subject 90 performs a plurality of types of operations in the radio exercises, the learning stage process of the neural network 52 in the action recognition device 1 will be described with reference to FIG. . In this example, the plurality of types of motions refers to seven types of motions such as “the motion of swinging the arm and extending the arm” and “the motion of turning the body” (the number of motion types is the output elements n 1 , n 2 ,..., N 7. )

図7(A)中のステップS1に示すように、まず、開発者や試験用のスタッフが被験体90となって行動認識装置1を装着し、ニューラルネットワーク52に学習させたい7種類の動作を順次行う。これにより、行動認識装置1の加速度センサ2は、上記7種類の動作に対応する加速度データをそれぞれ実測して取得する。既述のように、加速度センサ2のX,Y,Z方向の出力(10ミリ秒周期の値)が、メモリ54に格納される。これとともに、入力処理部51は、既述の12種類の特徴データX1〜X4,Y1〜Y4,Z1〜Z4を生成する。例えば、被験体90が「からだをまわす運動」をしている時、X,Y,Z方向の出力の平均値X1,Y1,Z1は、図5中のデータ12,13,14のように得られる。   As shown in step S1 in FIG. 7A, first, a developer or a test staff becomes the subject 90 and wears the action recognition device 1, and the seven types of operations that the neural network 52 wants to learn are performed. Do it sequentially. As a result, the acceleration sensor 2 of the behavior recognition device 1 obtains the acceleration data corresponding to the above-described seven types of operations by actual measurement. As described above, the output of the acceleration sensor 2 in the X, Y, and Z directions (the value of a 10 millisecond period) is stored in the memory 54. At the same time, the input processing unit 51 generates the 12 types of feature data X1 to X4, Y1 to Y4, and Z1 to Z4 described above. For example, when the subject 90 is “moving around the body”, average values X1, Y1, and Z1 of outputs in the X, Y, and Z directions are obtained as data 12, 13, and 14 in FIG. It is done.

次に、図7(A)中のステップS2に示すように、ラジオ体操の各動作において特徴的な部分を抽出する。図5の例では、被験体90が「からだをまわす運動」をしている時に特徴的なデータを表す期間15のデータを抽出する。このようにした場合、学習の精度を高めることができ、結果として誤認識の防止につながり、有意義である。なお、図5の例では、平均値X1,Y1,Z1のみを示しているが、標準偏差X2,Y2,Z2、最大値と最小値との間の差X3,Y3,Z3、またはゼロクロス回数X4,Y4,Z4について、それぞれ特徴的なデータを表す期間があれば、その期間のデータを抽出するのが望ましい。   Next, as shown in step S2 in FIG. 7A, a characteristic portion is extracted in each operation of the radio exercises. In the example of FIG. 5, data of period 15 representing characteristic data is extracted when the subject 90 is “exercising to turn the body”. In this case, the accuracy of learning can be improved, resulting in prevention of erroneous recognition, which is meaningful. In the example of FIG. 5, only the average values X1, Y1, and Z1 are shown, but the standard deviations X2, Y2, and Z2, the differences X3, Y3, and Z3 between the maximum value and the minimum value, or the number of zero crossings X4 , Y4, and Z4, if there is a period representing characteristic data, it is desirable to extract data for that period.

次に、図7(A)中のステップS3に示すように、正しい解答(動作)を表す教師データを作成する。この教師データは、被験体90が或る動作をした時に、入力処理部51によって生成された12種類の特徴データX1〜X4,Y1〜Y4,Z1〜Z4がニューラルネットワーク52に入力された場合に相当するものとする。   Next, as shown in step S3 in FIG. 7A, teacher data representing a correct answer (action) is created. This teacher data is obtained when 12 types of feature data X1 to X4, Y1 to Y4, and Z1 to Z4 generated by the input processing unit 51 are input to the neural network 52 when the subject 90 performs a certain operation. It shall be equivalent.

次に、図7(A)中のステップS4に示すように、上記教師データを用いて、ニューラルネットワーク52に、逆誤差伝搬法によって学習を行わせる。すなわち、図3に示したニューラルネットワーク52の入力素子i,i,…,i12に或る入力データセットとして特徴データX1〜X4,Y1〜Y4,Z1〜Z4が入力されたときの出力素子n,n,…,nの出力と、正しい解答を表す教師データとの間の誤差を求める。そして、出力素子n,n,…,nの出力とその教師データとの間の誤差が解消するように、フィードバックを行って、上記重み係数wj1,wj2,…,wj12を変更して調整してゆく。誤差の元となった中間層の出力も順次調整してゆく。これにより、図7(A)中のステップS5,S6に示すように、被験体90の動作状態判別のための重み係数wj1,wj2,…,wj12を得て、ニューラルネットワーク52にそれらの重み係数を組み込む。このことは、ニューラルネットワーク52を構成するソフトウェア上では、入力データセットから出力データセットを得るための計算式(アルゴリズム)を確立することと等価である。 Next, as shown in step S4 in FIG. 7A, the neural network 52 is trained by the inverse error propagation method using the teacher data. That is, the output when the characteristic data X1 to X4, Y1 to Y4, and Z1 to Z4 are inputted as a certain input data set to the input elements i 1 , i 2 ,..., I 12 of the neural network 52 shown in FIG. An error between the output of the elements n 1 , n 2 ,..., N 7 and the teacher data representing the correct answer is obtained. Then, feedback is performed so that an error between the output of the output elements n 1 , n 2 ,..., N 7 and the teacher data is eliminated, and the weight coefficients w j1 , w j2 ,. Change and adjust. The output of the intermediate layer that caused the error is also adjusted sequentially. As a result, as shown in steps S5 and S6 in FIG. 7A, weight coefficients w j1 , w j2 ,..., W j12 for determining the operation state of the subject 90 are obtained and stored in the neural network 52. Incorporate the weighting factor. This is equivalent to establishing a calculation formula (algorithm) for obtaining an output data set from an input data set on the software constituting the neural network 52.

このようにして学習を行ってゆくと、或る運動を表す入力データセットに対して、出力層52nの出力素子n,n,…,nのうち、1つの出力素子のみが反応し(値が1になり)、残りの出力素子は反応しない(値が略0になる)ようになる。例えば、図6に示すように、nが反応したときは「腕を振ってあしをまげのばす運動」、nが反応したときは「からだを横にまげる運動」、nが反応したときは「からだをまわす運動」、nが反応したときは「停止(何もしていない)」、nが反応したときは「両あしでとぶ運動」、nが反応したときは「胸をそらす運動」、nが反応したときは「腕を上下にのばす運動」という動作状態を表すようになる。 When learning is performed in this manner, only one output element among the output elements n 1 , n 2 ,..., N 7 of the output layer 52n reacts to an input data set representing a certain motion. (The value becomes 1), and the remaining output elements do not react (the value becomes substantially 0). For example, as shown in FIG. 6, when n 1 responds, “swing your arm and squeeze out the bottom”, when n 2 reacts, “spin the body sideways”, when n 3 reacts the "movement to turn the body", when n 4 is the reaction "(not doing anything) stop", when n 5 is react "flies in both legs movement", the "chest when n 6 has reacted The motion state of “swaying motion”, when n 7 responds, represents the motion state of “motion of stretching the arm up and down”.

このようにして、学習段階では、被験体90がした複数種類(この例では7種類)の動作又は行動と被験体90に取り付けられた加速度センサ2の出力との間のそれぞれの対応関係に基づいて、加速度センサ2の出力から被験体90がした動作又は行動を認識する学習を済ませる。   In this way, in the learning stage, based on the correspondence between the plurality of types (seven types in this example) of actions or actions performed by the subject 90 and the output of the acceleration sensor 2 attached to the subject 90. Thus, learning for recognizing the action or action performed by the subject 90 from the output of the acceleration sensor 2 is completed.

次に、図7(B)を参照しながら、行動認識装置1におけるニューラルネットワーク52の認識段階の処理について説明する。被験体90は、行動認識装置1を装着して、ラジオ体操の中の或る動作を行うものとする。   Next, the recognition stage process of the neural network 52 in the action recognition apparatus 1 will be described with reference to FIG. It is assumed that the subject 90 wears the action recognition device 1 and performs a certain operation in the radio exercises.

図7(B)中のステップS11に示すように、まず、行動認識装置1の加速度センサ2は、上記7種類の動作に対応する加速度データをそれぞれ実測して取得する。既述のように、加速度センサ2のX,Y,Z方向の出力(10ミリ秒周期の値)が、メモリ54に格納される。これとともに、ステップS12に示すように、入力処理部51は、既述の12種類の統計データである特徴データX1〜X4,Y1〜Y4,Z1〜Z4を生成する。   As shown in step S <b> 11 in FIG. 7B, first, the acceleration sensor 2 of the behavior recognition apparatus 1 actually acquires and acquires acceleration data corresponding to the seven types of operations. As described above, the output of the acceleration sensor 2 in the X, Y, and Z directions (the value of a 10 millisecond period) is stored in the memory 54. At the same time, as shown in step S12, the input processing unit 51 generates feature data X1 to X4, Y1 to Y4, and Z1 to Z4, which are the 12 types of statistical data described above.

次に、ステップS13に示すように、ニューラルネットワーク52の入力素子i,i,…,i12に、上記12種類の特徴データX1〜X4,Y1〜Y4,Z1〜Z4を含む入力データセットが入力される。すると、ステップS14に示すように、ニューラルネットワーク52の出力素子n,n,…,nに、結果を表すデータが出力される。ステップS15に示すように、その結果から、出力処理部53は、被験体90が現在行っている動作が何であるかを判定する。 Next, as shown in step S13, an input data set including the 12 types of feature data X1 to X4, Y1 to Y4, and Z1 to Z4 in the input elements i 1 , i 2 ,..., I 12 of the neural network 52. Is entered. Then, as shown in step S14, data representing the result is output to the output elements n 1 , n 2 ,..., N 7 of the neural network 52. As shown in step S <b> 15, based on the result, the output processing unit 53 determines what operation the subject 90 is currently performing.

そして、ステップS16に示すように、出力処理部53による判定結果をディスプレイ部3に表示する。さらには通信装置4を介して、行動認識装置1の近傍に存在する携帯電話101のディスプレイ部103(図4参照)に表示する。図4の例では、矢印91で示すように、被験体90は「からだをまわす運動」を行っている。これに応じて、携帯電話101のディスプレイ部103には、「体を回す運動」と表示されている。   And as shown to step S16, the determination result by the output process part 53 is displayed on the display part 3. FIG. Furthermore, it displays on the display part 103 (refer FIG. 4) of the mobile telephone 101 which exists in the vicinity of the action recognition apparatus 1 via the communication apparatus 4. FIG. In the example of FIG. 4, as indicated by the arrow 91, the subject 90 is performing “the exercise of turning the body”. In response to this, “display exercise” is displayed on the display unit 103 of the mobile phone 101.

この行動認識装置1は、被験体90が行動認識装置1を装着して動作又は行動を行っている間、ステップS11〜S16の処理を100ms周期で繰り返す。これにより、被験体90が行動認識装置1を装着して動作又は行動を行っている間、動作状態の判定を実質的にリアルタイムで常時行う。   The behavior recognition apparatus 1 repeats the processes of steps S11 to S16 at a cycle of 100 ms while the subject 90 wears the behavior recognition apparatus 1 and performs an action or a behavior. As a result, while the subject 90 is wearing the action recognition device 1 and performing an action or action, the determination of the operating state is always performed substantially in real time.

これにより、行動認識装置1を使用するユーザは、動作状態の判定結果を外部のシステム(例えば、フィットネスを目的とした携帯電話向けアプリケーションソフトウェアなど)に提供することができる。図4の例では、携帯電話101のメモリ(図示せず)に被験体90の動作状態が記録(ログ)として順次保存される。携帯電話にインストールされたアプリケーションソフトウェアは、その動作状態の記録に基づいて、例えば現在のエクササイズ量、運動開始時から現時点までの消費カロリなどを算出することができる。この例では、携帯電話101のディスプレイ部103に、現在のエクササイズ量が2.0EX(EXは任意単位)であり、運動開始時から現時点までの消費カロリが160kcalであることが表示されている。   Thereby, the user who uses the action recognition apparatus 1 can provide the determination result of the operation state to an external system (for example, application software for mobile phones for fitness purposes). In the example of FIG. 4, the operation state of the subject 90 is sequentially stored as a record (log) in a memory (not shown) of the mobile phone 101. The application software installed in the mobile phone can calculate the current exercise amount, calorie consumption from the start of exercise to the present time, for example, based on the record of the operation state. In this example, it is displayed on the display unit 103 of the mobile phone 101 that the current exercise amount is 2.0EX (EX is an arbitrary unit), and the calorie consumption from the start of exercise to the present time is 160 kcal.

また、判定された動作状態に対応した筋肉の使用度合などのデータベースを携帯電話側に持たせることにより、「どのあたりの筋肉が鍛えられたか」というような有意義な情報をユーザに提供することもできる。   In addition, by providing the mobile phone with a database of muscle usage, etc., corresponding to the determined operating state, it is possible to provide the user with meaningful information such as “how much muscle has been trained” it can.

なお、行動認識装置1の出力処理部53がエクササイズ量、消費カロリなどを算出して、行動認識装置1のディスプレイ部3と携帯電話101の103との両方に表示しても良い。   Note that the output processing unit 53 of the behavior recognition device 1 may calculate the exercise amount, calorie consumption, and the like and display them on both the display unit 3 of the behavior recognition device 1 and the mobile phone 101.

この実施形態では、加速度センサ2のX,Y,Z方向の出力(10ミリ秒周期の値)から、入力処理部51によって、既述の12種類の統計データである特徴データX1〜X4,Y1〜Y4,Z1〜Z4を生成した。しかしながら、これに限られるものではない。例えば標準偏差X2,Y2,Z2に代えて、またはそれに加えて、時刻t0からt1までの5秒間における加速度センサ2のX,Y,Z方向の出力の「分散」を、特徴データとして生成して用いても良い。または、最大値と最小値との間の差X3,Y3,Z3に代えて、またはそれに加えて、時刻t0からt1までの5秒間における加速度センサ2のX,Y,Z方向の出力の「最大値」および「最小値」を、特徴データとして抽出して用いても良い。要するに、この実施形態で挙げた特徴データのうち、少なくとも2種類の特徴データを用いれば、本発明を実施することができる。当然ながら、この実施形態で挙げた特徴データの全部を用いても良い。   In this embodiment, feature data X1 to X4, Y1 which are the above-described 12 types of statistical data are input by the input processing unit 51 from the X-, Y- and Z-direction outputs (values of 10 milliseconds) of the acceleration sensor 2. -Y4, Z1-Z4 were produced. However, the present invention is not limited to this. For example, instead of or in addition to the standard deviations X2, Y2, and Z2, the “distribution” of the output in the X, Y, and Z directions of the acceleration sensor 2 for 5 seconds from time t0 to t1 is generated as feature data. It may be used. Alternatively, instead of or in addition to the differences X3, Y3, and Z3 between the maximum value and the minimum value, the “maximum” of the output in the X, Y, and Z directions of the acceleration sensor 2 during 5 seconds from time t0 to t1 The “value” and “minimum value” may be extracted and used as feature data. In short, the present invention can be implemented by using at least two types of feature data among the feature data mentioned in this embodiment. Of course, all of the feature data mentioned in this embodiment may be used.

また、この実施形態では、ニューラルネットワーク52は、3層からなり、12個の入力素子、7個の出力素子を備えたものとした。しかしながら、これに限られるものではなく、ニューラルネットワーク52は、さらに多層で、多くの入力素子、出力素子を備えても良い。   In this embodiment, the neural network 52 includes three layers and includes 12 input elements and 7 output elements. However, the present invention is not limited to this, and the neural network 52 may be further multilayered and include a large number of input elements and output elements.

また、この実施形態では、学習段階で、ニューラルネットワーク52にラジオ体操の中の動作を学習させたが、これに限られるものではない。ニューラルネットワーク52には、例えば、立つ、座る、歩く、走るなどの基本的な動作に加えて、被験体がダンスの中の一動作をしていること、武術の型の中の一動作をしていることなどを学習させても良い。そのようにした場合、実際の認識段階で、立つ、座る、歩く、走るなどの基本的な動作に加えて、被験体がダンスの中の一動作をしていること、武術の型の中の一動作をしていることなども認識できるようになる。   In this embodiment, the neural network 52 is made to learn the operation during the radio exercise in the learning stage. However, the present invention is not limited to this. For example, in addition to basic actions such as standing, sitting, walking, and running, the neural network 52 performs one action in a dance and one action in a martial arts type. You may learn what you are doing. When doing so, in addition to the basic actions such as standing, sitting, walking, running, etc. in the actual recognition stage, the subject is performing one action in the dance, You can also recognize that you are doing one action.

以上より明らかなように、この実施形態の行動認識装置1では、ニューラルネットワーク52に、上記学習により、予め多種類の高度のアルゴリズムを実質的に保持しておくことができる。特に、学習段階では、加速度センサ2の出力から生成された複数種類の統計データが並行してニューラルネットワーク52に入力されるので、ニューラルネットワーク52による学習の精度を高めることができる。また、認識段階では、ニューラルネットワーク52は、加速度センサ2の出力から生成された複数種類の統計データを受けて、被験体90がした動作又は行動を認識する。したがって、この行動認識装置1によれば、多種類の複雑な動作を精度良く認識できる。   As is clear from the above, in the behavior recognition apparatus 1 of this embodiment, the neural network 52 can substantially hold various types of advanced algorithms in advance by the learning. In particular, at the learning stage, a plurality of types of statistical data generated from the output of the acceleration sensor 2 are input to the neural network 52 in parallel, so that the accuracy of learning by the neural network 52 can be improved. Further, at the recognition stage, the neural network 52 receives a plurality of types of statistical data generated from the output of the acceleration sensor 2 and recognizes the action or action performed by the subject 90. Therefore, according to this action recognition device 1, it is possible to accurately recognize many kinds of complicated operations.

また、上記行動認識装置1は、被験体90に対する検出手段として加速度センサ2のみを備えているので、簡単かつ安価に構成され得る。また、部品数が少なくなるので、信頼性が高まる。また、被験体90が特に人である場合は、加速度センサ2以外のセンサを体の色々なところに取り付ける必要がないので、行動認識装置1は、面倒がなく、気軽に使用され得る。   Moreover, since the said action recognition apparatus 1 is provided with only the acceleration sensor 2 as a detection means with respect to the test subject 90, it can be comprised simply and cheaply. Further, since the number of parts is reduced, reliability is improved. In addition, when the subject 90 is a person in particular, it is not necessary to attach sensors other than the acceleration sensor 2 to various parts of the body, so that the action recognition device 1 can be used easily without trouble.

また、この実施形態では、行動認識装置1は、携帯電話101に対して別体として構成されたが、これに限られるものではない。行動認識装置1は、携帯電話101や、歩数計・活動量計、モバイルコンピュータなどの電子機器に、一体に組み込んで構成され得る。これにより、ユーザの利便性を高めることができる。   Moreover, in this embodiment, although the action recognition apparatus 1 was comprised separately from the mobile telephone 101, it is not restricted to this. The action recognition device 1 can be configured integrally with an electronic device such as a mobile phone 101, a pedometer / activity meter, or a mobile computer. Thereby, a user's convenience can be improved.

一方、加速度センサ2を本体ケーシング7とは別体に構成して、加速度センサ2(およびそれに付随した無線通信装置)のみが被験体90に装着されるようにしても良い。この場合、加速度センサ2と本体とは無線通信装置を介して通信する。   On the other hand, the acceleration sensor 2 may be configured separately from the main body casing 7 so that only the acceleration sensor 2 (and the associated wireless communication device) is attached to the subject 90. In this case, the acceleration sensor 2 communicates with the main body via a wireless communication device.

なお、上記行動認識装置1が対象とする被験体90は、冒頭に述べたように、代表的には人間を指すが、動物や、機械その他の移動体も含む。   The subject 90 targeted by the behavior recognition apparatus 1 typically refers to a human as described above, but also includes animals, machines, and other moving objects.

1 行動認識装置
2 加速度センサ
3 ディスプレイ部
4 無線通信装置
5 演算装置
6 電池
7 本体ケーシング
51 入力処理部
52 ニューラルネットワーク
53 出力処理部
101 携帯電話
DESCRIPTION OF SYMBOLS 1 Action recognition apparatus 2 Acceleration sensor 3 Display part 4 Wireless communication apparatus 5 Arithmetic apparatus 6 Battery 7 Main body casing 51 Input processing part 52 Neural network 53 Output processing part 101 Mobile phone

Claims (5)

被験体に取り付けられるべき加速度センサと、
予め、上記被験体がした複数種類の動作又は行動と上記被験体に取り付けられた上記加速度センサの出力との間のそれぞれの対応関係に基づいて、上記加速度センサの出力から上記被験体がした動作又は行動を認識する学習を済ませたニューラルネットワークとを備えて、
上記被験体に取り付けられた上記加速度センサの出力から、上記ニューラルネットワークを通して上記被験体がした動作又は行動を認識する行動認識装置において、
上記加速度センサの出力に対して統計処理を施して、上記被験体の動きを表す特徴データとして複数種類の統計データを生成する入力処理部を備え、
上記入力処理部が生成した上記複数種類の統計データが並行して上記ニューラルネットワークに入力されるようになっていることを特徴とする行動認識装置。
An acceleration sensor to be attached to the subject;
Based on the correspondence between the plurality of types of actions or actions performed by the subject in advance and the output of the acceleration sensor attached to the subject, the action performed by the subject from the output of the acceleration sensor Or a neural network with learning to recognize actions,
From the output of the acceleration sensor attached to the subject, in the behavior recognition device that recognizes the action or behavior of the subject through the neural network,
An input processing unit that performs statistical processing on the output of the acceleration sensor and generates a plurality of types of statistical data as feature data representing the movement of the subject,
The behavior recognition apparatus, wherein the plurality of types of statistical data generated by the input processing unit are input to the neural network in parallel.
請求項1に記載の行動認識装置において、
上記統計データとして、或る期間についての上記加速度センサの出力の平均値と、上記期間における上記加速度センサの出力の分散または標準偏差とを含むことを特徴とする行動認識装置。
The action recognition apparatus according to claim 1,
The behavior recognition apparatus characterized in that the statistical data includes an average value of the output of the acceleration sensor for a certain period and a variance or standard deviation of the output of the acceleration sensor for the period.
請求項1に記載の行動認識装置において、
上記統計データとして、或る期間についての上記加速度センサの出力の平均値と、上記期間において上記加速度センサの出力が所定値になった回数とを含むことを特徴とする行動認識装置。
The action recognition apparatus according to claim 1,
The behavior recognition apparatus characterized in that the statistical data includes an average value of the output of the acceleration sensor for a certain period and the number of times the output of the acceleration sensor has become a predetermined value in the period.
請求項1に記載の行動認識装置において、
上記統計データとして、或る期間についての上記加速度センサの出力の平均値と、上記期間における上記加速度センサの出力の最大値および最小値、または上記最大値と最小値との間の差とを含むことを特徴とする行動認識装置。
The action recognition apparatus according to claim 1,
The statistical data includes an average value of the output of the acceleration sensor for a certain period and a maximum value and a minimum value of the output of the acceleration sensor in the period, or a difference between the maximum value and the minimum value. An action recognition device characterized by that.
請求項1に記載の行動認識装置において、
上記統計データとして、或る期間についての上記加速度センサの出力の平均値と、上記期間における上記加速度センサの出力の分散または標準偏差と、上記期間において上記加速度センサの出力が所定値になった回数と、上記期間における上記加速度センサの出力の最大値および最小値、または上記最大値と最小値との間の差とのうち、少なくとも2つを含むことを特徴とする行動認識装置。
The action recognition apparatus according to claim 1,
As the statistical data, the average value of the output of the acceleration sensor for a certain period, the variance or standard deviation of the output of the acceleration sensor in the period, and the number of times the output of the acceleration sensor has become a predetermined value in the period And at least two of the maximum value and the minimum value of the output of the acceleration sensor during the period, or the difference between the maximum value and the minimum value.
JP2010096134A 2010-04-19 2010-04-19 Behavior recognition device Pending JP2011224122A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010096134A JP2011224122A (en) 2010-04-19 2010-04-19 Behavior recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010096134A JP2011224122A (en) 2010-04-19 2010-04-19 Behavior recognition device

Publications (1)

Publication Number Publication Date
JP2011224122A true JP2011224122A (en) 2011-11-10

Family

ID=45040267

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010096134A Pending JP2011224122A (en) 2010-04-19 2010-04-19 Behavior recognition device

Country Status (1)

Country Link
JP (1) JP2011224122A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014112349A (en) * 2012-11-01 2014-06-19 Haneron:Kk Pedometer, data processing method and computer program of this pedometer
KR101528236B1 (en) * 2014-03-06 2015-06-12 국립대학법인 울산과학기술대학교 산학협력단 Method for position agnostic activity recognition of mobile terminal and apparatus using the same, computer readable medium for implementing the method
CN108491751A (en) * 2018-01-11 2018-09-04 华南理工大学 A kind of compound action recognition methods of the exploration privilege information based on simple action
WO2018180242A1 (en) * 2017-03-31 2018-10-04 Nttテクノクロス株式会社 Behavior specifying device, behavior specifying method and program
JP2018170969A (en) * 2017-03-31 2018-11-08 Nttテクノクロス株式会社 Behavior specification device, behavior specification method, and program
JP2020036627A (en) * 2019-12-17 2020-03-12 Nttテクノクロス株式会社 Action specification device, action specification method, and program
KR102141841B1 (en) * 2020-01-30 2020-08-06 주식회사 트리플 System and method for providing customized contents based on behavior pattern analysis
CN111544003A (en) * 2020-04-24 2020-08-18 佛山科学技术学院 Wushu action recognition system and method based on sensor and storage medium

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014112349A (en) * 2012-11-01 2014-06-19 Haneron:Kk Pedometer, data processing method and computer program of this pedometer
KR101528236B1 (en) * 2014-03-06 2015-06-12 국립대학법인 울산과학기술대학교 산학협력단 Method for position agnostic activity recognition of mobile terminal and apparatus using the same, computer readable medium for implementing the method
WO2018180242A1 (en) * 2017-03-31 2018-10-04 Nttテクノクロス株式会社 Behavior specifying device, behavior specifying method and program
JP2018170969A (en) * 2017-03-31 2018-11-08 Nttテクノクロス株式会社 Behavior specification device, behavior specification method, and program
CN108491751A (en) * 2018-01-11 2018-09-04 华南理工大学 A kind of compound action recognition methods of the exploration privilege information based on simple action
CN108491751B (en) * 2018-01-11 2021-08-10 华南理工大学 Complex action identification method for exploring privilege information based on simple action
JP2020036627A (en) * 2019-12-17 2020-03-12 Nttテクノクロス株式会社 Action specification device, action specification method, and program
KR102141841B1 (en) * 2020-01-30 2020-08-06 주식회사 트리플 System and method for providing customized contents based on behavior pattern analysis
CN111544003A (en) * 2020-04-24 2020-08-18 佛山科学技术学院 Wushu action recognition system and method based on sensor and storage medium
CN111544003B (en) * 2020-04-24 2023-04-25 佛山科学技术学院 Martial arts action recognition system and method based on sensor and storage medium

Similar Documents

Publication Publication Date Title
US10198928B1 (en) Fall detection system
US9640057B1 (en) Personal fall detection system and method
JP2011224122A (en) Behavior recognition device
US9526430B2 (en) Method and system to estimate day-long calorie expenditure based on posture
Seeger et al. myHealthAssistant: a phone-based body sensor network that captures the wearer's exercises throughout the day
JP5849093B2 (en) Integrated portable device and method implementing an accelerometer for detecting user asymmetry
US8500604B2 (en) Wearable system for monitoring strength training
JP2015058096A (en) Exercise support device, exercise support method, and exercise support program
TW201113005A (en) Method and system for monioring sport related fitness by estimating muscle power and joint force of limbs
JP2010017525A (en) Action determining apparatus and action determining method
JP2017158999A (en) Method for real-time monitoring maximal oxygen consumption
JP2011250915A (en) Posture recognition device
JP2009106374A (en) Display system for gait information
WO2022009817A1 (en) Server, user assistance system, user assistance method, and program
JP2012238072A (en) Action evaluation device
JP2021137415A (en) Wearable device and muscle function parameter calculation system
Cvetković et al. Mobile application to stimulate physical activity in schoolchildren
KR20150071729A (en) The Classifying and Counting Algorithm for Real-time Walk/Run Exercise based on An Acceleration Sensor
JP6881811B1 (en) Information processing system, management server, information processing method and program
JP6945908B1 (en) Information processing systems, servers, information processing methods and programs
JP7401568B2 (en) Walking motion visualization device, walking motion visualization method, facing state determination device, and facing state determining method
ur Rehman et al. HemiPhysioData-A SmartWatch App and Methodolgy to collect sensor data of Upper Limbs
Miguel-Ruiz et al. Measurement of Physical Activity Energy Expenditure Using Inertial Sensors
JP2021137416A (en) Computer program, muscle function parameter calculation device, muscle function parameter calculation system, and muscle function parameter calculation method
Song User Activity Tracker using Android Sensor