JP5516385B2 - Action recognition device, action recognition method, and action recognition program - Google Patents
Action recognition device, action recognition method, and action recognition program Download PDFInfo
- Publication number
- JP5516385B2 JP5516385B2 JP2010285161A JP2010285161A JP5516385B2 JP 5516385 B2 JP5516385 B2 JP 5516385B2 JP 2010285161 A JP2010285161 A JP 2010285161A JP 2010285161 A JP2010285161 A JP 2010285161A JP 5516385 B2 JP5516385 B2 JP 5516385B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- area
- sound wave
- region
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Description
本発明は、行動認識装置等に関する。 The present invention relates to an action recognition device and the like.
人物の行動を認識するための各種の技術が存在する。例えば、人物の手先に取り付けられたRFID(Radio Frequency Identification)リーダによって、モノに貼付されたIC(integrated Circuit)タグの属性情報を読み取ることで、人物の行動を認識する技術がある。また、人体通信技術を利用して、モノに貼付されたICタグの属性情報を読みとり、人物の行動を認識する技術もある。 There are various techniques for recognizing human behavior. For example, there is a technique for recognizing a person's action by reading attribute information of an IC (integrated circuit) tag attached to a thing with an RFID (Radio Frequency Identification) reader attached to the hand of the person. There is also a technology that uses human body communication technology to read the attribute information of an IC tag attached to an object and recognize a person's action.
しかし、モノの属性情報だけでは、モノを使って人物がどのように行動しているのかを認識することができない。例えば、モノが電話であることが属性情報に含まれている場合には、人物が電話をかけるのか、電話をポケット等に収納するのかを区別することができない。 However, it is not possible to recognize how a person behaves using a thing only with the attribute information of the thing. For example, when the attribute information includes that the object is a telephone, it cannot be distinguished whether a person makes a telephone call or stores a telephone in a pocket or the like.
これに対して、カメラで人物の画像を撮影し、撮影した画像を分析することで、人物の行動を識別する技術が存在する。この技術によれば、人物全体の動きを把握することができるため、モノを使って人物がどのように行動しているのかを認識することができる。 On the other hand, there is a technique for identifying a person's action by photographing a person's image with a camera and analyzing the photographed image. According to this technique, since the movement of the whole person can be grasped, it is possible to recognize how the person behaves using things.
しかしながら、上述した従来技術では、人物の行動を正確に認識することができないという問題がある。 However, the above-described prior art has a problem that it is impossible to accurately recognize a person's action.
人間の行動というものは、手先の動きが僅かに異なる場合であっても、行動の種別が異なる場合がある。しかし、上記の画像を分析する技術では、人物全体の動きを分析できても、手先レベルの細かい動作の違いまで区別することは困難である。例えば、人物がカメラに背を向けている状態では、携帯電話をポケットにしまう行動と、携帯電話をかける行動とを区別することができない。また、画像を分析する技術は、カメラに写らない人物の行動を認識することができず、使用できる場所が限られる。 Human behavior may be different in the type of behavior even if the movement of the hand is slightly different. However, with the above-described technique for analyzing an image, even if the movement of the entire person can be analyzed, it is difficult to distinguish even the small differences in movement at the hand level. For example, when a person is turning away from the camera, it is not possible to distinguish between an action of putting a mobile phone in a pocket and an action of putting a mobile phone. In addition, the technique for analyzing images cannot recognize the actions of a person who is not captured by the camera, and the place where the image can be used is limited.
開示の技術は、上記に鑑みてなされたものであって、人物の行動を正確に認識することができる行動認識装置、行動認識方法および行動認識プログラムを提供することを目的とする。 The disclosed technology has been made in view of the above, and an object thereof is to provide an action recognition device, an action recognition method, and an action recognition program capable of accurately recognizing a person's action.
本願の開示する行動認識装置は、領域情報記憶部、取得部、領域判定部、行動認識部を有する。領域情報記憶部は、利用者の身体周辺を複数の領域に分割した各領域の座標をそれぞれ記憶する。取得部は、利用者が利用する物体を識別する物体識別情報を取得する。領域判定部は、利用者の身体の一部の座標と領域の座標とを比較して、利用者の身体の一部を含む領域を判定する。行動認識部は、物体識別情報と前記利用者の身体の一部を含む領域の推移とを基にして、利用者の行動を認識する。 The behavior recognition device disclosed in the present application includes a region information storage unit, an acquisition unit, a region determination unit, and a behavior recognition unit. The area information storage unit stores the coordinates of each area obtained by dividing the periphery of the user's body into a plurality of areas. The acquisition unit acquires object identification information for identifying an object used by the user. The region determination unit compares the coordinates of a part of the user's body with the coordinates of the region to determine a region including a part of the user's body. The behavior recognition unit recognizes the behavior of the user based on the object identification information and the transition of the region including a part of the user's body.
本願の開示する行動認識装置の一つの態様によれば、人物の行動を正確に認識することができるという効果を奏する。 According to one aspect of the action recognition device disclosed in the present application, there is an effect that a person's action can be accurately recognized.
以下に、本願の開示する行動認識装置、行動認識方法および行動認識プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。 Embodiments of the action recognition device, action recognition method, and action recognition program disclosed in the present application will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.
図1は、本実施例にかかる行動認識システムの構成を示す図である。図1に示すように、この行動認識システムは、超音波発信機10、超音波受信部20a〜20c、行動認識装置100を有する。例えば、超音波受信機20a〜20cと行動認識装置100とは、それぞれ有線により接続される。超音波発信機10と行動認識装置100とは、無線により接続される。また、超音波発信機10は、利用者1の手首に設置される。超音波受信機20a〜20cは、利用者1の胸部にそれぞれ設置される。
FIG. 1 is a diagram illustrating a configuration of an action recognition system according to the present embodiment. As illustrated in FIG. 1, the behavior recognition system includes an
超音波発信機10は、超音波を発信する装置である。超音波発信機10が発信する超音波は、超音波受信機20a〜20cによって受信される。また、超音波発信機10は、超音波を発信するタイミングで、LED(Light Emitting Diode)等を発光させることで、超音波の発信時間を超音波受信機20a〜20cに通知する。超音波の発信時間は、超音波が発信されたタイミングに対応する。
The
また、超音波発信機10は、モノ2に貼付されたICタグ2aから、モノ2を識別するモノID(Identification)を読み取る。超音波発信機10は、モノIDの情報を行動認識装置100に通知する。例えば、超音波発信機10は、モノIDを読み取ったタイミングを契機として、超音波を周期的に発信し、LEDを周期的に発光させる。
Further, the
超音波受信機20a〜20cは、超音波発信機10から発信される超音波、およびLEDの光を受け、超音波発信機10から自超音波受信機までの距離を算出する装置である。図2は、超音波発信機から各超音波受信機までの距離を示す図である。図2に示すように、超音波発信機10から超音波受信機20aまでの距離をL1、超音波発信機10から超音波受信機20bまでの距離をL2、超音波発信機10から超音波受信機20cまでの距離をL3とする。超音波受信機20a〜20cは、それぞれが算出した距離L1〜L3の情報を、行動認識装置100に通知する。
The
行動認識装置100は、モノID、距離L1〜L3の情報を取得して、利用者1が利用するモノと利用者の手先の位置の推移とを特定し、利用者1の行動を認識する装置である。以下において、図1に示した超音波送信機10、超音波受信機20a〜20c、行動認識装置100の構成について順に説明する。
The
図3は、超音波発信機の構成を示す図である。図3に示すように、この超音波発信機10は、読み取り部11、超音波発信部12、発光部13、モノID通知部14、発信タイミング制御部15を有する。
FIG. 3 is a diagram showing the configuration of the ultrasonic transmitter. As shown in FIG. 3, the
読み取り部11は、周期的に電波を送信して、所定の範囲内に含まれるICタグにアクセスし、このICタグに含まれるモノIDを読み取る装置である。また、読み取り部11はタイマ機能を有し、モノIDを読み取った時間を検知時間として測定する。読み取り部11は、モノIDと検知時間とを対応づけて発信タイミング制御部15に出力する。例えば、読み取り部11は、RFIDリーダに対応する。
The
超音波発信部12は、発信タイミング制御部15の発信命令を受けた場合に、超音波を発信する装置である。例えば、超音波発信部12は、発信命令を受けた後、一定の周期毎に超音波を発信する。
The
発光部13は、発信タイミング制御部15の発光命令を受けた場合に、LEDを発光させる装置である。発光部13がLEDを発光させるタイミングは、超音波発信部12が超音波を発信するタイミングと同じタイミングである。例えば、発光部13は、超音波発信部12の発信タイミングに合わせて、LEDを発光させる。
The
モノID通知部14は、発信タイミング制御部15からモノIDと検知時間を取得し、モノIDと検知時間とを行動認識装置100に通知する装置である。例えば、モノID通知部14は、無線通信装置に対応する。
The product
発信タイミング制御部15は、発信命令を超音波発信部12に出力し、発光命令を発光部13に出力する処理部である。また、発信タイミング制御部15は、読み取り部11から、モノIDと検知時間とを受け、このモノIDと検知時間とをモノID通知部14に出力する。例えば、発信タイミング制御部15は、モノIDの情報を受けたことを契機として、発信命令および発光命令を出力してもよい。
The transmission timing control unit 15 is a processing unit that outputs a transmission command to the
発信タイミング制御部15は、例えば、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、発信タイミング制御部15は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路に対応する。 The transmission timing control unit 15 corresponds to, for example, an integrated device such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). The transmission timing control unit 15 corresponds to an electronic circuit such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit).
次に、図1に示した超音波受信機20a〜20cの構成について説明する。図4は、超音波受信機の構成を示す図である。超音波受信機20a〜20cの構成は同じであるため、ここでは、超音波受信機20aの構成を示す。図4に示すように、この超音波受信機20aは、超音波受信部21、受光部22、距離計算部23、距離通知部24を有する。
Next, the configuration of the
超音波受信部21は、超音波発信機10から超音波を受信する装置である。超音波受信部21は、超音波を受信した受信時間を距離計算部23に出力する。受光部22は、超音波発信機10のLEDから発光される光を受光する装置である。受光部22は、光を受光した受光時間を距離計算部23に出力する装置である。
The ultrasonic receiver 21 is a device that receives ultrasonic waves from the
距離計算部23は、超音波発信機10と自超音波受信機との距離を算出する処理部である。例えば、距離計算部23は、受信時間と受光時間との差分を、超音波の音速で割ることで距離を算出する。距離計算部23は、距離の情報を距離通知部24に出力する。
The
ここで、距離計算の原理について説明する。図5は、距離計算の原理を説明する図である。図5の横軸は時間を示す。図5の信号3aは光信号に対応し、信号3bは超音波信号に対応する。また、時間t1は光を受光した受光時間に対応し、時間t2は超音波を受信した受信時間に対応する。超音波発信機10によって、超音波と光は同時に出力されており、光の速度は音の速度と比較して十分速いので、受光時間t1は、音波が超音波発信装置10から発信された時間と見なすことができる。このため、超音波が超音波発信機10から超音波受信機20aまで到達するのに要した時間は、Δtとなる。Δtは、t1とt2との差分に対応する。このΔtを超音波の音速で割ることで、距離が求められる。
Here, the principle of distance calculation will be described. FIG. 5 is a diagram for explaining the principle of distance calculation. The horizontal axis in FIG. 5 indicates time. The
距離計算部23は、例えば、ASIC、FPGA等の集積装置に対応する。また、距離計算部23は、CPUやMPUなどの電気回路に対応する。
The
超音波発信機10から周期的に、超音波、光が出力される場合には、距離計算部23は、周期的に距離を算出し、距離の情報を順次距離通知部24に出力する。
When ultrasonic waves and light are periodically output from the
距離通知部24は、距離計算部23から受ける距離の情報を、行動認識装置100に通知する処理部である。
The
次に、図1に示した行動認識装置100の構成について説明する。図6は、行動認識装置の構成を示す図である。図6に示すように、この行動認識装置100は、記憶部110、距離情報取得部120、物体識別情報取得部130、位置情報算出部140、領域判定部150、行動認識部160、認識結果出力部170を有する。
Next, the configuration of the
記憶部110は、身体領域データベース110a、モノデータベース110b、イベントパターンデータベース110cを記憶する記憶装置である。記憶部110は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。
The memory |
身体領域データベース110aは、利用者1の身体周辺の領域を複数の領域に分割した各領域の座標をそれぞれ記憶する。図7は、身体周辺の代表的な領域を説明するための図である。図7に示すように、例えば、身体領域データベース110aが記憶する領域は、利用者1の耳周辺の領域4a、口周辺の領域4b、上半身のポケット1周辺の領域4c、下半身のポケット2周辺の領域4d、利用者1が新聞等を閲覧する領域4e等がある。また、領域4eに鞄が置かれる場合もある。また、身体領域データベース110aが記憶する領域は、利用者1の胸部の前方領域4f、利用者1の頭部の前方領域4gがある。
The
利用者の行動の種別によって、手先の移動ルートがある程度決まっており、手先が通過する領域は行動の種別毎に共通のものとなる。また、異なる行動の種別であっても、共通して通過する領域がある。身体領域データベース110aは、このような行動の種別毎に共通で通過する領域、または、異なる種別であっても共通して手先が通過する領域をそれぞれ記憶している。このため、手先の位置を含む身体領域データベース110aの領域の推移によって、利用者の行動の種別を判定することが可能となる。例えば、利用者1が電話をかける場合には、利用者の手先を含む領域は、領域4f、4g、4aの順に移動する。また、利用者1が携帯電話をポケットにしまう場合には、利用者の手先を含む領域は、領域4f、4cの順に移動する。また、利用者1が、ポケットにあるものを鞄にしまう場合には、利用者の手先を含む領域は、領域4c、4f、4eの順に移動する。
The movement route of the hand is determined to some extent depending on the type of action of the user, and the region through which the hand passes is common for each type of action. Moreover, even if it is a different action type, there is a region through which it passes in common. The
身体領域データベース110aは、領域の座標をどのように記憶しても良いが、例えば、領域の各頂点のうち、対角関係にある頂点の座標を記憶する。図8は、身体領域データベースが記憶する領域の座標を示す図である。図8に示すように、身体領域データベース110aは、領域のAの3次元座標と、Bの3次元座標を記憶する。
The
このように、対角関係にある頂点の座標がわかれば、音波発信機10が該当する領域に含まれているか否かを判定することができる。例えば、Aの3次元座標を(xa、ya、za)とし、Bの3次元座標を(xb、yb、zb)とする。また、ここでは、xa>xb、ya>yb、za>zbとする。音波発信機10の3次元座標(x、y、z)が、それぞれ式(1)、(2)、(3)の関係を満たせば、音波発信機10は該当領域に含まれることとなる。これに対して、式(1)、(2)、(3)のいずれかの関係を満たさない場合には、音波発信機10は該当領域に含まれない。
Thus, if the coordinates of the vertices in a diagonal relationship are known, it can be determined whether or not the
xb<x<xa・・・(1)
yb<y<ya・・・(2)
zb<z<za・・・(3)
xb <x <xa (1)
yb <y <ya (2)
zb <z <za (3)
なお、各3次元座標は、利用者の中心を基準とした座標となる。例えば、利用者の中心を原点0とする。利用者の中心をどのように設定しても良いが、例えば、z座標が0となる位置を利用者の身長を2で割った値とし、x座標が0となる位置を利用者の奥行き幅を2で割った値とし、y座標が0となる位置を利用者の横幅を2で割った値とする。図7に示した原点の位置と、図8に示した原点の位置は同じである。
Each three-dimensional coordinate is a coordinate based on the center of the user. For example, the origin of the user is the
身体領域データベース110aのデータ構造の一例について説明する。図9は、身体領域データベースのデータ構造を示す図である。図9に示すように、身体領域データベース110aは、領域ID、座標A、座標B、領域名称を対応づけて記憶する。領域IDは、領域を一意に識別する情報である。座標A、Bはそれぞれ、図8に示したように、対角関係にある領域の座標である。
An example of the data structure of the
例えば、図9の1段目では、領域ID「P01」によって識別される利用者の「耳」の領域の座標A、Bが座標「x1、y1、z1」、「x2、y2、z2」であることを示している。図9の2段目から6段目も同様に、領域ID、座標A、座標B、領域名称を対応づけて記憶している。 For example, in the first row of FIG. 9, the coordinates A and B of the user's “ear” area identified by the area ID “P01” are the coordinates “x1, y1, z1”, “x2, y2, z2”. It shows that there is. Similarly, the second to sixth stages in FIG. 9 store the area ID, coordinates A, coordinates B, and area name in association with each other.
モノデータベース110bは、モノIDとモノ名称とを対応づけて記憶する。図10は、モノデータベースのデータ構造を示す図である。例えば、図10の1段目では、モノID「M01」に対応するモノ名称が「携帯電話」である旨を示している。図10の2段目から4段目も同様に、モノID、モノ名称を対応づけて記憶している。
The
イベントパターンデータベース110cは、後述の行動認識部160が、利用者1の行動を認識する場合に利用するデータである。図11は、イベントパターンデータベースのデータ構造を示す図である。図11に示すように、イベントパターンデータベース110cは、イベントパターン、モノID、領域推移パターンを対応づけて記憶する。イベントパターンは、利用者の行動を識別する情報である。領域推移パターンは、領域の推移のパターンを、領域IDを時系列に並べることで示している。例えば、利用者1の手の位置が、領域ID「P06」の領域、領域ID「P07」の領域、領域ID「P01」の領域の順に推移するパターンは、図11の1段目の領域推移パターンに該当する。イベントパターンは、モノIDと領域推移パターンとの組み合わせてよって特定される。
The
例えば、利用者が携帯電話をかける場合には、利用者が携帯電話を持った状態で、利用者の手先の位置を含む領域が、胸部の前方領域、頭部の前方領域、耳の領域の順に推移する。胸部の前方領域の領域IDは「P06」、頭部の前方領域の領域IDは「P07」、耳の領域IDは「P01」である。このため、図11の1段目に示すように、モノIDが携帯電話のID「M01」、領域推移パターン「P06、P07、P01」に対応するイベントパターンは「電話をかける」となる。 For example, when a user uses a mobile phone, the area including the position of the user's hand with the mobile phone held is the front area of the chest, the front area of the head, and the ear area. Transition in order. The area ID of the front area of the chest is “P06”, the area ID of the front area of the head is “P07”, and the area ID of the ear is “P01”. Therefore, as shown in the first row of FIG. 11, the event pattern corresponding to the product ID “M01” and the area transition pattern “P06, P07, P01” is “call”.
また、利用者が携帯電話を胸ポケットに対応するポケット1にしまう場合には、利用者が携帯電話を持った状態で、利用者の手先の位置を含む領域が、胸部の前方領域、ポケット1の領域の順に推移する。例えば、胸部の前方領域の領域IDは「P06」、ポケット1の領域の領域IDは「P03」である。このため、図11の2段目に示すように、モノIDが携帯電話のID「M01」、領域推移パターン「P06、P03」に対応するイベントパターンは「電話をポケット1にしまう」となる。
Further, when the user puts the mobile phone in the
また、利用者が携帯電話をズボンのポケットに対応するポケット2にしまう場合には、利用者が携帯電話を持った状態で、利用者の手先の位置を含む領域が、胸部の前方領域、ポケット2の領域の順に推移する。例えば、胸部の前方領域の領域IDは「P06」、ポケット2の領域の領域IDは「P04」である。このため、図11の3段目に示すように、モノIDが携帯電話のID「M01」、領域推移パターン「P06、P04」に対応するイベントパターンは「電話をポケット2にしまう」となる。
Further, when the user puts the mobile phone in the
また、利用者が薬Aを飲む場合には、利用者は薬Aをもった状態で、利用者の手先の位置を含む領域が、胸部の前方領域、頭部の前方領域、口の領域の順に推移する。胸部の前方領域の領域IDは「P06」、頭部の前方領域の領域IDは「P07」、口の領域IDは「P02」である。このため、図11の4段目に示すように、モノIDが薬AのID「M03」、領域推移パターン「P06、P07、P02」に対応するイベントパターンは「薬Aを飲む」となる。 In addition, when the user takes medicine A, the user has the medicine A, and the area including the position of the user's hand includes the front area of the chest, the front area of the head, and the mouth area. Transition in order. The area ID of the front area of the chest is “P06”, the area ID of the front area of the head is “P07”, and the area ID of the mouth is “P02”. Therefore, as shown in the fourth row of FIG. 11, the event pattern corresponding to the ID “M03” of the drug ID “M03” and the region transition pattern “P06, P07, P02” is “drug A drink”.
また、利用者がポケット1に入っていた電話を鞄にしまう場合には、例えば、利用者はポケット1から携帯電話をもった状態で、ポケット1の領域、胸部の前方領域、鞄が置いてあると想定される領域の順に移動する。ポケット1の領域の領域IDは「P03」、胸部の前方領域のIDは「P06」であり、鞄がおいてあると想定される領域の領域IDを「P05」とする。この場合には、図11の6段目に示すように、モノIDが携帯電話のID「M01」、領域推移パターン「P03、P06、P05」に対応するイベントパターンは「ポケット1に入っていた携帯電話を鞄にしまう」となる。
Further, when the user puts the phone in the
図6の説明に戻る。距離情報取得部120は、超音波受信機20a〜20cから、距離L1〜L3の情報を取得する装置である。距離情報取得部120は、距離L1〜L3の情報を位置情報算出部140に出力する。
Returning to the description of FIG. The distance
物体識別情報取得部130は、超音波発信機10からモノIDと検知時間とを受信する装置である。物体識別情報取得部130は、モノIDと検知時間とを行動認識部160に出力する。例えば、物体識別情報取得部130は、無線通信装置に対応する。
The object identification
位置情報算出部140は、距離L1〜L3に基づいて、超音波発信機10の位置を算出する処理部である。利用者が超音波発信機10を手先に装着している場合には、位置情報算出部140が算出する位置は、利用者の手先の位置を算出していることに等しい。位置情報算出部140は、超音波発信機10の位置情報を領域判定部150に順次出力する。
The position
ここで、位置情報算出部140が超音波発信機10の位置を算出する処理の一例について説明する。位置情報算出部140は、超音波受信機20aの座標を中心とした半径L1の球1、超音波受信機20bの座標を中心とした半径L2の球2、超音波受信機20cの座標を中心とした半径L3の球3を求める。位置情報算出部140は、球1〜3を求めた後に、各球1〜3の交点の3次元座標を超音波発信機10の位置として算出する。
Here, an example of a process in which the position
領域判定部150は、位置情報と、身体領域データベース110aとを比較して、超音波発信機10の位置が含まれる領域の領域IDを所定の周期によって順次判定する処理部である。領域判定部150は、判定した領域IDを行動認識部160に順次出力する。
The
行動認識部160は、超音波発信機10の位置を含む領域の推移パターンと、モノIDと、イベントパターンデータベース110cとを比較して、利用者の行動を認識する処理部である。行動認識部160は、認識結果を認識結果出力部170に通知する。
The
図11を用いて、行動認識部160の処理の一例について説明する。まず、行動認識部160は、物体識別情報取得部130からモノIDを取得し、イベントパターンを絞り込む。例えば、モノIDが「M01」の場合には、イベントパターンは1段目のイベントパターンから3段目のイベントパターンとなる。
An example of processing of the
続いて、行動認識部160は、絞り込んだイベントパターンの領域推移パターンと、領域判定部150から順次取得する領域IDの推移パターンとを比較して、利用者の行動を認識する。例えば、行動認識部160が、領域判定部150から領域IDを「P06」、「P07」、「P01」の順に取得した場合には、図11の1段目の領域推移パターンにヒットする。この場合には、行動認識部160は、利用者の行動を「電話をかける」と認識する。
Subsequently, the
なお、行動認識部160は、モノIDとモノデータベース110bとを比較して、モノIDに対応するモノ名称を判定する。例えば、行動認識部160は、モノID、モノ名称、検知時間、利用者の行動を対応づけて、認識結果に格納する。
The
認識結果出力部170は、行動認識部160の認識結果を、外部装置に出力する処理部である。認識結果出力部170は、認識結果をディスプレイなどの表示装置に出力しても良い。なお、認識結果出力部170は、認識結果をログとして記憶部110に順次記憶しても良い。
The recognition
なお、上記処理部140〜160は、例えば、ASIC、FPGA等の集積装置に対応する。また、上記処理部140〜160は、CPUやMPUなどの電気回路に対応する。
The
次に、本実施例にかかる行動認識装置100の処理手順について説明する。図12は、本実施例にかかる行動認識装置の処理手順を示すフローチャートである。例えば、図12に示す処理は、行動認識装置100が、モノIDと検知時間を超音波発信機から取得したことを契機に実行される。
Next, the process procedure of the
図12に示すように、行動認識装置100は、超音波発信機10からモノIDと検知時間を取得し(ステップS101)、超音波受信機20a〜20cから距離の情報を取得する(ステップS102)。
As illustrated in FIG. 12, the
行動認識装置100は、手の位置を算出し(ステップS103)、手の位置と身体領域データベース110aとを比較する(ステップS104)。行動認識装置100は、手の位置が、身体領域データベース110aに登録された領域に含まれない場合には(ステップS105,No)、ステップS107に移行する。
The
一方、行動認識装置100は、手の位置が、身体領域データベース110aに登録された領域に含まれる場合には(ステップS105,Yes)、領域IDを特定し(ステップS106)、ステップS107に移行する。
On the other hand, when the position of the hand is included in the region registered in the
行動認識装置100は、行動認識処理を実行する(ステップS107)。ステップS107において、行動認識装置100は、超音波発信機10の位置を含む領域の推移パターンと、モノIDと、イベントパターンデータベース110cとを比較して、利用者の行動を認識する。
The
行動認識装置100は、処理を終了しない場合には(ステップS108,No)、ステップS101に移行する。行動認識装置100は、処理を終了する場合には(ステップS108,Yes)、処理を終了する。
If the
次に、本実施例にかかる行動認識装置100の効果について説明する。行動認識装置100は、利用者の身体周辺を複数の領域に分割し、利用者の手の位置が含まれる領域の推移のパターンと、利用者が利用する物体の種別から、利用者の行動を認識する。このため、利用者の手先レベルの細かい動作の違いを区別して、利用者の行動を正確に認識することができる。
Next, the effect of the
また、行動認識装置100は、利用者の手の位置の移動パターンを追跡するのではなく、ある一定の範囲をもった領域単位で、利用者の手の位置の移動パターンを追跡する。このため、利用者の手の位置の検出に高い精度は要求されず、コストを削減することもできる。例えば、利用者の手に超音波発信機10を設置し、胸部に超音波受信機20a〜20cを設置し、超音波発信機10から超音波受信機20a〜20cまでの超音波の到達時間に基づいて、利用者の手の位置を算出すればよい。
In addition, the
ところで、身体領域データベース110aの各領域を複合した複合領域データベースを用いて、利用者の手の位置を含む領域を判定してもよい。例えば、耳の領域と口の領域とを複合し、顔周辺の領域とすることができる。図13は、複合領域データベースのデータ構造を示す図である。例えば、複合領域データベースは、記憶部110に記憶される。
By the way, you may determine the area | region containing the position of a user's hand using the composite area | region database which compounded each area | region of the body area |
図13に示すように、この複合領域データベースは、複合領域ID、領域ID群、領域名称を有する。複合領域IDは、複合領域を識別する情報である。領域ID群は、複合領域を構成する各領域の領域IDである。領域名称は、複合領域の名称である。 As shown in FIG. 13, this composite area database has a composite area ID, a region ID group, and a region name. The composite area ID is information for identifying the composite area. The area ID group is an area ID of each area constituting the composite area. The area name is a name of the composite area.
例えば、図13の1段目の複合領域ID「CP01」の領域は、図11に示した領域ID「P01」、「P02」を複合した領域である。また、図13の2段目の複合領域ID「CP02」の領域は、図11に示した領域ID「P03」、「P04」を複合した領域である。 For example, the area of the composite area ID “CP01” in the first row in FIG. 13 is an area where the area IDs “P01” and “P02” shown in FIG. 11 are combined. Further, the area of the second-tier composite area ID “CP02” in FIG. 13 is an area where the area IDs “P03” and “P04” shown in FIG. 11 are combined.
行動認識装置100は、複合領域データベースを利用して、利用者の行動を認識しても良い。例えば、利用者が歯ブラシをもった状態で、利用者の手の位置が、複合領域ID「CP01」の領域を出たり入ったりしている場合には、行動認識装置100は、利用者の行動を「歯磨き」と認識する。
The
複合領域は、各領域を組み合わせるだけで利用者周辺の複雑な領域をカバーすることができ、利用者の様々な手の動きに追従することができる。このため、行動認識装置100は、各領域を組み合わせた複合領域を利用することで、利用者の複雑な行動を簡易的に認識することができる。
The complex area can cover a complex area around the user just by combining the areas, and can follow the movements of the user's various hands. For this reason, the
ところで、行動認識装置100の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、行動認識装置100の分散、統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、行動認識装置100は、有線によって、超音波発信機10と通信を行ってもよい。また、行動認識装置100が、超音波発信機10と超音波受信機20a〜20cの距離を算出するようにしてもよい。
By the way, each component of the
また、行動認識装置100は、既知の移動体通信端末またはPDAなどの情報処理装置に、行動認識装置100の各機能を搭載することによって実現することもできる。
Moreover, the
図14は、実施例にかかる行動認識装置を構成するコンピュータのハードウェア構成を示す図である。図14に示すように、このコンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る読み取り装置204と、超音波受信機と接続するインターフェース装置205と、超音波発信機と無線通信を行う無線通信装置206とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM207と、フラッシュメモリなどの記憶装置208とを有する。各装置201〜208は、バス209に接続される。
FIG. 14 is a diagram illustrating a hardware configuration of a computer constituting the behavior recognition apparatus according to the embodiment. As illustrated in FIG. 14, the
記憶装置208は、領域判定プログラム208a、行動認識プログラム208b、領域情報208cを記憶する。
The
CPU201は、記憶装置208に記憶された各プログラム208a、208b、領域情報208cを読み出して、RAM207に展開する。これにより、領域判定プログラム208aは、領域判定プロセス207aとして機能する。行動認識プログラム208bは、行動認識プロセス207bとして機能する。また、領域情報207cは、CPU201が領域判定プロセス207aを実行する場合に利用される。
The
領域判定プロセス207aは、図6の領域判定部150に対応する。行動認識プロセス207bは、図6の行動認識部160に対応する。各プロセス207a、207bにより、CPU201は、利用者の行動を認識する。
The
なお、上記のプログラム208a、208b、領域情報208cは、必ずしも記憶装置208に格納されている必要はない。例えば、CD−ROM等の記憶媒体に記憶されたプログラム208a、208b、領域情報208cを、コンピュータ200が読み出して実行するようにしてもよい。また、公衆回線、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)等に接続された記憶装置に、各プログラム208a、208b、領域情報208cを記憶させておいてもよい。この場合、コンピュータ200がこれらから各プログラム208a、208b、領域情報208cを読み出して実行するようにしてもよい。
The
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。 The following supplementary notes are further disclosed with respect to the embodiments including the above examples.
(付記1)利用者の身体周辺を複数の領域に分割した各領域の座標をそれぞれ記憶する領域情報記憶部と、
前記利用者が利用する物体を識別する物体識別情報を取得する取得部と、
前記利用者の身体に取り付けられた音波発信機の座標と前記領域の座標とを比較して、前記音波発信機を含む領域を所定の周期で順次判定する領域判定部と、
前記物体識別情報と前記領域判定部が順次判定する前記音波発信機を含む領域の推移とを基にして、利用者の行動を認識する行動認識部と
を備えたことを特徴とする行動認識装置。
(Additional remark 1) The area | region information storage part which each memorize | stores the coordinate of each area | region which divided | segmented the user's body periphery into the several area | region,
An acquisition unit for acquiring object identification information for identifying an object used by the user;
An area determination unit that compares the coordinates of the sound wave transmitter attached to the user's body and the coordinates of the area, and sequentially determines the area including the sound wave transmitter in a predetermined cycle;
A behavior recognition device comprising: a behavior recognition unit that recognizes a user's behavior based on the object identification information and a transition of a region including the sound wave transmitter that is sequentially determined by the region determination unit. .
(付記2)前記領域情報記憶部は、異なる複数の領域を組み合わせた領域を示す複合領域の座標を更に記憶し、前記行動認識部は、前記物体識別情報と前記音波発信機を含む複合領域の推移を基にして、利用者の行動を認識することを特徴とする付記1に記載の行動認識装置。
(Additional remark 2) The said area | region information storage part further memorize | stores the coordinate of the composite area | region which shows the area | region which combined several different area | regions, The said action recognition part of the composite area | region containing the said object identification information and the said sound wave transmitter The behavior recognition apparatus according to
(付記3)前記音波発信機から発信された音波が、当該音波発信機が取り付けられた位置とは異なる利用者の身体の一部に装着された複数の音波受信機に到達するまでの距離に基づいて、前記音波発信機が装着された前記利用者の身体の一部の座標を算出する位置算出部を更に有することを特徴とする付記1または2に記載の行動認識装置。
(Additional remark 3) The distance from the sound wave transmitted from the sound wave transmitter to a plurality of sound wave receivers mounted on a part of the user's body different from the position where the sound wave transmitter is attached. The behavior recognition apparatus according to
(付記4)コンピュータが実行する行動認識方法であって、
利用者の身体周辺を複数の領域に分割した各領域の座標をそれぞれ記憶装置に記憶し、
前記利用者が利用する物体を識別する物体識別情報を取得し、
前記利用者の身体に取り付けられた音波発信機の座標と前記領域の座標とを比較して、前記音波発信機を含む領域を所定の周期で順次判定し、
前記物体識別情報と順次判定する前記音波発信機を含む領域の推移とを基にして、利用者の行動を認識することを特徴とする行動認識方法。
(Appendix 4) An action recognition method executed by a computer,
The coordinates of each area obtained by dividing the user's body periphery into a plurality of areas are stored in the storage device, respectively.
Obtaining object identification information for identifying an object used by the user;
Compare the coordinates of the sound wave transmitter attached to the user's body and the coordinates of the area, sequentially determine the area including the sound wave transmitter in a predetermined cycle,
A behavior recognition method characterized by recognizing a user's behavior based on the object identification information and a transition of a region including the sound wave transmitter that is sequentially determined.
(付記5)前記記憶装置は、異なる複数の領域を組み合わせた領域を示す複合領域の座標を更に記憶し、前記コンピュータが利用者の行動を認識する際、前記物体識別情報と前記音波発信機を含む複合領域の推移を基にして、利用者の行動を認識することを特徴とする付記4に記載の行動認識方法。 (Additional remark 5) The said memory | storage device further memorize | stores the coordinate of the composite area | region which shows the area | region which combined several different area | regions, and when the said computer recognizes a user's action, the said object identification information and the said sound wave transmitter are used. The behavior recognition method according to appendix 4, wherein the behavior of the user is recognized based on the transition of the composite region including the behavior.
(付記6)前記コンピュータは、前記音波発信機と、当該音波発信機が取り付けられた位置とは異なる利用者の身体の一部に装着された複数の音波受信機とに接続され、前記音波発信機から発信された音波が、前記音波受信機に到達するまでの距離に基づいて、前記音波発信機が装着された前記利用者の身体の一部の座標を算出することを特徴とする付記4または5に記載の行動認識方法。 (Supplementary note 6) The computer is connected to the sound wave transmitter and a plurality of sound wave receivers mounted on a part of a user's body different from the position where the sound wave transmitter is attached. Supplementary note 4 wherein the coordinates of a part of the body of the user to which the sound wave transmitter is attached are calculated based on the distance until the sound wave transmitted from the sound wave reaches the sound wave receiver. Or the action recognition method of 5.
(付記7)コンピュータに、
利用者の身体周辺を複数の領域に分割した各領域の座標をそれぞれ記憶装置に記憶し、
前記利用者が利用する物体を識別する物体識別情報を取得し、
前記利用者の身体に取り付けられた音波発信機の座標と前記領域の座標とを比較して、前記音波発信機を含む領域を所定の周期で順次判定し、
前記物体識別情報と順次判定する前記音波発信機を含む領域の推移とを基にして、利用者の行動を認識する処理を実行される行動認識プログラム。
(Appendix 7)
The coordinates of each area obtained by dividing the user's body periphery into a plurality of areas are stored in the storage device, respectively.
Obtaining object identification information for identifying an object used by the user;
Compare the coordinates of the sound wave transmitter attached to the user's body and the coordinates of the area, sequentially determine the area including the sound wave transmitter in a predetermined cycle,
A behavior recognition program for executing processing for recognizing a user's behavior based on the object identification information and a transition of a region including the sound wave transmitter that is sequentially determined.
(付記8)前記記憶装置は、異なる複数の領域を組み合わせた領域を示す複合領域の座標を更に記憶し、前記コンピュータが利用者の行動を認識する際、前記物体識別情報と前記音波発信機を含む複合領域の推移を基にして、利用者の行動を認識することを特徴とする付記7に記載の行動認識プログラム。 (Additional remark 8) The said memory | storage device further memorize | stores the coordinate of the composite area | region which shows the area | region which combined several different area | regions, and when the said computer recognizes a user's action, the said object identification information and the said sound wave transmitter are used. The behavior recognition program according to appendix 7, wherein the behavior of the user is recognized based on the transition of the composite area including the behavior.
(付記9)前記コンピュータは、前記音波発信機と、当該音波発信機が取り付けられた位置とは異なる利用者の身体の一部に装着された複数の音波受信機とに接続され、前記音波発信機から発信された音波が、前記音波受信機に到達するまでの距離に基づいて、前記音波発信機が装着された前記利用者の身体の一部の座標を算出することを特徴とする付記7または8に記載の行動認識プログラム。 (Supplementary note 9) The computer is connected to the sound wave transmitter and a plurality of sound wave receivers mounted on a part of a user's body different from the position where the sound wave transmitter is attached. Appendix 7 wherein the coordinates of a part of the user's body on which the sound wave transmitter is mounted are calculated based on the distance until the sound wave transmitted from the sound wave reaches the sound wave receiver. Or the action recognition program of 8.
10 超音波発信機
20a、20b、20c 超音波受信機
100 行動認識装置
DESCRIPTION OF
Claims (5)
前記利用者が利用する物体を識別する物体識別情報を取得する取得部と、
前記利用者の身体に取り付けられた音波発信機の座標と前記領域の座標とを比較して、前記音波発信機を含む領域を所定の周期で順次判定する領域判定部と、
前記物体識別情報と前記領域判定部が順次判定する前記音波発信機を含む領域の推移とを基にして、利用者の行動を認識する行動認識部と
を備えたことを特徴とする行動認識装置。 A region information storage unit for storing coordinates of each region obtained by dividing the user's body periphery into a plurality of regions;
An acquisition unit for acquiring object identification information for identifying an object used by the user;
An area determination unit that compares the coordinates of the sound wave transmitter attached to the user's body and the coordinates of the area, and sequentially determines the area including the sound wave transmitter in a predetermined cycle;
A behavior recognition device comprising: a behavior recognition unit that recognizes a user's behavior based on the object identification information and a transition of a region including the sound wave transmitter that is sequentially determined by the region determination unit. .
利用者の身体周辺を複数の領域に分割した各領域の座標をそれぞれ記憶装置に記憶し、
前記利用者が利用する物体を識別する物体識別情報を取得し、
前記利用者の身体に取り付けられた音波発信機の座標と前記領域の座標とを比較して、前記音波発信機を含む領域を所定の周期で順次判定し、
前記物体識別情報と順次判定する前記音波発信機を含む領域の推移とを基にして、利用者の行動を認識することを特徴とする行動認識方法。 An action recognition method executed by a computer,
The coordinates of each area obtained by dividing the user's body periphery into a plurality of areas are stored in the storage device, respectively.
Obtaining object identification information for identifying an object used by the user;
Compare the coordinates of the sound wave transmitter attached to the user's body and the coordinates of the area, sequentially determine the area including the sound wave transmitter in a predetermined cycle,
A behavior recognition method characterized by recognizing a user's behavior based on the object identification information and a transition of a region including the sound wave transmitter that is sequentially determined.
利用者の身体周辺を複数の領域に分割した各領域の座標をそれぞれ記憶装置に記憶し、
前記利用者が利用する物体を識別する物体識別情報を取得し、
前記利用者の身体に取り付けられた音波発信機の座標と前記領域の座標とを比較して、前記音波発信機を含む領域を所定の周期で順次判定し、
前記物体識別情報と順次判定する前記音波発信機を含む領域の推移とを基にして、利用者の行動を認識する処理を実行される行動認識プログラム。 On the computer,
The coordinates of each area obtained by dividing the user's body periphery into a plurality of areas are stored in the storage device, respectively.
Obtaining object identification information for identifying an object used by the user;
Compare the coordinates of the sound wave transmitter attached to the user's body and the coordinates of the area, sequentially determine the area including the sound wave transmitter in a predetermined cycle,
A behavior recognition program for executing processing for recognizing a user's behavior based on the object identification information and a transition of a region including the sound wave transmitter that is sequentially determined.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010285161A JP5516385B2 (en) | 2010-12-21 | 2010-12-21 | Action recognition device, action recognition method, and action recognition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010285161A JP5516385B2 (en) | 2010-12-21 | 2010-12-21 | Action recognition device, action recognition method, and action recognition program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012130522A JP2012130522A (en) | 2012-07-12 |
JP5516385B2 true JP5516385B2 (en) | 2014-06-11 |
Family
ID=46646862
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010285161A Expired - Fee Related JP5516385B2 (en) | 2010-12-21 | 2010-12-21 | Action recognition device, action recognition method, and action recognition program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5516385B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5720269B2 (en) * | 2011-01-21 | 2015-05-20 | 富士通株式会社 | Position calculation device, position calculation method, and position calculation program |
JP5664382B2 (en) * | 2011-03-18 | 2015-02-04 | 富士通株式会社 | Position detection apparatus, wearable sensor system, and program |
JP6426339B2 (en) * | 2013-12-12 | 2018-11-21 | Necプラットフォームズ株式会社 | False picking prevention system, management server and false picking prevention method |
JP2022109646A (en) * | 2021-01-15 | 2022-07-28 | オムロン株式会社 | Operation level conversion device, operation level conversion method, and operation level conversion program |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3570163B2 (en) * | 1996-07-03 | 2004-09-29 | 株式会社日立製作所 | Method and apparatus and system for recognizing actions and actions |
JP4543214B2 (en) * | 2004-03-12 | 2010-09-15 | 独立行政法人産業技術総合研究所 | Ultrasonic position measuring device |
JP2006055532A (en) * | 2004-08-23 | 2006-03-02 | Yuji Hosoi | Operation analysis device |
JP2006340776A (en) * | 2005-06-07 | 2006-12-21 | Nippon Telegr & Teleph Corp <Ntt> | Living body eating behavior recognition method and system |
JP2008009505A (en) * | 2006-06-27 | 2008-01-17 | Olympus Corp | Information display system |
US8416102B2 (en) * | 2008-03-14 | 2013-04-09 | Koninklijke Philips Electronics N.V. | Activity monitoring system insensitive to accelerations induced by external motion factors |
JP5359414B2 (en) * | 2009-03-13 | 2013-12-04 | 沖電気工業株式会社 | Action recognition method, apparatus, and program |
-
2010
- 2010-12-21 JP JP2010285161A patent/JP5516385B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012130522A (en) | 2012-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Deep et al. | A survey on anomalous behavior detection for elderly care using dense-sensing networks | |
Wang et al. | Toward a wearable RFID system for real-time activity recognition using radio patterns | |
CN109271832B (en) | People stream analysis method, people stream analysis device, and people stream analysis system | |
JP6321222B2 (en) | Systems and methods for geofence crossing-based control | |
US10984146B2 (en) | Tracking safety conditions of an area | |
US20150097653A1 (en) | Determination of proximity using a plurality of transponders | |
JP5516385B2 (en) | Action recognition device, action recognition method, and action recognition program | |
CN103489290A (en) | Method for monitoring children entering specific area by using IoT (Internet of Things) | |
Ruan et al. | Tagfall: Towards unobstructive fine-grained fall detection based on uhf passive rfid tags | |
Hossain et al. | Activity recognition by using lorawan sensor | |
Kriara et al. | RFID shakables: pairing radio-frequency identification tags with the help of gesture recognition | |
Wang et al. | A wearable RFID system for real-time activity recognition using radio patterns | |
CN109561855A (en) | Equipment, system and method for fall detection | |
US20190268461A1 (en) | Detecting patterns and behavior to prevent a mobile terminal drop event | |
CN110446195A (en) | Location processing method and Related product | |
JPWO2017047063A1 (en) | Information processing apparatus, evaluation method, and computer program | |
JP2017174212A (en) | Action analysis device, action analyzing method and program | |
Torres et al. | How feasible is WiFi fingerprint-based indoor positioning for in-home monitoring? | |
Zhou et al. | Towards scalable indoor map construction and refinement using acoustics on smartphones | |
Zhan et al. | Mosen: Activity modelling in multiple-occupancy smart homes | |
JP2010114544A (en) | Intercom system, and program and method for receiving visitor | |
JP3735675B2 (en) | Object arrangement drawing creation method, program thereof, storage medium, and object arrangement drawing creation system | |
Randhawa | Research challenges in wireless sensor network: A STATE OF THE PLAY | |
JP7072353B2 (en) | Location search system and location search method | |
CN113313909A (en) | Data processing method and device of intelligent glasses and intelligent glasses |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130904 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140304 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140317 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5516385 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |