JP6943287B2 - Biometric information processing equipment, biometric information processing systems, biometric information processing methods, and programs - Google Patents

Biometric information processing equipment, biometric information processing systems, biometric information processing methods, and programs Download PDF

Info

Publication number
JP6943287B2
JP6943287B2 JP2019546476A JP2019546476A JP6943287B2 JP 6943287 B2 JP6943287 B2 JP 6943287B2 JP 2019546476 A JP2019546476 A JP 2019546476A JP 2019546476 A JP2019546476 A JP 2019546476A JP 6943287 B2 JP6943287 B2 JP 6943287B2
Authority
JP
Japan
Prior art keywords
segment
feature amount
state
biometric information
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019546476A
Other languages
Japanese (ja)
Other versions
JPWO2019069417A1 (en
Inventor
中島 嘉樹
嘉樹 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019069417A1 publication Critical patent/JPWO2019069417A1/en
Application granted granted Critical
Publication of JP6943287B2 publication Critical patent/JP6943287B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/0245Detecting, measuring or recording pulse rate or heart rate by using sensing means generating electric signals, i.e. ECG signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Cardiology (AREA)
  • Physiology (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Description

本開示は、人物の生体情報を処理する技術に関する。 The present disclosure relates to a technique for processing biometric information of a person.

従業員の職場におけるストレスによる離職・休職と、それによる企業の負担の増加が問題になっている。この問題を解決する為、心拍・発汗・体温等の生体情報(生体信号とも呼ばれる)を測定することで被測定者のストレスの度合いを推定する技術および研究がある。 There are problems of employee turnover and leave due to stress in the workplace, and the resulting increase in the burden on the company. In order to solve this problem, there are techniques and researches for estimating the degree of stress of the subject by measuring biological information (also called biological signal) such as heartbeat, sweating, and body temperature.

生体情報の中でも、心拍の情報は、ストレスに関係が深く、ストレスの度合いの推定(以下、「ストレス推定」とも表記)において有用な情報である。心拍により生じる脈波の情報から疲労度を評価する方法に関する発明が、例えば、特許文献1に記載されている。 Among the biological information, the heartbeat information is closely related to stress and is useful information for estimating the degree of stress (hereinafter, also referred to as “stress estimation”). For example, Patent Document 1 describes an invention relating to a method for evaluating a degree of fatigue from information on a pulse wave generated by a heartbeat.

しかしながら、単に生体情報を用いるだけでは、精度の高いストレス推定は難しい。なぜなら、生体情報は、ストレス以外の要因、例えば、被測定者の運動の程度(以下、「運動レベル」、「運動状態」とも表記)によっても、変動するからである。 However, it is difficult to estimate stress with high accuracy simply by using biometric information. This is because the biological information varies depending on factors other than stress, for example, the degree of exercise of the person to be measured (hereinafter, also referred to as "exercise level" and "exercise state").

そこで、生体情報を分析すると同時に、生体情報が得られた時点における被測定者の運動状態を推定する研究がある。例えば、非特許文献1は、皮膚電気活動(Electrodermal Activity;EDA)と精神状態との関係に関する研究を開示している。この研究では、30秒の期間ごとの、ウェアラブルセンサにより被験者から取得されたEDAのピークの出現回数(すなわち、EDAのピーク出現頻度)が計測された。また、各期間における被験者の運動レベル(座っている状態、歩いている状態等)が、加速度計によって判定され、EDAのピーク出現頻度は運動レベルごとに集計された。この研究により、運動レベルが高いほど、EDA振幅およびEDAピーク出現頻度は大きな値となることが示された。 Therefore, there is a study to analyze the biological information and at the same time to estimate the motor state of the person to be measured at the time when the biological information is obtained. For example, Non-Patent Document 1 discloses a study on the relationship between electrodermal activity (EDA) and mental state. In this study, the number of occurrences of EDA peaks (ie, EDA peak appearance frequency) obtained from subjects by wearable sensors was measured every 30 seconds. In addition, the exercise level (sitting state, walking state, etc.) of the subject in each period was determined by the accelerometer, and the peak appearance frequency of EDA was tabulated for each exercise level. This study showed that the higher the exercise level, the higher the EDA amplitude and the frequency of EDA peak occurrence.

非特許文献2も、被験者の皮膚温度(Skin Temperature;ST)および皮膚コンダクタンス(Skin Conductance;SC)等の生体情報と同時に、手の加速度(Accelerometer data;ACC)も測定する研究を開示している。 Non-Patent Document 2 also discloses a study in which a subject's skin temperature (ST) and skin conductance (SC) and other biological information as well as hand acceleration (Accelerometer data; ACC) are measured. ..

他に、運動と生体情報とに関して情報処理を行う技術として、運動を行った後の脈拍から「体力年齢」を算出する技術が、特許文献2に記載されている。ただし、特許文献2に開示される技術は、被測定者は決められた運動をすることが前提であるため、運動状態を推定する処理を含まない。それゆえ、自由に行動する被測定者のストレスの度合いを推定することは、特許文献2に開示される技術ではできない。 In addition, as a technique for processing information regarding exercise and biological information, a technique for calculating "physical strength age" from a pulse after exercise is described in Patent Document 2. However, the technique disclosed in Patent Document 2 does not include a process of estimating the exercise state because it is premised that the person to be measured performs a predetermined exercise. Therefore, it is not possible to estimate the degree of stress of a freely moving subject by the technique disclosed in Patent Document 2.

また、人に装着された加速度センサから所定の時間間隔ごとの運動頻度を推定し、運動頻度の変化に基づいて、シーン(同じ動作内容のまとまり)を抽出する技術が、特許文献3に開示されている。ただし、特許文献3に開示される技術は、人の心身の状態を測定する技術ではない。特許文献3には体温が測定されることが記載されているが、体温は所定の時間間隔ごとの体温の平均値の算出に用いられるのみである。 Further, Patent Document 3 discloses a technique of estimating an exercise frequency at a predetermined time interval from an acceleration sensor mounted on a person and extracting a scene (a group of the same operation contents) based on a change in the exercise frequency. ing. However, the technique disclosed in Patent Document 3 is not a technique for measuring a person's physical and mental condition. Although Patent Document 3 describes that body temperature is measured, body temperature is only used for calculating the average value of body temperature at predetermined time intervals.

国際公開第2005/000119号International Publication No. 2005/000119 特開2011−161079号公報Japanese Unexamined Patent Publication No. 2011-161079 国際公開第2010/032579号International Publication No. 2010/032579

A. Sano, “Measuring College Students’ Sleep, Stress, Mental Health and Wellbeing with Wearable Sensors and Mobile Phones,” Massachusetts Institute of Technology, 2015, pp.87-106.A. Sano, “Measuring College Students ’Sleep, Stress, Mental Health and Wellbeing with Wearable Sensors and Mobile Phones,” Massachusetts Institute of Technology, 2015, pp.87-106. A. Sano et al., “Recognizing academic performance, sleep quality, stress level, and mental health using personality traits, wearable sensors and mobile phones,” 2015 IEEE 12th International Conference on Wearable and Implantable Body Sensor Networks (BSN), 2015, pp.1-6.A. Sano et al., “Recognizing academic performance, sleep quality, stress level, and mental health using personality traits, wearable sensors and mobile phones,” 2015 IEEE 12th International Conference on Wearable and Implantable Body Sensor Networks (BSN), 2015, pp.1-6.

ストレス推定に用いられる、生体情報に基づく指標値(以下、「特徴量」と表記)の中には、測定データが長いほどより精度よく検出される特徴量や、十分な精度で検出されるために十分な長さの測定データを必要とする特徴量がある。 Among the index values based on biological information (hereinafter referred to as "features") used for stress estimation, the longer the measurement data, the more accurately the features are detected, and the more accurately they are detected. There are features that require sufficient length of measurement data.

例えば、心拍に関する特徴量として、HF(High Frequency)成分、およびLF(Low Frequency)成分と呼ばれる特徴量が知られている。HF成分およびLF成分は、心拍変動の時系列データにおいて現れる、周期が比較的長い波である。これらの成分は、分析に使用される時系列データが長いほど、より精度よく検出される。特に、LF成分は、周波数が0.05Hzから0.15Hz程度の範囲の成分であるため、30秒程度の時系列データからは検出され難い。 For example, as feature amounts related to heartbeat, feature amounts called HF (High Frequency) component and LF (Low Frequency) component are known. The HF and LF components are waves with relatively long periods that appear in the time series data of heart rate variability. The longer the time series data used in the analysis, the more accurate these components will be detected. In particular, since the LF component is a component having a frequency in the range of about 0.05 Hz to 0.15 Hz, it is difficult to detect it from time series data of about 30 seconds.

他にも、心拍変動の時系列データにおける相関次元(Correlation Dimension)も、十分な精度で検出されるために比較的長い時系列データを必要とする特徴量の1つである。 In addition, the correlation dimension in the time-series data of heart rate variability is also one of the features that requires a relatively long time-series data in order to be detected with sufficient accuracy.

非特許文献1および2に開示されるような、生体情報を30秒ごとに区切って、区切られた部分(セグメント)からそれぞれ特徴量を検出する方法では、上述のような特徴量が精度よく検出できない。つまり、時系列データをより細かく(すなわち、短いセグメントに)分割するほど、有用な情報が欠落し、ストレス推定の精度が下がるという、第1のデメリットがある。換言すれば、長周期成分に基づいた精度の高いストレス推定を行うには、特徴量を検出するための、時系列データのセグメントは、長いほど良い。 In the method of dividing biological information every 30 seconds and detecting the feature amount from each of the divided portions (segments) as disclosed in Non-Patent Documents 1 and 2, the feature amount as described above is detected accurately. Can not. That is, the more finely divided the time series data (that is, into shorter segments), the less useful information is lost, and the less accurate the stress estimation is, which is the first disadvantage. In other words, in order to perform highly accurate stress estimation based on long-period components, the longer the segment of the time series data for detecting the features, the better.

しかし、時系列データの区切り(セグメンテーション)の単位を長く設定すると、運動状態が正確に判定されない可能性が高くなるという、第2のデメリットがある。1つのセグメントの中に2種類以上の運動状態が含まれてしまう可能性が大きくなるからである。セグメントごとに運動状態が判定されるので、セグメントが長いほど、実際の運動状態が頻繁に切り替わる場合に運動状態の遷移を検出できなくなるおそれがある。 However, if the unit of segmentation of the time series data is set long, there is a second demerit that there is a high possibility that the motion state is not accurately determined. This is because there is a high possibility that two or more types of exercise states are included in one segment. Since the exercise state is determined for each segment, the longer the segment, the more likely it is that the transition of the exercise state cannot be detected when the actual exercise state is frequently switched.

つまり、生体情報と運動状態とを分析する単位であるセグメントの長さは、短いほど第1のデメリットが大きくなり、長いほど第2のデメリットが大きくなる。 That is, the shorter the length of the segment, which is the unit for analyzing the biological information and the exercise state, the larger the first demerit, and the longer the length, the larger the second demerit.

本発明は、セグメントごとに導出される特徴量を用いた分析を、より高精度に行う装置および方法等を提供することを目的の1つとする。 One of the objects of the present invention is to provide an apparatus and a method for performing analysis using features derived for each segment with higher accuracy.

本発明の一態様に係る生体情報処理装置は、被測定者の生体情報の時系列データから、前記生体情報が取得された期間における前記被測定者の運動状態に基づいて前記時系列データの部分であるセグメントを生成する、セグメント生成手段と、前記セグメントから特徴量を導出する特徴量導出手段と、前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する出力手段と、を備える。 The biometric information processing apparatus according to one aspect of the present invention is a portion of the time-series data based on the exercise state of the person to be measured during the period in which the biometric information is acquired from the time-series data of the biometric information of the person to be measured. At least one of a segment generation means for generating a segment, a feature amount derivation means for deriving a feature amount from the segment, the feature amount, and information on the state of the person to be measured based on the feature amount. It is provided with an output means for outputting.

本発明の一態様に係る生体情報処理方法は、被測定者の生体情報の時系列データから、前記生体情報が取得された期間における前記被測定者の運動状態に基づいて前記時系列データの部分であるセグメントを生成し、前記セグメントから特徴量を導出し、前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する。 The biometric information processing method according to one aspect of the present invention is a portion of the time-series data based on the exercise state of the person to be measured during the period in which the biometric information is acquired from the time-series data of the biometric information of the person to be measured. A segment is generated, a feature amount is derived from the segment, and at least one of the feature amount and information on the state of the person to be measured based on the feature amount is output.

本発明の一態様に係るプログラムは、被測定者の生体情報の時系列データから、前記生体情報が取得された期間における前記被測定者の運動状態に基づいて前記時系列データの部分であるセグメントを生成する、セグメント生成処理と、前記セグメントから特徴量を導出する特徴量導出処理と、前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する出力処理と、を実行させる。上記のプログラムは、例えば、コンピュータ読み取り可能な非一時的な記憶媒体により記憶される。 The program according to one aspect of the present invention is a segment that is a part of the time-series data from the time-series data of the biometric information of the person to be measured, based on the exercise state of the person to be measured during the period in which the biometric information is acquired. Output of at least one of a segment generation process for generating Process and execute. The above program is stored, for example, on a computer-readable non-temporary storage medium.

本発明によれば、セグメントごとに導出される特徴量を用いた分析を、より高精度に行うことができる。 According to the present invention, it is possible to perform analysis using the feature quantities derived for each segment with higher accuracy.

本発明の第1の実施形態に係る生体情報処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the biological information processing system which concerns on 1st Embodiment of this invention. セグメントの生成処理の流れの具体例を示すフローチャートである。It is a flowchart which shows the specific example of the flow of the segment generation processing. 特徴量の導出の概念を示す図である。It is a figure which shows the concept of the derivation of a feature quantity. 特徴量の統合の概念を示す図である。It is a figure which shows the concept of the integration of a feature quantity. 第1の実施形態に係る生体情報処理装置の動作の流れを示すフローチャートである。It is a flowchart which shows the operation flow of the bio-information processing apparatus which concerns on 1st Embodiment. 本発明の第2の実施形態に係る生体情報処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the biological information processing system which concerns on 2nd Embodiment of this invention. 特徴量の割り当ての概念を示す図である。It is a figure which shows the concept of the allocation of a feature amount. 第2の実施形態に係る生体情報処理装置の動作の流れを示すフローチャートである。It is a flowchart which shows the operation flow of the bio-information processing apparatus which concerns on 2nd Embodiment. 本発明の第3の実施形態に係る生体情報処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the biological information processing system which concerns on 3rd Embodiment of this invention. 第3の実施形態に係る生体情報処理装置の動作の流れを示すフローチャートである。It is a flowchart which shows the operation flow of the bio-information processing apparatus which concerns on 3rd Embodiment. 本発明の各実施形態の各部を構成するハードウェアの例を示すブロック図である。It is a block diagram which shows the example of the hardware which comprises each part of each embodiment of this invention.

以下、図面を参照しながら、本発明の実施形態を詳細に説明する。なお、本開示の計算式において用いられる、演算子「・」は、乗算の演算子であり、演算子「/」は、除算の演算子である。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The operator "・" used in the calculation formula of the present disclosure is a multiplication operator, and the operator "/" is a division operator.

<<第1の実施形態>>
まず、本発明の第1の実施形態について説明する。
<< First Embodiment >>
First, the first embodiment of the present invention will be described.

<構成>
図1は、第1の実施形態に係る生体情報処理システム1の構成を示すブロック図である。生体情報処理システム1は、生体情報処理装置11と、生体情報取得部5と、動き情報取得部6と、を含む。
<Structure>
FIG. 1 is a block diagram showing a configuration of a biometric information processing system 1 according to the first embodiment. The biometric information processing system 1 includes a biometric information processing device 11, a biometric information acquisition unit 5, and a motion information acquisition unit 6.

生体情報処理装置11は、制御部110と、記憶部119と、運動状態識別部111と、セグメント生成部112と、特徴量導出部113と、統合部114と、ストレス推定部115と、情報出力部116と、を備える。 The biometric information processing device 11 includes a control unit 110, a storage unit 119, a motion state identification unit 111, a segment generation unit 112, a feature amount derivation unit 113, an integration unit 114, a stress estimation unit 115, and information output. A unit 116 is provided.

生体情報処理装置11は、生体情報取得部5および動き情報取得部6に、通信可能に接続される。生体情報処理装置11は、生体情報取得部5および動き情報取得部6により取得された情報を受け取る。生体情報処理装置11と生体情報取得部5との間の通信、および生体情報処理装置11と動き情報取得部6との間の通信は、有線によって行われてもよいし、無線によって行われてもよい。 The biometric information processing device 11 is communicably connected to the biometric information acquisition unit 5 and the motion information acquisition unit 6. The biometric information processing device 11 receives the information acquired by the biometric information acquisition unit 5 and the motion information acquisition unit 6. The communication between the bio-information processing device 11 and the bio-information acquisition unit 5 and the communication between the bio-information processing device 11 and the motion information acquisition unit 6 may be performed by wire or wirelessly. May be good.

生体情報処理装置11は、例えば、インターネットに接続されたサーバである。この場合、生体情報処理装置11は、インターネットを介して生体情報取得部5および動き情報取得部6により取得された情報を受け取ってもよい。生体情報処理装置11は、被測定者が所持する、携帯情報端末またはPC(Personal Computer)等の情報処理装置でもよい。その場合、生体情報処理装置11は、例えば、ケーブルを介して、または電磁波や音波等を用いた通信によって、生体情報取得部5および動き情報取得部6から情報を受け取ってもよい。生体情報処理装置11、生体情報取得部5、および動き情報取得部6の一部または全部が同一の装置であってもよい。 The biometric information processing device 11 is, for example, a server connected to the Internet. In this case, the biometric information processing device 11 may receive the information acquired by the biometric information acquisition unit 5 and the motion information acquisition unit 6 via the Internet. The biometric information processing device 11 may be an information processing device such as a portable information terminal or a PC (Personal Computer) possessed by the person to be measured. In that case, the biometric information processing device 11 may receive information from the biometric information acquisition unit 5 and the motion information acquisition unit 6 via, for example, a cable or communication using electromagnetic waves, sound waves, or the like. A part or all of the biometric information processing device 11, the biometric information acquisition unit 5, and the motion information acquisition unit 6 may be the same device.

===生体情報取得部5===
生体情報取得部5は、生体情報を取得する。
=== Biometric information acquisition unit 5 ===
The biological information acquisition unit 5 acquires biological information.

生体情報取得部5により取得される生体情報の例としては、脈波(心拍)、体温、脳波、筋電位、血流、血中成分、呼吸の様子、まばたきの様子、および発汗の程度等が挙げられる。生体情報取得部5により取得される生体情報は、ユーザの精神状態または疲労度等がわかる生体情報であれば何でもよい。以下の説明においては、取得される生体情報として心拍を想定するが、心拍はあくまで生体情報処理装置11が処理する生体情報の一例である。 Examples of biological information acquired by the biological information acquisition unit 5 include pulse wave (heartbeat), body temperature, brain wave, myoelectric potential, blood flow, blood component, breathing state, blinking state, degree of sweating, and the like. Can be mentioned. The biometric information acquired by the biometric information acquisition unit 5 may be any biometric information that shows the user's mental state, fatigue level, and the like. In the following description, the heartbeat is assumed as the acquired biometric information, but the heartbeat is just an example of the biometric information processed by the biometric information processing device 11.

生体情報取得部5は、例えば、腕時計型、貼り付け型、又は巻きつけ型等のウェアラブルセンシングデバイスである。生体情報取得部5は、例えば、PPG(Photoplethysmography)によって脈波を取得する光電式容積脈波計、または心筋の筋電を計測することによって心拍を測定する心電計等の、人体に接触させて生体情報を取得するセンサでもよい。あるいは、生体情報取得部5は、カメラ等を用いて非接触で脈波又は心拍を推定する装置でもよい。 The biological information acquisition unit 5 is, for example, a wearable sensing device such as a wristwatch type, a sticking type, or a wrapping type. The biological information acquisition unit 5 is brought into contact with the human body, for example, a photoelectric plethysmogram that acquires a pulse wave by PPG (Photoplethysmography) or an electrocardiograph that measures a heartbeat by measuring myocardial myocardium. It may be a sensor that acquires biometric information. Alternatively, the biological information acquisition unit 5 may be a device that estimates a pulse wave or a heartbeat in a non-contact manner using a camera or the like.

生体情報取得部5は、取得された生体情報を、時刻情報とともに生体情報処理装置11に送信する。生体情報取得部5により取得された生体情報は、例えば、制御部110によって時系列データとして記憶部119に記憶される。 The biometric information acquisition unit 5 transmits the acquired biometric information to the biometric information processing device 11 together with the time information. The biometric information acquired by the biometric information acquisition unit 5 is stored in the storage unit 119 as time-series data by, for example, the control unit 110.

===動き情報取得部6===
動き情報取得部6は、被測定者が行っている運動の強さの指標となる情報である動き情報を取得する。動き情報は、動きの激しさを示す指標、身体的な負荷の程度を示す指標、あるいは、エネルギーの消費量を示す指標とも言える。動き情報取得部6は、生体情報取得部5により取得される生体情報に影響を与える、身体的な活動の様子を特定可能な情報を取得すればよい。
=== Motion information acquisition unit 6 ===
The motion information acquisition unit 6 acquires motion information, which is information that is an index of the strength of the exercise performed by the person to be measured. Motion information can be said to be an index showing the intensity of movement, an index showing the degree of physical load, or an index showing energy consumption. The motion information acquisition unit 6 may acquire information that can identify the state of physical activity that affects the biological information acquired by the biological information acquisition unit 5.

例えば、動き情報取得部6は、人体に取り付けられる加速度センサである。あるいは、例えば、動き情報取得部6は、カメラと、カメラにより撮影された人物の動きを追跡する画像処理装置との組でもよいし、対象までの距離を取得する深度センサとその距離の変化を分析する分析装置との組でもよい。 For example, the motion information acquisition unit 6 is an acceleration sensor attached to the human body. Alternatively, for example, the motion information acquisition unit 6 may be a combination of a camera and an image processing device that tracks the movement of a person photographed by the camera, or a depth sensor that acquires a distance to an object and a change in the distance. It may be a combination with an analyzer for analysis.

動き情報取得部6は、例えば、動き情報として、被測定者の特定の部位のX方向、Y方向、およびZ方向の加速度(AcX、AcY、およびAcZ)を、常時(例えば、1秒あたり8回の頻度で)取得する。なお、X方向、Y方向、およびZ方向は、動き情報取得部6において定義されている方向である。 For example, the motion information acquisition unit 6 constantly (for example, 8 per second) constantly (for example, 8) accelerations (AcX, AcY, and AcZ) in the X, Y, and Z directions of a specific part of the person to be measured as motion information. Get (at the frequency of times). The X direction, the Y direction, and the Z direction are the directions defined in the motion information acquisition unit 6.

動き情報取得部6が、被験者に取り付けられた加速度センサである場合は、動き情報取得部6は計測値それ自体を、動き情報として取得すればよい。 When the motion information acquisition unit 6 is an acceleration sensor attached to the subject, the motion information acquisition unit 6 may acquire the measured value itself as motion information.

動き情報取得部6がカメラと、カメラにより撮影された人物の動きを追跡する画像処理装置との組である場合、動き情報取得部6は、被測定者の特定の部位の加速度を、画像処理によって算出すればよい。 When the motion information acquisition unit 6 is a set of a camera and an image processing device that tracks the movement of a person photographed by the camera, the motion information acquisition unit 6 performs image processing on the acceleration of a specific part of the person to be measured. It may be calculated by.

動き情報取得部6が対象までの距離を取得する深度センサとその距離の変化を分析する分析装置との組である場合も、動き情報取得部6は、被測定者の特定の部位の加速度を、深度センサとその部位との間の距離の変動に基づいて算出すればよい。 Even when the motion information acquisition unit 6 is a set of a depth sensor that acquires the distance to the target and an analyzer that analyzes the change in the distance, the motion information acquisition unit 6 determines the acceleration of a specific part of the person to be measured. , It may be calculated based on the fluctuation of the distance between the depth sensor and the portion.

動き情報は、所定の閾値以上の加速度が計測された時刻だけを示す情報でもよい。例えば、動き情報取得部6は、歩数計のように、所定の閾値以上の加速度を検出するデバイスであってもよい。 The motion information may be information indicating only the time when the acceleration equal to or higher than a predetermined threshold value is measured. For example, the motion information acquisition unit 6 may be a device that detects acceleration equal to or higher than a predetermined threshold value, such as a pedometer.

動き情報取得部6は、取得された動き情報を、時刻情報とともに生体情報処理装置11に送信する。動き情報取得部6により取得された動き情報は、例えば、制御部110によって記憶部119に記録され、運動状態識別部111による運動状態の識別(後述)に用いられる。 The motion information acquisition unit 6 transmits the acquired motion information together with the time information to the biometric information processing device 11. The motion information acquired by the motion information acquisition unit 6 is recorded in the storage unit 119 by the control unit 110, for example, and is used for the motion state identification (described later) by the motion state identification unit 111.

なお、生体情報取得部5および動き情報取得部6が計時機能を持たない場合は、生体情報取得部5および動き情報取得部6は、取得された値を随時、生体情報処理装置11に送出し、生体情報処理装置11にて制御部110がその値に時刻情報を付与してもよい。 When the biometric information acquisition unit 5 and the motion information acquisition unit 6 do not have the timekeeping function, the biometric information acquisition unit 5 and the motion information acquisition unit 6 send the acquired values to the biometric information processing device 11 at any time. In the biometric information processing device 11, the control unit 110 may add time information to the value.

以下、生体情報処理装置11に含まれる構成要素のそれぞれの機能について説明する。後述するが、制御部110、運動状態識別部111、セグメント生成部112、特徴量導出部113、統合部114、ストレス推定部115、および情報出力部116は、例えば、プログラムに基づいて命令を実行する1つまたは複数のプロセッサとメモリとを含むコンピュータによって構成されてもよい。 Hereinafter, the functions of each of the components included in the biometric information processing apparatus 11 will be described. As will be described later, the control unit 110, the motion state identification unit 111, the segment generation unit 112, the feature amount derivation unit 113, the integration unit 114, the stress estimation unit 115, and the information output unit 116 execute instructions based on, for example, a program. It may be configured by a computer that includes one or more processors and memory.

なお、本実施形態において、生体情報処理装置11が処理する対象である生体情報が取得された期間(スパン)を、t=0からt=tmaxまでの期間(スパン)であると定義する。 In the present embodiment, the period (span) from which the biometric information to be processed by the biometric information processing apparatus 11 is acquired is defined as the period (span) from t = 0 to t = tmax.

===制御部110===
制御部110は、生体情報処理装置11に含まれる他の構成要素の動作を制御する。
=== Control unit 110 ===
The control unit 110 controls the operation of other components included in the biometric information processing device 11.

また、制御部110は、生体情報処理装置11が扱うデータの流れを制御する。例えば、制御部110は、生体情報取得部5および動き情報取得部6により取得された情報を受け取り、受け取った情報を記憶部119に記録する。 In addition, the control unit 110 controls the flow of data handled by the biometric information processing device 11. For example, the control unit 110 receives the information acquired by the biological information acquisition unit 5 and the motion information acquisition unit 6, and records the received information in the storage unit 119.

===記憶部119===
記憶部119は、生体情報処理装置11が扱うデータを一時的に、または非一時的に、記憶する。記憶部119は、いわば、ワーキングメモリである。記憶部119は、不揮発性の記憶媒体でもよい。記憶部119に対して、生体情報処理装置11に含まれる他の構成要素は自由にデータを読み書き可能である。
=== Storage unit 119 ===
The storage unit 119 temporarily or non-temporarily stores the data handled by the biometric information processing apparatus 11. The storage unit 119 is, so to speak, a working memory. The storage unit 119 may be a non-volatile storage medium. Other components included in the biometric information processing device 11 can freely read and write data to and from the storage unit 119.

===運動状態識別部111===
運動状態識別部111は、測定期間(スパン)に含まれる、時刻の小単位の各々における、被測定者の運動状態を識別する。言い換えれば、運動状態識別部111は、時刻の小単位の各々における運動状態を数種類の運動状態に分類する。運動状態の種類は、例えば、“Sitting”(座)状態、“Walking”(歩)状態、および“Running”(走)状態の3種類である。識別される運動状態の種類および数はこれには限られない。例えば、運動状態の種類は、“Sitting”(座)状態、“Standing”(立)状態、“Walking”(歩)状態、および“Running”状態の4種類でもよいし、この4種類にさらに“Sleeping”(寝)状態が加わった5種類でもよい。運動状態は、被測定者の運動の強さを、段階毎に識別するパラメータであればよい。
=== Exercise state identification unit 111 ===
The motion state identification unit 111 identifies the motion state of the person to be measured in each of the small units of time included in the measurement period (span). In other words, the motion state identification unit 111 classifies the motion states in each of the small units of time into several types of motion states. There are three types of exercise states, for example, a "Sitting" state, a "Walking" state, and a "Running" state. The types and numbers of motor states identified are not limited to this. For example, the types of exercise states may be four types of "Sitting" (sitting) state, "Standing" (standing) state, "Walking" (walking) state, and "Running" state, and further "Running" to these four types. There may be five types with the addition of a "sleeping" state. The exercise state may be a parameter that identifies the exercise intensity of the person to be measured for each stage.

運動状態の各種類は、“Sitting”等の具体的な名称を持たなくてもよい。例えば、運動状態の種類は、「第1の運動状態」と「第2の運動状態」と「第3の運動状態」との3種類でもよい。 Each type of exercise state does not have to have a specific name such as "Sitting". For example, the types of exercise states may be three types: "first exercise state", "second exercise state", and "third exercise state".

運動状態識別部111は、情報処理の対象となるデータ全体の時間の範囲を、時間Tsごとの区間(period)に分け、各区間における被測定者の運動状態を識別する。区間は、例えば、区間N=[0,Ts],区間N=[Ts,2Ts],・・・,区間N=[(n−1)Ts,n・Ts]のように設定される。区間の数がk個生成可能であるとき、上記のnの値の最大値はkである。なお、区間は、閉区間でも、開区間でも、半開区間でもよい。The motion state identification unit 111 divides the time range of the entire data to be processed into sections (periods) for each time Ts, and identifies the motion state of the person to be measured in each section. The interval is set as, for example, interval N 1 = [0, Ts], interval N 2 = [Ts, 2Ts], ..., Section N n = [(n-1) Ts, n · Ts]. NS. When the number of intervals can be generated as k, the maximum value of the above n is k. The section may be a closed section, an open section, or a half-open section.

区間の長さTsの値は予め設定されていてもよいし、データの長さに応じて適宜設定されてもよい。Tsの具体的な値は、例えば、1秒、10秒、30秒、または1分である。より細かく運動状態を識別するためには、区間の長さTsは短い方がよい。ただし、運動状態が頻繁に切り替わると後述するセグメントが短くなる。好適なTsの値は、被測定者の状況等によって変化するため、生体情報処理装置11の設計者または利用者により、適宜設定されるとよい。 The value of the section length Ts may be set in advance, or may be appropriately set according to the length of the data. Specific values of Ts are, for example, 1 second, 10 seconds, 30 seconds, or 1 minute. In order to discriminate the motion state more finely, the length Ts of the section should be short. However, if the exercise state is frequently switched, the segment described later becomes shorter. Since the suitable Ts value changes depending on the situation of the person to be measured and the like, it may be appropriately set by the designer or user of the biometric information processing apparatus 11.

区間は、区間どうしが重なるよう設定されてもよい。例えば、区間は、重なり度として“W”を用いて、区間N=[0,Ts+W],区間N=[Ts,2Ts+W],・・・,区間N=[(n−1)Ts,n・Ts+W]のように設定されてもよい。The sections may be set so that the sections overlap each other. For example, the interval uses "W" as the degree of overlap, and the interval N 1 = [0, Ts + W], the interval N 2 = [Ts, 2Ts + W], ..., The interval N n = [(n-1) Ts. , N · Ts + W].

以下、区間における被測定者の運動状態を「区間の運動状態」とも表記する。 Hereinafter, the motion state of the person to be measured in the section is also referred to as “the motion state of the section”.

区間の運動状態を識別する方法は、一般に知られている方法でよい。区間の運動状態を識別する方法の例を、以下に示す。 A generally known method may be used as a method for identifying the motion state of the section. An example of a method for identifying the motion state of a section is shown below.

例として、運動状態識別部111は、ある区間Nx=[X1,X2]における運動状態を識別するとする。 As an example, it is assumed that the exercise state identification unit 111 identifies the exercise state in a certain section Nx = [X1, X2].

運動状態識別部111は、区間の長さよりも短い期間(term)ごとの運動の強さを示す指標値を導出し、その指標値に基づいて運動状態を識別してもよい。本開示では、運動の強さを示す指標値を“AM”とする。“AM”は、“Activity Magnitude”の略である。 The exercise state identification unit 111 may derive an index value indicating the intensity of exercise for each period (term) shorter than the length of the section, and identify the exercise state based on the index value. In the present disclosure, the index value indicating the intensity of exercise is referred to as “AM”. "AM" is an abbreviation for "Activity Magnitude".

例えば、運動状態識別部111は、区間Nx=[X1,X2]をL個(Lは任意の整数)の期間(term)に等分割し、T=X1、T=X2、分割点をT、T、・・・、TL−1とする。運動状態識別部111は、各期間[0,T]、・・・、[TL−1,T]のAMを導出する。なお、期間(term)は、閉区間でも、開区間でも、半開区間でもよい。For example, the motion state identification unit 111 equally divides the interval Nx = [X1, X2] into L periods (terms) (L is an arbitrary integer), and sets T 0 = X1, T L = X2, and division points. Let T 1 , T 2 , ..., TL-1 . The motion state identification unit 111 derives AM for each period [0, T 1 ], ..., [ TL-1 , TL]. The period (term) may be a closed section, an open section, or a half-open section.

[AMの導出方法の例]
ある期間をDx=[Ta,Tb]とする。期間DxにおけるAMの導出方法の例を以下に示す。
[Example of AM derivation method]
Let Dx = [Ta, Tb] be a certain period. An example of the method of deriving AM in the period Dx is shown below.

例えば、動き情報として、X方向、Y方向、およびZ方向の加速度が、期間Dx=[Ta,Tb]の間にm回取得されるとする。i=1,2,・・・,mとして、加速度が取得される時刻をtとし、時刻tで取得された、X方向、Y方向、およびZ方向の加速度を、それぞれ、AcX、AcY、およびAcZとする。For example, it is assumed that the accelerations in the X direction, the Y direction, and the Z direction are acquired m times during the period Dx = [Ta, Tb] as motion information. i = 1, 2, · · ·, as m, the time at which acceleration is obtained with t i, obtained at time t i, X direction, Y direction, and the acceleration in the Z-direction, respectively, ACX i, Let it be AcY i and AcZ i .

この場合、運動状態識別部111は、期間Dx=[Ta,Tb]におけるAMを、例えば、下記の数式に基づいて算出する。 In this case, the exercise state identification unit 111 calculates AM in the period Dx = [Ta, Tb] based on, for example, the following mathematical formula.

Figure 0006943287
Figure 0006943287

RmX、RmY、RmZは、それぞれ、AcX、AcY、AcZの、区間Nx=[X1,X2]の直前のP秒間(Pの値は任意)の移動平均である。Pの値は、例えば、5である。 RmX, RmY, and RmZ are moving averages of AcX, AcY, and AcZ for P seconds (the value of P is arbitrary) immediately before the interval Nx = [X1, X2], respectively. The value of P is, for example, 5.

AMの定義の別の例を式(2)から(4)に示す。 Another example of the definition of AM is shown in equations (2) to (4).

Figure 0006943287
Figure 0006943287

Figure 0006943287
Figure 0006943287

Figure 0006943287
Figure 0006943287

式(4)の関数HはHeaviside関数である。すなわち、H(x)の値は、xが0を超える場合に1、xが0以下である場合に0である。式(4)により導出されるAMは、区間Dx=[Ta,Tb]に含まれる複数の時点t(i=1,2,・・・,m)のうち、加速度が閾値Th以上であった時点の個数を示す。The function H in equation (4) is a Heaviside function. That is, the value of H (x) is 1 when x exceeds 0 and 0 when x is 0 or less. AM derived by Equation (4) the interval Dx = [Ta, Tb] plurality of time points t i that is included in (i = 1, 2, · · ·, m) of, a the acceleration threshold Th or Indicates the number at the time of

式(4)における閾値Thは、設計者により設定された値でもよい。閾値Thは、決定木を用いた機械学習等によって導出されてもよい。 The threshold value Th in the equation (4) may be a value set by the designer. The threshold Th may be derived by machine learning using a decision tree or the like.

動き情報が、所定の閾値以上の加速度が計測された時刻である場合、運動状態識別部111は、期間Dx=[Ta,Tb]において所定の閾値以上の加速度が検出された回数を、Dx=[Ta,Tb]におけるAMとしてもよい。 When the motion information is the time when the acceleration of the predetermined threshold value or more is measured, the motion state identification unit 111 determines the number of times that the acceleration of the predetermined threshold value or more is detected in the period Dx = [Ta, Tb]. It may be AM in [Ta, Tb].

[AMを用いた運動状態の識別方法の例]
次に、AMを用いて区間Nx=[X1,X2]の運動状態を識別する方法の例を説明する。
[Example of method for identifying exercise state using AM]
Next, an example of a method of identifying the motion state of the section Nx = [X1, X2] using AM will be described.

運動状態識別部111は、例えば、AMを、運動状態の種類よりも1少ない数の境界値のそれぞれと比較する。運動状態の種類が3種類である場合は、2つの境界値が用いられる。 The exercise state identification unit 111 compares, for example, AM with each of a number of boundary values one less than the type of exercise state. When there are three types of exercise states, two boundary values are used.

一例として、運動状態識別部111は、区間Nx=[X1,X2]に含まれる期間D=[Ti−1,T](i=1,・・・,L)の各々におけるAMを、2つの境界値“WS”および“RW”と比較する。そして、運動状態識別部111は、各々のAMのうち、AM≦WSであるAMの数、WS≦AM≦RWであるAMの数、およびRW≦AMであるAMの数を、計上する。そして、運動状態識別部111は、下記の手順により、区間Nx=[X1,X2]における運動状態を決定する。
・AM≦WSであるAMの数が最も多い場合、運動状態は“Sitting”
・WS≦AM<RWであるAMの数が最も多い場合、運動状態は“Walking”
・RW<AMであるAMの数が最も多い場合、運動状態は“Running”
ただし、AM≦WSであるAMの数、WS≦AM≦RWであるAMの数、およびRW≦AMであるAMの数のうち、最大である数が2以上存在する場合は、決定可能な運動状態のうちいずれか1つの運動状態を優先させて設定するよう設計されればよい。
As an example, the movement state identification unit 111, time D i = included in the interval Nx = [X1, X2] [ T i-1, T i] (i = 1, ···, L) and AM in each of the Compare with the two boundary values "WS" and "RW". Then, the exercise state identification unit 111 records the number of AMs with AM ≦ WS, the number of AMs with WS ≦ AM ≦ RW, and the number of AMs with RW ≦ AM among each AM. Then, the motion state identification unit 111 determines the motion state in the section Nx = [X1, X2] by the following procedure.
-When the number of AMs with AM ≤ WS is the largest, the exercise state is "Sitting".
・ When the number of AMs with WS ≤ AM <RW is the largest, the exercise state is “Walking”.
・ When the number of AMs with RW <AM is the largest, the exercise state is “Running”.
However, if the maximum number of the number of AMs with AM ≤ WS, the number of AMs with WS ≤ AM ≤ RW, and the number of AMs with RW ≤ AM is 2 or more, the exercise can be determined. It may be designed to prioritize and set any one of the states.

上記手順は、例えば下記の式(5)および(6)に示される計算によっても実現され得る。すなわち、区間Nx=[X1,X2]に含まれる各期間の指標値をAM(j=1,・・・,L)として、式(5)により定義される変数MaxCountを用いることで、区間Nx=[X1,X2]の運動状態を表す変数“State”の値が、式(6)により決定されてもよい。The above procedure can also be realized by, for example, the calculations shown in the following equations (5) and (6). That is, by using the variable MaxCount defined by the equation (5) with the index value of each period included in the interval Nx = [X1, X2] as AM j (j = 1, ..., L), the interval The value of the variable "State" representing the motion state of Nx = [X1, X2] may be determined by the equation (6).

Figure 0006943287
Figure 0006943287

Figure 0006943287
なお、上記の境界値(RW、WS)は、設計者により設定された値でもよい。境界値は、決定木を用いた機械学習等によって導出されてもよい。
Figure 0006943287
The above boundary values (RW, WS) may be values set by the designer. The boundary value may be derived by machine learning using a decision tree or the like.

[AMを用いた運動状態の識別方法の別の例]
各々のAMと所定の閾値との比較により運動状態を決定する方法の例は、上記以外にも次のような例がある。
[Another example of a method for identifying a motor state using AM]
In addition to the above, there are the following examples of methods for determining the exercise state by comparing each AM with a predetermined threshold value.

例えば、運動状態識別部111は、RW≦AMであるAMの数が第1の閾値以上である場合は“Running”状態を付与し、それ以外の場合で、WS≦AMであるAMの数が第2の閾値以上である場合は“Walking”状態を付与し、それ以外の場合は “Sitting”状態を付与してもよい。 For example, the exercise state identification unit 111 imparts a “Running” state when the number of AMs with RW ≦ AM is equal to or greater than the first threshold value, and in other cases, the number of AMs with WS ≦ AM is increased. If it is equal to or higher than the second threshold value, the "Walking" state may be given, and in other cases, the "Sitting" state may be given.

また、例えば、運動状態識別部111は、α<α<αなる係数α、α、およびαを用意し、AM≦WSであるAMの数に第1の係数αをかけ、WS<AM≦RWであるAMの数に第2の係数αをかけ、およびRW<AMであるAMの数に第3の係数αをかけ、これらの積の総和を算出してもよい。上記の総和は、WSよりも大きいAMの数が多いほど、大きくなり、さらにRWよりも大きいAMの数が多いほど、大きくなる。運動状態識別部111は、算出された総和を、所定の閾値と比較することによって運動状態を決定してもよい。例えば、運動状態識別部111は、算出された総和が第3の閾値以下である場合は“Sitting”状態を付与し、算出された総和が第4の閾値(ただし第4の閾値>第3の閾値)を超える場合は“Running”状態を付与し、それ以外の場合は“Walking”状態を付与してもよい。Further, for example, the motion state identification unit 111 prepares the coefficients α 1 , α 2 , and α 3 such that α 123 , and sets the first coefficient α 1 to the number of AMs for which AM ≦ WS. multiplying the second coefficient alpha 2 over the number of AM is WS <AM ≦ RW, and RW <multiplying a third coefficient alpha 3 in the number of AM is AM, to calculate the sum of these products May be good. The above sum is larger as the number of AMs larger than WS is larger, and is larger as the number of AMs larger than RW is larger. The exercise state identification unit 111 may determine the exercise state by comparing the calculated sum with a predetermined threshold value. For example, the exercise state identification unit 111 assigns a "Sitting" state when the calculated sum is equal to or less than the third threshold value, and the calculated sum is the fourth threshold value (however, the fourth threshold value> the third threshold value). If the threshold value is exceeded, a "Running" state may be given, and in other cases, a "Walking" state may be given.

また、例えば、運動状態識別部111は、区間Nxに含まれる期間の各々におけるAMの総和を、所定の閾値と比較することによって運動状態を決定してもよい。例えば、AMの総和が第5の閾値以下である場合は“Sitting”状態を付与し、AMの総和が第6の閾値(ただし第6の閾値>第5の閾値)を超える場合は“Running”状態を付与し、それ以外の場合は“Walking”状態を付与してもよい。 Further, for example, the exercise state identification unit 111 may determine the exercise state by comparing the total sum of AM in each of the periods included in the section Nx with a predetermined threshold value. For example, when the total sum of AM is equal to or less than the fifth threshold value, the "Sitting" state is given, and when the total sum of AM exceeds the sixth threshold value (however, the sixth threshold value> the fifth threshold value), "Running" is given. A state may be given, otherwise a "Walking" state may be given.

以上のようにして、運動状態識別部111は、各区間における被測定者の運動状態を識別する。 As described above, the exercise state identification unit 111 identifies the exercise state of the person to be measured in each section.

運動状態識別部111は、各区間に、識別された運動状態を関連づけた情報を、セグメント生成部112に送出する。運動状態識別部111は、各区間に、識別された運動状態を関連づけた情報を、記憶部119に記録してもよい。 The movement state identification unit 111 sends information related to the identified movement state to each section to the segment generation unit 112. The exercise state identification unit 111 may record information associated with the identified exercise state in each section in the storage unit 119.

===セグメント生成部112===
セグメント生成部112は、運動状態識別部111により識別された各区間の運動状態に基づいて、生体情報の時系列データからセグメントを生成する。
=== Segment generator 112 ===
The segment generation unit 112 generates a segment from the time series data of the biological information based on the exercise state of each section identified by the exercise state identification unit 111.

セグメント生成部112は、時系列データから、セグメントの各々が、1つの区間から成るか、又は運動状態が同一である連続した区間から成るかのいずれかであるように、複数のセグメントを生成する。 The segment generation unit 112 generates a plurality of segments from the time series data so that each of the segments consists of either one section or continuous sections having the same motion state. ..

例えば、セグメント生成部112は、運動状態が同一である、連続する区間が、同一のセグメントに属し、運動状態が異なる、連続する区間が、異なるセグメントSおよびSn+1に属するように、分割する。For example, the segment generation unit 112 divides the sections so that the continuous sections having the same motion state belong to the same segment and the continuous sections having different motion states belong to the different segments Sn and Sn + 1. ..

具体的には、例えば、セグメント生成部112は、各区間の運動状態を時間順に調べ、運動状態が直前の区間の運動状態から変化しない区間に対しては、その区間を直前の区間と同一のセグメントに属する区間であると設定する。運動状態が直前の区間の運動状態から変化する区間に対しては、セグメント生成部112は、運動状態が変化する直前の区間をそのセグメントの最後の区間に設定し、運動状態が変化した直後の区間を新しいセグメントの最初の区間に設定する。 Specifically, for example, the segment generation unit 112 examines the motion state of each section in chronological order, and for a section in which the motion state does not change from the motion state of the immediately preceding section, the section is the same as the immediately preceding section. Set as a section belonging to a segment. For the section where the motion state changes from the motion state of the immediately preceding section, the segment generation unit 112 sets the section immediately before the motion state changes as the last section of the segment, and immediately after the motion state changes. Set the interval to the first interval of the new segment.

セグメント生成部112は、例えば、図2に示されるフローチャートに従った処理を行うことによって、セグメントの生成を行ってもよい。図2のフローチャートは、“i”を、1からk(区間の総数)まで1ずつ増やしながら、Nが属するべきセグメントSを決定する処理の手順を示す。“n”はセグメントの番号である。全てのnについてSの初期値はφ(空集合)とする。セグメント生成部112は、まず、nの値を1に、iの値を1に設定した後(ステップS21)、セグメントSに区間Nを追加する(ステップS22)、すなわち、区間Nの範囲をセグメントSの範囲に包含させる。その後、セグメント生成部112は、i=kでなければ(ステップS23においてNO)ステップS24の判定処理を行い、i=kであれば(ステップS23においてYES)処理を終了する。ステップS24において、セグメント生成部112は、i番目の区間の運動状態を表す値であるStateがStatei+1に等しくない場合(ステップS24においてNO)、“n”を1増やした後(ステップS25)、“i”を1増やす(ステップS26)。StateがStatei+1に等しい場合(ステップS24においてYES)、セグメント生成部112は、“n”を変化させずに“i”を1増やす(ステップS26)。こうすることで、運動状態が同一である連続する区間は、同一のセグメントSに属し、運動状態が異なる連続する区間は、異なるセグメント(SまたはSn+1)に属することとなる。ステップS26の後は、セグメント生成部112の処理は、ステップS22の処理に戻る。The segment generation unit 112 may generate a segment by performing processing according to the flowchart shown in FIG. 2, for example. The flowchart of FIG. 2, "i", and while increasing by 1 from 1 to k (the total number of intervals), showing a procedure for determining a segment S n to N i belongs. “N” is the segment number. The initial value of S n for all n is a phi (empty set). Segment generating unit 112, first, the value of n to 1, after setting the value of i to 1 (step S21), and add a section N i in the segment S n (step S22), and namely, the interval N i inclusion range in the scope of the segment S n. After that, the segment generation unit 112 performs the determination process of step S24 if i = k (NO in step S23), and ends the process if i = k (YES in step S23). In step S24, the segment generation unit 112 increments “n” by 1 when State i, which is a value representing the motion state of the i-th section, is not equal to State i + 1 (NO in step S24) (step S25). , "I" is incremented by 1 (step S26). When State i is equal to State i + 1 (YES in step S24), the segment generation unit 112 increments “i” by 1 without changing “n” (step S26). By doing so, the continuous sections having the same kinetic state belong to the same segment Sn, and the continuous sections having different kinetic states belong to different segments ( Sn or Sn + 1 ). After step S26, the process of the segment generation unit 112 returns to the process of step S22.

図2のフローチャートの処理が終了した時点で、n個のセグメントSの生成が完了する。When the processing of the flowchart of FIG. 2 is completed, the generation of n segments Sn is completed.

なお、セグメントが長くなりすぎると、そのセグメントから特徴量を導出するのに膨大な時間がかかるという問題が生じる場合がある。そこで、セグメントの長さに上限が設けられていてもよい。 If the segment becomes too long, there may be a problem that it takes an enormous amount of time to derive the feature amount from the segment. Therefore, an upper limit may be set for the length of the segment.

例えば、全てのセグメントが生成された後、長さが上限(例えば、600秒)を超えるセグメントがある場合、セグメント生成部112は、そのセグメントを分割し、分割後の各セグメントの長さが上限以下になるようにしてもよい。 For example, if there is a segment whose length exceeds the upper limit (for example, 600 seconds) after all the segments are generated, the segment generation unit 112 divides the segment and the length of each segment after the division is the upper limit. It may be as follows.

あるいは、セグメント生成部112は、セグメントを生成する過程で、セグメントの長さが上限を超えないように各セグメントを生成してもよい。 Alternatively, the segment generation unit 112 may generate each segment so that the length of the segment does not exceed the upper limit in the process of generating the segment.

セグメント生成部112は、生成されたセグメントの各々に、セグメントの種類を示すラベルを付与する。ラベルは、セグメントに対する処理方法を区別するために用いられる。セグメント生成部112は、ラベルを、そのセグメントを構成する区間の運動状態に基づき付与する。例えば、“Sitting”状態である区間からなるセグメントに対しては、セグメント生成部112は“Sitting”状態を示すラベルを付与する。同様に、セグメント生成部112は、セグメントに、それぞれ“Sitting”状態、“Walking”状態、または“Running”状態のいずれかを示すラベルを付与してもよい。以下、セグメントに付与されたラベルを、「セグメントのラベル」とも表記する。 The segment generation unit 112 assigns a label indicating the type of the segment to each of the generated segments. Labels are used to distinguish how to treat a segment. The segment generation unit 112 assigns a label based on the motion state of the section constituting the segment. For example, the segment generation unit 112 assigns a label indicating the “Sitting” state to the segment consisting of the section in the “Sitting” state. Similarly, the segment generation unit 112 may label each segment with a label indicating either the "Sitting" state, the "Walking" state, or the "Running" state. Hereinafter, the label given to the segment is also referred to as “segment label”.

セグメント生成部112は、生成されたセグメントの情報(すなわち、範囲または区間の組、および付与されたラベルを示す情報)を特徴量導出部113に対して送出する。セグメント生成部112は、生成されたセグメントの情報を記憶部119に記録してもよい。 The segment generation unit 112 sends information on the generated segment (that is, information indicating a range or interval set and a given label) to the feature amount derivation unit 113. The segment generation unit 112 may record the information of the generated segment in the storage unit 119.

===特徴量導出部113===
特徴量導出部113は、生体情報取得部5により取得された生体情報を、セグメント生成部112により設定されたセグメントごとに分析し、各セグメントの生体情報から特徴量を導出する。
=== Feature Derivation Unit 113 ===
The feature amount derivation unit 113 analyzes the biometric information acquired by the biometric information acquisition unit 5 for each segment set by the segment generation unit 112, and derives the feature amount from the biometric information of each segment.

図3は、特徴量導出部113によりセグメントごとの特徴量を導出する概念を表す図である。図3に示される例では、生体情報が取得されたt=0からt=tmaxまでの期間が、“Sitting”等のラベルが付与されたセグメントに分けられている。n個のセグメントの長さは不均一であるが、特徴量導出部113は、それぞれのセグメントの時系列データから同数の(図3に示される例では1つの)特徴量(CからC)を導出する。FIG. 3 is a diagram showing the concept of deriving the feature amount for each segment by the feature amount deriving unit 113. In the example shown in FIG. 3, the period from t = 0 to t = tmax from which the biometric information was acquired is divided into segments labeled with “Sitting” or the like. Although the lengths of the n segments are non-uniform, the feature amount deriving unit 113 has the same number of features (one in the example shown in FIG. 3) (C 1 to C n) from the time series data of each segment. ) Is derived.

特徴量は、例えば、データ値の代表値(最大値、最小値、中央値、最頻値、平均値等)でもよいし、時系列データに対して所定の計算を行うことにより得られる値でもよい。特徴量導出部113は、1つのセグメントあたり複数個の特徴量を導出してもよい。 The feature amount may be, for example, a representative value of data values (maximum value, minimum value, median value, mode value, average value, etc.) or a value obtained by performing a predetermined calculation on time series data. good. The feature amount deriving unit 113 may derive a plurality of feature amounts per segment.

例えば、時系列データが心拍変動の時系列データである場合、特徴量導出部113は、特徴量として、HF成分の値、およびLF成分の値を導出してもよい。HF成分およびLF成分の値は、心拍変動の時系列データを周波数成分に変換することで得られる。また、LF成分の値をHF成分の値で除した値であるLF/HFの値も、ストレス推定によく用いられる。特徴量導出部113は、LF/HFの値を特徴量として導出してもよい。 For example, when the time-series data is the time-series data of the heart rate variability, the feature amount deriving unit 113 may derive the value of the HF component and the value of the LF component as the feature amount. The values of the HF component and the LF component are obtained by converting the time series data of the heart rate variability into the frequency component. Further, the value of LF / HF, which is the value obtained by dividing the value of the LF component by the value of the HF component, is also often used for stress estimation. The feature amount derivation unit 113 may derive the value of LF / HF as a feature amount.

特徴量導出部113は、各セグメントからの特徴量を統合部114に送出する。特徴量導出部113は、各セグメントと特徴量とが関係づけられた情報を記憶部119に記録してもよい。 The feature amount derivation unit 113 sends the feature amount from each segment to the integration unit 114. The feature amount deriving unit 113 may record the information in which each segment and the feature amount are related to each other in the storage unit 119.

===統合部114===
統合部114は、各セグメントから導出された特徴量を統合して、代表的な特徴量を導出する。代表的な特徴量とは、情報処理の対象となるデータの全体にわたって得られた特徴量を代表する特徴量である。代表的な特徴量が、後述のストレス推定に用いられる。
=== Integrated unit 114 ===
The integration unit 114 integrates the feature quantities derived from each segment to derive a representative feature quantity. The typical feature amount is a feature amount that represents the feature amount obtained over the entire data to be processed. Typical features are used for stress estimation, which will be described later.

統合部114は、代表的な特徴量を、ラベル別に導出する。すなわち、統合部114は、同一のラベルが付与されたセグメントごとに特徴量を統合し、代表的な特徴量を導出する。 The integration unit 114 derives a representative feature amount for each label. That is, the integration unit 114 integrates the feature quantities for each segment with the same label and derives a representative feature quantity.

図4は、代表的な特徴量の導出の概念を示す図である。図4に示される例は、特徴量導出部113により各々のセグメントから1つずつ導出された、全3種類の特徴量に対して統合を行う例である。この例では、統合により3つの代表的な特徴量(C_sitting、C_walking、およびC_running)が導出される。なお、1つのセグメントから複数の種類の特徴量が導出される場合は、代表的な特徴量は特徴量の種類ごとに導出されてよい。 FIG. 4 is a diagram showing a concept of deriving a typical feature amount. The example shown in FIG. 4 is an example in which all three types of feature quantities, which are derived one by one from each segment by the feature quantity derivation unit 113, are integrated. In this example, integration derives three representative features (C_sitting, C_walking, and C_running). When a plurality of types of feature quantities are derived from one segment, typical feature quantities may be derived for each type of feature quantity.

以下、ラベル別に統合される結果得られる代表的な特徴量を「ラベル別特徴量」と称する。ラベルは運動状態に基づき付与されるので、ラベル別特徴量は、運動状態別の特徴量ということもできる。 Hereinafter, a typical feature amount obtained as a result of integration by label will be referred to as a “feature amount by label”. Since the label is given based on the exercise state, the feature amount for each label can be said to be the feature amount for each exercise state.

特定のラベルに係るラベル別特徴量(すなわち、特定のラベルが付与されたセグメントから導出される特徴量を統合することにより得られる代表的な特徴量)の導出方法の例を、以下で説明する。 An example of a method for deriving the feature amount for each label related to a specific label (that is, a typical feature amount obtained by integrating the feature amount derived from the segment to which the specific label is given) will be described below. ..

統合部114は、例えば、特定のラベルが付与されたセグメントから導出された特徴量のそれぞれを、その特徴量が導出されたセグメントの長さに応じて重みづけを行った上で足し合わせることで、その特定のラベルに係るラベル別特徴量を導出する。 For example, the integration unit 114 adds up each of the feature quantities derived from the segment to which a specific label is given after weighting each of the feature quantities according to the length of the segment from which the feature quantity is derived. , Derivation of label-specific features for that particular label.

例えば、“Sitting”状態を示すラベルが付与された3つのセグメントSa,Sb,Scから、それぞれ特徴量として心拍数の平均値Ra,Rb,Rcが導出された場合、統合部114は、上記3つのセグメントの長さLa,Lb,Lcを重み係数として用いて、
(La・Ra+Lb・Rb+Lc・Rc)/(La+Lb+Lc)
により導出される値を、代表的な特徴量とする。
For example, when the average heart rate values Ra, Rb, and Rc are derived as feature amounts from the three segments Sa, Sb, and Sc labeled to indicate the “Sitting” state, the integration unit 114 may perform the above 3 Using the lengths La, Lb, Lc of one segment as weighting factors,
(La ・ Ra + Lb ・ Rb + Lc ・ Rc) / (La + Lb + Lc)
The value derived from is a typical feature quantity.

重みづけに用いられる重み係数とセグメントの長さとの関係は、必ずしも線形の関係でなくてもよい。HF成分やLF成分等の長周期成分が特徴量に用いられる場合等は、セグメントの長さが長いほど特徴量の信頼性が高くなると考えられる。そのような場合は、長さが長いセグメントから導出される特徴量ほど、重みが長さ分よりも大きくなるように、重み係数が設定されてもよい。 The relationship between the weighting coefficient used for weighting and the length of the segment does not necessarily have to be a linear relationship. When a long-period component such as an HF component or an LF component is used as a feature amount, it is considered that the longer the segment length, the higher the reliability of the feature amount. In such a case, the weighting coefficient may be set so that the feature amount derived from the segment having a long length has a weight larger than the length.

例えば、同じラベルが付与されたQ個のセグメントS,S,・・・,Sから、それぞれ特徴量としてC,C,・・・,Cが導出されたとする。セグメントS(i=1,・・・,Q)の長さをLとすると、セグメント生成部112は、ラベル別特徴量を、任意の正の実数x、x(x<x)についてf(x)/x<f(x)/xが成立するような関数fを用いて、
(Σi=1..Q・f(L))/(Σi=1..Qf(L))
により導出してもよい。f(x)=xα(αは任意の1以上の実数)が、関数fの一例である。
For example, suppose that C 1 , C 2 , ..., C Q are derived as feature quantities from Q segments S 1 , S 2 , ..., S Q with the same label, respectively. Segment S i (i = 1, ··· , Q) when the length of the L i, segment generation unit 112, the label feature quantities, the real x 1 of any positive, x 2 (x 1 <x For 2 ), using a function f such that f (x 1 ) / x 1 <f (x 2 ) / x 2 holds,
i = 1..Q C i · f (L i )) / (Σ i = 1..Q f (L i ))
It may be derived by. f (x) = x α (α is an arbitrary real number of 1 or more) is an example of the function f.

このような計算によれば、異なる長さ(第1の長さと第2の長さ)のセグメントから導出された特徴量(第1の特徴量と第2の特徴量)について、代表的な特徴量に対する、第2の特徴量の寄与率と第1の特徴量の寄与率との比は、第2の長さと第1の長さとの比よりも大きくなる。 According to such a calculation, typical features (first feature amount and second feature amount) derived from segments of different lengths (first length and second length) are represented. The ratio of the contribution ratio of the second feature quantity to the contribution ratio of the first feature quantity to the quantity is larger than the ratio of the second length to the first length.

統合部114は、統合によって導出された、ラベル別の代表的な特徴量を、ストレス推定部115に対して送出する。 The integration unit 114 sends a representative feature amount for each label derived by integration to the stress estimation unit 115.

===ストレス推定部115===
ストレス推定部115は、統合部114により導出された代表的な特徴量から、被測定者のストレスの度合い(ストレスの強さ、またはレベルと言い換えられてもよい)を判定する。
=== Stress estimation unit 115 ===
The stress estimation unit 115 determines the degree of stress (which may be rephrased as the intensity or level of stress) of the person to be measured from the representative feature amount derived by the integration unit 114.

ストレス推定部115は、例えば、予め訓練データセットを用いた学習により生成されたストレス推定モデルを有する。そして、ストレス推定部115は、代表的な特徴量にストレス推定モデルを適用し、出力としてストレスの度合いを示す情報を導出する。 The stress estimation unit 115 has, for example, a stress estimation model generated by learning using a training data set in advance. Then, the stress estimation unit 115 applies the stress estimation model to a typical feature amount, and derives information indicating the degree of stress as an output.

ストレス推定モデルは、少なくとも1つのラベル別特徴量を入力とする。ストレス推定モデルは、運動状態とラベル別特徴量の組を入力とするモデルでもよい。ストレス推定モデルは、複数の運動状態と、当該複数の運動状態のそれぞれに係るラベル別特徴量との組を入力とするモデルでもよい。ストレスの度合いを示す情報は、例えば、「問題なし」または「問題あり」の二値でもよいし、「ストレスの度合いはxx%」のように、数値で表される情報でもよい。 The stress estimation model inputs at least one label-specific feature amount. The stress estimation model may be a model in which a set of a motion state and a feature amount for each label is input. The stress estimation model may be a model in which a set of a plurality of exercise states and a label-specific feature amount related to each of the plurality of exercise states is input. The information indicating the degree of stress may be a binary value of "no problem" or "problem", or may be numerical information such as "the degree of stress is xx%".

訓練データセットは、例えば、ストレスの度合いが既知である人物から得られたラベル別特徴量のデータセットである。訓練データセットを用意するために人物のストレスの度合いを知る方法としては、例えば、アンケートによるストレスの度合いの調査等、ストレスの度合いを生体情報以外の情報から得る方法が採用されればよい。 The training data set is, for example, a data set of label-specific features obtained from a person whose degree of stress is known. As a method of knowing the degree of stress of a person in order to prepare a training data set, a method of obtaining the degree of stress from information other than biometric information, such as a survey of the degree of stress by a questionnaire, may be adopted.

===情報出力部116===
情報出力部116は、生体情報処理装置11による処理の結果を示す情報を出力する。
=== Information output unit 116 ===
The information output unit 116 outputs information indicating the result of processing by the biometric information processing device 11.

例えば、情報出力部116は、情報を、表示装置に出力することで、情報を表示装置に表示させる。 For example, the information output unit 116 outputs the information to the display device so that the information is displayed on the display device.

情報出力部116は、生体情報処理装置11以外の装置に情報を送信してもよい。例えば、情報出力部116は生体情報取得部5に情報を送信してもよい。生体情報取得部5が情報を表示する機能を有している場合、生体情報取得部5は受信した情報を表示してもよい。このような構成によれば、被測定者は生体情報処理装置11による処理の結果を知ることが可能となる。 The information output unit 116 may transmit information to a device other than the biometric information processing device 11. For example, the information output unit 116 may transmit information to the biological information acquisition unit 5. When the biometric information acquisition unit 5 has a function of displaying information, the biometric information acquisition unit 5 may display the received information. According to such a configuration, the person to be measured can know the result of the processing by the biometric information processing apparatus 11.

情報出力部116は、記憶装置に情報を出力することで、情報を記憶装置に記憶させてもよい。記憶装置は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の非一時的な記憶装置でもよいし、RAM(Random Access Memory)等の一時的な記憶装置でもよい。被測定者等の人物が、当該記憶装置に記憶された情報にアクセスすれば、その人物は生体情報処理装置11による処理の結果を知ることが可能となる。 The information output unit 116 may store the information in the storage device by outputting the information to the storage device. The storage device may be, for example, a non-temporary storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive), or a temporary storage device such as a RAM (Random Access Memory). If a person such as a person to be measured accesses the information stored in the storage device, the person can know the result of processing by the biometric information processing device 11.

情報出力部116が出力する情報は、例えば、ストレスの度合いを示す情報である。ストレスの度合いを示す情報は、被測定者の状態に関する情報であるとも言える。情報出力部116は、各セグメントから導出された特徴量、代表的な特徴量、および全体の特徴量等を出力してもよい。 The information output by the information output unit 116 is, for example, information indicating the degree of stress. It can be said that the information indicating the degree of stress is information on the condition of the subject. The information output unit 116 may output the feature amount derived from each segment, the representative feature amount, the overall feature amount, and the like.

<動作>
次に、図5のフローチャートを参照しながら生体情報処理装置11の動作の流れを説明する。
<Operation>
Next, the operation flow of the biometric information processing apparatus 11 will be described with reference to the flowchart of FIG.

まず、生体情報処理装置11の制御部110が、生体情報と動き情報とを受け取る(ステップS110)。制御部110は、生体情報と動き情報とを記憶部119に記録してもよい。 First, the control unit 110 of the biometric information processing device 11 receives the biometric information and the motion information (step S110). The control unit 110 may record the biological information and the motion information in the storage unit 119.

次に、運動状態識別部111が、動き情報取得部6により取得された動き情報に基づき、各区間の運動状態を識別する(ステップS111)。 Next, the motion state identification unit 111 identifies the motion state of each section based on the motion information acquired by the motion information acquisition unit 6 (step S111).

次に、セグメント生成部112が、各区間の運動状態に基づき、データのセグメントの生成を行う(ステップS112)。 Next, the segment generation unit 112 generates data segments based on the motion state of each section (step S112).

次に、特徴量導出部113が、各セグメントから特徴量を導出する(ステップS113)。 Next, the feature amount deriving unit 113 derives the feature amount from each segment (step S113).

次に、統合部114が、ラベル別に特徴量を統合し、ラベル別特徴量を導出する(ステップS114)。 Next, the integration unit 114 integrates the feature amounts for each label and derives the feature amounts for each label (step S114).

次に、ストレス推定部115が、被測定者のストレスの度合いを判定する(ステップS115)。 Next, the stress estimation unit 115 determines the degree of stress of the person to be measured (step S115).

そして、情報出力部116が、生体情報処理装置11による情報処理の結果を出力する(ステップS116)。すなわち、情報出力部116は、例えば、被測定者のストレスの度合いを示す情報を出力する。 Then, the information output unit 116 outputs the result of information processing by the biometric information processing device 11 (step S116). That is, the information output unit 116 outputs, for example, information indicating the degree of stress of the person to be measured.

<効果>
第1の実施形態に係る生体情報処理装置11によれば、運動状態による生体情報への影響を考慮しながら、生体情報を処理し、精度の良いストレス推定を行うことができる。
<Effect>
According to the biometric information processing apparatus 11 according to the first embodiment, it is possible to process the biometric information and perform accurate stress estimation while considering the influence of the exercise state on the biological information.

その理由は、特徴量導出部113および統合部114によりラベル別(運動状態別)に代表的な特徴量が導出され、ストレス推定部115がその代表的な特徴量とストレスモデルとに基づいてストレス推定を行うからである。 The reason is that the feature quantity derivation unit 113 and the integration unit 114 derive representative feature quantities for each label (by motion state), and the stress estimation unit 115 stresses based on the representative feature quantity and the stress model. This is because the estimation is performed.

また、生体情報処理装置11は、運動状態の変化を柔軟に検出しながら、セグメントの長さを十分に長くすることができるため、精度のよいストレス推定を行うことができる。 Further, since the biometric information processing apparatus 11 can flexibly detect changes in the motion state and sufficiently lengthen the segment length, it is possible to perform accurate stress estimation.

運動状態の変化を柔軟に検出できる理由は、区間の長さ(Ts)が、セグメントの長さとは無関係に、任意の値(例えば1秒等)に設定可能であるからである。 The reason why the change in the motion state can be flexibly detected is that the length of the section (Ts) can be set to an arbitrary value (for example, 1 second) regardless of the length of the segment.

セグメントの長さを十分に長くすることができる理由は、セグメント生成部112が、区間をセグメントとして生成するのではなく、同一の運動状態が付与された連続した区間が同一のセグメントに属するように、セグメントを生成するからである。 The reason why the length of the segment can be made sufficiently long is that the segment generation unit 112 does not generate the section as a segment, but the continuous section to which the same motion state is given belongs to the same segment. , Because it creates a segment.

以上のように、本実施形態に係る生体情報処理装置11は、セグメントごとに導出される特徴量を用いた分析を、より高精度に行うことができる、という効果がある。 As described above, the biometric information processing apparatus 11 according to the present embodiment has an effect that the analysis using the feature amount derived for each segment can be performed with higher accuracy.

特に、特徴量が、HF成分およびLF成分の値のように、セグメントが長いほど精度よく検出される情報であれば、上述の効果は大きい。 In particular, if the feature amount is information that can be detected more accurately as the segment becomes longer, such as the values of the HF component and the LF component, the above-mentioned effect is large.

<<変形例>>
[変形例1]運動が生体情報に反映される時間の考慮
生体情報の中には、心拍や発汗等、運動状態が変化してからある程度の期間が経ってから運動状態の影響が反映される生体情報がある。そのような生体情報がストレス推定に用いられる一つの実施形態では、セグメント生成部112は、運動状態が変化する区間からY秒(Yは非負の実数)後の時点をセグメントの境界に設定してもよい。
<< Modification example >>
[Modification 1] Consideration of time when exercise is reflected in biological information The influence of exercise state is reflected in biological information after a certain period of time has passed since the exercise state changed, such as heartbeat and sweating. There is biometric information. In one embodiment in which such biometric information is used for stress estimation, the segment generator 112 sets the segment boundary at a time point Y seconds (Y is a non-negative real number) after the section in which the motor state changes. May be good.

言い換えれば、セグメント生成部112は、運動状態が変化した時点からY秒後の時点から、次に運動状態が変化した時点からY秒後の時点までを、1つのセグメントの範囲として設定してもよい。それぞれのY(上記のY、Y等)の値は、等しくなくてもよい。例えば、Yの値は、運動状態の変化のパターン(“Sitting”状態から“Walking”状態への変化であるか、“Walking”状態から“Sitting”状態への変化であるか、等)に応じて異なる値でもよい。In other words, the segment generation unit 112 sets the range from the time point Y 1 second after the change of the motion state to the time point Y 2 seconds after the next change of the motion state as the range of one segment. You may. The values of each Y (Y 1 , Y 2, etc. above) do not have to be equal. For example, the value of Y depends on the pattern of change in the exercise state (whether it is a change from the "Sitting" state to the "Walking" state, a change from the "Walking" state to the "Sitting" state, etc.). It may be a different value.

なお、Yの値は、区間の長さの整数倍でもよいし、そうでなくてもよい。 The value of Y may or may not be an integral multiple of the length of the interval.

あるいは、セグメント生成部112は、運動状態が変化した時点からY秒間の期間を含まないように、セグメントを生成してもよい。すなわち、セグメント生成部112は、運動状態が変化した時点からY秒後の時点から、次に運動状態が変化する時点までの期間を、1つのセグメントの範囲として設定してもよい。 Alternatively, the segment generation unit 112 may generate a segment so as not to include a period of Y seconds from the time when the exercise state changes. That is, the segment generation unit 112 may set the period from the time point after Y seconds from the time when the movement state changes to the time point when the movement state changes next as the range of one segment.

セグメント生成部112は、まず、図2に示されるフローチャートに従って仮のセグメントを生成した後、その仮のセグメントから、運動状態が変化した時点からY秒間の期間を除いた期間を、真のセグメント(すなわち、特徴量導出部113による処理の対象となるセグメント)として生成してもよい。 The segment generation unit 112 first generates a temporary segment according to the flowchart shown in FIG. 2, and then sets the period obtained by excluding the period of Y seconds from the time when the motion state changes from the temporary segment as the true segment (the true segment ( That is, it may be generated as a segment to be processed by the feature amount deriving unit 113).

運動状態が変化した時点から所定の時間の経過後までの期間を考慮してセグメントを設定することで、より正確に生体情報と運動状態とが関連づけられる。これにより、運動状態の変化の影響を受けるまでに時間がかかる生体情報を用いたストレス推定の精度を、向上させることができる。特に、運動状態が遷移する時点から所定の時間後の時点をセグメントの始点として設定することで、運動状態が遷移した直後の生体情報を用いることによるストレス推定の精度の悪化を防ぐことができる。 By setting the segment in consideration of the period from the time when the exercise state changes to the time after the lapse of a predetermined time, the biological information and the exercise state can be more accurately associated with each other. This makes it possible to improve the accuracy of stress estimation using biological information, which takes time to be affected by changes in the motor state. In particular, by setting a time point after a predetermined time from the time when the exercise state changes as the start point of the segment, it is possible to prevent deterioration of the accuracy of stress estimation due to the use of biological information immediately after the change of the exercise state.

[変形例2]全体の特徴量の導出
一つの実施形態では、統合部114は、情報処理の対象となるデータの全範囲に含まれるすべてのセグメントを統合し、全体の特徴量を導出してもよい。例えば、統合部114は、ラベルごとに導出されたラベル別特徴量を統合することで、全体の特徴量を導出してもよい。
[Modification 2] Derivation of the entire feature amount In one embodiment, the integration unit 114 integrates all the segments included in the entire range of the data to be processed and derives the entire feature amount. May be good. For example, the integration unit 114 may derive the entire feature amount by integrating the label-specific feature amounts derived for each label.

そして、ストレス推定部115は、全体の特徴量とストレスとの関係を学習することによって得られたストレス推定モデルを用いて、全体の特徴量からストレスの度合いを推定してもよい。 Then, the stress estimation unit 115 may estimate the degree of stress from the total feature amount by using the stress estimation model obtained by learning the relationship between the total feature amount and the stress.

統合部114は、全体の特徴量を導出する際、ラベル別特徴量のそれぞれに対して、ラベルに応じた補正または重みづけの少なくともいずれかを行ってもよい。 When deriving the entire feature amount, the integration unit 114 may perform at least one of correction or weighting according to the label for each of the feature amounts for each label.

例えば、特徴量が、平均体温等、運動の強さと相関がある特徴量であるような場合、統合部114は、“Walking”状態に係るラベル別特徴量をV減じ、“Walking”状態に係るラベル別特徴量をV減じる補正を行ってもよい。VおよびVは、ラベルが表す運動状態に応じて定められる値である。VおよびVは、運動状態と特徴量の変化との関係に関する知見に基づいて適切に設定されればよい。For example, feature quantity, average body temperature, etc., if such a strong and characteristic amount having a correlation of motion, integrating unit 114, the label feature quantities according to the "Walking" state V 1 reduced, the "Walking" state labels feature quantities may be performed V 2 reduces correction according. V 1 and V 2 are values determined according to the state of motion represented by the label. V 1 and V 2 may be appropriately set based on the knowledge about the relationship between the exercise state and the change in the feature amount.

また、特徴量が、その精度が運動の強さと相関があるような特徴量である場合、統合部114は、その精度に応じた重みづけを行った上で、全体の特徴量を導出してもよい。 Further, when the feature amount is a feature amount whose accuracy correlates with the strength of motion, the integration unit 114 derives the entire feature amount after weighting according to the accuracy. May be good.

例えば、運動量が少ない場合に付与される運動状態(例えば“Sitting”状態)では、生体情報は、主に精神的な状態に依存すると考えられる。運動量が多い場合に付与される運動状態(例えば“Running”状態)では、生体情報は運動状態の影響を強く受けると考えられる。このようなことから、運動の強さが強い時の特徴量ほど、ストレス推定に用いる値としての精度は悪くなると考えられる。 For example, in the exercise state (for example, "Sitting" state) given when the amount of exercise is small, it is considered that the biological information mainly depends on the mental state. In the exercise state (for example, "Running" state) given when the amount of exercise is large, it is considered that the biological information is strongly influenced by the exercise state. From this, it is considered that the more the feature amount when the exercise intensity is strong, the worse the accuracy as the value used for stress estimation.

そこで、統合部114は、例えば、“Sitting”状態と識別されたセグメントの重みが、“Walking”状態および“Running”状態と識別されたセグメントの重みよりも大きくなるような重みづけを行った上で、全体の特徴量を導出してもよい。そうすることで、より信頼性の高い特徴量がより大きく重みづけられた、全体の特徴量が導出される。 Therefore, for example, the integration unit 114 weights the segment identified as the “Sitting” state so that the weight of the segment identified as the “Walking” state and the “Running” state is larger than the weight of the segment identified as the “Walking” state. Then, the entire feature amount may be derived. By doing so, the overall feature quantity, in which the more reliable feature quantity is weighted more, is derived.

重みづけに用いられる重み係数は、例えば、0から1の範囲の実数である。数値が大きいほど、重みが大きくなるとする。重み係数は、“Sitting”状態を示すラベルが付与されたセグメントの重みを1、“Walking”または“Running”状態を示すラベルが付与されたセグメントの重みを0、としてもよい。この場合、“Sitting”状態を示すラベルが付与されたセグメントから得られる特徴量のみが全体の特徴量に反映される。このように、運動の強さが比較的低い期間の特徴量のみをストレス推定に用いれば、より正確なストレス推定を行うことができる。 The weighting factor used for weighting is, for example, a real number in the range 0 to 1. It is assumed that the larger the numerical value, the larger the weight. The weighting coefficient may be such that the weight of the segment labeled with the "Sitting" state is 1, and the weight of the segment labeled with the "Walking" or "Running" state is 0. In this case, only the features obtained from the segment labeled with the "Sitting" state are reflected in the overall features. In this way, more accurate stress estimation can be performed by using only the features during the period when the exercise intensity is relatively low for stress estimation.

以上のようにして導出される全体の特徴量は、運動状態に応じて補正または重みづけの少なくともいずれかがされた上で導出されるため、この全体の特徴量に基づいて、より精度のよいストレス推定が行える。 Since the total feature quantity derived as described above is derived after at least one of correction and weighting is performed according to the motion state, the overall feature quantity is more accurate based on the total feature quantity. Stress estimation can be performed.

(変形例2の更なる変形例)
上記のように、統合部114が全体の特徴量を導出する場合、セグメント生成部112が、各セグメントに対し、運動状態を示すラベルの代わりに、信頼度を付与してもよい。セグメントに付与される信頼度は、そのセグメントから導出される特徴量が高精度なストレス推定のための情報として有用であることの信頼性の高さを示す。信頼度関連づけ部128は、信頼性がより高いセグメントに、より高い信頼度を関連づける。上述の重み係数は、信頼度の一例である。
(Further modification example of modification 2)
As described above, when the integration unit 114 derives the overall feature amount, the segment generation unit 112 may give reliability to each segment instead of the label indicating the motion state. The reliability given to a segment indicates the high reliability that the features derived from the segment are useful as information for highly accurate stress estimation. The reliability association unit 128 associates a higher reliability with a segment having a higher reliability. The weighting factor described above is an example of reliability.

そして、統合部114は、信頼度がより大きいセグメントから導出された特徴量の重みがより大きくなるように、各セグメントから導出される特徴量を重みづけした上で、全体の特徴量を導出すればよい。これにより、信頼性がより高いセグメントから導出される特徴量が、全体の特徴量により大きく寄与する。 Then, the integration unit 114 weights the features derived from each segment so that the weights of the features derived from the segments with higher reliability become larger, and then derives the entire features. Just do it. As a result, the features derived from the more reliable segments contribute more to the overall features.

セグメント生成部112は、各セグメントの信頼度を、当該セグメントにおける被測定者の運動状態に基づき決定してもよい。例えば、セグメント生成部112は、被測定者がより強い運動状態にあるときのセグメントに対しては、より小さい信頼度を付与する。 The segment generation unit 112 may determine the reliability of each segment based on the exercise state of the person to be measured in the segment. For example, the segment generator 112 imparts less reliability to the segment when the subject is in a stronger exercise state.

なお、セグメントにおける被測定者の運動状態は、セグメントを構成する区間の運動状態である。セグメントを構成する区間の運動状態が一つでない場合は、セグメントにおける被測定者の運動状態は、セグメントを構成する区間のそれぞれに付与された運動状態のうち、支配的な運動状態である。支配的な運動状態とは、例えば、セグメントを構成する区間の運動状態のうち数が最も多い運動状態でもよいし、セグメントの代表的な時点(例えば、中央の時点、または終了時点等)を含む区間の運動状態でもよい。 The exercise state of the person to be measured in the segment is the exercise state of the section constituting the segment. When there is more than one motion state in the section constituting the segment, the motion state of the subject in the segment is the dominant motion state among the motion states given to each of the sections constituting the segment. The dominant motion state may be, for example, the motion state having the largest number of motion states in the section constituting the segment, or includes a representative time point of the segment (for example, a center time point or an end time point). The exercise state of the section may be used.

セグメント生成部112が各セグメントに対し信頼度を付与する実施形態では、セグメント生成部112は、各セグメントの運動状態を決定する処理を省略してもよい。セグメント生成部112は、各セグメントの信頼度を、当該セグメントから導出される特徴量に影響を与える期間のAMに基づき決定してもよい。セグメントから導出される特徴量に影響を与える期間とは、例えばある期間におけるAMがY秒後に特徴量に影響する場合、セグメントの範囲をY秒前にずらした範囲に含まれる期間である。 In the embodiment in which the segment generation unit 112 imparts reliability to each segment, the segment generation unit 112 may omit the process of determining the motion state of each segment. The segment generation unit 112 may determine the reliability of each segment based on the AM of the period that affects the feature amount derived from the segment. The period that affects the feature amount derived from the segment is, for example, the period included in the range in which the range of the segment is shifted before Y seconds when the AM in a certain period affects the feature amount after Y seconds.

セグメント生成部112は、例えば、セグメントから導出される特徴量に影響を与える期間のAMの代表値(最大値、最小値、中央値、最頻値、平均値等)が、大きいほど、より低い信頼度を、当該セグメントに付与してもよい。セグメント生成部112は、他にも、AMの分布や、所定値を超えるAMの個数等に基づいて、信頼性がより低いセグメントにより低い信頼度を付与してもよい。 In the segment generation unit 112, for example, the larger the representative value (maximum value, minimum value, median value, mode value, average value, etc.) of AM during the period affecting the feature amount derived from the segment, the lower the value. Confidence may be given to the segment. In addition, the segment generation unit 112 may give a lower reliability to a segment having a lower reliability based on the distribution of AM, the number of AMs exceeding a predetermined value, and the like.

セグメント生成部112が各セグメントに対し信頼度を付与する実施形態では、特徴量導出部113は、信頼度として0が付与されたセグメントからは特徴量を導出しなくてもよい。記憶部119は、信頼度として0が付与されたセグメントの範囲の時系列データを記憶しなくてもよい。これにより、生体情報処理装置11にかかる負荷を軽減することができる。 In the embodiment in which the segment generation unit 112 imparts reliability to each segment, the feature quantity deriving unit 113 does not have to derive the feature quantity from the segment to which 0 is assigned as the reliability. The storage unit 119 does not have to store the time series data in the range of the segment to which 0 is assigned as the reliability. As a result, the load on the biometric information processing device 11 can be reduced.

[変形例3]セグメントの取捨
一つの実施形態では、セグメント生成部112は、所定の長さに満たないセグメントを、特徴量が導出されるセグメントから除外してもよい。言い換えれば、特徴量導出部113は、所定の長さ未満のセグメントからは特徴量を導出せず、所定の長さ以上のセグメントのみから特徴量を導出してもよい。
[Modification 3] Separation of segment In one embodiment, the segment generation unit 112 may exclude a segment having a length less than a predetermined length from the segment from which the feature amount is derived. In other words, the feature amount deriving unit 113 may not derive the feature amount from the segment having a predetermined length or more, but may derive the feature amount only from the segment having a predetermined length or more.

これにより、より長いデータから導出されるほど精度よく検出される特徴量が、一定の精度で検出されることが保証される。 This guarantees that the feature amount that is detected more accurately as it is derived from the longer data is detected with a certain accuracy.

[変形例4]情報の取得と情報処理の並行
一つの実施形態では、生体情報処理装置11は、生体情報および動き情報を受け取りながら、生体情報および動き情報に対する処理を行ってもよい。
[Modification 4] Parallelization of Information Acquisition and Information Processing In one embodiment, the biometric information processing apparatus 11 may perform processing on biometric information and motion information while receiving biometric information and motion information.

そのような実施形態では、例えば、運動状態識別部111は、一定の長さの区間の生体情報および動き情報が取得されたら、随時、当該区間の運動状態を識別する。セグメント生成部112は、順次運動状態が識別される区間に対して、当該区間においてセグメントを切り替えるか否かを判定する。セグメント生成部112は、当該区間の運動状態が、直前の区間の運動状態から変化していない場合は、セグメントを切り替えない。セグメント生成部112は、当該区間の運動状態が、直前の区間の運動状態から変化している場合は、セグメントを切り替える。すなわち、セグメント生成部112は、運動状態が変化した時点を現行のセグメントの終了点、および、新たなセグメントの開始点とする。 In such an embodiment, for example, the motion state identification unit 111 identifies the motion state of the section at any time when the biological information and the motion information of the section of a certain length are acquired. The segment generation unit 112 determines whether or not to switch the segment in the section in which the motion state is sequentially identified. The segment generation unit 112 does not switch the segment if the motion state of the section has not changed from the motion state of the immediately preceding section. When the motion state of the section is changed from the motion state of the immediately preceding section, the segment generation unit 112 switches the segment. That is, the segment generation unit 112 sets the time point at which the motion state changes as the end point of the current segment and the start point of the new segment.

このような実施形態と上記変形例3の構成との組み合わせにより、セグメント生成部112は、セグメントが生成されたら、生成されたセグメントに信頼度を付与してもよい。そして、セグメント生成部112は、信頼度として“0”が付与されたセグメントの時系列データを消去してもよい。すなわち、セグメント生成部112は、時系列データのうち、特徴量導出部113による特徴量の導出に使用されないと判断された部分があれば、その部分の時系列データを消去してもよい。 By combining such an embodiment with the configuration of the above-described third modification, the segment generation unit 112 may impart reliability to the generated segment once the segment is generated. Then, the segment generation unit 112 may delete the time series data of the segment to which "0" is given as the reliability. That is, if there is a portion of the time-series data that is determined not to be used for deriving the feature amount by the feature amount deriving unit 113, the segment generation unit 112 may delete the time-series data of that portion.

特徴量導出部113は、セグメントが生成されたら、生成されたセグメントから特徴量を導出してもよい。そして、特徴量導出部113は、特徴量が導出されたセグメントの時系列データを消去してもよい。 When the segment is generated, the feature amount deriving unit 113 may derive the feature amount from the generated segment. Then, the feature amount deriving unit 113 may delete the time series data of the segment from which the feature amount is derived.

このようにリアルタイムで情報処理を行うことにより、使用済みのデータまたは不要なデータを全範囲の測定が完了するまで保持しておく必要が無く、生体情報処理装置11の負荷を少なくすることができる。 By performing information processing in real time in this way, it is not necessary to retain used data or unnecessary data until the measurement of the entire range is completed, and the load on the biometric information processing device 11 can be reduced. ..

<<第2の実施形態>>
一つの実施形態では、統合部114による特徴量の統合の処理を経ずに、ストレス推定が行われてもよい。
<< Second Embodiment >>
In one embodiment, stress estimation may be performed without the process of integrating the feature quantities by the integration unit 114.

図6は、第2の実施形態に係る生体情報処理システム2の構成を示すブロック図である。第2の実施形態では、生体情報処理装置12は、統合部114の代わりに特徴量割当部124を、およびストレス推定部115の代わりにストレス推定部125を、備える。特徴量割当部124およびストレス推定部125以外の構成要素は、第1の実施形態の構成要素と同じでよい。 FIG. 6 is a block diagram showing a configuration of the biometric information processing system 2 according to the second embodiment. In the second embodiment, the biometric information processing apparatus 12 includes a feature amount allocation unit 124 instead of the integration unit 114, and a stress estimation unit 125 instead of the stress estimation unit 115. The components other than the feature amount allocation unit 124 and the stress estimation unit 125 may be the same as the components of the first embodiment.

特徴量割当部124は、特徴量導出部113により導出された特徴量に基づき、各区間に特徴量を割り当てる。第1の実施形態では統合によって運動状態ごとに代表的な特徴量が決定されるのに対し、第2の実施形態では割り当てによって区間ごとに特徴量が決定される。ただし、決定される特徴量は、セグメントから導出された特徴量に基づく特徴量である。 The feature amount allocation unit 124 allocates a feature amount to each section based on the feature amount derived by the feature amount derivation unit 113. In the first embodiment, the typical feature amount is determined for each exercise state by integration, whereas in the second embodiment, the feature amount is determined for each section by allocation. However, the feature amount to be determined is a feature amount based on the feature amount derived from the segment.

以下、具体例を挙げながら、特徴量の割り当て方法を説明する。例えば、特徴量導出部113により、区間Na,Nb,Ncからなるセグメントから、特徴量としてLF/HFの値Cxが導出されたとする。この場合、特徴量割当部124は、特徴量Cxを、区間Na、区間Nb、および、区間Ncに割り当てられる特徴量として、決定すればよい。 Hereinafter, a method of allocating the feature amount will be described with reference to a specific example. For example, it is assumed that the feature amount deriving unit 113 derives the LF / HF value Cx as the feature amount from the segment consisting of the intervals Na, Nb, and Nc. In this case, the feature amount allocation unit 124 may determine the feature amount Cx as the feature amount assigned to the section Na, the section Nb, and the section Nc.

図7は、図3に示されるように各セグメントから特徴量が導出された場合の、各区間に割り当てられる特徴量を示す概念図である。例えば、セグメントSに含まれる区間N〜Nには、それぞれ、セグメントSから導出された特徴量Cが割り当てられる。FIG. 7 is a conceptual diagram showing the feature amount assigned to each section when the feature amount is derived from each segment as shown in FIG. For example, the interval N 1 to N 4 contained in the segment S 1, respectively, the feature amount C 1 which is derived from the segment S 1 is assigned.

このように、導出される特徴量が、その値がセグメントの長さに依存しない特徴量であれば、特徴量割当部124は、その特徴量をそのまま、その特徴量が導出されたセグメントを構成する区間に割り当てればよい。 In this way, if the derived feature amount is a feature amount whose value does not depend on the length of the segment, the feature amount allocation unit 124 constitutes the segment from which the feature amount is derived as it is. It may be assigned to the section to be used.

導出される特徴量が、その値がセグメントの長さに比例する特徴量(特徴的な信号の累積値等)であれば、特徴量割当部124は、その特徴量を、特徴量が導出されたセグメントを構成する区間の数で除した値を、その特徴量が導出されたセグメントを構成する区間に割り当てればよい。 If the derived feature amount is a feature amount whose value is proportional to the length of the segment (cumulative value of characteristic signals, etc.), the feature amount allocation unit 124 derives the feature amount. The value divided by the number of sections constituting the segment may be assigned to the sections constituting the segment from which the feature quantity is derived.

このようにして割り当てられた特徴量は、セグメントの長さの時系列データから導出された特徴量に基づくため、一つの区間(Na等)のみから導出される場合に比べて、精度が良いことが期待される。 Since the features assigned in this way are based on the features derived from the time-series data of the segment length, the accuracy is better than when derived from only one section (Na, etc.). There is expected.

特徴量割当部124は、割り当てられた特徴量を、例えば、記憶部119に記録してもよい。これにより、記憶部119には、運動状態が付与された区間と特徴量との組が記憶される。特徴量割当部124が計測データの全範囲に含まれる区間の全てに対して特徴量を割り当てれば、区間ごとの特徴量と運動状態との組の変遷を示すデータが生成される。 The feature amount allocation unit 124 may record the assigned feature amount in, for example, the storage unit 119. As a result, the storage unit 119 stores a set of the section to which the motion state is given and the feature amount. If the feature amount allocation unit 124 allocates the feature amount to all the sections included in the entire range of the measurement data, data showing the transition of the set of the feature amount and the exercise state for each section is generated.

ストレス推定部125は、特徴量割当部124により割り当てられた各区間の特徴量を用いて、ストレスを推定する。 The stress estimation unit 125 estimates the stress using the feature amount of each section assigned by the feature amount allocation unit 124.

ストレス推定部125は、例えば、予め訓練データセットを用いた学習により生成されたストレス推定モデルを有する。そして、ストレス推定部125は、特徴量割当部124により決定された各区間の特徴量にストレス推定モデルを適用し、出力としてストレスの度合いを示す情報を導出する。ストレスの度合いを示す情報は第1の実施形態の説明で説明された情報と同様でよい。 The stress estimation unit 125 has, for example, a stress estimation model generated by learning using a training data set in advance. Then, the stress estimation unit 125 applies the stress estimation model to the feature amount of each section determined by the feature amount allocation unit 124, and derives information indicating the degree of stress as an output. The information indicating the degree of stress may be the same as the information described in the description of the first embodiment.

ストレス推定モデルは、例えば、区間の運動状態と特徴量との組を入力とする。ストレス推定モデルは、区間ごとの特徴量と運動状態との組の変遷を入力とするモデルでもよい。区間ごとの特徴量と運動状態との組の変遷は、特徴量の統合により生成する代表的な特徴量と運動状態の組に比べ情報量が多いため、より精度のよいストレス推定ができることが期待される。 In the stress estimation model, for example, a set of a motion state of a section and a feature amount is input. The stress estimation model may be a model in which the transition of the set of the feature amount and the exercise state for each section is input. Since the transition of the set of the feature amount and the motion state for each section has more information than the typical feature amount and the set of the motion state generated by the integration of the feature amount, it is expected that more accurate stress estimation can be performed. Will be done.

図8は、第2の実施形態に係る生体情報処理装置12の動作の流れを示すフローチャートである。ステップS110からステップS113の処理、およびステップS116の処理は、第1の実施形態で説明された同符号の処理と同様でよい。生体情報処理装置12の処理は、生体情報処理装置11の処理に比べると、ステップS114およびステップS115の処理の代わりに、ステップS124およびステップS125の処理を含む。 FIG. 8 is a flowchart showing an operation flow of the biometric information processing apparatus 12 according to the second embodiment. The processing of steps S110 to S113 and the processing of step S116 may be the same as the processing of the same reference numerals described in the first embodiment. The processing of the bio-information processing device 12 includes the processing of steps S124 and S125 instead of the processing of steps S114 and S115 as compared with the processing of the bio-information processing device 11.

ステップS124では、特徴量割当部124が、ステップS113の処理により導出された特徴量に基づき、各区間に特徴量を割り当てる。 In step S124, the feature amount allocating unit 124 allocates the feature amount to each section based on the feature amount derived by the process of step S113.

ステップS125では、ストレス推定部125が、特徴量割当部124により割り当てられた各区間の特徴量を用いて、ストレスを推定する。 In step S125, the stress estimation unit 125 estimates the stress using the feature amount of each section assigned by the feature amount allocation unit 124.

第2の実施形態によれば、より精度のよいストレス推定ができる。その理由は、既に述べた通りである。 According to the second embodiment, more accurate stress estimation can be performed. The reason is as already mentioned.

<<第3の実施形態>>
一つの実施形態に係る生体情報処理装置13について説明する。
<< Third Embodiment >>
The biometric information processing apparatus 13 according to one embodiment will be described.

図9は、生体情報処理装置13の構成を示すブロック図である。生体情報処理装置13は、セグメント生成部101と、特徴量導出部102と、出力部103とを含む。 FIG. 9 is a block diagram showing the configuration of the biometric information processing device 13. The biometric information processing device 13 includes a segment generation unit 101, a feature amount derivation unit 102, and an output unit 103.

セグメント生成部101は、被測定者の生体情報の時系列データから、生体情報が取得された期間における被測定者の運動状態に基づいて、時系列データの部分であるセグメントを生成する。上記各実施形態のセグメント生成部112は、セグメント生成部101の一例である。 The segment generation unit 101 generates a segment that is a part of the time-series data from the time-series data of the biometric information of the person to be measured, based on the exercise state of the person to be measured during the period in which the biometric information is acquired. The segment generation unit 112 of each of the above embodiments is an example of the segment generation unit 101.

運動状態は、例えば、数種類のパラメータである。セグメント生成部101は、運動状態が同じである期間(すなわち、同じ運動状態が継続する期間)の一部または全部を、セグメントの期間として設定してもよい。 The state of motion is, for example, several types of parameters. The segment generation unit 101 may set a part or all of the period in which the exercise state is the same (that is, the period in which the same exercise state continues) as the period of the segment.

特徴量導出部102は、セグメントから特徴量を導出する。上記各実施形態の特徴量導出部113は、特徴量導出部102の一例である。 The feature amount deriving unit 102 derives the feature amount from the segment. The feature amount derivation unit 113 of each of the above embodiments is an example of the feature amount derivation unit 102.

出力部103は、特徴量、および特徴量に基づく被測定者の状態に関する情報の、少なくともいずれかを出力する。上記各実施形態の情報出力部116は、出力部103の一例である。 The output unit 103 outputs at least one of the feature amount and the information regarding the state of the person to be measured based on the feature amount. The information output unit 116 of each of the above embodiments is an example of the output unit 103.

図10は、生体情報処理装置13の動作の流れを示すフローチャートである。 FIG. 10 is a flowchart showing the operation flow of the biometric information processing device 13.

ステップS101において、セグメント生成部101が、被験者の運動状態に基づいて、時系列データからセグメントを生成する。 In step S101, the segment generation unit 101 generates a segment from the time series data based on the exercise state of the subject.

ステップS102において、特徴量導出部102が、セグメントから特徴量を導出する。 In step S102, the feature amount deriving unit 102 derives the feature amount from the segment.

ステップS103において、出力部103が、特徴量、および特徴量に基づく被測定者の状態に関する情報の、少なくともいずれかを出力する。 In step S103, the output unit 103 outputs at least one of the feature amount and the information regarding the state of the person to be measured based on the feature amount.

生体情報処理装置13によれば、セグメントごとに導出される特徴量を用いた分析を、より高精度に行うことができる。その理由は、セグメント生成部101が、被験者の運動状態に基づいてセグメントを生成することで、正確に運動状態が識別され、かつ、検出される特徴量の精度を保証することができるからである。検出される特徴量の精度を保証することができる理由は、セグメントの長さが運動状態を識別する単位と同一であるという制限がないからである。 According to the biometric information processing apparatus 13, analysis using feature quantities derived for each segment can be performed with higher accuracy. The reason is that the segment generation unit 101 generates a segment based on the motion state of the subject, so that the motion state can be accurately identified and the accuracy of the detected feature amount can be guaranteed. .. The reason why the accuracy of the detected feature amount can be guaranteed is that there is no restriction that the length of the segment is the same as the unit for identifying the motion state.

<実施形態の各部を実現するハードウェアの構成>
以上、説明した本発明の各実施形態において、各装置の各構成要素は、機能単位のブロックを示している。
<Hardware configuration that realizes each part of the embodiment>
In each embodiment of the present invention described above, each component of each device indicates a block of functional units.

各構成要素の処理は、例えば、コンピュータシステムが、コンピュータ読み取り可能な記憶媒体により記憶された、その処理をコンピュータシステムに実行させるプログラムを、読み込み、実行することによって、実現されてもよい。「コンピュータ読み取り可能な記憶媒体」は、例えば、光ディスク、磁気ディスク、光磁気ディスク、および不揮発性半導体メモリ等の可搬媒体、ならびに、コンピュータシステムに内蔵されるROM(Read Only Memory)およびハードディスク等の記憶装置である。「コンピュータ読み取り可能な記憶媒体」は、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントにあたるコンピュータシステム内部の揮発性メモリのように、プログラムを一時的に保持しているものも含む。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、更に前述した機能をコンピュータシステムにすでに記憶されているプログラムとの組み合わせで実現できるものであってもよい。 The processing of each component may be realized, for example, by the computer system reading and executing a program stored in a computer-readable storage medium and causing the computer system to execute the processing. The "computer-readable storage medium" includes, for example, portable media such as optical disks, magnetic disks, magneto-optical disks, and non-volatile semiconductor memories, and ROMs (Read Only Memory) and hard disks built in computer systems. It is a storage device. A "computer-readable storage medium" is one that dynamically holds a program for a short period of time, such as a communication line when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In that case, it also includes the one that temporarily holds the program, such as the volatile memory inside the computer system that corresponds to the server or client. Further, the above-mentioned program may be a program for realizing a part of the above-mentioned functions, and may be a program for realizing the above-mentioned functions in combination with a program already stored in the computer system.

「コンピュータシステム」とは、一例として、図11に示されるようなコンピュータ900を含むシステムである。コンピュータ900は、以下のような構成を含む。
・1つまたは複数のCPU(Central Processing Unit)901
・ROM902
・RAM903
・RAM903へロードされるプログラム904Aおよび記憶情報904B
・プログラム904Aおよび記憶情報904Bを格納する記憶装置905
・記憶媒体906の読み書きを行うドライブ装置907
・通信ネットワーク909と接続する通信インタフェース908
・データの入出力を行う入出力インタフェース910
・各構成要素を接続するバス911
The "computer system" is, for example, a system including a computer 900 as shown in FIG. The computer 900 includes the following configurations.
-One or more CPUs (Central Processing Units) 901
-ROM902
・ RAM903
-Program 904A and storage information 904B loaded into RAM903
A storage device 905 that stores the program 904A and the storage information 904B.
Drive device 907 that reads and writes the storage medium 906.
-Communication interface 908 that connects to the communication network 909
-I / O interface 910 for inputting / outputting data
-Bus 911 connecting each component

例えば、各実施形態における各装置の各構成要素は、その構成要素の機能を実現するプログラム904AをCPU901がRAM903にロードして実行することで実現される。各装置の各構成要素の機能を実現するプログラム904Aは、例えば、予め、記憶装置905やROM902に格納される。そして、必要に応じてCPU901がプログラム904Aを読み出す。記憶装置905は、例えば、ハードディスクである。プログラム904Aは、通信ネットワーク909を介してCPU901に供給されてもよいし、予め記憶媒体906に格納されており、ドライブ装置907に読み出され、CPU901に供給されてもよい。なお、記憶媒体906は、例えば、光ディスク、磁気ディスク、光磁気ディスク、および不揮発性半導体メモリ等の、可搬媒体である。 For example, each component of each device in each embodiment is realized by the CPU 901 loading the program 904A that realizes the function of the component into the RAM 903 and executing the program 904A. The program 904A that realizes the functions of each component of each device is stored in, for example, in the storage device 905 or ROM 902 in advance. Then, the CPU 901 reads out the program 904A as needed. The storage device 905 is, for example, a hard disk. The program 904A may be supplied to the CPU 901 via the communication network 909, or may be stored in the storage medium 906 in advance, read by the drive device 907, and supplied to the CPU 901. The storage medium 906 is a portable medium such as an optical disk, a magnetic disk, a magneto-optical disk, and a non-volatile semiconductor memory.

各装置の実現方法には、様々な変形例がある。例えば、各装置は、構成要素毎にそれぞれ別個のコンピュータ900とプログラムとの可能な組み合わせにより実現されてもよい。また、各装置が備える複数の構成要素が、一つのコンピュータ900とプログラムとの可能な組み合わせにより実現されてもよい。 There are various modifications in the method of realizing each device. For example, each device may be implemented by a possible combination of a computer 900 and a program, each of which is separate for each component. Further, a plurality of components included in each device may be realized by a possible combination of one computer 900 and a program.

また、各装置の各構成要素の一部または全部は、その他の汎用または専用の回路、コンピュータ等やこれらの組み合わせによって実現されてもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。 In addition, some or all of the components of each device may be realized by other general-purpose or dedicated circuits, computers, or a combination thereof. These may be composed of a single chip or may be composed of a plurality of chips connected via a bus.

各装置の各構成要素の一部または全部が複数のコンピュータや回路等により実現される場合には、複数のコンピュータや回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、コンピュータや回路等は、クライアントアンドサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。 When a part or all of each component of each device is realized by a plurality of computers, circuits, etc., the plurality of computers, circuits, etc. may be centrally arranged or distributed. For example, a computer, a circuit, or the like may be realized as a form in which each is connected via a communication network, such as a client-and-server system or a cloud computing system.

上記実施形態の一部または全部は以下の付記のようにも記載され得るが、以下には限られない。 Some or all of the above embodiments may also be described, but not limited to:

<<付記>>
[付記1]
被測定者の生体情報の時系列データから、前記生体情報が取得された期間における前記被測定者の運動状態に基づいて前記時系列データの部分であるセグメントを生成する、セグメント生成手段と、
前記セグメントから特徴量を導出する特徴量導出手段と、
前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する出力手段と、
を備える生体情報処理装置。
[付記2]
前記セグメント生成手段は、前記運動状態が同じである期間の一部または全部を前記セグメントの期間として設定する、
付記1に記載の生体情報処理装置。
[付記3]
前記セグメント生成手段は、前記運動状態が遷移する時点から所定の時間後の時点を前記セグメントの始点として設定する、
付記1または2に記載の生体情報処理装置。
[付記4]
前記特徴量導出手段は、所定の長さ未満の前記セグメントからは前記特徴量を導出しない、
付記1から3のいずれか一つに記載の生体情報処理装置。
[付記5]
前記セグメント生成手段は、複数の前記セグメントに、当該セグメントにおける前記運動状態に基づくラベルを付与し、
前記生体情報処理装置は、前記ラベルが同一である複数の前記セグメントから導出される前記特徴量を統合することで、代表的な特徴量を導出する統合手段を備え、
前記出力手段は、前記代表的な特徴量、および前記代表的な特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する、
付記1から4のいずれか一つに記載の生体情報処理装置。
[付記6]
前記統合手段は、第1の長さの第1のセグメントから導出される第1の特徴量と、前記第1のセグメントよりも長い第2の長さの第2のセグメントから導出される第2の特徴量とを統合する場合に、前記代表的な特徴量に対する、前記第2の特徴量の寄与率と前記第1の特徴量の寄与率との比が、前記第2の長さと前記第1の長さとの比よりも大きくなるように、前記第1の特徴量および前記第2の特徴量に重みを付与し、前記重みに基づいて前記第1の特徴量と前記第2の特徴量を統合する、
付記5に記載の生体情報処理装置。
[付記7]
前記代表的な特徴量とストレスとの関係の学習により生成されたストレス推定モデルに基づき、前記被測定者のストレスの度合いを推定するストレス推定手段をさらに備え、
前記出力手段は、前記ストレスの度合いを前記被測定者の状態に関する情報として出力する、
付記5または6に記載の生体情報処理装置。
[付記8]
前記セグメント生成手段は、複数の前記セグメントのそれぞれに、当該セグメントにおける前記運動状態および当該セグメントの長さの少なくともいずれかに基づく、当該セグメントから導出される前記特徴量の精度に対する信頼性の高さを示す信頼度を付与し、
前記生体情報処理装置は、前記複数のセグメントの各々から導出される前記特徴量を、前記信頼度に応じた重みづけを行った上で統合することで全体の特徴量を導出する統合手段を備え、
前記出力手段は、前記全体の特徴量、および前記全体の特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する、
付記1に記載の生体情報処理装置。
[付記9]
前記セグメント生成手段は、所定の長さ未満の前記セグメントに対しては最も低い前記信頼度を付与する、付記8に記載の生体情報処理装置。
[付記10]
前記セグメントは、前記運動状態が割り当てられた区間の1つ以上の組を含み、
前記生体情報処理装置は、
前記セグメントから導出された前記特徴量に基づく値を、当該セグメントを構成する前記区間のそれぞれに割り当てる特徴量割当手段と、
前記区間に割り当てられた前記特徴量と前記運動状態との組の変動を入力とするストレス推定モデルを用いて、前記被測定者のストレスの度合いを推定するストレス推定手段と、
を備える付記1に記載の生体情報処理装置。
[付記11]
付記1から10のいずれか一つに記載の生体情報処理装置と、
前記生体情報を取得する生体情報取得手段と、
前記被測定者の動きを表す動き情報を取得する動き情報取得手段と、を含み、
前記生体情報処理装置は、前記動きを表す情報に基づき前記運動状態を識別する運動状態識別手段を備える、
生体情報処理システム。
[付記12]
被測定者の生体情報の時系列データから、前記生体情報が取得された期間における前記被測定者の運動状態に基づいて前記時系列データの部分であるセグメントを生成し、
前記セグメントから特徴量を導出し、
前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する、
生体情報処理方法。
[付記13]
前記セグメントの生成において、前記運動状態が同じである期間の一部または全部を前記セグメントの期間として設定する、
付記12に記載の生体情報処理方法。
[付記14]
前記セグメントの生成において、前記運動状態が遷移する時点から所定の時間後の時点を前記セグメントの始点として設定する、
付記12または13に記載の生体情報処理方法。
[付記15]
前記特徴量の導出において、所定の長さ未満の前記セグメントからは前記特徴量を導出しない、
付記12から14のいずれか一つに記載の生体情報処理方法。
[付記16]
前記セグメントの生成において、複数の前記セグメントに、当該セグメントにおける前記運動状態に基づくラベルを付与し、
前記ラベルが同一である複数の前記セグメントから導出される前記特徴量を統合することで、代表的な特徴量を導出し、
前記代表的な特徴量、および前記代表的な特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する、
付記12から15のいずれか一つに記載の生体情報処理方法。
[付記17]
第1の長さの第1のセグメントから導出される第1の特徴量と、前記第1のセグメントよりも長い第2の長さの第2のセグメントから導出される第2の特徴量とを統合する場合に、前記代表的な特徴量に対する、前記第2の特徴量の寄与率と前記第1の特徴量の寄与率との比が、前記第2の長さと前記第1の長さとの比よりも大きくなるように、前記第1の特徴量および前記第2の特徴量に重みを付与し、前記重みに基づいて前記第1の特徴量と前記第2の特徴量を統合する、
付記16に記載の生体情報処理方法。
[付記18]
前記代表的な特徴量とストレスとの関係の学習により生成されたストレス推定モデルに基づき、前記被測定者のストレスの度合いを推定し、
前記ストレスの度合いを前記被測定者の状態に関する情報として出力する、
付記16または17に記載の生体情報処理方法。
[付記19]
前記セグメントの生成後、複数の前記セグメントのそれぞれに、当該セグメントにおける前記運動状態および当該セグメントの長さの少なくともいずれかに基づく、当該セグメントから導出される前記特徴量の精度に対する信頼性の高さを示す信頼度を付与し、
前記複数のセグメントの各々から導出される前記特徴量を、前記信頼度に応じた重みづけを行った上で統合することで全体の特徴量を導出し、
前記全体の特徴量、および前記全体の特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する、
付記12に記載の生体情報処理方法。
[付記20]
所定の長さ未満の前記セグメントに対しては最も低い前記信頼度を付与する、付記19に記載の生体情報処理方法。
[付記21]
前記セグメントは、前記運動状態が割り当てられた区間の1つ以上の組を含み、
前記セグメントから導出された前記特徴量に基づく値を、当該セグメントを構成する前記区間のそれぞれに割り当て、
前記区間に割り当てられた前記特徴量と前記運動状態との組の変動を入力とするストレス推定モデルを用いて、前記被測定者のストレスの度合いを推定する、
付記12に記載の生体情報処理方法。
[付記22]
被測定者の生体情報の時系列データから、前記生体情報が取得された期間における前記被測定者の運動状態に基づいて前記時系列データの部分であるセグメントを生成する、セグメント生成処理と、
前記セグメントから特徴量を導出する特徴量導出処理と、
前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する出力処理と、
をコンピュータに実行させるプログラムを記憶する、コンピュータ読み取り可能な非一時的な記憶媒体。
[付記23]
前記セグメント生成処理は、前記運動状態が同じである期間の一部または全部を前記セグメントの期間として設定する、
付記22に記載の、コンピュータ読み取り可能な非一時的な記憶媒体。
[付記24]
前記セグメント生成処理は、前記運動状態が遷移する時点から所定の時間後の時点を前記セグメントの始点として設定する、
付記22または23に記載の、コンピュータ読み取り可能な非一時的な記憶媒体。
[付記25]
前記特徴量導出処理は、所定の長さ未満の前記セグメントからは前記特徴量を導出しない、
付記22から24のいずれか一つに記載の、コンピュータ読み取り可能な非一時的な記憶媒体。
[付記26]
前記セグメント生成処理は、複数の前記セグメントに、当該セグメントにおける前記運動状態に基づくラベルを付与し、
前記プログラムは、前記ラベルが同一である複数の前記セグメントから導出される前記特徴量を統合することで、代表的な特徴量を導出する統合処理を前記コンピュータに実行させ、
前記出力処理は、前記代表的な特徴量、および前記代表的な特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する、
付記22から25のいずれか一つに記載の、コンピュータ読み取り可能な非一時的な記憶媒体。
[付記27]
前記統合処理は、第1の長さの第1のセグメントから導出される第1の特徴量と、前記第1のセグメントよりも長い第2の長さの第2のセグメントから導出される第2の特徴量とを統合する場合に、前記代表的な特徴量に対する、前記第2の特徴量の寄与率と前記第1の特徴量の寄与率との比が、前記第2の長さと前記第1の長さとの比よりも大きくなるように、前記第1の特徴量および前記第2の特徴量に重みを付与し、前記重みに基づいて前記第1の特徴量と前記第2の特徴量を統合する、
付記26に記載の、コンピュータ読み取り可能な非一時的な記憶媒体。
[付記28]
前記プログラムは、前記代表的な特徴量とストレスとの関係の学習により生成されたストレス推定モデルに基づき、前記被測定者のストレスの度合いを推定するストレス推定処理を前記コンピュータにさらに実行させ、
前記出力処理は、前記ストレスの度合いを前記被測定者の状態に関する情報として出力する、
付記26または27に記載の、コンピュータ読み取り可能な非一時的な記憶媒体。
[付記29]
前記セグメント生成処理は、複数の前記セグメントのそれぞれに、当該セグメントにおける前記運動状態および当該セグメントの長さの少なくともいずれかに基づく、当該セグメントから導出される前記特徴量の精度に対する信頼性の高さを示す信頼度を付与し、
前記プログラムは、前記複数のセグメントの各々から導出される前記特徴量を、前記信頼度に応じた重みづけを行った上で統合することで全体の特徴量を導出する統合処理を前記コンピュータに実行させ、
前記出力処理は、前記全体の特徴量、および前記全体の特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する、
付記22に記載の、コンピュータ読み取り可能な非一時的な記憶媒体。
[付記30]
前記セグメント生成処理は、所定の長さ未満の前記セグメントに対しては最も低い前記信頼度を付与する、付記29に記載の、コンピュータ読み取り可能な非一時的な記憶媒体。
[付記31]
前記セグメントは、前記運動状態が割り当てられた区間の1つ以上の組を含み、
前記プログラムは、
前記セグメントから導出された前記特徴量に基づく値を、当該セグメントを構成する前記区間のそれぞれに割り当てる特徴量割当処理と、
前記区間に割り当てられた前記特徴量と前記運動状態との組の変動を入力とするストレス推定モデルを用いて、前記被測定者のストレスの度合いを推定するストレス推定処理と、
を前記コンピュータに実行させる、付記22に記載の、コンピュータ読み取り可能な非一時的な記憶媒体。
<< Additional notes >>
[Appendix 1]
A segment generation means that generates a segment that is a part of the time-series data based on the movement state of the person to be measured during the period in which the biometric information is acquired from the time-series data of the biometric information of the person to be measured.
A feature amount deriving means for deriving a feature amount from the segment,
An output means for outputting at least one of the feature amount and information on the state of the person to be measured based on the feature amount.
A biometric information processing device.
[Appendix 2]
The segment generation means sets a part or all of the period in which the exercise state is the same as the period of the segment.
The biometric information processing device according to Appendix 1.
[Appendix 3]
The segment generation means sets a time point after a predetermined time from the time point at which the motion state transitions as the start point of the segment.
The biometric information processing device according to Appendix 1 or 2.
[Appendix 4]
The feature quantity deriving means does not derive the feature quantity from the segment having a predetermined length.
The biometric information processing device according to any one of Appendix 1 to 3.
[Appendix 5]
The segment generation means assigns a plurality of the segments with labels based on the motion state in the segment.
The biometric information processing apparatus includes an integration means for deriving a representative feature amount by integrating the feature amounts derived from a plurality of the segments having the same label.
The output means outputs at least one of the representative feature amount and information on the state of the person to be measured based on the representative feature amount.
The biometric information processing device according to any one of Appendix 1 to 4.
[Appendix 6]
The integration means is derived from a first feature amount derived from the first segment of the first length and a second segment having a second length longer than the first segment. In the case of integrating the feature amounts of the above, the ratio of the contribution rate of the second feature amount to the contribution rate of the first feature amount with respect to the representative feature amount is the second length and the first feature amount. Weights are given to the first feature amount and the second feature amount so as to be larger than the ratio to the length of 1, and the first feature amount and the second feature amount are given based on the weights. Integrate,
The biometric information processing device according to Appendix 5.
[Appendix 7]
A stress estimation means for estimating the degree of stress of the subject is further provided based on the stress estimation model generated by learning the relationship between the typical feature amount and stress.
The output means outputs the degree of stress as information regarding the state of the person to be measured.
The biometric information processing device according to Appendix 5 or 6.
[Appendix 8]
The segment generation means has high reliability for the accuracy of the feature quantity derived from the segment based on at least one of the motion state in the segment and the length of the segment in each of the plurality of the segments. Gives confidence to indicate
The biometric information processing apparatus includes an integration means for deriving the entire feature amount by integrating the feature amounts derived from each of the plurality of segments after weighting according to the reliability. ,
The output means outputs at least one of the total feature amount and information on the state of the person to be measured based on the total feature amount.
The biometric information processing device according to Appendix 1.
[Appendix 9]
The biometric information processing apparatus according to Appendix 8, wherein the segment generation means imparts the lowest reliability to the segment having a length shorter than a predetermined length.
[Appendix 10]
The segment comprises one or more sets of sections to which the exercise state is assigned.
The biometric information processing device
A feature amount allocating means for allocating a value based on the feature amount derived from the segment to each of the sections constituting the segment, and
A stress estimation means for estimating the degree of stress of the subject using a stress estimation model that inputs a variation of a set of the feature amount and the exercise state assigned to the section, and a stress estimation means.
The biometric information processing apparatus according to Appendix 1.
[Appendix 11]
The biometric information processing device according to any one of Appendix 1 to 10.
The biometric information acquisition means for acquiring the biometric information and
The motion information acquisition means for acquiring the motion information representing the motion of the person to be measured includes.
The biometric information processing device includes a motion state identification means for identifying the motion state based on information representing the motion.
Biometric information processing system.
[Appendix 12]
From the time-series data of the biometric information of the person to be measured, a segment that is a part of the time-series data is generated based on the exercise state of the person to be measured during the period in which the biometric information is acquired.
Derivation of features from the segment
Outputs at least one of the feature amount and information on the state of the person to be measured based on the feature amount.
Biometric information processing method.
[Appendix 13]
In the generation of the segment, a part or all of the period in which the exercise state is the same is set as the period of the segment.
The biometric information processing method according to Appendix 12.
[Appendix 14]
In the generation of the segment, a time point after a predetermined time from the time point at which the motion state transitions is set as the start point of the segment.
The biometric information processing method according to Appendix 12 or 13.
[Appendix 15]
In deriving the feature amount, the feature amount is not derived from the segment having a length less than a predetermined length.
The biometric information processing method according to any one of Appendix 12 to 14.
[Appendix 16]
In the generation of the segment, a plurality of the segments are labeled based on the motion state in the segment.
By integrating the feature quantities derived from the plurality of segments having the same label, a representative feature quantity can be derived.
Outputs at least one of the representative feature amount and information on the state of the person to be measured based on the representative feature amount.
The biometric information processing method according to any one of Appendix 12 to 15.
[Appendix 17]
The first feature quantity derived from the first segment of the first length and the second feature quantity derived from the second segment having a second length longer than the first segment are In the case of integration, the ratio of the contribution rate of the second feature amount to the contribution rate of the first feature amount with respect to the representative feature amount is the ratio of the second length and the first length. The first feature amount and the second feature amount are weighted so as to be larger than the ratio, and the first feature amount and the second feature amount are integrated based on the weights.
The biometric information processing method according to Appendix 16.
[Appendix 18]
Based on the stress estimation model generated by learning the relationship between the typical features and stress, the degree of stress of the subject is estimated.
The degree of stress is output as information regarding the state of the person to be measured.
The biometric information processing method according to Appendix 16 or 17.
[Appendix 19]
After the segment is generated, each of the plurality of segments has a high degree of reliability for the accuracy of the feature quantity derived from the segment based on at least one of the motion state in the segment and the length of the segment. Gives confidence to indicate
The features derived from each of the plurality of segments are weighted according to the reliability and then integrated to derive the overall features.
Outputs at least one of the total feature amount and information on the state of the person to be measured based on the total feature amount.
The biometric information processing method according to Appendix 12.
[Appendix 20]
The biometric information processing method according to Appendix 19, which imparts the lowest reliability to the segment having a length less than a predetermined length.
[Appendix 21]
The segment comprises one or more sets of sections to which the exercise state is assigned.
A value based on the feature amount derived from the segment is assigned to each of the sections constituting the segment.
The degree of stress of the person to be measured is estimated by using a stress estimation model in which the variation of the set of the feature amount and the exercise state assigned to the section is input.
The biometric information processing method according to Appendix 12.
[Appendix 22]
From the time-series data of the biometric information of the person to be measured, a segment generation process for generating a segment which is a part of the time-series data based on the movement state of the person to be measured during the period when the biometric information is acquired, and
The feature amount derivation process for deriving the feature amount from the segment and
An output process that outputs at least one of the feature amount and information on the state of the person to be measured based on the feature amount, and
A computer-readable, non-temporary storage medium that stores programs that cause a computer to run.
[Appendix 23]
In the segment generation process, a part or all of the period in which the exercise state is the same is set as the period of the segment.
A computer-readable non-temporary storage medium according to Appendix 22.
[Appendix 24]
In the segment generation process, a time point after a predetermined time from the time point at which the motion state transitions is set as the start point of the segment.
A computer-readable, non-temporary storage medium according to Appendix 22 or 23.
[Appendix 25]
The feature amount derivation process does not derive the feature amount from the segment having a length less than a predetermined length.
The computer-readable non-temporary storage medium according to any one of Appendix 22 to 24.
[Appendix 26]
In the segment generation process, a plurality of the segments are labeled based on the motion state in the segment.
The program causes the computer to execute an integration process for deriving a representative feature amount by integrating the feature amounts derived from the plurality of segments having the same label.
The output process outputs at least one of the representative feature amount and information on the state of the person to be measured based on the representative feature amount.
A computer-readable non-temporary storage medium according to any one of Appendix 22 to 25.
[Appendix 27]
The integration process is derived from a first feature quantity derived from the first segment of the first length and a second segment having a second length longer than the first segment. In the case of integrating the feature amounts of the above, the ratio of the contribution rate of the second feature amount to the contribution rate of the first feature amount with respect to the representative feature amount is the second length and the first feature amount. Weights are given to the first feature amount and the second feature amount so as to be larger than the ratio to the length of 1, and the first feature amount and the second feature amount are given based on the weights. Integrate,
A computer-readable, non-temporary storage medium according to Appendix 26.
[Appendix 28]
The program causes the computer to further perform a stress estimation process for estimating the degree of stress of the subject based on a stress estimation model generated by learning the relationship between the representative feature amount and stress.
The output process outputs the degree of stress as information regarding the state of the person to be measured.
A computer-readable, non-temporary storage medium according to Appendix 26 or 27.
[Appendix 29]
The segment generation process is highly reliable for the accuracy of the feature quantity derived from the segment, based on at least one of the motion state in the segment and the length of the segment in each of the plurality of segments. Gives confidence to indicate
The program executes an integration process on the computer to derive the entire feature amount by integrating the feature amounts derived from each of the plurality of segments after weighting according to the reliability. Let me
The output process outputs at least one of the total feature amount and information on the state of the person to be measured based on the total feature amount.
A computer-readable non-temporary storage medium according to Appendix 22.
[Appendix 30]
The computer-readable non-temporary storage medium according to Appendix 29, wherein the segment generation process imparts the lowest reliability to the segment of less than a predetermined length.
[Appendix 31]
The segment comprises one or more sets of sections to which the exercise state is assigned.
The program
A feature amount allocation process that allocates a value based on the feature amount derived from the segment to each of the sections constituting the segment, and
A stress estimation process for estimating the degree of stress of the subject using a stress estimation model that inputs a variation of a set of the feature amount and the exercise state assigned to the section, and a stress estimation process.
A computer-readable, non-temporary storage medium according to Appendix 22, which causes the computer to execute the above.

以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 Although the invention of the present application has been described above with reference to the embodiment, the invention of the present application is not limited to the above embodiment. Various changes that can be understood by those skilled in the art can be made within the scope of the present invention in terms of the structure and details of the present invention.

1、2 生体情報処理システム
5 生体情報取得部
6 動き情報取得部
11、12、13 生体情報処理装置
101 セグメント生成部
102 特徴量導出部
103 出力部
110 制御部
111 運動状態識別部
112 セグメント生成部
113 特徴量導出部
114 統合部
115 ストレス推定部
116 情報出力部
119 記憶部
124 特徴量割当部
125 ストレス推定部
900 コンピュータ
901 CPU
902 ROM
903 RAM
904A プログラム
904B 記憶情報
905 記憶装置
906 記憶媒体
907 ドライブ装置
908 通信インタフェース
909 通信ネットワーク
910 入出力インタフェース
911 バス
1, 2 Bio-information processing system 5 Bio-information acquisition unit 6 Motion information acquisition unit 11, 12, 13 Bio-information processing device 101 Segment generation unit 102 Feature quantity derivation unit 103 Output unit 110 Control unit 111 Motion state identification unit 112 Segment generation unit 113 Feature amount derivation unit 114 Integration unit 115 Stress estimation unit 116 Information output unit 119 Storage unit 124 Feature quantity allocation unit 125 Stress estimation unit 900 Computer 901 CPU
902 ROM
903 RAM
904A Program 904B Storage information 905 Storage device 906 Storage medium 907 Drive device 908 Communication interface 909 Communication network 910 Input / output interface 911 Bus

Claims (10)

被測定者の生体情報の時系列データから、前記生体情報が取得された期間における前記被測定者の運動状態に基づいて前記時系列データの部分であるセグメントを生成する、セグメント生成手段と、
前記セグメントから特徴量を導出する特徴量導出手段と、
前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する出力手段と、
を備え
前記セグメント生成手段は、複数の前記セグメントに、当該セグメントにおける前記運動状態に基づくラベルを付与し、
前記ラベルが同一である複数の前記セグメントから導出される前記特徴量を統合することで、代表的な特徴量を導出する統合手段を備え、
前記出力手段は、前記代表的な特徴量、および前記代表的な特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力し、
前記統合手段は、第1の長さの第1のセグメントから導出される第1の特徴量と、前記第1のセグメントよりも長い第2の長さの第2のセグメントから導出される第2の特徴量とを統合する場合に、前記代表的な特徴量に対する、前記第2の特徴量の寄与率と前記第1の特徴量の寄与率との比が、前記第2の長さと前記第1の長さとの比よりも大きくなるように、前記第1の特徴量および前記第2の特徴量に重みを付与し、前記重みに基づいて前記第1の特徴量と前記第2の特徴量を統合する、
生体情報処理装置。
A segment generation means that generates a segment that is a part of the time-series data based on the movement state of the person to be measured during the period in which the biometric information is acquired from the time-series data of the biometric information of the person to be measured.
A feature amount deriving means for deriving a feature amount from the segment,
An output means for outputting at least one of the feature amount and information on the state of the person to be measured based on the feature amount.
Equipped with a,
The segment generation means assigns a plurality of the segments with labels based on the motion state in the segment.
An integration means for deriving a representative feature amount by integrating the feature amounts derived from a plurality of the features having the same label is provided.
The output means outputs at least one of the representative feature amount and the information regarding the state of the person to be measured based on the representative feature amount.
The integration means is derived from a first feature amount derived from the first segment of the first length and a second segment having a second length longer than the first segment. In the case of integrating the feature amounts of the above, the ratio of the contribution rate of the second feature amount to the contribution rate of the first feature amount with respect to the representative feature amount is the second length and the first feature amount. Weights are given to the first feature amount and the second feature amount so as to be larger than the ratio to the length of 1, and the first feature amount and the second feature amount are given based on the weights. Integrate,
Biometric information processing device.
前記セグメント生成手段は、前記運動状態が同じである期間の一部または全部を前記セグメントの期間として設定する、
請求項1に記載の生体情報処理装置。
The segment generation means sets a part or all of the period in which the exercise state is the same as the period of the segment.
The biometric information processing device according to claim 1.
前記セグメント生成手段は、前記運動状態が遷移する時点から所定の時間後の時点を前記セグメントの始点として設定する、
請求項1または2に記載の生体情報処理装置。
The segment generation means sets a time point after a predetermined time from the time point at which the motion state transitions as the start point of the segment.
The biometric information processing device according to claim 1 or 2.
前記特徴量導出手段は、所定の長さ未満の前記セグメントからは前記特徴量を導出しない、
請求項1から3のいずれか一項に記載の生体情報処理装置。
The feature quantity deriving means does not derive the feature quantity from the segment having a predetermined length.
The biometric information processing device according to any one of claims 1 to 3.
被測定者の生体情報の時系列データから、前記生体情報が取得された期間における前記被測定者の運動状態に基づいて前記時系列データの部分であるセグメントを生成する、セグメント生成手段と、
前記セグメントから特徴量を導出する特徴量導出手段と、
前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する出力手段と、
を備え
前記セグメント生成手段は、複数の前記セグメントのそれぞれに、当該セグメントにおける前記運動状態および当該セグメントの長さの少なくともいずれかに基づく、当該セグメントから導出される前記特徴量の精度に対する信頼性の高さを示す信頼度を付与し、
前記複数のセグメントの各々から導出される前記特徴量を、前記信頼度に応じた重みづけを行った上で統合することで全体の特徴量を導出する統合手段を備え、
前記出力手段は、前記全体の特徴量、および前記全体の特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する、
生体情報処理装置。
A segment generation means that generates a segment that is a part of the time-series data based on the movement state of the person to be measured during the period in which the biometric information is acquired from the time-series data of the biometric information of the person to be measured.
A feature amount deriving means for deriving a feature amount from the segment,
An output means for outputting at least one of the feature amount and information on the state of the person to be measured based on the feature amount.
Equipped with a,
The segment generation means has high reliability for the accuracy of the feature quantity derived from the segment based on at least one of the motion state in the segment and the length of the segment in each of the plurality of the segments. Gives confidence to indicate
An integration means for deriving the entire feature amount by integrating the feature amounts derived from each of the plurality of segments after weighting according to the reliability is provided.
The output means outputs at least one of the total feature amount and information on the state of the person to be measured based on the total feature amount.
Biometric information processing device.
前記セグメント生成手段は、所定の長さ未満の前記セグメントに対しては最も低い前記信頼度を付与する、請求項に記載の生体情報処理装置。 The biometric information processing apparatus according to claim 5 , wherein the segment generation means imparts the lowest reliability to the segment having a length shorter than a predetermined length. 被測定者の生体情報の時系列データから、前記生体情報が取得された期間における前記被測定者の運動状態に基づいて前記時系列データの部分であるセグメントを生成し、 From the time-series data of the biometric information of the person to be measured, a segment that is a part of the time-series data is generated based on the exercise state of the person to be measured during the period in which the biometric information is acquired.
前記セグメントから特徴量を導出し、 Derivation of features from the segment
前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力し、 Output at least one of the feature amount and information on the state of the person to be measured based on the feature amount.
複数の前記セグメントに、当該セグメントにおける前記運動状態に基づくラベルを付与し、 A plurality of the segments are labeled based on the motion state in the segment.
前記ラベルが同一である複数の前記セグメントから導出される前記特徴量を統合することで、代表的な特徴量を導出し、 By integrating the feature quantities derived from the plurality of segments having the same label, a representative feature quantity can be derived.
前記代表的な特徴量、および前記代表的な特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力し、 At least one of the representative feature amount and the information on the state of the person to be measured based on the representative feature amount is output.
第1の長さの第1のセグメントから導出される第1の特徴量と、前記第1のセグメントよりも長い第2の長さの第2のセグメントから導出される第2の特徴量とを統合する場合に、前記代表的な特徴量に対する、前記第2の特徴量の寄与率と前記第1の特徴量の寄与率との比が、前記第2の長さと前記第1の長さとの比よりも大きくなるように、前記第1の特徴量および前記第2の特徴量に重みを付与し、前記重みに基づいて前記第1の特徴量と前記第2の特徴量を統合する、 The first feature quantity derived from the first segment of the first length and the second feature quantity derived from the second segment having a second length longer than the first segment are In the case of integration, the ratio of the contribution rate of the second feature amount to the contribution rate of the first feature amount with respect to the representative feature amount is the ratio of the second length and the first length. The first feature amount and the second feature amount are weighted so as to be larger than the ratio, and the first feature amount and the second feature amount are integrated based on the weights.
生体情報処理方法。 Biometric information processing method.
被測定者の生体情報の時系列データから、前記生体情報が取得された期間における前記被測定者の運動状態に基づいて前記時系列データの部分であるセグメントを生成し、 From the time-series data of the biometric information of the person to be measured, a segment that is a part of the time-series data is generated based on the exercise state of the person to be measured during the period in which the biometric information is acquired.
前記セグメントから特徴量を導出し、 Derivation of features from the segment
前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力し、 Output at least one of the feature amount and information on the state of the person to be measured based on the feature amount.
複数の前記セグメントのそれぞれに、当該セグメントにおける前記運動状態および当該セグメントの長さの少なくともいずれかに基づく、当該セグメントから導出される前記特徴量の精度に対する信頼性の高さを示す信頼度を付与し、 Each of the plurality of said segments is given a reliability indicating a high degree of reliability with respect to the accuracy of the feature quantity derived from the segment based on at least one of the motion state in the segment and the length of the segment. death,
前記複数のセグメントの各々から導出される前記特徴量を、前記信頼度に応じた重みづけを行った上で統合することで全体の特徴量を導出し、 The features derived from each of the plurality of segments are weighted according to the reliability and then integrated to derive the overall features.
前記全体の特徴量、および前記全体の特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する、 Outputs at least one of the total feature amount and information on the state of the person to be measured based on the total feature amount.
生体情報処理方法。 Biometric information processing method.
被測定者の生体情報の時系列データから、前記生体情報が取得された期間における前記被測定者の運動状態に基づいて前記時系列データの部分であるセグメントを生成する、セグメント生成処理と、 From the time-series data of the biometric information of the person to be measured, a segment generation process for generating a segment which is a part of the time-series data based on the exercise state of the person to be measured during the period when the biometric information is acquired, and
前記セグメントから特徴量を導出する特徴量導出処理と、 The feature amount derivation process for deriving the feature amount from the segment and
前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する出力処理と、 An output process that outputs at least one of the feature amount and information on the state of the person to be measured based on the feature amount, and
をコンピュータに実行させ、 Let the computer run
前記セグメント生成処理では、複数の前記セグメントに、当該セグメントにおける前記運動状態に基づくラベルを付与し、 In the segment generation process, a plurality of the segments are given labels based on the motion state in the segment.
前記ラベルが同一である複数の前記セグメントから導出される前記特徴量を統合することで、代表的な特徴量を導出する統合処理をコンピュータに実行させ、 By integrating the feature quantities derived from the plurality of segments having the same label, a computer is made to execute an integration process for deriving a representative feature quantity.
前記出力処理では、前記代表的な特徴量、および前記代表的な特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力し、 In the output process, at least one of the representative feature amount and the information regarding the state of the person to be measured based on the representative feature amount is output.
前記統合処理では、第1の長さの第1のセグメントから導出される第1の特徴量と、前記第1のセグメントよりも長い第2の長さの第2のセグメントから導出される第2の特徴量とを統合する場合に、前記代表的な特徴量に対する、前記第2の特徴量の寄与率と前記第1の特徴量の寄与率との比が、前記第2の長さと前記第1の長さとの比よりも大きくなるように、前記第1の特徴量および前記第2の特徴量に重みを付与し、前記重みに基づいて前記第1の特徴量と前記第2の特徴量を統合する、 In the integration process, the first feature quantity derived from the first segment of the first length and the second feature derived from the second segment having a second length longer than the first segment are derived. When integrating the feature amounts of the above, the ratio of the contribution rate of the second feature amount to the contribution rate of the first feature amount with respect to the representative feature amount is the second length and the first feature amount. Weights are given to the first feature amount and the second feature amount so as to be larger than the ratio to the length of 1, and the first feature amount and the second feature amount are given based on the weights. Integrate,
ことをコンピュータに実行させるプログラム。 A program that lets a computer do things.
被測定者の生体情報の時系列データから、前記生体情報が取得された期間における前記被測定者の運動状態に基づいて前記時系列データの部分であるセグメントを生成する、セグメント生成処理と、
前記セグメントから特徴量を導出する特徴量導出処理と、
前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する出力処理と、
をコンピュータに実行させ、
前記セグメント生成処理では、複数の前記セグメントのそれぞれに、当該セグメントにおける前記運動状態および当該セグメントの長さの少なくともいずれかに基づく、当該セグメントから導出される前記特徴量の精度に対する信頼性の高さを示す信頼度を付与し、
前記複数のセグメントの各々から導出される前記特徴量を、前記信頼度に応じた重みづけを行った上で統合することで全体の特徴量を導出する統合処理をコンピュータに実行させ、
前記出力処理では、前記全体の特徴量、および前記全体の特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する、
ことをコンピュータに実行させるプログラム
From the time-series data of the biometric information of the person to be measured, a segment generation process for generating a segment which is a part of the time-series data based on the movement state of the person to be measured during the period when the biometric information is acquired, and
The feature amount derivation process for deriving the feature amount from the segment and
An output process that outputs at least one of the feature amount and information on the state of the person to be measured based on the feature amount, and
Let the computer run
In the segment generation process, each of the plurality of segments has high reliability for the accuracy of the feature quantity derived from the segment based on at least one of the motion state in the segment and the length of the segment. Gives confidence to indicate
The computer is made to execute an integration process for deriving the entire feature amount by integrating the feature amounts derived from each of the plurality of segments after weighting according to the reliability.
In the output process, at least one of the total feature amount and the information regarding the state of the person to be measured based on the total feature amount is output.
A program that lets a computer do things .
JP2019546476A 2017-10-05 2017-10-05 Biometric information processing equipment, biometric information processing systems, biometric information processing methods, and programs Active JP6943287B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/036229 WO2019069417A1 (en) 2017-10-05 2017-10-05 Biological information processing device, biological information processing system, biological information processing method, and storage medium

Publications (2)

Publication Number Publication Date
JPWO2019069417A1 JPWO2019069417A1 (en) 2020-10-15
JP6943287B2 true JP6943287B2 (en) 2021-09-29

Family

ID=65994204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019546476A Active JP6943287B2 (en) 2017-10-05 2017-10-05 Biometric information processing equipment, biometric information processing systems, biometric information processing methods, and programs

Country Status (2)

Country Link
JP (1) JP6943287B2 (en)
WO (1) WO2019069417A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7136341B2 (en) * 2019-04-08 2022-09-13 日本電気株式会社 Stress estimation device, stress estimation method and program
WO2022201338A1 (en) * 2021-03-24 2022-09-29 日本電気株式会社 Feature-amount generation device, gait measurement system, feature-amount generation method, and recording medium
WO2022208874A1 (en) * 2021-04-02 2022-10-06 日本電気株式会社 Learning device, stress estimation device, learning method, stress estimation method, and storage medium
WO2023119433A1 (en) * 2021-12-21 2023-06-29 日本電気株式会社 Calculation method, calculation device, and storage medium
WO2023119562A1 (en) * 2021-12-23 2023-06-29 日本電気株式会社 Learning device, stress estimation device, learning method, stress estimation method, and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5250827B2 (en) * 2008-09-19 2013-07-31 株式会社日立製作所 Action history generation method and action history generation system
US20140073486A1 (en) * 2012-09-04 2014-03-13 Bobo Analytics, Inc. Systems, devices and methods for continuous heart rate monitoring and interpretation
JP2016202347A (en) * 2015-04-17 2016-12-08 セイコーエプソン株式会社 Biological information processing system, biological information processing device, and analysis result information generation method
JP2017127377A (en) * 2016-01-18 2017-07-27 セイコーエプソン株式会社 Portable electronic equipment, display method of portable electronic equipment, and display program of portable electronic equipment

Also Published As

Publication number Publication date
WO2019069417A1 (en) 2019-04-11
JPWO2019069417A1 (en) 2020-10-15

Similar Documents

Publication Publication Date Title
JP6943287B2 (en) Biometric information processing equipment, biometric information processing systems, biometric information processing methods, and programs
Dey et al. InstaBP: cuff-less blood pressure monitoring on smartphone using single PPG sensor
US10470719B2 (en) Machine learnt model to detect REM sleep periods using a spectral analysis of heart rate and motion
US10966666B2 (en) Machine learnt model to detect REM sleep periods using a spectral analysis of heart rate and motion
US20200337580A1 (en) Time series data learning and analysis method using artificial intelligence
US9179862B2 (en) Method and system for assessing locomotive bio-rhythms
JP5920364B2 (en) Information processing apparatus, representative waveform generation method, and representative waveform generation program
JP6951516B2 (en) Methods and systems for detecting human pace
KR20150113700A (en) System and method for diagnosis
WO1997043722A1 (en) Method and apparatus for detecting nonlinearity in a dynamical system
US20200170577A1 (en) System and Methods for Adaptive Noise Quantification in Dynamic Biosignal Analysis
RU2719945C2 (en) Apparatus, method and system for counting the number of cycles of periodic movement of a subject
KR102202029B1 (en) Method for estimating continuous blood pressure using recurrent neural network and apparatus thereof
CN105268171B (en) gait monitoring method, device and wearable device
US10595789B2 (en) Meal time estimation method, meal time estimation device, and recording medium
Vildjiounaite et al. Unsupervised stress detection algorithm and experiments with real life data
Côté-Allard et al. Long–short ensemble network for bipolar manic-euthymic state recognition based on wrist-worn sensors
US20200012993A1 (en) Task estimation method and information processing apparatus
Mesin Heartbeat monitoring from adaptively down-sampled electrocardiogram
JP6767318B2 (en) Heart rate interval modeling device and abnormal condition determination method
JP7136341B2 (en) Stress estimation device, stress estimation method and program
CN111407261B (en) Method and device for measuring period information of biological signals and electronic equipment
CN114469040A (en) Heart rate detection method and device, storage medium and electronic equipment
EP3626170A1 (en) Information processing device, information processing system, and information processing method
WO2022153538A1 (en) Stress level estimation method, teacher data generation method, information processing device, stress level estimation program, and teacher data generation program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200311

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210823

R150 Certificate of patent or registration of utility model

Ref document number: 6943287

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150