WO2019111977A1 - 姿勢判定装置 - Google Patents

姿勢判定装置 Download PDF

Info

Publication number
WO2019111977A1
WO2019111977A1 PCT/JP2018/044804 JP2018044804W WO2019111977A1 WO 2019111977 A1 WO2019111977 A1 WO 2019111977A1 JP 2018044804 W JP2018044804 W JP 2018044804W WO 2019111977 A1 WO2019111977 A1 WO 2019111977A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
posture
unit
waveform
determination unit
Prior art date
Application number
PCT/JP2018/044804
Other languages
English (en)
French (fr)
Inventor
貴政 木暮
井上 智子
俊秀 椎野
Original Assignee
パラマウントベッド株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パラマウントベッド株式会社 filed Critical パラマウントベッド株式会社
Priority to CN202310291475.XA priority Critical patent/CN116059051A/zh
Priority to US16/496,550 priority patent/US11510594B2/en
Priority to CN201880020409.6A priority patent/CN111417343B/zh
Publication of WO2019111977A1 publication Critical patent/WO2019111977A1/ja
Priority to US17/972,012 priority patent/US11813055B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G7/00Beds specially adapted for nursing; Devices for lifting patients or disabled persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G7/00Beds specially adapted for nursing; Devices for lifting patients or disabled persons
    • A61G7/05Parts, details or accessories of beds
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1115Monitoring leaving of a patient support, e.g. a bed or a wheelchair
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4561Evaluating static posture, e.g. undesirable back curvature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6891Furniture
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G7/00Beds specially adapted for nursing; Devices for lifting patients or disabled persons
    • A61G7/05Parts, details or accessories of beds
    • A61G7/057Arrangements for preventing bed-sores or for supporting patients with burns, e.g. mattresses specially adapted therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/30General characteristics of devices characterised by sensor means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/30General characteristics of devices characterised by sensor means
    • A61G2203/32General characteristics of devices characterised by sensor means for force
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/30General characteristics of devices characterised by sensor means
    • A61G2203/34General characteristics of devices characterised by sensor means for pressure

Definitions

  • the present invention relates to a posture determination device.
  • the detection device disclosed in Patent Document 1 detects a vibration on a bed and extracts a heartbeat vibration signal derived from a heartbeat of a living body. Then, the detection device estimates the posture of the living body on the bed based on the extracted heartbeat vibration signal.
  • the notification device disclosed in Patent Document 2 acquires a user state including at least one of the posture of the user and the position of the user on the bed or outside the bed. Then, the notification device notifies in accordance with the acquired user state.
  • An object of the present invention is to provide a posture determination device capable of appropriately determining the posture of a user from a waveform based on the vibration of the user.
  • the posture determination apparatus calculates at least two vibration sensors capable of detecting vibration of the user during bed rest, and calculates a plurality of waveforms from a plurality of the vibrations, and based on features of the plurality of waveforms And a control unit that determines the posture of the user.
  • the posture determination apparatus of the present invention it is possible to appropriately determine the posture of the user at bed rest as one of the states of the user based on the plurality of waveforms calculated from the vibration.
  • the preceding apparatus determines whether the user is leaving the bed (whether the user is present in the bed) To detect However, the apparatus did not detect what the user is in when the user is in the bed.
  • the user etc. may install many devices (for example, sensors) in a wide area of the bed, and the device may discriminate between lying position and sitting position.
  • the device could not determine the user's orientation (for example, supine position, prone position, lateral position, etc.) when the user was sleeping in bed.
  • the user In order for the device to determine the posture of the user, the user, for example, separately provides a camera device etc., and the medical staff, staff, family members etc. (hereinafter referred to as staff etc.) monitor the user, or the device It was necessary to analyze an image captured by a camera device or the like. In this case, it is necessary for the staff etc. to constantly monitor the user, and the burden on the staff etc. was large. In addition, in order to monitor the user, it is necessary for the camera device to always shoot the user. Therefore, there are also cases where the user opposes photographing with the camera device from the viewpoint of privacy.
  • the posture determination device of the present embodiment it is possible to detect even the posture of the user only by detecting the vibration when the user is sleeping on the bed.
  • a user means a person using a bed (or a mattress), and it is not limited to those receiving medical treatment due to a disease, and is used if it is a person who receives care at a facility or a person who goes to bed in a bed Applicable as a person.
  • FIG. 1 is a view for explaining the overall outline of a system 1 to which the posture determination device of the present invention is applied.
  • the system 1 includes a detection device 3 placed between the floor of the bed 10 and the mattress 20, and a processing device 5 for processing the value output from the detection device 3.
  • the system 1 determines the posture of the user by the detection device 3 and the processing device 5.
  • the detection device 3 detects body vibration (vibration generated from the human body) as a biological signal of the user P who is the user. Further, the processing device 5 calculates the biological information value of the user P based on the vibration detected by the detection device 3.
  • the processing device 5 may output and display the calculated biological information value (for example, the respiration rate, the heart rate, and the activity amount) as the biological information value of the user P.
  • the calculated biological information value for example, the respiration rate, the heart rate, and the activity amount
  • the detection device 3 may be integrally formed with the processing device 5 by providing the detection device 3 with a storage unit, a display unit, and the like.
  • the processing device 5 may be a general-purpose device, and is not limited to an information processing device such as a computer, and may be a device such as a tablet or a smartphone. Further, when the detection device 3 has a communication function, the detection device 3 may connect (communicate) with the server device instead of the processing device 5.
  • the user may be a person being treated for illness, or may need care.
  • the user may be a healthy person who does not need care, an elderly person, a child, a disabled person, or a person or an animal.
  • the detection device 3 is, for example, a thin sheet-like device. Thereby, even if the detection device 3 is placed between the bed 10 and the mattress 20, the user P can use the detection device 3 without feeling discomfort. Therefore, the detection device 3 can detect the state of the user on the bed for a long time.
  • the detection apparatus 3 should just be able to detect the vibration of the user P.
  • the detection device 3 may use a load cell that measures a load disposed on an actuator with a strain gauge, a leg of the bed 10, or the like.
  • the detection device 3 may use a smartphone placed on the bed 10, an acceleration sensor built in a tablet or the like, or the like.
  • the direction toward the head side of the bed 10 is H
  • the direction toward the foot is F
  • the direction toward the left of the user P is L
  • the direction toward the right of the user P is R.
  • the configuration of the system 1 will be described with reference to FIGS. 2 to 4.
  • the system 1 in the present embodiment includes a detection device 3 and a processing device 5. Further, each functional unit other than the detection unit 110 may be included in any of the detection device 3 and the processing device 5. One of the detection device 3 and the processing device 5 implements the function of each functional unit other than the detection unit 110. By combining the detection device 3 and the processing device 5, the detection device 3 and the processing device 5 function as an attitude determination device.
  • the system 1 includes a control unit 100, a detection unit 110, a first calculation unit 120, a second calculation unit 130, a third calculation unit 135, a determination unit 140, and a storage unit 150. It includes an input unit 160 and an output unit 170.
  • the control unit 100 controls the operation of the system 1.
  • the control unit 100 is, for example, a control device such as a CPU (Central Processing Unit).
  • the control unit 100 realizes various processes by reading out various programs stored in the storage unit 150 and executing the various programs.
  • one control unit 100 is provided as a whole, but may be provided in each of the detection device 3 and the processing device 5 as shown in FIG. 4 described later.
  • the detection unit 110 detects vibration on the detection device 3 and acquires vibration data.
  • the detection unit 110 of the present embodiment detects a vibration (body vibration) based on a user's movement or the like using a sensor that detects a pressure change.
  • the detection unit 110 also acquires vibration data based on the detected vibration.
  • the detection unit 110 outputs the vibration data to the first calculation unit 120, the second calculation unit 130, and the third calculation unit 135.
  • the vibration data may be analog vibration data or digital vibration data.
  • the detection unit 110 may acquire vibration data by detecting the vibration of the user with a pressure sensor, for example.
  • the detection part 110 may provide a microphone instead of a pressure sensor.
  • the detection unit 110 may acquire a biological signal based on the sound picked up by the microphone, and may acquire vibration data from the biological signal.
  • the detection unit 110 may also acquire vibration data from the output values of an acceleration sensor, a capacitance sensor, or a load sensor. As described above, the detection unit 110 only needs to be able to acquire a biological signal (body vibration indicating a user's body movement) using any method.
  • the first calculation unit 120 acquires the biological signal of the user from the vibration data, and calculates a biological information value (respiration rate, heart rate, activity amount, etc.).
  • the respiration component and the heartbeat component are extracted from the vibration (body vibration) data acquired from the detection unit 110.
  • the first calculation unit 120 may obtain the respiration rate and the heart rate from the extracted respiration component and heartbeat component based on the respiration interval and the heartbeat interval. Further, the first calculation unit 120 may analyze the periodicity of the vibration data (Fourier transform or the like), and calculate the respiration rate and the heart rate from the peak frequency.
  • JP-A-2015-12948 title of the invention: sleep evaluation device, sleep evaluation method and sleep evaluation program, filing date: July 4, 2013
  • This patent application is incorporated in its entirety by reference.
  • the second calculation unit 130 converts analog vibration data input from the detection unit 110 into digital voltage signals at predetermined sampling intervals, and calculates waveform data indicating a waveform of the body vibration (vibration waveform).
  • the third calculator 135 calculates the frequency distribution from the waveform data. For example, the third calculation unit 135 calculates a frequency distribution from the frequency components obtained by fast Fourier transform (FFT) of the waveform data calculated by the second calculation unit 130. The third calculator 135 may directly calculate the frequency distribution based on the vibration data output from the detector 110.
  • FFT fast Fourier transform
  • the determination unit 140 determines the state of the user. For example, the determination unit 140 may use the vibration data acquired by the detection unit 110, the biological information value calculated by the first calculation unit 120, the value acquired from a load sensor separately provided in the bed 10, and the second calculation unit 130. The state of the user is determined using at least one of the waveform data for which is calculated, the frequency distribution for which the third calculation unit 135 calculates, and the like. The determination unit 140 may determine the state of the user by combining a plurality of data, values, and the like.
  • the determination unit 140 determines the posture of the user on the bed (whether the user is supine position, prone position, or lateral position) as the state of the user. In addition, the determination unit 140 may determine the posture of the user such as the end sitting position or a state other than the posture of the user (for example, leaving the bed, staying in the floor, etc.).
  • the storage unit 150 stores various data and programs for the system 1 to operate.
  • the control unit 100 implements these various functions by reading these programs and executing the programs.
  • the storage unit 150 is configured of a semiconductor memory (for example, a solid state drive (SSD) or an SD card (registered trademark)), a magnetic disk drive (for example, a hard disk drive (HDD)), or the like.
  • the storage unit 150 may be a built-in storage device, or may be a removable external storage device.
  • the storage unit 150 may be a storage area of an external server such as a cloud.
  • the storage unit 150 includes a vibration data storage area 152 and a waveform data storage area 154.
  • the vibration data storage area 152 and the waveform data storage area 154 are assigned to the respective areas in the storage unit 150.
  • the vibration data storage area 152 stores the vibration data output from the detection unit 110.
  • vibration data is stored at predetermined time intervals.
  • vibration data is stored at relatively short intervals such as every one second or every five seconds, or at relatively long intervals such as 30 seconds, one minute, or five minutes.
  • the waveform data storage area 154 stores the waveform data (waveform) of the vibration calculated by the second calculation unit 130 based on the vibration data output from the detection unit 110 or the vibration data stored in the vibration data storage area 152. .
  • the second calculation unit 130 may calculate the waveform data as needed.
  • the waveform data may be temporarily stored in the waveform data storage area 154 or may be stored in a cumulative manner.
  • the input unit 160 receives an operation from the user. For example, the input unit 160 receives, from the user, an input of an operation indicating starting acquisition of the user's vibration, or receives an input of an operation indicating adjustment of the sensitivity of the detection unit 110; Accept input.
  • the input unit 160 is, for example, a keyboard, a mouse, a touch panel, or the like.
  • the output unit 170 outputs various information.
  • a display device of a liquid crystal display a light emitting member such as an LED, a speaker for outputting sound or sound, an interface for outputting data to another recording medium, or the like.
  • the input unit 160 and the output unit 170 may be integrated.
  • one touch panel may double as the input unit 160 and the output unit 170.
  • the first calculation unit 120, the second calculation unit 130, the third calculation unit 135, and the determination unit 140 are mainly realized by software (program).
  • the control unit 100 reads the software stored in the storage unit 150, and the control unit 100 executes the software. As a result, the control unit 100 realizes the function of each configuration.
  • control unit 100 reads a program for realizing the first calculation unit 120, the second calculation unit 130, the third calculation unit 135, and the determination unit 140, and executes the program, whereby the control unit 100 performs the function of each configuration. Will have.
  • FIG. 2 illustrates the configuration of the posture determination device of the system 1.
  • These configurations may be realized, for example, by one device capable of detecting vibration, or, as shown in FIG. 1, the posture determination device may be divided into the detection device 3 and the processing device 5. Further, the attitude determination device may be realized using an external server capable of providing the same service instead of the processing device 5.
  • the detection device 3 includes a control unit 300, a detection unit 320 which is a sensor, a storage unit 330, and a communication unit 390.
  • control unit 300 functions as the first calculation unit 310 by executing software (program) stored in the storage unit 330.
  • the detection unit 320 outputs vibration data based on the detected vibration.
  • the first calculator 310 calculates a biological information value based on the vibration data. Then, the detection device 3 stores the biological information value in the biological information value data 340 or transmits the biological information value to the processing device 5 through the communication unit 390. In addition, the detection device 3 also transmits the vibration data detected by the detection unit 320 to the processing device 5 via the communication unit 390.
  • the timing of transmitting vibration data from the detection device 3 to the processing device 5 and the timing of storing the biological information value (biological information) in the biological information value data 340 may be real time or every predetermined time. Good.
  • the detection unit 320 is the detection unit 110 in FIG. Here, the detection unit 320 will be described with reference to FIG.
  • FIG. 4 is a top view of the bed 10 (mattress 20).
  • the upward direction is the direction H in FIG. 1
  • the downward direction is the direction F in FIG. 1.
  • the direction toward the right in FIG. 4 is the direction L in FIG. 1
  • the direction toward the left in FIG. 4 is the direction R in FIG.
  • the detection device 3 is placed between the bed 10 and the mattress 20 or on the mattress 20.
  • the location where the detection device 3 is placed is preferably in the vicinity of the back of the user, so it is in the direction closer to the H side (the head side of the user) than the center of the bed 10 (mattress 20).
  • the detection apparatus 3 incorporates a sensor (detection part 110/320).
  • the said sensor is a vibration sensor, for example, and can detect a user's vibration (body vibration).
  • at least two sensors are provided in the detection device 3.
  • two sensors vibration sensor 320 a and vibration sensor 320 b are provided on the left and right of the detection device 3.
  • the vibration sensor 320a is provided apart from the vibration sensor 320b.
  • the distance between the vibration sensor 320a and the vibration sensor 320b may be, for example, about the distance at which the user is positioned on the sensor, and preferably the distance between the two sensors is about 15 to 60 cm.
  • the first calculator 310 in FIG. 3 is the first calculator 120 in FIG.
  • the communication unit 390 is, for example, an interface that can be connected (communicated) to a network (for example, a LAN / WAN).
  • the processing device 5 includes a control unit 500, a storage unit 530, an input unit 540, an output unit 550, and a communication unit 590.
  • the processing device 5 receives vibration data from the detection device 3 via the communication unit 590.
  • the processing device 5 stores the received vibration data in the vibration data storage area 532.
  • the control unit 500 executes software (program) stored in the storage unit 530, whereby the control unit 500 functions as a second calculation unit 502, a third calculation unit 504, and a determination unit 506.
  • the waveform data calculated by the second calculation unit 502 is stored in the waveform data storage area 534.
  • the second calculator 502 is the second calculator 130 in FIG.
  • the third calculator 504 is the third calculator 135 of FIG.
  • the determination unit 506 is the determination unit 140 in FIG.
  • the input unit 540 is the input unit 160 of FIG.
  • the output unit 550 is the output unit 170 of FIG.
  • the storage unit 530 is the storage unit 150 of FIG.
  • Posture determination processing is a process performed by the control unit 100 (determination unit 140).
  • the control unit 100 acquires vibration data (step S102). Specifically, the determination unit 140 reads out vibration data from the vibration data storage area 152 to acquire vibration data, or receives and acquires vibration data from the detection unit 110.
  • the determination unit 140 determines the posture of the user based on the vibration data. At this time, the determination unit 140 determines the posture of the user based on the correlation between sensors or the correlation in the sensors.
  • the correlation between sensors means the correlation of a plurality of data output by a plurality of sensors.
  • the correlation in a sensor means the correlation of the several data output from one sensor.
  • the second calculation unit 130 calculates a waveform from vibration data and outputs it as waveform data (step S104).
  • the second calculation unit 130 outputs waveform data for each vibration sensor.
  • the second calculation unit 130 also outputs waveform data for each vibration sensor.
  • the second calculator 130 outputs two waveform data.
  • the second calculation unit 130 may store the waveform data in the waveform data storage area 154 or may output the waveform data to the output unit 170.
  • the output unit 170 is a display device, the output unit 170 displays waveform data.
  • the determination unit 140 determines whether there is a correlation between sensors from each waveform data (step S106). For example, the determination unit 140 determines whether the waveform data output for each of the two sensors (for example, the vibration sensor 320a and the vibration sensor 320b in FIG. 4) has similarity as the correlation between the sensors.
  • the determination unit 140 obtains the correlation between the sensors by using a cross correlation function for the two waveform data.
  • the determination unit 140 can output a value normalized to “0” to “1” based on the similarity between two waveform data by using the cross correlation function.
  • the value output using this cross correlation function changes in accordance with the degree of similarity between the two waveform data. For example, when the value of the cross correlation function is “1”, the two waveform data completely match and the similarity is maximum. Also, when the value of the cross correlation function is “0”, the two waveforms do not match at all and the similarity is the smallest.
  • the determining unit 140 determines whether the output value of the cross correlation function exceeds a threshold. For example, when the threshold value is “0.7”, the determination unit 140 determines that the two waveform data are not correlated if the output value of the cross correlation function is “0.7” or less. If the output value of the cross correlation function exceeds “0.7”, the determination unit 140 determines that the two waveform data have a correlation. That is, when there is a correlation between two waveform data, the determination unit 140 determines that there is a correlation between sensors.
  • the determination unit 140 determines that the posture of the user is "supine position or prone position" (steps S116 to S120). In addition, since the time during which the user sleeps usually is extremely short, the determination unit 140 may only determine that the user's posture is "supine position or prone position". However, the prone position is at high risk of asphyxia, and the association with sudden infant death syndrome has also been reported. In addition, in the prone position, the purpose is to prohibit the automatic operation of the electric bed. Therefore, in order to distinguish the supine position and the prone position, the determination unit 140 determines whether the user's posture is the "supine position" and whether the user's posture is the "prone position". You may judge.
  • the determination unit 140 determines whether there is a correlation in the sensor (step S106; Yes ⁇ step S116).
  • the determination unit 140 determines whether or not there is a correlation in the sensor.
  • the determination unit 140 evaluates the strength of the periodicity in the waveform data and determines whether or not there is a correlation in the sensor.
  • the determination unit 140 determines whether there is a correlation by using an autocorrelation function with respect to waveform data of one sensor.
  • the autocorrelation function outputs a value normalized to “0” to “1” based on the strength of the periodicity of the waveform in the same sensor.
  • the determination unit 140 determines that the waveform data is completely periodically output and that there is a complete correlation in the sensor. Further, when the value of the autocorrelation function is “0”, the determination unit 140 determines that there is no correlation in the sensor.
  • the determination unit 140 calculates the strength of the periodicity as a value normalized to “0” to “1” using a Fourier transform, a chi-square periodogram, or the like, and based on the value, it is determined in the sensor. The correlation may be determined.
  • the determination unit 140 may determine whether the output value of the autocorrelation function exceeds a threshold. For example, when the threshold value is “0.7”, the determination unit 140 determines that the calculated waveform data (one detected vibration data) is the output value of the autocorrelation function is “0.7” or less. Determine that there is no correlation. If the output value of the autocorrelation function exceeds “0.7”, the determination unit 140 determines that the waveform data has a correlation.
  • the determination unit 140 determines that the posture of the user is “supine position” (step S116; Yes ⁇ step S118). On the other hand, when the determination unit 140 determines that there is no correlation in the sensor, the determination unit 140 determines that the posture of the user is "in prone position" (step S116; No ⁇ step S120).
  • the determination unit 140 determines that there is no correlation between sensors in step S106 (step S106; No).
  • the determination unit 140 determines that the posture of the user is "lateral decubitus position" (step S110).
  • the determination part 140 may only determine a user's attitude
  • the determination unit 140 determines whether the user's posture is "right side decubitus position" or whether the user's posture is "left side decubitus position". Good.
  • the determination unit 140 determines that the posture of the user is “left lateral decubitus position”.
  • the determination unit 140 can determine the magnitude of the heartbeat signal using the ratio of the frequency component corresponding to the heartbeat signal to the frequency component corresponding to the respiration signal, the signal intensity of the data subjected to the high-pass filter processing, and the like. .
  • the posture determination apparatus of the present embodiment can determine the posture (sleep posture) of the user from the vibration data.
  • the determination unit 140 of the present embodiment determines the correlation between sensors and the presence or absence of the correlation in the sensors based on the waveform data calculated by the second calculation unit 130. For example, the determination unit 140 may determine the correlation between the sensors or the correlation in the sensors based on the vibration data simply. In this case, the determination unit 140 may not perform the process of step S104.
  • the determination unit 140 calculates waveform data from the vibration data of the user to determine the posture of the user, without being limited thereto, for example, the determination unit 140 evaluates the shape of the frequency distribution. Posture may be determined. In this case, although the determination unit 140 may improve the accuracy by comprehensively evaluating the shape of the frequency distribution of the vibration acquired by two or more sensors, the number of sensors for acquiring the vibration may be one.
  • the determination unit 140 determines the posture of the user by using the frequency analysis by the determination unit 140
  • the determination unit 140 acquires vibration data from the detection unit 110 (step S152), and the second calculation unit 130 calculates (outputs) waveform data (step S154).
  • the third calculator 135 calculates the frequency distribution of the waveform data output by the second calculator 130 (step S156). For example, when the high frequency component is not calculated among the frequency distribution, the determination unit 140 specifies that the posture of the user is “lateral decubitus position”.
  • the tissues of the body (muscle, fat, bone, viscera, etc.) between them differ. Therefore, the manner of transmission of the vibration from the user to the sensor also changes, and a difference appears in the frequency component measured by the system 1.
  • the movement of the heart and the movement of the chest and abdomen due to breathing are fixed.
  • the movement in the vertical direction with respect to the sensor (detection unit 110) is increased with respect to the movement of the chest and abdomen by breathing.
  • the movement in the parallel direction to the sensor (detection unit 110) is large.
  • the frequency distribution differs depending on the posture of the user. Therefore, the frequency distribution is stored for each posture, and the determination unit 140 can determine the posture by comparing the frequency distribution actually extracted with the frequency distribution stored for each posture.
  • the determination unit 140 can determine that the user's posture is “side-up position”.
  • the third calculating unit 135 calculates the frequency distribution from the waveform data, but may directly calculate the frequency distribution from the vibration data. In this case, step S154 is not performed.
  • the determination unit 140 may execute the above-described posture determination process when the user is present. Further, the posture determination process may be performed when the determination unit 140 determines that the user or the state of the bed has a predetermined condition. Hereinafter, the posture determination process uses the motion of the user as a condition for the determination unit 140 to execute the posture determination process.
  • the user's body movement means that the user's posture has movement, such as the user turning over.
  • the determination unit 140 determines the attitude of the user for each section The time when the determination section 140 determines the attitude of the user is divided into a plurality of sections. For example, in a section that does not include body movement, the determination unit 140 determines that the user's posture continues as the same posture. Then, the determination unit 140 outputs the user as the same posture.
  • the determination unit 140 may collectively analyze (do not apply the result of the posture determination processing) the sections not including the body movement of the user. In addition, the determination unit 140 may totalize the result of the posture determination process in a certain fixed section (for example, every three minutes or the like). When there is a section that does not include body movement in the certain section, the determination unit 140 outputs the determination result of the posture that is the largest among the sections that does not include body movement as the result of the posture determination process of the section.
  • the determination unit 140 determines the posture of the user only in the section in which no body movement occurs.
  • the determination unit 140 determines the posture of the user only in the section in which no body movement occurs. For example, when the detection unit 110 detects a body movement of the user, the determination unit 140 cancels the execution of the posture determination process. In addition, after the detection unit 110 detects the user's body movement and the body movement is not detected, after a predetermined time elapses (for example, 10 seconds after the body movement is not detected), the determination unit 140 is again performed. Execute attitude determination processing.
  • each of the waveforms shown in FIGS. 7 to 10 is a waveform based on the vibration detected based on the two vibration sensors.
  • the horizontal axis represents time
  • the vertical axis represents a voltage value
  • each represents a waveform based on the vibration detected by the detection unit 110.
  • position is demonstrated based on a waveform on account of description.
  • a tendency may be detected from time-series vibration data to determine the posture of the user.
  • the two waveforms shown in FIG. 7 have no correlation with the waveforms in the sensor, and the same shape is not represented repeatedly. That is, this waveform is a waveform indicating that the user is in the prone position (step S120 in FIG. 5).
  • the two waveforms shown in FIG. 8 are correlated with each other between the sensors, and are also correlated with each other in the sensor. That is, this waveform is a waveform that indicates the posture of the supine position by the user (step S118 in FIG. 5).
  • the two waveforms shown in FIGS. 9 and 10 are waveforms that have no correlation between the sensors. That is, this waveform is a waveform that indicates the posture of the user in the lateral decubitus position (step S110 in FIG. 5).
  • FIG. 9 and FIG. 10 are compared, in the waveform shown in FIG. 10 which is the waveform of left lateral recumbency, the high frequency signal by a heart beat is recognized notably.
  • FIG. 11 is a graph in which the frequency distribution is determined from the waveform.
  • FIG. 11 is a graph showing that the frequency distribution was determined in step S156 of FIG. 6,
  • FIG. 11 (a) is a graph showing supine position, and
  • FIG. 11 (b) is a graph showing lateral position Of the As described above, the determination unit 140 can determine the posture of the user by further obtaining the frequency distribution from the waveform (vibration data).
  • the second embodiment will be described.
  • the second embodiment is an embodiment in which the posture of the user is determined based on a plurality of posture determination conditions.
  • FIG. 5 of the first embodiment is replaced with the operation flow of FIG. 12.
  • the description of the same parts as those of the first embodiment will be omitted.
  • the determination unit 140 acquires vibration data (step S202). Then, the second calculator 130 calculates a waveform (step S204). Subsequently, the determination unit 140 calculates an index (value) for each condition (steps S206 to S214). The determination unit 140 calculates a total value from the calculated index value (step S216).
  • the determination unit 140 calculates, as the total value, a total value corresponding to "supine position", "place prone position", and "(left and right) side lying position”. Then, the determination unit 140 determines the posture that has become the largest total value as the posture of the user.
  • the determination unit 140 calculates an index value for each condition in steps S206 to S214.
  • the method of calculating the index value will be described with reference to FIG.
  • step S206 The determination unit 140 calculates the value of the first index calculated by the correlation based on the waveform in the sensor. First, the determination unit 140 calculates the value of the autocorrelation function based on the waveform in the sensor by the method described in the first embodiment.
  • the determination unit 140 weights the output value of the autocorrelation function to calculate the value of the first index.
  • the method of weighting performed by the determination unit 140 will be described.
  • the table of FIG. 13 is a table showing the characteristics of the sensor waveform for each posture of the user. For example, the correlation based on the waveform in the sensor is "Yes” when the user's posture is “supine”, “Yes” when the user's posture is “side down”, and the user's posture is " When in the prone position, it is "none".
  • the determination unit 140 executes the autocorrelation function and outputs a value between “0 and 1”.
  • the correlation based on the waveform in the sensor in FIG. 13 is “presence” (“supine position” and “prone position”)
  • the determination unit 140 directly uses the output value as the value of the first index.
  • the correlation based on the waveform in the sensor in FIG. 13 is “no”
  • the determination unit 140 sets a value obtained by subtracting the output value of the autocorrelation function from the maximum value as the value of the first index.
  • the determination unit 140 determines that the output value of the autocorrelation function is “0.8”, the value of the first index is “0.8 in the case of supine position” and “the prone position”. When it is 0.2, it becomes 0.8 when it is a "lateral position”.
  • step S208 The determination unit 140 calculates the value of the second index calculated by the correlation based on the waveform between the sensors. First, the determination unit 140 calculates an output value using the cross-correlation function of two waveform data by the method described above.
  • the determination unit 140 weights the output value to calculate the value of the second index.
  • the method of weighting performed by the determination unit 140 will be described.
  • the correlation based on the waveforms between the sensors is, for example, when the user's posture is “supine position", “present” and the user's posture is “prone position”, When the user's posture is “side down” when “Yes” or “None”, “None” is given.
  • the determination unit 140 executes the cross correlation function and outputs a value between “0 and 1”.
  • the determination unit 140 directly uses the output value as the value of the second index.
  • the determination unit 140 sets the value obtained by subtracting the output value from the maximum value as the value of the second index.
  • the determination unit 140 sets a value obtained by halving the output value as the value of the second index. .
  • the determination unit 140 determines that the output value of the cross correlation function is “0.9”, the value of the second index is “0.9 for supine position”, and “the prone position”. When it is 0.45, it becomes 0.1 when it is a "lateral position”.
  • the determination unit 140 calculates the value of the third index based on the waveform output from the second calculation unit 130. For example, the determination unit 140 determines, by the third calculation unit 135, whether the ratio of the frequency of the heartbeat component in the high frequency component higher than that of the respiration component and the power spectrum density of the frequency that is an integral multiple thereof is a predetermined value or more. Do. When the above-described ratio is equal to or more than a predetermined value, the determination unit 140 determines that the waveform of the heartbeat strongly appears on the waveform output from the second calculation unit 130 (including many waveforms of heartbeat components).
  • the determination unit 140 determines that the waveform of the heart beat is not on the waveform output from the second calculation unit 130. (Does not include many waveforms of heart rate components), "0" is output. Furthermore, the determination unit 140 outputs the value obtained by weighting the output value as the value of the third index. The method of weighting performed by the determination unit 140 will be described.
  • the waveform of the heart beat is smaller in the waveform outputted by the second calculator 130 (the waveform outputted by the second calculator 130 contains a heart beat component relatively less) .
  • the manner in which the waveform of the heart beat is applied to the waveform output by the second calculation unit 130 becomes smaller.
  • the waveform of the heartbeat becomes larger in the waveform output by the second calculator 130 (the waveform output by the second calculator 130 has a relatively large number of heartbeat components). Including).
  • the waveform of the heartbeat is larger in the waveform output by the second calculator 130.
  • the second calculation unit 130 outputs a waveform of a heartbeat waveform. How to put on becomes large. However, when the posture of the user is “right lateral decubitus position”, the placement of the heartbeat waveform becomes smaller in the waveform output by the second calculation unit 130 as compared with the posture of the user “left lateral decubitus position”.
  • the determination unit 140 when the posture of the user is “side down”, the determination unit 140 outputs the output value as it is as the value of the third index. In addition, when the user's posture is "supine position" or “abdominal position", the determination unit 140 reduces the value of the third index (for example, "0.1" or "0"). Etc) output.
  • the determination unit 140 calculates a fourth index related to the shapes of peaks and valleys in the waveform of the heart beat.
  • the portion from the valley to the mountain in the waveform is, for example, a portion from time t1 to t2 in FIG.
  • a portion which becomes a mountain and a valley is, for example, a portion of time t2 ⁇ t3 in FIG.
  • the portion where these waveforms change indicates a vibration transition (pressure transition), which usually corresponds to the exhalation / inspiration of the user.
  • the determination unit 140 is configured such that, for each cycle of respiration (valley to valley or mountain to mountain), the first time to go from valley to mountain and the second time to go from mountain to valley are between two sensors (vibration The degree of coincidence is evaluated by the sensor 320a and the vibration sensor 320b). For example, if the ratio of the first time in one cycle of the vibration sensor 320a and the ratio of the first time in one cycle of the vibration sensor 320b are within a desired range, the determination unit 140 matches the vibration sensors 320a and 320b (same It is evaluated as “paired”.
  • the determination unit 140 calculates the value of the fourth index based on the ratio of the same pair in two sensors (the vibration sensor 320a and the vibration sensor 320b) in each cycle included in the posture determination section.
  • the determination unit 140 agrees between the two sensors (the vibration sensor 320a and the vibration sensor 320b) when the period in the same pair out of the periods included in the posture determination section exceeds the desired threshold. Evaluate.
  • the determination unit 140 outputs, as it is, the value of the fourth index as it is, the ratio in which the correspondence relationship between the time of two sensors is the same in the posture determination section.
  • the determination unit 140 outputs a value obtained by multiplying the ratio of the same pair included in the posture determination section by “0.5” as the value of the fourth index.
  • step S214 The determination unit 140 calculates a comparison result of the first time from valley to mountain and the second time from mountain to valley in the waveform as a fifth index.
  • the determination unit 140 determines, from the waveform, the first time from valley to mountain, the first time from mountain to valley, for each cycle of respiration (valley to valley or mountain to mountain) included in the posture determination section. The lengths of two hours are compared, and a portion where the length of the first time is “short” and the length of the second time is “long” (“short ⁇ long”) is determined. Then, the determination unit 140 sets the fifth on the basis of the ratio of pairs in which the length of time has a relationship of “short ⁇ long” in both of the two sensors (the vibration sensor 320 a and the vibration sensor 320 b) in the posture determination section. Calculate the value of the indicator.
  • the determination unit 140 counts “breathing in which the first time is shorter than the second time” included in the posture determination section, and outputs, as a value of the fifth index, a ratio of coincidence.
  • the determination unit 140 outputs, as the value of the fifth index, a value obtained by subtracting “0.5” from the ratio of two sensors forming a pair in the posture determination section.
  • the determination unit 140 is less likely to exhibit the characteristic in the waveform. Therefore, the determination unit 140 does not output the value of the fifth index. That is, the determination unit 140 outputs “0” as the value of the fifth index.
  • the determination unit 140 can determine the posture of the user more appropriate.
  • the determination unit 140 determines the posture using the waveform calculated by the second calculation unit 130 based on the vibration data.
  • the determination unit 140 may determine the posture of the user simply based on the vibration data. That is, in the process of FIG. 12, the determination unit 140 may shift the process from step S202 to step S206 without executing step S204.
  • the determination unit 140 can output the third index by performing frequency analysis on vibration data.
  • the determination unit 140 can determine the peaks and valleys of the waveform in the same manner as the waveform as long as the maximum value (nearby) and the minimum value (nearby) of the vibration data can be extracted.
  • the present embodiment describes a case where the determination unit 140 determines the posture of the user using artificial intelligence (machine learning).
  • the posture of the user which is one of the states of the user, is estimated based on the estimation unit 700 of FIG.
  • the estimation unit 700 estimates the posture of the user by using vibration data and the state of the user as input values (input data) and using artificial intelligence and various statistical indexes.
  • the estimation unit 700 includes an extraction unit 710, an identification unit 720, an identification dictionary 730 (learning model), and an output unit 740.
  • vibration data and waveform data calculated from the vibration data are input to the estimation unit 700.
  • the extraction unit 710 extracts each feature point of the input data and outputs it as a feature vector.
  • the contents to be extracted as feature points by the extraction unit 710 may be, for example, the following.
  • the extraction unit 710 outputs a feature vector by combining one or more feature points of these contents.
  • a feature point is an example, and you may combine the content extracted as another feature point.
  • the value which the extraction part 710 outputs as a feature point is a convenient value for convenience of description. Then, the extraction unit 710 outputs the value of the corresponding feature point as “1” and the value of the non-corresponding feature point as “0”.
  • the extraction unit 710 may output a random variable as the value of the feature point.
  • the extraction unit 710 outputs the 7-dimensional feature vector to the identification unit 720.
  • the identification unit 720 identifies a class corresponding to the state of the user from the input feature vector. At this time, the identification unit 720 identifies a class by collating with a plurality of prototypes prepared in advance as an identification dictionary 730.
  • the prototype may be stored as a feature vector corresponding to each class, or may store a feature vector representing the class.
  • the identification unit 720 determines the class to which the closest prototype belongs. At this time, the identification unit 720 may determine the class according to the nearest neighbor determination rule or may determine the class according to the k-nearest neighbor method.
  • the identification dictionary 730 used by the identification unit 720 may store a prototype in advance, may be newly stored using machine learning, or may be updated as needed.
  • the output unit 740 outputs a (sleeping) posture as one of the user's states.
  • the state of the user output by the output unit 740 may identify and output “supine position”, “prone position”, “lateral position” or the like, or may output a random variable as it is.
  • the determination unit 140 can acquire vibration data output from the sensor, and can estimate the posture of the user from the information using machine learning.
  • the fourth embodiment is an embodiment in which the estimation unit 700 of the third embodiment estimates a user's posture using deep learning using a neural network.
  • waveform data of the user is input to the estimation unit 700.
  • the estimation unit 700 estimates the user state (posture) from the input waveform data.
  • the inference unit 700 uses deep learning as the process of inference. Note that processing using deep learning (deep neural network) can be estimated with high accuracy, particularly in image recognition.
  • FIG. 16 is a diagram for explaining a process in which the inference unit 700 estimates using deep learning.
  • the estimation unit 700 inputs a signal of waveform data (image data) output by the second calculation unit 130 to a neural network configured by a plurality of layers and neurons included in each layer. Each neuron receives a signal from another plurality of neurons, and outputs the calculated signal to another plurality of neurons.
  • the neural network has a multilayer structure, it is referred to as an input layer, an intermediate layer (hidden layer), and an output layer in the order in which the signals flow.
  • the middle layer of the neural network consists of multiple layers, it is called a deep neural network (for example, Convolutional Neural Network with convolution operation), and the machine learning method using this is called deep learning. Call.
  • the waveform data is subjected to various operations (convolution operation, pooling operation, normalization operation, matrix operation, etc.) on neurons in each layer of the neural network, flows while changing its form, and a plurality of signals are output from the output layer.
  • various operations convolution operation, pooling operation, normalization operation, matrix operation, etc.
  • the estimation unit 700 estimates the posture of the user as the posture of the user linked to the output value having the largest value.
  • the estimation unit 700 may estimate the user's posture from the output of the classifier by passing one or more output values to the classifier without directly outputting the posture that is the user's state.
  • a number of waveform data and the corresponding user's posture in the waveform data are input to the neural network in advance as parameters which are coefficients used for various operations of the neural network. Further, the error between the output value of the neural network and the correct value is propagated in the backward direction of the neural network by the error back propagation method. In this way, the parameters of the neurons in each layer are updated and determined many times. The process of updating and determining parameters in this manner is called learning.
  • the structure of the neural network and individual operations are known techniques described in a book or a paper, and any one of them may be used.
  • the posture of the user is output by referring to the vibration wave data (waveform data) calculated from the vibration data output from the sensor.
  • the estimation unit 700 estimates using a neural network as waveform image data.
  • the estimation unit 700 may estimate vibration of the user by simply inputting vibration data (time-series voltage output values) and learning.
  • the estimation unit 700 may estimate the posture of the user by inputting and learning data converted into a frequency domain signal by Fourier transform or discrete cosine transform.
  • FIG. 10 The configuration of the bed is shown in FIG.
  • the bed 10 has a back bottom 12, a hip bottom 14, a knee bottom 16 and a foot bottom 18.
  • the upper body of the user P is supported by the back bottom 12 and the lower back is supported by the waist bottom 14.
  • the drive control unit 1000 controls the drive of the bed.
  • the drive control unit 1000 includes the function of the bottom control unit 1100 for controlling the back raising and knee raising (foot lowering) functions and the like by operating the bottom.
  • the bottom control unit 1100 is connected to the back bottom driving unit 1110 and the knee bottom driving unit 1120 in order to realize the back lifting function.
  • the back bottom drive unit 1110 is, for example, an actuator, and is connected to a back lift link via a link mechanism. And the back bottom drive part 1110 controls the operation of the back bottom 12 placed by the link.
  • the back bottom drive unit 1110 performs back up and down control.
  • the knee bottom drive unit 1120 is, for example, an actuator.
  • the knee bottom drive unit 1120 is connected to a knee lifting link via a link mechanism. Then, the knee bottom drive unit 1120 controls the operation of the knee bottom 16 placed on the link and the foot bottom 18 further connected.
  • the knee bottom drive unit 1120 performs knee raising and knee lowering (foot lowering and foot raising) control.
  • the bottom control unit 1100 does not perform a back-raising operation when the determination unit 140 (or the estimation unit 700) determines that the user's posture is “prone position”. That is, even if the user selects the back raising operation, the bottom control unit 1100 does not drive the back bottom driving unit 1110 and does not perform the back raising operation. Further, even when the bed is in an automatic operation, when the determination unit 140 (or the estimation unit 700) determines that the posture of the user is "in prone position", the bottom control unit 1100 does not perform the back-raising operation.
  • control unit 100 determines whether an operation has been selected by the user (step S302). For example, the back up button is selected by the user by the input unit 160 (operation remote control). Thus, the control unit 100 determines that the back-raising operation is selected.
  • control unit 100 determines posture determination processing (step S304).
  • the determination unit 140 executes any of the above-described attitude determination processes to determine the attitude of the user on the bed.
  • the estimation unit 700 may determine the attitude of the user.
  • the control unit 100 determines whether the posture of the user is in a specific posture (step S306). In the present application example, the control unit 100 does not execute the back-raising operation when the user's posture is “prone position” (step S306; Yes). If the posture is other than that, the control unit 100 instructs the bottom control unit 1100 (back bottom drive unit 1110) to execute the back raising operation (Step S306; No ⁇ Step S308).
  • step S310 when the user releases the back-raising operation (for example, the user performs a cancel operation, the back-raising button is released, etc.), the control unit 100 stops the back-raising operation (step S310). Yes ⁇ step S312).
  • control unit 100 stops the back-raising operation even when the user's posture becomes the specific posture during the back-raising operation (for example, when the user is in the prone position during the back-raising operation). (Step S306; Yes ⁇ Step S312).
  • a posture determination device is applied to a posture conversion device that converts a user's posture.
  • the control unit 100 automatically stores the frequency of body posture conversion (posture conversion) and the ratio of each posture for grasping the chewing risk. That is, the control unit 100 can be used for care and treatment by automatically storing the posture of the user determined by the determination unit 140.
  • the posture conversion device notifies or automatically performs posture conversion when a predetermined time has elapsed while the posture of the user determined by the determination unit 140 is the same.
  • the control unit 100 and the drive control unit 1000 control the body posture conversion drive unit 1200.
  • the body posture conversion drive unit 1200 converts the body position of the user by, for example, expanding and contracting the air cells provided on the left and right of the user or making the left and right bottoms uneven.
  • the drive control unit 1000 controls the body posture conversion drive unit 1200 according to the posture determined by the determination unit 140, and performs control to change the body position of the user P.
  • the process of FIG. 18 will be described as an example.
  • the determination unit 140 determines the posture of the user by any of the methods described above (step S304).
  • the body posture conversion drive unit 1200 executes processing in accordance with the posture determined by the determination unit 140. For example, if the user is in the posture of right side recumbency, the body posture conversion drive unit 1200 controls the air cell provided on the right side. The user performs posture conversion. In addition, if the user is in the posture of left lateral decubitus position, the body posture conversion drive unit 1200 controls the air cell provided on the left side. The user performs posture conversion. In addition, the body posture conversion drive unit 1200 does not control either the left or right air cell if the user is in the prone position. Users do not perform posture conversion.
  • the posture conversion drive unit 1200 may perform posture conversion. For example, when the posture of the user determined by the determination unit 140 continues in the same posture for 10 minutes or more, the posture conversion driving unit 1200 performs posture conversion.
  • the determination unit 140 may determine that there is a change in vibration wave data (waveform data), and the user may perform posture conversion by the body posture conversion drive unit 1200. That is, when there is a change in the vibration wave data (waveform data), the determination unit 140 determines that the posture of the user has changed. Posture conversion is performed when there is a change in the user's posture. Thereby, the said position change can be effectively used in the pressure sore prevention of the location without the paralyzed side of a user.
  • the notification device performs notification according to the posture of the user determined by the determination unit 140.
  • notification by voice by the voice output device or notification by display (light) by the display device may be used.
  • the notification device may notify to another terminal device (for example, a portable terminal device possessed by a medical worker).
  • the following timing can be considered as a timing which alerting
  • the posture of the user is determined in the processing device 5 based on the result output from the detection device 3, but all may be determined in one device.
  • processing may be performed on the server side and the processing result may be returned to the terminal device.
  • the processing described above may be realized on the server side by uploading vibration data from the detection device 3 to the server.
  • the detection device 3 may be realized by, for example, a device such as a smartphone incorporating an acceleration sensor and a vibration sensor.
  • the vibration sensor was demonstrated as having two, you may be provided more. Moreover, in the method of calculating the frequency distribution of the first embodiment to determine the attitude, even one sensor can be realized.
  • a program that operates in each device is a program (a program that causes a computer to function) that controls a CPU or the like so as to realize the functions of the above-described embodiment. Then, the information handled by these devices is temporarily stored in a temporary storage device (for example, RAM) at the time of processing, and then stored in storage devices of various ROMs, HDDs, and SSDs, and read by the CPU as needed. , Correction and writing are performed.
  • a temporary storage device for example, RAM
  • the program can be stored and distributed in a portable recording medium, or can be transferred to a server computer connected via a network such as the Internet.
  • a server computer connected via a network such as the Internet.
  • the storage device of the server computer is also included in the present invention.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Physiology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Nursing (AREA)
  • Cardiology (AREA)
  • Rheumatology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

少なくとも2つの振動センサと、制御部と、を有する姿勢判定装置であって、前記制御部は、前記振動センサより利用者の臥床時における振動を検出し、前記検出された振動から波形を算出し、前記波形の特徴を認識することで、前記特徴から利用者の姿勢を判定する、ことを特徴とする。これにより、利用者の状態として姿勢を適切に判定することが可能な姿勢判定装置等を提供することができる。

Description

姿勢判定装置
 本発明は、姿勢判定装置に関する。
 従来から、ベッド上における利用者(患者)の状態を判定する発明は知られている。例えば、特許文献1に開示された検出装置は、ベッド上の振動を検出して生体の心拍に由来する心拍振動信号を抽出する。そして検出装置は、抽出した心拍振動信号に基づいてベッド上の生体の姿勢を推定する。
 また、特許文献2に開示された報知装置は、利用者の姿勢及び利用者の寝台上又は寝台外における位置の少なくとも一方を含む利用者状態を取得する。そして、報知装置は、取得された利用者状態に応じて報知する。
特開2011-120667号公報 特開2016-192998号公報
 本発明は、利用者の振動に基づく波形から、利用者の姿勢を適切に判定することが可能な姿勢判定装置を提供することである。
 本発明の姿勢判定装置は、利用者の臥床時における振動を検出できる少なくとも2つの振動センサと、複数の前記振動から複数の波形を算出し、前記複数の波形の特徴に基づいて、前記臥床時における前記利用者の姿勢を判定する制御部と、を備えることを特徴とする。
 本発明の姿勢判定装置によれば、振動から算出された複数の波形に基づき、利用者の状態の1つとして、臥床時の利用者の姿勢を適切に判定することができる。
第1実施形態における全体を説明するための図である。 第1実施形態における構成を説明するための図である。 第1実施形態における構成を説明するための図である。 第1実施形態におけるセンサを説明するための図である。 第1実施形態における姿勢判定処理について説明するための図である。 第1実施形態における姿勢判定処理について説明するための図である。 第1実施形態における腹臥位の波形の一例を示す図である。 第1実施形態における仰臥位の波形の一例を示す図である。 第1実施形態における右側臥位の波形の一例を示す図である。 第1実施形態における左側臥位の波形の一例を示す図である。 第1実施形態における周波数成分の一例を示す図である。 第2実施形態における姿勢判定処理について説明するための図である。 第2実施形態における姿勢判定条件について説明するための図である。 第2実施形態における波形の状態について説明するための図である。 第3実施形態における状態推測部の機能構成を説明するための図である。 第4実施形態におけるニューラルネットワークを説明するための図である。 適用例としてベッドを説明するための図である。 適用例の場合の処理について説明するための図である。
 以下、図面を参照して本発明を実施するための一つの形態について説明する。利用者がベッドから離床するとき、利用者が転倒することを防ぐ観点から、先行の装置は、利用者がベッドから離床しているか否か(利用者がベッドに在床しているか否か)を検出する。しかし、利用者がベッドに在床しているときに利用者がどのような姿勢であるかを装置が検出することは行われていなかった。
 利用者の姿勢に関して、例えば端座位の検出等を装置が行う場合、利用者等はベッドの広範囲に装置(例えばセンサ)を多数設置し、装置が臥位と座位とを判別する場合がある。しかし、利用者がベッドで寝ているときの利用者の向き(例えば、仰臥位、腹臥位、側臥位等)を装置が判定することはできなかった。
 装置が利用者の姿勢を判定するためには、利用者等は例えば別にカメラ装置等を設け、医療従事者、スタッフ、家族等(以下、スタッフ等という)が利用者を監視するか、装置がカメラ装置等で撮影した画像の解析を行う必要があった。この場合、スタッフ等が常に利用者を監視する必要があり、スタッフ等の負担が大きかった。また、利用者を監視するためには、カメラ装置が利用者を常時撮影する必要がある。そのため、プライバシーの観点から、利用者がカメラ装置での撮影を反対する場合もあった。
 そこで、本実施形態の姿勢判定装置によれば、ベッド上において、利用者が就寝しているときの振動を検出するだけで、利用者の姿勢までも検出することができることが可能となる。
 なお、本明細書で利用者とは、ベッド(またはマットレス)を利用する者をいい、病気で治療を受けるものに限られず、施設で介護を受ける者や、ベッドで就寝する者であれば利用者として適用可能である。
 [1.第1実施形態]
 [1.1 システム全体]
 図1は、本発明の姿勢判定装置を適用したシステム1の全体概要について説明するための図である。図1に示すように、システム1は、ベッド10の床部と、マットレス20の間に載置される検出装置3と、検出装置3より出力される値を処理するため処理装置5を備える。システム1は、検出装置3、処理装置5とで利用者の姿勢を判定する。
 利用者Pがベッド10(またはマットレス20)に在床すると、検出装置3は、利用者である利用者Pの生体信号として体振動(人体から発せられる振動)を検出する。また、処理装置5は、検出装置3が検出した振動に基づいて、利用者Pの生体情報値を算出する。
 処理装置5は、算出した生体情報値(例えば、呼吸数、心拍数、活動量)を、利用者Pの生体情報値として出力・表示してもよい。
 また、検出装置3に記憶部、表示部等を設けることにより、検出装置3が処理装置5と一体に形成されてもよい。また、処理装置5は、汎用的な装置であってもよく、コンピュータ等の情報処理装置に限られず、例えばタブレットやスマートフォン等といった装置でもよい。また、検出装置3が通信機能を有している場合、処理装置5の代わりに検出装置3がサーバ装置と接続(通信)してもよい。
 また、利用者は、病気療養中の者であったり、介護が必要なものであったりしてもよい。また、利用者は、介護が必要でない健康な者であっても、高齢者でも子供でも、障害者でも、人でなくても動物でも良い。
 ここで、検出装置3は、例えば厚さが薄いシート状の装置である。これにより、検出装置3が、ベッド10と、マットレス20の間に載置されたとしても、利用者Pは違和感を覚えさせることなく検出装置3を使用できる。したがって、検出装置3は、ベッド上の利用者の状態を長期間検出できる。
 なお、検出装置3は、利用者Pの振動を検出できればよい。例えば、検出装置3は、歪みゲージ付きアクチュエータやベッド10の脚等に配置された荷重を計測するロードセルを利用してもよい。また、検出装置3は、ベッド10上に載置されたスマートフォンや、タブレット等に内蔵された加速度センサ等を利用してもよい。
 また、図1において、ベッド10(マットレス20)の頭側に向かう向きを向きH、足側に向かう向きを向きFとする。また、図1において、利用者Pがベッド10上で仰臥位であるとき、利用者Pの左側に向かう向きを向きL、利用者Pの右側に向かう向きを向きRとする。
 [1.2 構成]
 システム1の構成について、図2から図4を参照して説明する。本実施形態におけるシステム1は、検出装置3と、処理装置5とを含む。また、検出部110以外の各機能部は、検出装置3と、処理装置5のいずれかに含まれていればよい。検出装置3と処理装置5のいずれかは検出部110以外の各機能部の機能を実現する。検出装置3と処理装置5とを組み合わせることにより、姿勢判定装置として検出装置3と処理装置5は機能する。
 システム1(姿勢判定装置)は、制御部100と、検出部110と、第1算出部120と、第2算出部130と、第3算出部135と、判定部140と、記憶部150と、入力部160と、出力部170とを含む。
 制御部100は、システム1の動作を制御している。制御部100は、例えば、CPU(Central Processing Unit)等の制御装置である。記憶部150に記憶されている各種プログラムを読み出して、各種プログラムを実行することにより、制御部100は各種処理を実現する。なお、本実施形態においては、制御部100は全体として1つ設けられているが、後で説明する図4のように検出装置3、処理装置5のそれぞれに設けられてもよい。
 検出部110は、検出装置3上の振動を検出し、振動データを取得する。本実施形態の検出部110は、一例として、圧力変化を検出するセンサを利用して利用者の動き等に基づく振動(体振動)を検出する。また、検出部110は、検出された振動に基づき振動データを取得する。検出部110は、振動データを第1算出部120、第2算出部130、第3算出部135に出力する。なお、振動データは、アナログの振動データであってもよいし、ディジタルの振動データであってもよい。
 また、検出部110は、例えば、圧力センサにより利用者の振動を検出して振動データを取得してもよい。また、検出部110は、圧力センサの代わりにマイクロフォンを設けてもよい。検出部110は、マイクロフォンが拾う音に基づいて生体信号を取得し、当該生体信号から振動データを取得してもよい。また、検出部110は、加速度センサ、静電容量センサや荷重センサの出力値から、振動データを取得してもよい。このように、検出部110は、何れかの方法を用いて生体信号(利用者の体動を示す体振動)を取得できればよい。
 第1算出部120は、振動データから、利用者の生体信号を取得し、生体情報値(呼吸数・心拍数・活動量等)を算出する。本実施形態では、検出部110より取得された振動(体振動)データから呼吸成分・心拍成分を抽出する。第1算出部120は、抽出した呼吸成分・心拍成分から、呼吸間隔、心拍間隔に基づいて呼吸数、心拍数を求めてもよい。また、第1算出部120は、振動データの周期性を分析(フーリエ変換等)し、ピーク周波数から呼吸数、心拍数を算出してもよい。
 これらの利用者の生体情報値を算出する方法は、例えば特開2010-264193号公報(発明の名称:睡眠状態判定装置、プログラム及び睡眠状態判定システム、出願日:2009年5月18日)、特開2015-12948号公報(発明の名称:睡眠評価装置、睡眠評価方法及び睡眠評価プログラム、出願日:2013年7月4日)に記載の判定方法を援用できる。この特許出願は援用によりその全体が組み込まれる。
 第2算出部130は、検出部110から入力されたアナログの振動データを所定のサンプリング間隔でディジタルの電圧信号に変換し、体振動の波形(振動波形)を示す波形データを算出する。
 第3算出部135は、波形データから周波数分布を算出する。例えば、第3算出部135は、第2算出部130により算出された波形データを高速フーリエ変換(FFT: Fast Fourier Transform)により求められた周波数成分から周波数分布を算出する。なお、第3算出部135は、検出部110から出力される振動データに基づいて、直接周波数分布を算出してもよい。
 判定部140は、利用者の状態を判定する。例えば、判定部140は、検出部110により取得された振動データや、第1算出部120が算出する生体情報値、ベッド10に別に設けられた荷重センサから取得される値、第2算出部130が算出される波形データ、第3算出部135が算出する周波数分布等の少なくとも1つを用いて利用者の状態を判定する。判定部140は、複数のデータや値等を組み合わせて利用者の状態を判定してもよい。
 本実施形態では、判定部140は、利用者の状態として、ベッド上の利用者の姿勢(利用者が仰臥位、腹臥位、側臥位のいずれであるか)を判定する。また、判定部140は、端座位等の利用者の姿勢や、利用者の姿勢以外の状態(例えば、離床、在床等)を判定してもよい。
 記憶部150は、システム1が動作するための各種データ及びプログラムを記憶している。制御部100は、これらのプログラムを読み出して、プログラムを実行することにより、各種機能を実現する。ここで、記憶部150は、半導体メモリ(例えば、SSD(Solid State Drive)やSDカード(登録商標))や、磁気ディスク装置(例えば、HDD(Hard Disk Drive))等により構成されている。また、記憶部150は、内蔵される記憶装置であってもよいし、着脱可能な外部記憶装置であってもよい。また、記憶部150は、クラウド等の外部サーバの記憶領域であってもよい。
 記憶部150は、振動データ記憶領域152と、波形データ記憶領域154を含む。振動データ記憶領域152、波形データ記憶領域154それぞれは記憶部150の内部の各領域に割り当てられる。
 振動データ記憶領域152は、検出部110から出力される振動データを記憶する。ここで、振動データは、所定時間毎に記憶される。例えば、振動データは、1秒毎や5秒毎といった相対的に短い間隔や、30秒、1分、5分といった相対的に長い間隔で記憶される。
 波形データ記憶領域154は、検出部110より出力された振動データ又は振動データ記憶領域152に記憶された振動データに基づいて、第2算出部130が算出した振動の波形データ(波形)を記憶する。なお、本実施形態では、波形データは、波形データ記憶領域154に記憶されていることとして説明するが、第2算出部130がその都度必要に応じて算出してもよい。また、波形データは、波形データ記憶領域154に一時的に記憶されてもよいし、蓄積的に記憶されてもよい。
 入力部160は、利用者から操作を受け付ける。例えば、入力部160は、利用者から、利用者の振動の取得を開始することを示す操作の入力を受け付けたり、検出部110の感度の調整を示す操作の入力を受け付けたりと、各種操作の入力を受け付ける。入力部160は、例えばキーボードやマウス、タッチパネル等である。
 出力部170は、各種情報を出力する。例えば、液晶ディスプレイの表示装置や、LED等の発光部材、音や音声を出力するスピーカ、他の記録媒体にデータを出力するインタフェース等である。また、入力部160と、出力部170とを一体に構成してもよい。例えば1つのタッチパネルが入力部160と出力部170をで兼ねてもよい。
 ここで、上述した構成のうち、第1算出部120、第2算出部130、第3算出部135、判定部140は、主にソフトウェア(プログラム)により実現される。例えば、記憶部150に記憶されたソフトウェアを制御部100が読み出して、制御部100がソフトウェアを実行する。その結果、制御部100が各構成の機能を実現する。
 すなわち、制御部100が、第1算出部120、第2算出部130、第3算出部135、判定部140を実現するプログラムを読み込み、プログラムを実行することで、制御部100が各構成の機能を有することとなる。
 また、図2はシステム1の姿勢判定装置の構成を説明したものである。これらの構成は、例えば振動を検出することのできる1つの装置で実現されてもよいし、図1のように、姿勢判定装置は検出装置3、処理装置5に分かれて構成されてもよい。また、処理装置5の代わりに、同じサービスを提供可能な外部サーバを用いて姿勢判定装置を実現してもよい。
 図2のシステム1が、図1の検出装置3及び処理装置5で構成される場合について、図3を参照してシステム1の姿勢判定装置を説明する。検出装置3は、制御部300と、センサである検出部320と、記憶部330と、通信部390とを含む。
 また、制御部300は、記憶部330に記憶されたソフトウェア(プログラム)を実行することにより、制御部300は第1算出部310として機能する。検出部320は、検出された振動に基づいて振動データを出力する。
 第1算出部310は、当該振動データに基づいて生体情報値を算出する。そして、検出装置3は、当該生体情報値を生体情報値データ340に記憶したり、通信部390を介して処理装置5に送信したりする。また、併せて検出部320で検出された振動データも、検出装置3は通信部390を介して処理装置5に送信する。
 検出装置3から処理装置5に振動データを送信するタイミングや、生体情報値データ340に生体情報値(生体情報)を記憶するタイミングは、リアルタイムであってもよいし、所定時間毎であってもよい。
 なお、検出部320は、図2の検出部110である。ここで、検出部320について、図4を用いて説明する。
 図4は、ベッド10(マットレス20)を上から見た図である。図4は、上側に向かう向きが図1の向きH、下側に向かう向きが図1の向きFの方向である。また、図4の右側に向かう向きが図1の向きL、図4の左側に向かう向きが図1の向きRである。
 検出装置3は、ベッド10と、マットレス20との間や、マットレス20の上に載置される。検出装置3が載置される場所としては、好ましくは利用者の背中近傍であるため、少なくともベッド10(マットレス20)の中央よりH側(利用者の頭側)に寄った方向となる。
 また、検出装置3は、センサ(検出部110/320)を内蔵する。当該センサは、例えば振動センサであり、利用者の振動(体振動)を検出することができる。そして、センサは検出装置3に少なくとも2つ設けられている。例えば図4では、検出装置3の左右に2つのセンサ(振動センサ320a、振動センサ320b)が設けられている。
 この振動センサ320aは、振動センサ320bから離れて設けられている。振動センサ320aと振動センサ320bとが設けられる間隔は、例えば、利用者がセンサ上に位置する間隔程度であればよく、好ましくは2つのセンサの間隔は15~60cm程度である。
 また、図3の第1算出部310は、図2の第1算出部120である。また、通信部390は、例えば、ネットワーク(例えば、LAN/WAN)に接続(通信)可能なインタフェースである。
 処理装置5は、制御部500と、記憶部530と、入力部540と、出力部550と、通信部590とを含んでいる。処理装置5は、検出装置3から、通信部590を介して振動データを受信する。処理装置5は、受信された振動データを振動データ記憶領域532に記憶する。
 制御部500は、記憶部530に記憶されているソフトウェア(プログラム)を実行することにより、制御部500は、第2算出部502、第3算出部504、判定部506として機能する。また、第2算出部502が算出した波形データは、波形データ記憶領域534に記憶される。
 なお、第2算出部502は、図2の第2算出部130である。第3算出部504は、図2の第3算出部135である。判定部506は、図2の判定部140である。入力部540は、図2の入力部160である。出力部550は、図2の出力部170である。記憶部530は、図2の記憶部150である。
 [1.3 処理の流れ]
 本実施形態における姿勢判定処理について、図5を参照して説明する。姿勢判定処理は、制御部100(判定部140)が実行する処理である。
 まず、制御部100(判定部140)は、振動データを取得する(ステップS102)。具体的には、判定部140は、振動データを振動データ記憶領域152から読み出して振動データを取得するか、または検出部110より振動データを受信して取得する。
 つづいて、判定部140は、振動データに基づいて利用者の姿勢を判定する。このとき、判定部140は、センサ間の相関や、センサ内の相関に基づいて利用者の姿勢を判定する。ここで、センサ間の相関とは、複数のセンサが出力する複数のデータの相関関係をいう。また、センサ内の相関とは、1つのセンサから出力される複数のデータの相関関係をいう。
 まず、第2算出部130は、振動データから波形を算出し、波形データとして出力する(ステップS104)。第2算出部130は、振動センサ毎に波形データを出力する。例えば、図4では、振動センサは2つある(振動センサ320aと、振動センサ320b)。したがって、第2算出部130は、波形データも振動センサ毎に出力する。第2算出部130は2つの波形データを出力する。
 また、第2算出部130は、波形データを波形データ記憶領域154に記憶してもよいし、出力部170に出力してもよい。出力部170が表示装置である場合、出力部170は波形データを表示する。
 つづいて、判定部140は、各波形データからセンサ間の相関があるか否かを判定する(ステップS106)。例えば、判定部140は、センサ間の相関として、2つのセンサ(例えば、図4の振動センサ320a、振動センサ320b)毎に出力された波形データに類似性があるか否かを判定する。
 判定部140は、2つの波形データに対して、相互相関関数を利用することで、センサ間の相関を求める。判定部140は、相互相関関数を利用することで、2つの波形データの類似度に基づいて「0」~「1」に規格化された値を出力することができる。この相互相関関数を利用して出力する値は、2つの波形データの類似度に応じて変化する。例えば、相互相関関数の値が「1」の場合、2つの波形データが完全に一致しており類似度が最大である。また、相互相関関数の値が「0」の場合、2つの波形は全く一致しておらず、類似度が最小である。
 そして、判定部140は、2つの波形データに相関があるか否かを判定する場合、判定部140は、相互相関関数の出力値が閾値を超えたか否かを判定する。例えば、閾値を「0.7」とした場合、判定部140は、相互相関関数の出力値が「0.7」以下であれば2つの波形データは相関がないと判定する。判定部140は、相互相関関数の出力値が「0.7」を超えれば、2つの波形データは相関があると判定する。すなわち、判定部140は、2つの波形データに相関がある場合は、センサ間の相関があると判定する。
 次に、判定部140は、センサ間の相関がある場合(ステップS106;Yes)、利用者の姿勢は「仰臥位もしくは腹臥位」であると判定する(ステップS116~S120)。なお、通常、利用者が睡眠中に腹臥位となる時間は極端に短いため、判定部140は、利用者の姿勢を「仰臥位もしくは腹臥位」と判定するだけでもよい。しかし、腹臥位は窒息リスクが高く乳幼児突然死症候群との関連も報告されている。また、腹臥位時には電動ベッドの自動運転時を禁止する等の目的がある。そこで、仰臥位と腹臥位とを区別するために、判定部140は、利用者の姿勢が「仰臥位」であるか否か、利用者の姿勢が「腹臥位」であるか否かを判定してもよい。
 判定部140は、センサ内の相関があるか否かを判定する(ステップS106;Yes→ステップS116)。ここで、判定部140は、センサ内の相関があるか否かを判定する。例えば判定部140は波形データにおける周期性の強さを評価して、センサ内の相関があるか否かを判定する。一例として、判定部140は、1つのセンサの波形データに対して、自己相関関数を利用することで相関があるか否かを判定する。自己相関関数は、同じセンサ内の波形の周期性の強さに基づいて「0」~「1」に規格化された値を出力する。例えば、判定部140は、自己相関関数の値が「1」の場合、波形データが完全に周期的に出力されており、完全なセンサ内の相関があると判定する。また、判定部140は、自己相関関数の値が「0」の場合、センサ内の相関はないと判定する。
 また、判定部140は、フーリエ変換やカイ2乗ピリオドグラムなどを用いて周期性の強さを「0」~「1」に規格化された値として算出し、当該値に基づいてセンサ内の相関を判定しても良い。
 そして、判定部140は、1つの波形データに相関があるか否かを判定する場合、自己相関関数の出力値が、閾値を超えたか否かを判定してもよい。例えば、閾値を「0.7」とした場合、判定部140は、自己相関関数の出力値が「0.7」以下であれば、算出された波形データ(検出された1つの振動データ)は相関がないと判定する。判定部140は、自己相関関数の出力値が「0.7」を超えれば、当該波形データは相関があると判定する。
 判定部140は、センサ内の相関があると判定した場合、判定部140は、利用者の姿勢を「仰臥位」と判定する(ステップS116;Yes→ステップS118)。他方、判定部140は、センサ内の相関がないと判定した場合、判定部140は、利用者の姿勢を「腹臥位」と判定する(ステップS116;No→ステップS120)。
 また、判定部140は、ステップS106において、センサ間の相関がないと判定した場合(ステップS106;No)、判定部140は、利用者の姿勢を「側臥位」と判定する(ステップS110)。なお、判定部140は、利用者の姿勢を「側臥位」と判定するだけでもよいが、「右側臥位」と「左側臥位」を区別するために、判定部140は、利用者の姿勢が「右側臥位」であるか否か、利用者の姿勢が「左側臥位」であるか否かをさらに判定してもよい(ステップS114)。スタッフ等が利用者の***変換の有無を確認するため、または利用者の一部に麻痺がある場合などでは、利用者が麻痺している側を下にして側臥位で寝ていないかをスタッフ等が注意する必要があるため、判定部140は、利用者の姿勢が「右側臥位」であるか否か、利用者の姿勢が「左側臥位」であるか否かを判定してもよい。
 この場合、利用者が左側臥位である場合の心拍信号は、利用者が右側臥位である場合の心拍信号より大きくなる。したがって、判定部140は、心拍信号の大きさが所定の閾値以上とされる場合(高周波信号が抽出される場合)、利用者の姿勢が「左側臥位」であると判定する。
 判定部140が心拍信号の大きさを判定する方法として、種々の方法がある。例えば、呼吸信号に相当する周波数成分に対する心拍信号に相当する周波数成分の比率、ハイパスフィルタ処理を施したデータの信号強度などを用いて、判定部140は心拍信号の大きさを判定することができる。
 このように、本実施形態の姿勢判定装置は、振動データから、利用者の姿勢(寝姿勢)を判定することができる。
 また、説明の都合上、本実施形態の判定部140は、第2算出部130が算出した波形データに基づいてセンサ間の相関や、センサ内の相関の有無を判定した。これに限定されることなく、判定部140は、例えば単純に振動データに基づいてセンサ間の相関や、センサ内の相関を判定してもよい。この場合、判定部140は、ステップS104の処理を実行しなくてよい。
 また、判定部140は、利用者の振動データから、波形データを算出して利用者の姿勢を判定したが、これに限定されることなく、例えば判定部140は、周波数分布の形状を評価して姿勢を判定してもよい。この場合、判定部140は、2つ以上のセンサで取得した振動の周波数分布の形状を総合的に評価したほうが精度は高くなるが、振動を取得するセンサは1つであってもよい。
 例えば、判定部140が周波数分析を利用して、判定部140が利用者の姿勢を判定する処理について、図6を参照して説明する。図5と同様に、判定部140が検出部110から振動データを取得し(ステップS152)、第2算出部130は波形データを算出(出力)する(ステップS154)。
 つづいて、第3算出部135は、第2算出部130により出力された波形データの周波数分布を算出する(ステップS156)。例えば、周波数分布のうち、高周波数成分が算出されない場合、判定部140は利用者の姿勢は「側臥位」であると特定する。
 利用者の姿勢により、心臓の位置とセンサの位置との関係が異なるため、その間にある体の組織(筋肉、脂肪、骨、内臓等)が異なる。したがって、利用者からセンサへの振動の伝わり方も変わるため、システム1が計測する周波数成分に違いが現れる。
 心臓の動き、呼吸による胸腹部の動く方向は決まっている。例えば、利用者が仰臥位であるとき、呼吸による胸腹部の動きについて、センサ(検出部110)と垂直方向の動きが大きくなる。また、利用者が側臥位であるとき、センサ(検出部110)と平行方向の動きが大きくなる。このように、利用者の姿勢毎に周波数分布が異なる。したがって、姿勢毎に周波数分布を記憶させておき、判定部140は、実際に抽出された周波数分布と、姿勢毎に記憶された周波数分布とを比較することにより姿勢を判定することができる。
 例えば、利用者が側臥位であるとき、心拍成分より高周波である成分は(心拍成分に相当する周波数の整数倍を除き)検出されにくい。したがって、心拍成分より高周波成分が少ない場合は、判定部140は利用者の姿勢を「側臥位」と判定することができる。
 なお、上述した説明では、第3算出部135は、波形データから周波数分布を算出しているが、直接振動データから周波数分布を算出してもよい。この場合、ステップS154は実行されないこととなる。
 [1.4 姿勢判定の条件]
 ここで、上述した姿勢判定処理は、判定部140が、利用者の在床時に実行してもよい。また、姿勢判定処理は、判定部140が、利用者や、ベッドの状態が所定の条件となったときに実行してもよい。以下、姿勢判定処理は、判定部140が姿勢判定処理を実行する条件として利用者の体動を利用する。ここで、利用者の体動とは、利用者が寝返りをするなど、利用者の姿勢に動きがあることをいう。
 (1)判定部140は区間毎に利用者の姿勢を判定する
 判定部140が利用者の姿勢を判定する時間を複数の区間に分ける。例えば、体動を含まない区間では、利用者の姿勢が同じ姿勢として継続されていると判定部140は判定する。そして、判定部140は、利用者は同じ姿勢として出力する。
 この場合、判定部140は、利用者の体動を含まない区間をまとめて解析(姿勢判定処理の結果を適用)してもよい。また、判定部140は、ある一定区間(例えば、3分毎等)に姿勢判定処理の結果を集計してもよい。判定部140は、その一定区間の中で体動を含まない区間がある場合、体動を含まない区間の中で最も多い姿勢の判定結果を当該区間の姿勢判定処理の結果として出力する。
 (2)判定部140は体動が生じていない区間のみ、利用者の姿勢を判定する
 判定部140は、利用者の体動が生じていない区間のみ、利用者の姿勢を判定する。例えば、検出部110により、利用者の体動が検出された場合、判定部140は、姿勢判定処理の実行を中止する。また、検出部110により、利用者の体動が検出され、体動が検出されなくなってから所定時間経過後(例えば、体動が検出されなくなってから10秒後)に、判定部140は再び姿勢判定処理を実行する。
 [1.5 波形に基づく説明]
 ここで、判定部140が利用者の姿勢を判定する方法について、波形に基づいて説明する。図7から図10に示されたそれぞれの波形は、2つの振動センサに基づいて検出された振動に基づく波形である。図7から図10の波形は、横軸は時間、縦軸は電圧値を示しており、検出部110により検出された振動に基づく波形をそれぞれ示している。なお、判定部140が利用者の姿勢の判定する方法について、説明の都合上、波形に基づいて説明する。判定部140が姿勢を判定する方法としては、例えば時系列の振動データから傾向を検出して利用者の姿勢を判定してもよい。
 図7に示される2つの波形は、センサ内での波形に相関がなく、同一形状が繰り返して表されていない。すなわち、この波形は、利用者が腹臥位の姿勢を示す波形である(図5のステップS120)。
 図8に示される2つの波形は、センサ間での波形に相関があり、センサ内の波形でも相関がある。すなわち、この波形は、利用者が仰臥位の姿勢を示す波形である(図5のステップS118)。
 図9及び図10に示される2つの波形は、センサ間に相関がない波形である。すなわち、この波形は、利用者が側臥位の姿勢を示す波形である(図5のステップS110)。図9と図10を比較すると、左側臥位の波形である図10に示される波形のほうが、心拍による高周波の信号が顕著に認められる。
 図11は、波形から周波数分布を求めたグラフである。図11は、図6のステップS156において、周波数分布を求めたことを示すグラフであり、図11(a)が仰臥位を示すグラフの図であり、図11(b)が側臥位を示すグラフの図である。このように、波形(振動データ)から、更に周波数分布を求めることにより、判定部140は、利用者の姿勢を判定するができる。
 [2.第2実施形態]
 第2実施形態について説明する。第2実施形態は、複数の姿勢判定条件に基づいて、利用者の姿勢を判定する実施形態である。
 なお、第1実施形態の図5の動作フローを、図12の動作フローに置き換えた実施形態である。本実施形態において、第1実施形態の構成等と同一の部分については説明を省略する。
 まず、判定部140は、振動データを取得する(ステップS202)。そして、第2算出部130は、波形を算出する(ステップS204)。つづいて、判定部140は、条件毎に指標(値)を算出する(ステップS206~ステップS214)。判定部140は、算出した指標値から合計値を算出する(ステップS216)。
 判定部140は、合計値として「仰臥位」「腹臥位」「(左右)側臥位」に対応する合計値を算出する。そして、判定部140は、最も大きな合計値となった姿勢を、利用者の姿勢と決定する。
 ここで、判定部140は、ステップS206~ステップS214において、条件毎に指標値を算出する。この指標値の算出方法について、図13を参照して説明する。
 (1)第1指標算出(ステップS206)
 判定部140は、センサ内の波形に基づいた相関により算出される第1指標の値を算出する。まず、判定部140は、第1実施形態で説明した方法でセンサ内の波形に基づいて自己相関関数の値を算出する。
 そして、判定部140は、前記自己相関関数の出力値に、重み付けを行い第1指標の値を算出する。ここで、判定部140が実行する重み付けの方法について説明する。
 図13の表は、利用者の姿勢毎にセンサの波形の特性を示した表である。例えば、センサ内の波形に基づいた相関は、利用者の姿勢が「仰臥位」のときは「あり」、利用者の姿勢が「側臥位」のときは「あり」、利用者の姿勢が「腹臥位」のときは「なし」となる。
 ここで、判定部140が自己相関関数を実行し「0~1」の間の値を出力する。ここで、図13においてセンサ内の波形に基づいた相関が「あり」(「仰臥位」「腹臥位」)のとき、判定部140は出力値をそのまま第1指標の値とする。また、図13においてセンサ内の波形に基づいた相関が「なし」とき、判定部140は、最大値から自己相関関数の出力値を減算した値を第1指標の値とする。
 具体例を説明すると、判定部140は、自己相関関数の出力値を「0.8」と判定した場合、第1指標の値は、「仰臥位」のとき0.8、「腹臥位」のとき0.2、「側臥位」のとき0.8となる。
 (2)第2指標算出(ステップS208)
 判定部140は、センサ間の波形に基づいた相関により算出される第2指標の値を算出する。まず、判定部140は、上述した方法で2つの波形データの相互相関関数を利用した出力値を算出する。
 そして、判定部140は、前記出力値に重み付けを行い第2指標の値を算出する。ここで、判定部140が実行する重み付けの方法について説明する。
 例えば、図13を参照すると、センサ間の波形に基づいた相関は、例えば、利用者の姿勢が「仰臥位」のとき、「あり」と、利用者の姿勢が「腹臥位」のとき、「あり」または「なし」と、利用者の姿勢が「側臥位」のとき、「なし」となる。
 判定部140が相互相関関数を実行し、「0~1」の間の値を出力する。ここで、図13においてセンサ間の波形に基づいた相関が「あり」(「仰臥位」)のとき、判定部140は出力値をそのまま第2指標の値とする。また、図13においてセンサ間の波形に基づいた相関が「なし」(「側臥位」)のとき、判定部140は最大値から出力値を減算したものを第2指標の値とする。また、図13においてセンサ間の波形に基づいた相関が「あり」又は「なし」(「腹臥位」)のとき、判定部140は出力値を半分にしたものを第2指標の値とする。
 具体例を説明すると、判定部140は、相互相関関数の出力値を「0.9」と判定した場合、第2指標の値は、「仰臥位」のとき0.9、「腹臥位」のとき0.45、「側臥位」のとき0.1となる。
 (3)第3指標算出(ステップS210)
 判定部140は、第2算出部130から出力された波形に基づいて第3指標の値を算出する。例えば、判定部140は、第3算出部135により、呼吸成分の周波数以上の高周波数成分における心拍成分の周波数とその整数倍の周波数のパワースペクトル密度が占める比率が一定値以上か否かを判定する。判定部140は、上述した比率が一定値以上の場合、第2算出部130から出力された波形に心拍の波形が強く載っている(心拍成分の波形を多く含む)と判定する。
 そして、判定部140は、第2算出部130から出力された波形に心拍の波形が載っている場合、「1」、第2算出部130から出力された波形に心拍の波形が載っていない場合(心拍成分の波形を多く含まない)、「0」を出力する。更に、判定部140は、出力した値に重み付けを行ったものを第3指標の値として出力する。判定部140が実行する重み付けの方法について説明する。
 例えば、図13の表を参照して説明する。利用者の姿勢が「仰臥位」のとき、第2算出部130が出力する波形に心拍の波形の載り方が小さくなる(第2算出部130が出力する波形は心拍成分を相対的少なく含む)。また、利用者の姿勢が「腹臥位」とのとき、第2算出部130が出力する波形に心拍の波形の載り方が小さくなる。また、利用者の姿勢が「側臥位」のとき、第2算出部130が出力する波形に心拍の波形の載り方が大きくなる(第2算出部130が出力する波形は心拍成分を相対的多く含む)。
 また、利用者の姿勢が「側臥位」について、とくに利用者の姿勢が「左側臥位」のとき、第2算出部130が出力する波形に、心拍の波形の載り方が大きくなる。
 また、利用者の姿勢が「右側臥位」のとき、利用者の姿勢が「仰臥位」「腹臥位」のときに比べると、第2算出部130が出力する波形に、心拍の波形の載り方が大きくなる。しかし、利用者の姿勢が「右側臥位」のとき、「左側臥位」の利用者の姿勢と比較すると、第2算出部130が出力する波形に、心拍波形の載り方は小さくなる。
 したがって、利用者の姿勢が「側臥位」の場合、判定部140は、出力値を第3指標の値としてそのまま出力する。また、利用者の姿勢が「仰臥位」、「腹臥位」と場合、判定部140は、第3指標の値を小さく(例えば、「0.1」倍としたり、「0」であったり等)出力する。
 (4)第4指標算出(ステップS212)
 判定部140は、心拍の波形における山、谷の形状に関する第4指標を算出する。波形における谷から山になる部分は、例えば図14の時間t1→t2の部分である。また、山から谷になる部分は、例えば図14の時間t2→t3の部分である。これらの波形が変化する部分は、振動の遷移(圧力の遷移)を示しており、通常利用者の呼気/吸気に対応する。
 判定部140は、1周期の呼吸(谷から谷、もしくは、山から山)ごとに、谷から山になる第1時間と、山から谷になる第2時間とが、2つのセンサ間(振動センサ320a、振動センサ320b)でどの程度一致しているかを評価する。判定部140は、例えば振動センサ320aの1周期における第1時間の割合と振動センサ320bの1周期における第1時間の割合が所望の範囲であれば振動センサ320a、320bは一致している(同じペアとなるともいう)と評価する。
 判定部140は、姿勢判定区間内に含まれる各周期で2つのセンサ(振動センサ320a、振動センサ320b)において同じペアとなる割合に基づいて第4指標の値を算出する。判定部140は、姿勢判定区間内に含まれる周期のうち、同じペアとなる周期が所望の閾値を超えている場合に、2つのセンサ間(振動センサ320a、振動センサ320b)で一致していると評価する。
 図13を参照すると、利用者の姿勢が「仰臥位」の場合は、2つのセンサ間の波形の変化が同じとなる。また、利用者の姿勢が「腹臥位」の場合は、2つのセンサ間の波形の変化が同じとなる。したがって、判定部140は、姿勢判定区間内において、2つのセンサの時間の対応関係が同じペアとなる割合を第4指標の値としてそのまま出力する。また、利用者の姿勢が「側臥位」の場合は、2つのセンサ間の波形の変化が同じ場合もあれば反対となってしまう場合もある。そこで、判定部140は、姿勢判定区間内に含まれる同じペアの割合を「0.5」倍したものを第4指標の値として出力する。
 (5)第5指標算出(ステップS214)
 判定部140は、波形における谷から山の第1時間と、山から谷の第2時間との比較結果を第5指標として算出する。
 このとき、判定部140は、波形から、姿勢判定区間内に含まれる1周期の呼吸(谷から谷、もしくは、山から山)ごとに、谷から山の第1時間と、山から谷の第2時間の長さを比較し、第1時間の長さが「短」く第2時間の長さが「長」くなる部分(「短→長」)を判定する。そして、判定部140は、姿勢判定区間内において、2つのセンサ(振動センサ320a、振動センサ320b)において、共に時間の長さが「短→長」の関係となるペアの割合に基づいて第5指標の値を算出する。
 例えば、判定部140は、姿勢判定区間内に含まれる「第1時間が第2時間より短い呼吸」をカウントして一致している割合を第5指標の値として出力する。
 図13を参照すると、利用者の姿勢が「仰臥位」の場合、波形に「短→長」の関係となる部分が多くみられる。そこで、判定部140は、姿勢判定区間内において、2つのセンサがペアとなる割合から「0.5」を減じた値を第5指標の値として出力する。また、判定部140は、利用者の姿勢が「腹臥位」と、利用者の姿勢が「側臥位」とでは、波形に特徴が出にくい。したがって、判定部140は、第5指標の値は出力しない。すなわち、判定部140は、第5指標の値として「0」を出力する。
 このように、各指標値を利用して利用者の姿勢を判定することが可能となり、判定部140は、より適切な利用者の姿勢を判定することが可能となる。
 なお、本実施形態においても、判定部140は、第2算出部130が振動データに基づいて算出した波形を利用して姿勢を判定した。しかし、判定部140は、単純に振動データに基づいて利用者の姿勢を判定してもよい。すなわち、図12の処理において、判定部140はステップS204を実行せず、ステップS202からステップS206に処理を遷移してもよい。
 例えば、判定部140は、振動データを周波数分析することで第3指標を出力することができる。また、判定部140は、第5指標を出力するとき、波形の山や谷は、振動データの最大値(近傍)、最小値(近傍)が抽出できれば、波形と同様に判定することができる。
 [3.第3実施形態]
 つづいて、第3実施形態について説明する。本実施形態は、判定部140が、人工知能(機械学習)を用いて利用者の姿勢を判定する場合について説明する。
 本実施形態は、図5の処理の代わりに、図15の推測部700に基づいて利用者の状態の1つである利用者の姿勢を推測する。
 ここで、本実施形態における推測部700の動作について説明する。推測部700は、振動データや、利用者の状態を入力値(入力データ)とし、人工知能や各種統計指標を利用することにより、利用者の姿勢を推測する。
 図15に示すように、推測部700は、抽出部710と、識別部720と、識別辞書730(学習モデル)と、出力部740とが含まれている。
 まず、推測部700は、種々のパラメータが入力され、利用される。例えば、本実施形態は、振動データと、振動データから算出される波形データとを推測部700に入力する。
 そして、抽出部710は、入力されたデータの各特徴点を抽出し、特徴ベクトルとして出力する。ここで、抽出部710が、特徴点として抽出する内容は、例えば以下のものが考えられる。
 (1)センサ内の相関があるかないか
 (2)センサ間の相関があるかないか
 (3)心拍波形が波形データに載っているか否か
 (4)呼吸波形の谷から山の時間が山から谷の時間に対して短いか長いか
 (5)2山波形の出現率が多いか少ないか
 (6)波形データにおいて、中央線から上下の面積の差があるかないか
 (7)センサ間の心拍波形の違い・載り方に差はあるかないか
 抽出部710は、これらの内容の特徴点を1又は複数組み合わせることにより、特徴ベクトルを出力する。なお、特徴点として上記に説明したものは例であり、他にも特徴点として抽出する内容を組み合わせてもよい。また、抽出部710が、特徴点として出力する値は、説明の都合上、便宜的な値である。そして、抽出部710は、該当する特徴点の値を「1」、非該当の特徴点の値を「0」として出力する。なお、抽出部710は、特徴点の値として確率変数を出力してもよい。
 そして、上述した特徴点を全て含む場合は、特徴空間は7次元であり、抽出部710は、7次元の特徴ベクトルとして識別部720に出力する。
 識別部720は、入力された特徴ベクトルから、利用者の状態に対応するクラスを識別する。このとき、識別部720は、識別辞書730として、事前に用意した複数のプロトタイプと照合することにより、クラスを識別する。プロトタイプは、各クラスに対応する特徴ベクトルとして記憶していても良いし、クラスを代表する特徴ベクトルを記憶していてもよい。
 識別辞書730にクラスを代表する特徴ベクトルが記憶されている場合、識別部720は、最も近いプロトタイプの属するクラスを決定する。このとき、識別部720は、最近傍決定則によりクラスを決定してもよいし、k近傍法により識別してクラスを決定してもよい。
 なお、識別部720が利用する識別辞書730は、予めプロトタイプを記憶してもよいし、機械学習を利用して新たに記憶したり、随時更新したりしても良い。
 そして、識別部720により識別されたクラスに対応して、出力部740は利用者の状態の1つとして(寝)姿勢を出力する。出力部740が出力する利用者の状態は、「仰臥位」「腹臥位」「側臥位」等を識別して出力してもよいし、そのまま確率変数を出力してもよい。
 これにより、本実施形態によれば、判定部140は、センサから出力された振動データを取得し、これらの情報から、機械学習を利用して利用者の姿勢を推測することが可能となる。
 [4.第4実施形態]
 第4実施形態について説明する。第4実施形態は、第3実施形態の推測部700が、ニューラルネットワークを利用したディープラーニングを利用して利用者の姿勢を推測する場合の実施形態である。
 本実施形態では、推測部700に、利用者の波形データを入力する。推測部700は、入力された波形データから利用者状態(姿勢)を推測する。推測部700は、推測する処理としては、ディープラーニングを利用する。なお、ディープラーニング(ディープニューラルネットワーク)を利用した処理は、特に画像認識において高い精度で推測することができる。図16は、推測部700が、ディープラーニングを利用して推測する処理を説明する図である。
 まず、推測部700は、第2算出部130により出力される波形データ(画像データ)の信号を、複数の層と、各層に含まれるニューロンによって構成されるニューラルネットワークに入力する。各ニューロンは別の複数のニューロンから信号を受け取り、演算を施した信号を別の複数のニューロンへ出力する。ニューラルネットワークが多層構造の場合、信号が流れる順に、入力層、中間層(隠れ層)、出力層と呼ばれる。
 ニューラルネットワークの中間層が複数の層からなっているものはディープニューラルネットワーク(例えば、畳み込み演算を持つConvolutional Neural Network(畳み込みニューラルネットワーク))と呼ばれ、これを用いた機械学習の手法をディープラーニングと呼ぶ。
 波形データは、ニューラルネットワークの各層のニューロンに各種演算(畳み込み演算、プーリング演算、正規化演算、行列演算等)が施され、形を変えながら流れ、出力層から複数の信号が出力される。
 ニューラルネットワークからの複数の出力値は、それぞれ、利用者の姿勢に紐づいている。推測部700は、利用者の姿勢を、値が最も大きい出力値に紐づく利用者の姿勢として推測する。また、推測部700は、利用者の状態である姿勢を直接出力しなくとも、一又は複数の出力値を分類器に通して、分類器の出力から利用者の姿勢を推測してもよい。
 ニューラルネットワークの各種演算に用いる係数であるパラメータとして、事前にニューラルネットワークへ数多くの波形データと、当該波形データにおける対応する利用者の姿勢とを入力される。また、ニューラルネットワークの出力値と、正解値との誤差を、誤差逆伝播法により、ニューラルネットワークを逆方向に伝搬する。これにより、各層のニューロンのパラメータが何度も更新されて決まる。このように、パラメータを更新し、決める工程を学習と呼ぶ。
 ニューラルネットワークの構造や、個々の演算については、書籍や論文で解説された公知技術であり、その何れかの技術を利用すれば良い。
 このように、推測部700を利用することにより、センサから出力された振動データから算出された振動波データ(波形データ)を参照することにより、利用者の姿勢が出力される。
 なお、本実施形態では、推測部700が、波形の画像データとしてニューラルネットワークを利用して推測する例を説明した。その他にも、推測部700が、単に振動データ(時系列の電圧出力値)を入力し、学習させることで利用者の姿勢を推測してもよい。また、推測部700が、フーリエ変換や離散コサイン変換で周波数領域の信号に変換したデータを入力し、学習させることで利用者の姿勢を推測してもよい。
 [5.適用例]
 上述した姿勢判定装置については、他の装置に組み込むことで以下のような適用例が考えられる。
 [5.1 ベッド]
 図17にベッドの構成を示す。ベッド10は、背ボトム12と、腰ボトム14と、膝ボトム16と、足ボトム18とを有している。利用者Pは、背ボトム12により上体が支持され、腰ボトム14により、腰部が支持されている。
 駆動制御部1000は、ベッドの駆動を制御する。ここで、駆動制御部1000は、ボトムを動作させることにより、背上げ、膝上げ(足下げ)機能等を制御するためのボトム制御部1100の機能を含む。
 背上げ機能を実現するために、ボトム制御部1100は、背ボトム駆動部1110と、膝ボトム駆動部1120とに接続される。背ボトム駆動部1110は、例えば、アクチュエータであり、リンク機構を介して背上げ用のリンクと連結される。そして、背ボトム駆動部1110は、リンクにより載置された背ボトム12の動作を制御する。背ボトム駆動部1110は背上げ・背下げ制御を行う。
 また、膝ボトム駆動部1120は、例えば、アクチュエータである。膝ボトム駆動部1120は、リンク機構を介して膝上げ用のリンクと連結される。そして、膝ボトム駆動部1120は、リンクに載置された膝ボトム16と、更に連結された足ボトム18との動作を制御する。膝ボトム駆動部1120は膝上げ・膝下げ(足下げ・足上げ)制御を行う。
 そして、ベッドが背上げ動作を行う場合、ボトム制御部1100は、判定部140(又は推測部700)が利用者の姿勢を「腹臥位」と判定した場合、背上げ動作を行わない。すなわち、利用者が背上げ動作を選択しても、ボトム制御部1100は、背ボトム駆動部1110を駆動させず、背上げ動作を行わない。また、ベッドが自動運転の場合にも、判定部140(又は推測部700)が利用者の姿勢を「腹臥位」と判定した場合、ボトム制御部1100は、背上げ動作を行わない。
 この場合の動作について、図18を参照して説明する。まず、制御部100は、利用者により動作が選択されたか否かを判定する(ステップS302)。例えば、入力部160(操作リモコン)により、利用者により背上げボタンが選択される。これにより、背上げ動作が選択されたと制御部100は判定する。
 つづいて、制御部100(判定部140)は、姿勢判定処理を実行する(ステップS304)。姿勢判定処理は、判定部140により、上述した何れかの姿勢判定処理を実行し、ベッド上の利用者の姿勢を判定する。また、姿勢判定処理は、推測部700により利用者の姿勢を判定してもよい。
 ここで、制御部100は、利用者の姿勢が特定の姿勢になっているか否かを判定する(ステップS306)。本適用例では、制御部100は、利用者の姿勢が「腹臥位」であれば背上げ動作を実行しない(ステップS306;Yes)。それ以外の姿勢であれば、制御部100は、ボトム制御部1100(背ボトム駆動部1110)に指示を出すことで、背上げ動作を実行する(ステップS306;No→ステップS308)。
 そして、利用者により背上げ動作が解除される(例えば、利用者により中止操作がされたり、背上げボタンが解除されたりする等)と、制御部100は、背上げ動作を停止する(ステップS310;Yes→ステップS312)。
 また、制御部100は、背上げ動作中に、利用者の姿勢が特定姿勢となった場合(例えば、背上げ動作中に腹臥位となってしまった場合)にも背上げ動作を停止する(ステップS306;Yes→ステップS312)。
 [5.2 ***変換装置]
 利用者の***を変換する***変換装置において、姿勢判定装置を適用する。例えば、制御部100は、褥瘡リスク把握のため、***変換(姿勢変換)の頻度や、姿勢ごとの割合を自動記憶する。すなわち、制御部100は、判定部140により判定された利用者の姿勢を自動的に記憶することで、介護や治療に活用することができる。
 また、***変換装置は、判定部140が判定した利用者の姿勢が同一の状態で所定時間を経過したとき、報知したり、自動的に***変換を行ったりする。例えば、図17に示すように、制御部100、駆動制御部1000は、***変換駆動部1200を制御する。***変換駆動部1200は、例えば利用者の左右に設けられたエアセルを膨縮させたり、左右のボトムを起伏させたりすることにより、利用者の***を変換する。
 駆動制御部1000は、判定部140が判定した姿勢に応じて、***変換駆動部1200を制御し、利用者Pの***を変える制御を行う。
 例えば、図18の処理を例に説明する。利用者により***変換の動作が選択されると(ステップS302;Yes)、判定部140は、上述した何れかの方法により利用者の姿勢を判定する(ステップS304)。
 ここで、***変換駆動部1200は、判定部140が判定した姿勢に応じて処理を実行する。例えば、利用者が右側臥位の姿勢であれば、***変換駆動部1200は、右側に設けられたエアセルを制御する。利用者は***変換を行う。また、利用者が左側臥位の姿勢であれば、***変換駆動部1200は、左側に設けられたエアセルを制御する。利用者は***変換を行う。また、***変換駆動部1200は、利用者が腹臥位であれば左右いずれのエアセルも制御しない。利用者は***変換を行わない。
 また、判定部140は、利用者の姿勢が所定時間、同じ姿勢で継続していると判定した場合、***変換駆動部1200によって***変換を行ってもよい。例えば、***変換駆動部1200は、判定部140が判定した利用者の姿勢が、同じ姿勢で10分以上継続している場合、***変換を行う。
 また、判定部140は、振動波データ(波形データ)の変化があったことを判定し、***変換駆動部1200によって利用者は***変換を行ってもよい。すなわち、判定部140は、振動波データ(波形データ)の変化があった場合、利用者の姿勢に変化があったと判定する。利用者の姿勢に変化があった場合に***変換を行う。これにより、利用者の麻痺側のない箇所の褥瘡予防において、当該***変換は有効に活用できる。
 [5.3 報知装置]
 報知装置は、判定部140により判定された利用者の姿勢に応じて報知を行う。報知装置が報知する方法としては、音声出力装置による音声による報知や、表示装置による表示(光)による報知であってもよい。また、報知装置は、他の端末装置(例えば医療従事者が所持している携帯端末装置)に報知してもよい。
 報知装置が報知するタイミングとしては、以下のタイミングが考えられる。例えば、利用者に麻痺がある場合、麻痺側を下にすると褥瘡リスクが高まる。したがって、判定部140が判定した姿勢が、麻痺側が下になる側臥位のとき、報知装置から報知を行う。
 また、乳幼児がうつ伏せに寝ることで、窒息死のリスクが高まる。したがって、判定部140が判定した利用者(乳幼児)の姿勢が腹臥位の場合、窒息死防止のため報知装置から報知を行う。
 [6.変形例]
 以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。
 また、本実施形態においては、検出装置3で出力された結果に基づき、処理装置5において利用者の姿勢を判定しているが、1つの装置で全て判定してもよい。また、端末装置(例えばスマートフォン、タブレット、コンピュータ)にアプリケーションをインストールして実現するだけでなく、例えばサーバ側で処理をして、処理結果を端末装置に返しても良い。
 例えば、検出装置3から、振動データをサーバにアップロードすることで、サーバ側で上述した処理を実現してもよい。この検出装置3は、例えば加速度センサ、振動センサを内蔵したスマートフォンのような装置で実現してもよい。
 また、上述した実施形態において、振動センサは2つあることとして説明したが、それ以上設けられても良い。また、第1実施形態の周波数分布を算出して姿勢を判定する方法においては、センサが1つでも実現可能である。
 また、実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、各種ROMやHDD、SSDの記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行なわれる。
 また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバコンピュータの記憶装置も本発明に含まれるのは勿論である。
1 システム
3 検出装置
5 処理装置
10 ベッド
12 背ボトム
14 腰ボトム
16 膝ボトム
18 足ボトム
20 マットレス
100 制御部
110 検出部
120 第1算出部
130 第2算出部
135 第3算出部
140 判定部
150 記憶部
152 振動データ記憶領域
154 波形データ記憶領域
160 入力部
170 出力部
700 推測部
710 特徴抽出部
720 識別部
730 識別辞書
740 出力部

Claims (9)

  1.  利用者の臥床時における振動を検出できる少なくとも2つの振動センサと、
     複数の前記振動から複数の波形を算出し、前記複数の波形の特徴に基づいて、前記臥床時における前記利用者の姿勢を判定する制御部と、
     を備えることを特徴とする姿勢判定装置。
  2.  前記制御部は、
     前記振動センサの自己の振動センサ内の波形に基づく相関及び/又は2つの振動センサの波形に基づく相関から、前記臥床時における利用者の姿勢を判定することを特徴とする請求項1に記載の姿勢判定装置。
  3.  前記制御部は、
     前記波形の周波数分布を算出し、当該算出された周波数分布に基づいて前記臥床時における利用者の姿勢を判定することを特徴とする請求項1又は2に記載の姿勢判定装置。
  4.  利用者の臥床時における振動を検出できる少なくとも2つの振動センサと、
     複数の前記振動の周波数分布を算出し、当該算出された周波数分布に基づいて、前記臥床時における前記利用者の姿勢を判定する制御部と、
     を備えることを特徴とする姿勢判定装置。
  5.  前記制御部は、
     前記振動センサにより、利用者の体動が検出されたとき以外で、前記臥床時の利用者の姿勢を判定することを特徴とする請求項1から4の何れか一項に記載の姿勢判定装置。
  6.  1又は複数のボトムを駆動するベッドと接続可能であって、
     前記制御部は、前記判定した利用者の姿勢に応じて、前記ボトムの駆動を制御することを特徴とする請求項1から5の何れか一項に記載の姿勢判定装置。
  7.  前記ボトムは背ボトムであり、
     前記制御部は、前記判定された利用者の姿勢に応じて、前記背ボトムの背上げ動作を制御することを特徴とする請求項6に記載の姿勢判定装置。
  8.  前記制御部は、前記利用者の姿勢が腹臥位のとくに、前記背上げ動作を実行する制御を行うことを特徴とする請求項7に記載の姿勢判定装置。
  9.  ***変換装置と接続可能であって、
     前記制御部は、前記判定した利用者の姿勢に応じて、前記***変換装置により***変換の制御を行うことを特徴とする請求項1から8の何れか一項に記載の姿勢判定装置。
PCT/JP2018/044804 2017-12-07 2018-12-05 姿勢判定装置 WO2019111977A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202310291475.XA CN116059051A (zh) 2017-12-07 2018-12-05 床***
US16/496,550 US11510594B2 (en) 2017-12-07 2018-12-05 Posture determination apparatus
CN201880020409.6A CN111417343B (zh) 2017-12-07 2018-12-05 姿势判定装置
US17/972,012 US11813055B2 (en) 2017-12-07 2022-10-24 Posture determination apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-235410 2017-12-07
JP2017235410A JP7066389B2 (ja) 2017-12-07 2017-12-07 姿勢判定装置

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/496,550 A-371-Of-International US11510594B2 (en) 2017-12-07 2018-12-05 Posture determination apparatus
US17/972,012 Continuation US11813055B2 (en) 2017-12-07 2022-10-24 Posture determination apparatus

Publications (1)

Publication Number Publication Date
WO2019111977A1 true WO2019111977A1 (ja) 2019-06-13

Family

ID=66751562

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/044804 WO2019111977A1 (ja) 2017-12-07 2018-12-05 姿勢判定装置

Country Status (4)

Country Link
US (2) US11510594B2 (ja)
JP (1) JP7066389B2 (ja)
CN (2) CN116059051A (ja)
WO (1) WO2019111977A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112650157A (zh) * 2019-10-11 2021-04-13 八乐梦床业株式会社 控制装置

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11071668B1 (en) * 2018-06-04 2021-07-27 Encompass Group, Llc. Hospital bed with inflatable bladders with random inflation and related methods
JP2020151001A (ja) * 2019-03-18 2020-09-24 パナソニック株式会社 生体情報特定システム及び方法
JP6893528B2 (ja) * 2019-04-15 2021-06-23 ミネベアミツミ株式会社 生体情報モニタリングシステム、生体情報モニタリング方法、及びベッドシステム
US20230056977A1 (en) * 2020-01-31 2023-02-23 Karlos Ishac Posture detection system and posture detection method
EP3882114B1 (en) * 2020-03-19 2023-09-20 Honda Research Institute Europe GmbH System for estimating riding posture
JP7127905B1 (ja) 2021-07-14 2022-08-30 株式会社フューチャーインク 機械学習を用いて対象者の***を判定する装置、方法及びプログラム
CN114557570A (zh) * 2022-03-09 2022-05-31 湖南晚安床垫有限公司 智能床垫的自适应调整方法、智能床垫及存储介质
WO2024128038A1 (ja) * 2022-12-12 2024-06-20 積水化学工業株式会社 情報処理システム、情報処理装置、制御方法、およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001095858A (ja) * 1999-03-25 2001-04-10 Matsushita Seiko Co Ltd 身体を動作させる装置
JP2005144042A (ja) * 2003-11-19 2005-06-09 Denso Corp 生体情報表示装置、寝姿及び***検出装置
JP2008110031A (ja) * 2006-10-30 2008-05-15 Aisin Seiki Co Ltd 寝姿勢判定装置
JP2012152283A (ja) * 2011-01-24 2012-08-16 Jepico Corp 生体信号検出装置及び離床予兆検出システム

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3543392B2 (ja) * 1994-11-11 2004-07-14 松下電器産業株式会社 睡眠時呼吸情報測定装置
US6874181B1 (en) * 1995-12-18 2005-04-05 Kci Licensing, Inc. Therapeutic bed
US7306564B2 (en) * 2003-11-26 2007-12-11 Denso Corporation Breath monitor
JP2005237479A (ja) * 2004-02-24 2005-09-08 Paramount Bed Co Ltd 姿勢判断装置、姿勢判断による床ずれ予防装置、姿勢判断方法及び姿勢判断による床ずれ予防方法
JP2005270627A (ja) * 2004-02-25 2005-10-06 Paramount Bed Co Ltd 気道確保ベッド及び気道確保方法
JP2005253608A (ja) * 2004-03-10 2005-09-22 Sumitomo Osaka Cement Co Ltd 状態解析装置
US7792583B2 (en) * 2004-03-16 2010-09-07 Medtronic, Inc. Collecting posture information to evaluate therapy
WO2006088280A1 (en) 2005-02-17 2006-08-24 Seoul National University Industry Foundation Apparatus for analyzing a sleep structure according to non-constrained weight detection
JP4964477B2 (ja) * 2005-02-23 2012-06-27 パナソニック株式会社 生体情報検出装置及び該方法
JP4566090B2 (ja) 2005-08-09 2010-10-20 パラマウントベッド株式会社 動作支援ベッド
JP2007061439A (ja) * 2005-08-31 2007-03-15 Toshiba Corp 生体情報測定装置および生体情報計測方法
JP5224462B2 (ja) * 2009-02-06 2013-07-03 公立大学法人首都大学東京 身体情報測定装置および身体情報測定システム
JP2011120667A (ja) 2009-12-09 2011-06-23 Aisin Seiki Co Ltd 在床状態検出装置
CN103608854B (zh) 2011-05-30 2016-12-28 皇家飞利浦有限公司 用于在睡眠时检测身体姿势的设备和方法
JP5788293B2 (ja) * 2011-10-31 2015-09-30 オムロンヘルスケア株式会社 睡眠評価装置および睡眠評価用プログラム
US9198815B2 (en) * 2011-11-22 2015-12-01 Paramount Bed Co., Ltd. Bed device
CN107736969A (zh) 2012-08-18 2018-02-27 有限会社知财经营社 睡眠姿势控制床***
JP6123450B2 (ja) 2013-04-16 2017-05-10 富士通株式会社 生体情報取得装置、方法及びプログラム
CN106333667B (zh) * 2013-06-03 2019-07-05 飞比特公司 可佩戴心率监视器
JP2015006210A (ja) * 2013-06-24 2015-01-15 住友理工株式会社 呼吸状態検出装置
WO2015186182A1 (ja) * 2014-06-02 2015-12-10 住友理工株式会社 姿勢判定装置および姿勢判定方法
WO2016033121A1 (en) * 2014-08-25 2016-03-03 Georgia Tech Research Corporation Noninvasive systems and methods for monitoring health characteristics
WO2016053398A1 (en) * 2014-09-30 2016-04-07 Darma Inc. Systems and methods for posture and vital sign monitoring
JP6766052B2 (ja) * 2015-01-27 2020-10-07 アップル インコーポレイテッドApple Inc. 睡眠の質を決定するためのシステム及び方法
JP2016192998A (ja) 2015-03-31 2016-11-17 株式会社デンソー 報知装置
WO2017018506A1 (ja) 2015-07-30 2017-02-02 ミネベア株式会社 身体状況検知装置、身体状況検知方法及びベッドシステム
JP6763749B2 (ja) * 2015-11-05 2020-09-30 セイコーインスツル株式会社 移動体制御システム及び移動体
KR102570068B1 (ko) * 2015-11-20 2023-08-23 삼성전자주식회사 동작 인식 방법, 동작 인식 장치 및 웨어러블 장치
JP6240237B2 (ja) * 2016-02-26 2017-11-29 パラマウントベッド株式会社 エアセル制御装置、プログラム及びエアセル制御システム
CN106361330B (zh) * 2016-09-21 2019-02-26 广州视源电子科技股份有限公司 智能辅助睡眠中的催眠状态识别方法和***
CN106730238B (zh) * 2016-12-30 2020-03-10 清华大学 一种环境自适应的智能辅助睡眠装置及方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001095858A (ja) * 1999-03-25 2001-04-10 Matsushita Seiko Co Ltd 身体を動作させる装置
JP2005144042A (ja) * 2003-11-19 2005-06-09 Denso Corp 生体情報表示装置、寝姿及び***検出装置
JP2008110031A (ja) * 2006-10-30 2008-05-15 Aisin Seiki Co Ltd 寝姿勢判定装置
JP2012152283A (ja) * 2011-01-24 2012-08-16 Jepico Corp 生体信号検出装置及び離床予兆検出システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112650157A (zh) * 2019-10-11 2021-04-13 八乐梦床业株式会社 控制装置

Also Published As

Publication number Publication date
CN111417343B (zh) 2023-04-14
JP7066389B2 (ja) 2022-05-13
CN116059051A (zh) 2023-05-05
US20210106256A1 (en) 2021-04-15
CN111417343A (zh) 2020-07-14
US11813055B2 (en) 2023-11-14
JP2019098069A (ja) 2019-06-24
US20230037703A1 (en) 2023-02-09
US11510594B2 (en) 2022-11-29

Similar Documents

Publication Publication Date Title
WO2019111977A1 (ja) 姿勢判定装置
JP6594399B2 (ja) 生体情報モニタリングシステム
US11510613B2 (en) Biological condition determining apparatus and biological condition determining method
US20200029832A1 (en) Abnormality reporting device, recording medium, and abnormality reporting method
Enayati et al. Sleep posture classification using bed sensor data and neural networks
JP6122188B1 (ja) 身体状況検知装置、身体状況検知方法及びベッドシステム
WO2017018506A1 (ja) 身体状況検知装置、身体状況検知方法及びベッドシステム
CN111916211A (zh) 一种适用于失能老人的安全监护***和方法
CN109758281B (zh) 一种基于身***置调节的安全***
JP6284574B2 (ja) 生体情報モニタリングシステム
Adami et al. A method for classification of movements in bed
Dutta et al. Using Fuzzy Logic for Decision Support in Vital Signs Monitoring.
JP7034687B2 (ja) 異常報知装置及びプログラム
JP7497497B2 (ja) システム
JP7320241B2 (ja) 情報処理装置、褥瘡リスク評価方法及び褥瘡リスク評価プログラム
Adami et al. A system for assessment of limb movements in sleep
KR102687254B1 (ko) 수면 상태 측정장치 및 방법, 위상 코히어런스 산출 장치, 생체 진동신호 측정 장치, 스트레스 상태 측정 장치 및 수면 상태 측정 장치 및 심박 파형 추출 방법
Adami et al. Gaussian model for movement detection during Sleep
JP2023111448A (ja) 判定装置及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18884989

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18884989

Country of ref document: EP

Kind code of ref document: A1