WO2015145573A1 - 認知度推定装置 - Google Patents

認知度推定装置 Download PDF

Info

Publication number
WO2015145573A1
WO2015145573A1 PCT/JP2014/058292 JP2014058292W WO2015145573A1 WO 2015145573 A1 WO2015145573 A1 WO 2015145573A1 JP 2014058292 W JP2014058292 W JP 2014058292W WO 2015145573 A1 WO2015145573 A1 WO 2015145573A1
Authority
WO
WIPO (PCT)
Prior art keywords
recognition
unit
degree
measurement
subject
Prior art date
Application number
PCT/JP2014/058292
Other languages
English (en)
French (fr)
Inventor
将光 奥田
Original Assignee
株式会社安川電機
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社安川電機 filed Critical 株式会社安川電機
Priority to PCT/JP2014/058292 priority Critical patent/WO2015145573A1/ja
Priority to JP2016509881A priority patent/JP6390698B2/ja
Priority to PCT/JP2014/073703 priority patent/WO2015145810A1/ja
Publication of WO2015145573A1 publication Critical patent/WO2015145573A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6895Sport equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/22Ergometry; Measuring muscular strength or the force of a muscular blow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/10Athletes

Definitions

  • the present invention relates to a recognition degree estimation device for estimating recognition degree.
  • Patent Document 1 describes an apparatus that measures the exercise ability of a subject based on the movement of the center of gravity.
  • one side of this invention aims at providing the recognition degree estimation apparatus which can estimate a subject's recognition degree.
  • a recognition level estimation apparatus includes an athletic ability measurement unit that measures athletic ability of a subject, and an awareness level that estimates the degree of recognition of the subject based on the athletic ability measured by the athletic ability measurement unit.
  • An estimation unit An estimation unit.
  • the recognition degree estimation device may further include a recognition degree prediction unit that predicts the future recognition degree of the target person based on the recognition degree estimated by the recognition degree estimation unit.
  • the recognition level estimation device may further include an output unit that outputs the recognition level estimated by the recognition level estimation unit.
  • the recognition degree estimation device may further include an output unit that outputs at least one of the recognition degree estimated by the recognition degree estimation unit and the future recognition degree predicted by the recognition degree prediction unit.
  • the recognition level estimation device may further include a determination unit that determines a training menu based on the recognition level estimated by the recognition level estimation unit, and the output unit may further output the training menu determined by the determination unit. .
  • the determining unit may further determine the training menu based on the athletic ability measured by the athletic ability measuring unit.
  • the recognition level estimation device includes an acquisition unit that acquires identification information of a subject who measures athletic ability by the athletic ability measurement unit, the identification information acquired by the acquisition unit, and the recognition level estimated by the recognition level estimation unit.
  • a storage unit that stores the information in association with each other and an extraction unit that extracts the past degree of recognition of the target person from the storage unit based on the identification information acquired by the acquisition unit, and the output unit is extracted by the extraction unit
  • the past degree of recognition may be further output.
  • the output unit may further output the athletic ability measured by the athletic ability measuring unit.
  • the athletic ability measuring unit may measure athletic ability based on a change in the position of the center of gravity of the subject.
  • a recognition degree estimation device capable of estimating the recognition degree of a subject.
  • FIG. It is a perspective view which shows schematic structure of the recognition degree estimation apparatus which concerns on one Embodiment.
  • (A) is a top view showing a schematic configuration of the measurement unit
  • (b) is a side view showing a schematic configuration when the measurement unit is viewed from the rear side
  • (c) is a schematic configuration when the measurement unit is viewed from the right side.
  • FIG. It is a block diagram which shows the hardware constitutions of a control part. It is a block diagram which shows the structure of a control part. It is a flowchart which shows the flow of an estimation process of recognition.
  • the recognition degree estimation device 1 shown in FIG. 1 performs estimation and prediction of the recognition degree of the target person.
  • the degree of recognition refers to the degree (level) at which the subject (human) can judge and interpret what the subject is after perceiving the subject in the outside world.
  • the degree-of-recognition estimation apparatus 1 includes a measurement unit (motor ability measurement unit) 10, a main body unit 20, a support column 30, a handrail 40, a display unit (output unit) 50, a control unit 60 (see FIG. 3), and a card reader 70. It is comprised including.
  • the measuring unit 10 measures the change (swing) of the center of gravity of the subject as the subject's ability to exercise.
  • the side on which the display unit 50 is provided with respect to the measurement unit 10 is “front”, and the side opposite to the side on which the display unit 50 is provided with respect to the measurement unit 10.
  • the right hand side is referred to as “right” and the left hand side is referred to as “left”.
  • the measurement unit 10 includes a bottom plate 110, a lower motor 111, a lower gear 113, a joint portion 120, an inclined plate 150, and an upper motor 151.
  • the upper gear 153 and the sensor 155 are included.
  • the inclined plate 150 is not shown in order to show the structure of the joint portion 120 and the like.
  • the inclined plate 150 is formed in a rectangular shape.
  • a sensor 155 is provided on the upper surface of the inclined plate 150.
  • the sensor 155 can measure the position of the center of gravity of the subject standing on the inclined plate 150.
  • the detection result of the sensor 155 is input to the control unit 60.
  • the type and installation position of the sensor 155 are not limited.
  • the sensor 155 for example, a sheet-like sensor in which a large number of load sensors for measuring the magnitude of the load are arranged in a matrix (lattice) can be used.
  • the joint part 120 supports the inclined plate 150 so as to be inclined at the position of the center point P of the inclined plate 150.
  • a gimbal mechanism can be used as the joint portion 120.
  • the joint portion 120 supports the inclined plate 150 so as to be tiltable in the front-rear direction and the left-right direction. That is, the inclined plate 150 can be inclined in all directions of front, rear, left and right.
  • the lower motor 111 is fixed to the upper surface of the bottom plate 110.
  • the lower motor 111 is driven based on an instruction from the control unit 60.
  • the lower gear 113 is rotatably attached to the upper surface of the bottom plate 110.
  • the driving force of the lower motor 111 is transmitted to the lower gear 113 via the motor gear 112 attached to the rotating shaft of the lower motor 111.
  • the driving force transmitted to the lower gear 113 is input to the front / rear rotating shaft portion 121 of the joint portion 120. Due to the driving force of the lower motor 111 input to the front / rear rotating shaft 121, the inclined plate 150 tilts to the right or left with the front / rear direction as an axis, as shown in FIG. 2 (b).
  • the upper motor 151 is fixed to the lower surface of the inclined plate 150.
  • the upper motor 151 is driven based on an instruction from the control unit 60.
  • the upper gear 153 is rotatably attached to the lower surface of the inclined plate 150.
  • the driving force of the upper motor 151 is transmitted to the upper gear 153 via the motor gear 152 attached to the rotating shaft of the upper motor 151.
  • the driving force transmitted to the upper gear 153 is input to the left and right rotation shaft portion 122 of the joint portion 120. Due to the driving force of the upper motor 151 input to the left and right rotation shaft portion 122, the inclined plate 150 is inclined forward or rearward with respect to the horizontal direction as shown in FIG. 2C.
  • the mechanism for inclining the inclined plate 150 in all directions is not limited to the configuration described in the present embodiment.
  • the measuring unit 10 can tilt the inclined plate 150 by the driving force of the lower motor 111 and the upper motor 151 as described above. Further, the measurement unit 10 can freely tilt the inclined plate 150 in the front-rear direction and the left-right direction with the center point P as a fulcrum without driving the lower motor 111 and the upper motor 151. That is, the inclined plate 150 can be freely inclined according to the position of the center of gravity of the subject who rides on the inclined plate 150.
  • the main body 20 surrounds the measurement unit 10.
  • the main-body part 20 is not limited to surrounding the circumference
  • a handrail 40 is attached to the upper surface of the main body 20 so as to surround the front side, the right side, and the left side of the subject on the measurement unit 10.
  • a support column 30 extending in the vertical direction is provided on the upper surface of the front side of the main body 20.
  • the display unit 50 is attached to the upper end of the support column 30.
  • the display unit 50 includes a touch panel sensor that can accept an input operation by pressing.
  • the display image displayed on the display unit 50 is controlled by the control unit 60.
  • the display unit 50 inputs the received input operation to the control unit 60.
  • an operation unit such as a switch for receiving an input operation may be provided separately from the display unit 50.
  • the card reader 70 reads the identification information from the card in which the identification information of the subject person is stored.
  • the card reader 70 may be attached to the upper part of the handrail 40, for example.
  • each subject owns a card in which identification information is stored.
  • the subject causes the card reader 70 to read the identification information stored in the card when the recognition degree estimation device 1 estimates the recognition degree.
  • various methods such as a non-contact method can be adopted. Thereby, the recognition degree estimation apparatus 1 can identify the target person.
  • the identification information of the subject acquired by the card reader 70 is input to the control unit 60. In addition to reading the identification information using the card reader 70, the subject may input the identification information by operating the input unit.
  • the control unit 60 is provided at an appropriate position of the recognition degree estimation device 1 such as in the housing of the display unit 50.
  • the control unit 60 physically includes, for example, a processor 61, a memory 62, an input / output unit (I / O) 63, a storage 64, and a bus 65 that connects these components to each other.
  • the processor 61 executes a program in cooperation with at least one of the memory 62 and the storage 64 and inputs / outputs data via the input / output unit 63 according to the execution result. Thereby, various functions of the control unit 60 are realized.
  • FIG. 4 shows various functions of the control unit 60 in virtual blocks (hereinafter referred to as “function blocks”).
  • the control unit 60 includes, as function blocks, a measurement management unit 201, a measurement result acquisition unit 202, a recognition degree estimation unit 203, a recognition degree prediction unit 204, a determination unit 205, a training information storage unit 206, and a display. It has a control unit 207, a motor control unit 208, an identification information acquisition unit (acquisition unit) 209, an extraction unit 210, a recognition degree storage unit (storage unit) 211, and a data table storage unit 212.
  • acquisition unit acquisition unit
  • extraction unit 210 extraction unit
  • recognition degree storage unit storage unit
  • data table storage unit 212 data table storage unit
  • each functional block is not limited to being realized by executing a program, and may be realized by a dedicated electric circuit (for example, a logic circuit).
  • the measurement management unit 201 manages the type of measurement when measuring the change in the center of gravity position of the subject standing on the inclined plate 150, and instructs the measurement. That is, the control unit 60 can execute management of the type of measurement when measuring a change in the center of gravity position of the subject standing on the inclined plate 150 and instructing the measurement.
  • the following first measurement to fourth measurement are performed as an example.
  • a change in the position of the center of gravity between when the subject's eyes are opened and when the eyes are closed is measured with the inclined plate 150 fixed (for example, fixed in a horizontal state).
  • a change in the position of the center of gravity of the subject is measured when the inclined plate 150 is tilted forward, backward, leftward, and rightward.
  • the inclined plate 150 is rotated so that the downward direction of the inclined inclined plate 150 rotates around the center point P in the order of front, right, back, left, front, for example. Measure the change in the center of gravity of the subject when tilted.
  • a change in the position of the center of gravity of the subject standing on the inclined plate 150 is measured in a state where the inclined plate 150 can be freely inclined.
  • the change in the center of gravity and the stepping tempo when the subject steps on the inclined plate 150 while the inclined plate 150 is fixed are measured.
  • the first measurement to the fourth measurement are performed in the order of the first measurement, the second measurement, the third measurement, and the fourth measurement.
  • the measurement management unit 201 outputs the type of measurement to be performed among the first measurement to the fourth measurement to the display control unit 207 and the motor control unit 208.
  • the display control unit 207 controls the display image of the display unit 50 based on the type of measurement input from the measurement management unit 201 so that the subject can understand the type of measurement to be performed. That is, the control unit 60 can control the display image of the display unit 50 so that the subject can grasp the type of measurement to be performed.
  • the motor control unit 208 controls the driving of the lower motor 111 and the upper motor 151 based on the type of measurement input from the measurement management unit 201. Thereby, the inclination of the inclined plate 150 is controlled according to the type of measurement performed by the subject, or the inclined plate 150 is fixed or the like.
  • the measurement result acquisition unit 202 acquires the measurement result of the change in the position of the center of gravity of the subject output from the sensor 155 during the first measurement to the fourth measurement. That is, the control unit 60 can acquire the measurement result of the change in the position of the center of gravity of the subject output from the sensor 155 during the first measurement to the fourth measurement.
  • the measurement result when performing the fourth measurement from the first measurement represents the exercise ability of the subject.
  • the recognition degree estimation unit 203 estimates the recognition degree of the target person based on the results of the first measurement to the fourth measurement. That is, the recognition degree estimation unit 203 can execute the recognition degree of the subject person based on the results of the first measurement to the fourth measurement.
  • the recognition degree estimation unit 203 uses the results of the first measurement to the fourth measurement as the motor ability of the subject, and estimates the recognition degree based on the results of the first measurement to the fourth measurement.
  • a data table in which the results of the first measurement to the fourth measurement and the degree of recognition are associated with each other is stored in advance in the data table storage unit 212.
  • This data table is generated by associating the degree of recognition obtained by the subject performing the five cog test with the measurement result obtained by the subject performing the fourth measurement from the first measurement.
  • a test subject here means the person who performs a 4th measurement from a five cog test and a 1st measurement in order to create a data table.
  • the data table is generated based on data about a plurality of subjects.
  • the five cognitive functions related to dementia are called five cognitive functions.
  • Five Cognitive Functions is called Five Cog.
  • the five cognitive functions related to dementia refer to “memory function”, “attention function”, “language function”, “visual space function”, and “thinking function”.
  • the five cog test is a test that measures these five cognitive functions.
  • all the measurement results from the first measurement to the fourth measurement are associated with the degree of recognition, but any one or more of all the measurement results from the first measurement to the fourth measurement are included.
  • the degree of recognition may be associated with each other.
  • the measurement management unit 201 may perform only the measurement associated with the degree of recognition among the first measurement to the fourth measurement.
  • the data table may be generated by associating a value obtained by performing statistical processing or the like on the result of the first measurement to the fourth measurement with the degree of recognition.
  • the association between the results of the first measurement to the fourth measurement and the degree of recognition can be performed by various methods.
  • the degree-of-recognition estimation unit 203 estimates the degree of recognition based on the data table stored in the data table storage unit 212 and the results of the first measurement to the fourth measurement acquired by the measurement result acquisition unit 202. .
  • the recognition degree estimation unit 203 acquires the identification information of the target person from the identification information acquisition unit 209.
  • the subject who intends to estimate the degree of recognition causes the card reader 70 to read the identification information stored in the card before the first measurement or the like.
  • the identification information acquisition unit 209 acquires the identification information read by the card reader 70.
  • the degree-of-recognition estimation unit 203 associates the estimated degree of recognition with the identification information of the subject acquired by the identification information acquisition unit 209.
  • the recognition degree estimation unit 203 stores the recognition degree associated with the identification information in the recognition degree storage unit 211. Note that the recognition degree estimation unit 203 may also store the results of the first measurement to the fourth measurement in the recognition degree storage unit 211 in association with the identification information.
  • the extraction unit 210 corresponds to the past (for example, the latest) among the recognition levels corresponding to the acquired identification information from the recognition level storage unit 211. Extract the attached recognition. In this way, the extraction unit 210 extracts the degree of recognition estimated in the past in the target person who estimates the degree of recognition. That is, the control unit 60 can perform the extraction of the degree of recognition estimated in the past in the target person who estimates the degree of recognition.
  • the recognition degree prediction unit 204 predicts the future recognition degree of the target person based on the recognition degree estimated by the recognition degree estimation unit 203.
  • the recognition degree may be predicted based on a comparison result between the recognition degree estimated by the recognition degree estimation unit 203 and the past recognition degree extracted by the extraction unit 210. Further, the prediction of the degree of recognition may be performed based on the degree of recognition estimated by the degree-of-recognition estimation unit 203 and a pattern of temporal change in the degree of recognition determined in advance. Alternatively, the degree of recognition may be predicted based only on the measurement result of at least one of the first measurement to the fourth measurement acquired by the measurement result acquisition unit 202. That is, the control unit 60 can execute prediction of the future recognition level of the target person based on the estimated recognition level or the like.
  • the determination unit 205 determines the training menu based on the recognition level estimated by the recognition level estimation unit 203.
  • the training information storage unit 206 stores a plurality of training menus according to the level of recognition.
  • the training menu here is, for example, a training menu for improving the degree of recognition or athletic ability.
  • the determination unit 205 determines a training menu based on the training menu stored in the training information storage unit 206 and the recognition level estimated by the recognition level estimation unit 203. Alternatively, the determination unit 205 is based on the training menu stored in the training information storage unit 206, the recognition level estimated by the recognition level estimation unit 203, and the results of the first measurement to the fourth measurement.
  • a training menu may be determined. That is, the control unit 60 can execute a training menu based on the estimated degree of recognition or the like.
  • the display control unit 207 causes the display unit 50 to display the recognition level estimated by the recognition level estimation unit 203. Further, the display control unit 207 causes the display unit 50 to display the recognition degree predicted by the recognition degree prediction unit 204. Note that the display control unit 207 may cause the display unit 50 to display at least one of the recognition level estimated by the recognition level estimation unit 203 and the recognition level predicted by the recognition level prediction unit 204.
  • the display control unit 207 causes the display unit 50 to display the training menu determined by the determination unit 205.
  • the motor control unit 208 may control the lower motor 111 and the upper motor 151 to incline the inclined plate 150. Thereby, the target person can perform recognition estimation and training using the recognition degree estimation device 1.
  • the display control unit 207 may display the past degree of recognition extracted by the extraction unit 210 on the display unit 50. Further, the display control unit 207 may cause the display unit 50 to display the first to fourth measurement results acquired by the measurement result acquisition unit 202 and the past measurement results. That is, the control unit 60 can display the estimated degree of recognition on the display unit 50.
  • the display control unit 207 may switch the display image of the display unit 50 in response to the switching instruction when the subject gives an instruction to switch the display image by operating the touch panel of the display unit 50.
  • the recognition degree estimation device 1 estimates the recognition degree.
  • the subject operates the touch panel of the display unit 50 to instruct the recognition degree estimation apparatus 1 to start the recognition degree estimation process.
  • the identification information acquisition unit 209 acquires the identification information of the subject read by the card reader 70 as shown in FIG. 5 (step S101).
  • the measurement management unit 201 instructs the display control unit 207 and the motor control unit 208 to execute the fourth measurement from the first measurement.
  • the display control unit 207 and the motor control unit 208 execute the fourth measurement from the first measurement (step S102).
  • the recognition degree estimation unit 203 estimates the recognition degree of the target person based on the results of the first measurement to the fourth measurement (step S103).
  • the degree-of-recognition prediction unit 204 predicts the future degree of recognition of the subject based on the degree of recognition estimated by the degree-of-recognition estimation unit 203 (step S104).
  • the determination unit 205 determines a training menu based on the recognition level estimated by the recognition level estimation unit 203 (step S105).
  • the display control unit 207 causes the display unit 50 to display the recognition level estimated by the recognition level estimation unit 203 (step S106).
  • the present embodiment is configured as described above, and the degree-of-recognition estimation unit 203 estimates the degree of recognition based on the measurement result of the change in the position of the center of gravity of the subject from the first measurement to the fourth measurement. Thereby, the recognition degree estimation apparatus 1 can estimate the recognition degree of the subject based on the measurement result of the change in the position of the center of gravity.
  • the recognition degree prediction unit 204 predicts the future recognition degree of the target person based on the recognition degree estimated by the recognition degree estimation unit 203. Thereby, the future recognition degree can be predicted in addition to the current recognition degree by performing the fourth measurement from the first measurement.
  • the display control unit 207 causes the display unit 50 to display the recognition level estimated by the recognition level estimation unit 203 and the recognition level predicted by the recognition level prediction unit 204. Thereby, the target person can grasp
  • the determination unit 205 determines the training menu based on the recognition level estimated by the recognition level estimation unit 203.
  • the display control unit 207 causes the display unit 50 to display the determined training menu. Thereby, the target person can grasp
  • the determination unit 205 can also determine the training menu based on the recognition degree estimated by the recognition degree estimation unit 203 and the results of the first measurement to the fourth measurement.
  • the target person can grasp the training menu corresponding to the estimated degree of recognition and the results of the first measurement to the fourth measurement (exercise ability).
  • the target person can improve the degree of recognition or athletic ability, for example, by performing the training menu displayed on the display unit 50.
  • the recognition degree storage unit 211 stores the recognition degree associated with the identification information of the subject person.
  • the extraction unit 210 extracts the past degree of recognition about the target person whose degree of recognition is estimated from the degree-of-recognition storage unit 211.
  • the display control unit 207 may display the past degree of recognition extracted by the extraction unit 210 on the display unit 50. In this case, the target person can grasp not only the estimated current degree of recognition but also the degree of recognition estimated in the past. Thereby, the target person can grasp the change in the degree of recognition.
  • the display control unit 207 may cause the display unit 50 to display the first measurement result to the fourth measurement (exercise ability) acquired by the measurement result acquisition unit 202.
  • the target person can grasp the results of the first measurement to the fourth measurement in addition to the degree of recognition.
  • the measuring unit 10 measures the change in the position of the center of gravity of the subject as the subject's motor ability. Thereby, a recognition degree can be automatically estimated only by measuring the change of a gravity center position of a subject. In addition, the degree of recognition can be easily estimated by a simple measurement method of measuring the change in the center of gravity of the subject.
  • this invention is not limited to the said embodiment.
  • the athletic ability of the subject a change in the center of gravity position of the subject is measured by the measurement unit 10, but athletic ability other than the change in the center of gravity position of the subject may be measured.
  • the card reader 70 or the like may not be provided.
  • the degree of recognition is displayed on the display unit 50, the degree of recognition, the training menu, and the like may be transmitted to the target person by sound such as voice using a speaker.
  • a recognition degree estimation device capable of estimating the recognition degree of the target person can be provided.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

 認知度推定装置は、対象者の運動能力を測定する運動能力測定部と、運動能力測定部によって測定された運動能力に基づいて対象者の認知度を推定する認知度推定部と、を備える。

Description

認知度推定装置
 本発明は、認知度を推定する認知度推定装置に関する。
 例えば運動能力など、対象者の様々な状態を測定等する装置がある。運動能力を測定する際には、対象者の重心の移動等、対象者の動きに基づいて運動能力を測定することが考えられる。例えば、特許文献1には、重心の移動に基づいて対象者の運動能力を測定する装置が記載されている。
特開2012-157581号公報
 ここで、このような装置においては、対象者の認知の度合い(レベル)を示す認知度を推定することが求められている。そこで、本発明の一側面は、対象者の認知度を推定することができる認知度推定装置を提供することを目的とする。
 本発明の一側面に係る認知度推定装置は、対象者の運動能力を測定する運動能力測定部と、運動能力測定部によって測定された運動能力に基づいて対象者の認知度を推定する認知度推定部と、を備える。
 認知度推定装置は、認知度推定部によって推定された認知度に基づいて、対象者の将来の認知度を予測する認知度予測部を更に備えていてもよい。
 認知度推定装置は、認知度推定部によって推定された認知度を出力する出力部を更に備えていてもよい。
 認知度推定装置は、認知度推定部によって推定された認知度、及び、認知度予測部で予測された将来の認知度のうち少なくともいずれかを出力する出力部を更に備えていてもよい。
 認知度推定装置は、認知度推定部によって推定された認知度に基づいて、トレーニングメニューを決定する決定部を更に備え、出力部は、決定部によって決定されたトレーニングメニューを更に出力してもよい。
 決定部は、更に運動能力測定部で測定された運動能力に基づいてトレーニングメニューを決定してもよい。
 認知度推定装置は、運動能力測定部によって運動能力の測定を行う対象者の識別情報を取得する取得部と、取得部によって取得された識別情報と認知度推定部によって推定された認知度とを対応付けて記憶する記憶部と、取得部によって取得された識別情報に基づいて、記憶部から対象者の過去の認知度を抽出する抽出部と、を更に備え、出力部は、抽出部によって抽出された過去の認知度を更に出力してもよい。
 出力部は、運動能力測定部で測定された運動能力を更に出力してもよい。
 運動能力測定部は、対象者の重心の位置の変化に基づいて運動能力を測定してもよい。
 本発明の一側面によれば、対象者の認知度を推定可能な認知度推定装置を提供できる。
一実施形態に係る認知度推定装置の概略構成を示す斜視図である。 (a)は測定部の概略構成を示す上面図、(b)は測定部を後側から見た場合の概略構成を示す側面図、(c)は測定部を右側から見た場合の概略構成を示す側面図である。 制御部のハードウェア構成を示すブロック図である。 制御部の構成を示すブロック図である。 認知度の推定処理の流れを示すフローチャートである。
 以下、本発明の一実施形態について図面を参照しながら説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
 図1に示す認知度推定装置1は、対象者の認知度の推定及び予測を行う。ここで、認知度とは、対象者(人間)が外界の対象を知覚した上で、それが何であるかを判断したり解釈したりできる度合い(レベル)をいう。認知度推定装置1は、測定部(運動能力測定部)10、本体部20、支柱30、手摺り40、表示部(出力部)50、制御部60(図3参照)、及び、カードリーダ70を含んで構成されている。
 測定部10は、対象者の運動能力として、対象者の重心の位置の変化(揺動)を測定する。ここで、図1に示すように、測定部10に対して表示部50が設けられている側を「前」、測定部10に対して表示部50が設けられている側とは反対側を「後ろ」、測定部10上に立つ対象者が表示部50側を見たときに右手側を「右」、左手側を「左」という。
 より詳細には、測定部10は、図2(a)から図2(c)に示すように、底板110、下側モータ111、下側歯車113、ジョイント部120、傾斜板150、上側モータ151、上側歯車153、及び、センサ155を含んで構成されている。なお、図2(a)では、ジョイント部120等の構造を示すために、傾斜板150の図示を省略している。
 傾斜板150は、矩形状に形成されている。傾斜板150の上面には、センサ155が設けられている。センサ155は、傾斜板150上に立つ対象者の重心の位置を測定することができる。センサ155の検出結果は、制御部60に入力される。対象者の重心の位置が測定可能であればセンサ155の種類及び設置位置は限定されない。センサ155として、一例として、荷重の大きさを測定する多数個の荷重センサがマトリクス状(格子状)に配置されたシート状のセンサを用いることができる。
 ジョイント部120は、傾斜板150の中心点Pの位置で、傾斜板150を傾斜可能に支持している。ジョイント部120として、一例として、ジンバル機構を用いることができる。本実施形態においてジョイント部120は、傾斜板150を前後方向、及び、左右方向に傾斜可能に支持している。すなわち、傾斜板150は、前後左右の全方向に傾斜することができる。
 下側モータ111は底板110の上面に固定されている。下側モータ111は、制御部60からの指示に基づいて駆動される。下側歯車113は、底板110の上面に回転可能に取り付けられている。下側モータ111の駆動力は、下側モータ111の回転軸に取り付けられたモータ歯車112を介して下側歯車113に伝達される。下側歯車113に伝達された駆動力は、ジョイント部120の前後回転軸部121に入力される。前後回転軸部121に入力された下側モータ111の駆動力により、図2(b)に示すように傾斜板150は前後方向を軸として右側又は左側に傾斜する。
 上側モータ151は傾斜板150の下面に固定されている。上側モータ151は、制御部60からの指示に基づいて駆動される。上側歯車153は、傾斜板150の下面に回転可能に取り付けられている。上側モータ151の駆動力は、上側モータ151の回転軸に取り付けられたモータ歯車152を介して上側歯車153に伝達される。上側歯車153に伝達された駆動力は、ジョイント部120の左右回転軸部122に入力される。左右回転軸部122に入力された上側モータ151の駆動力により、図2(c)に示すように傾斜板150は左右方向を軸として前側又は後ろ側に傾斜する。
 なお、傾斜板150を全方向に傾斜させる機構は、本実施形態において説明した構成に限定されない。
 本実施形態において測定部10は、上述したように、下側モータ111及び上側モータ151の駆動力によって傾斜板150を傾斜させることができる。また、測定部10は、下側モータ111及び上側モータ151を駆動させず、中心点Pを支点として傾斜板150を前後方向及び左右方向に自由に傾斜させることができる。すなわち、傾斜板150は、傾斜板150に乗る対象者の重心の位置に応じて自由に傾斜することができる。
 本体部20は、測定部10の周囲を囲んでいる。なお、本体部20は、測定部10の周囲を全周にわたって囲むことに限定されない。本体部20の上面には、測定部10に乗る対象者の前側、右側及び左側の側部を囲むように手摺り40が取り付けられている。本体部20の前側の上面には、上下方向に延在する支柱30が設けられている。
 表示部50は、支柱30の上端に取り付けられている。表示部50は、押下による入力操作を受付可能なタッチパネル式のセンサを備えている。表示部50に表示される表示画像は、制御部60によって制御される。表示部50は、受け付けた入力操作を制御部60に入力する。表示部50にタッチパネル式のセンサを設けたが、入力操作を受け付けるスイッチ等の操作部を表示部50とは別に設けてもよい。
 カードリーダ70は、対象者の識別情報が格納されたカードから識別情報を読み取る。カードリーダ70は、例えば、手摺り40の上部に取り付けられていてもよい。例えば、各対象者は、識別情報が格納されたカードをそれぞれ所有している。対象者は、認知度推定装置1によって認知度の推定等を行う際に、カードに格納された識別情報をカードリーダ70に読み取らせる。識別情報の読み取り方法は、非接触式など、種々の方法を採用することができる。これにより、認知度推定装置1は、対象者を識別することができる。カードリーダ70によって取得された対象者の識別情報は、制御部60に入力される。カードリーダ70を用いて識別情報を読み取る以外にも、対象者が入力部を操作して識別情報を入力してもよい。
 制御部60は、表示部50の筐体内など認知度推定装置1の適宜の位置に設けられている。制御部60は、物理的には、図3に示すように、例えばプロセッサ61と、メモリ62と、入出力部(I/O)63と、ストレージ64と、これらを相互に接続するバス65とを有する。プロセッサ61は、メモリ62及びストレージ64の少なくとも一方と協働してプログラムを実行し、その実行結果に応じて入出力部63を介したデータの入出力を行う。これにより、制御部60の様々な機能が実現される。
 図4は、制御部60の様々な機能を仮想的なブロック(以下、「機能ブロック」という。)で表している。図4に示すように、制御部60は、機能ブロックとして、測定管理部201、測定結果取得部202、認知度推定部203、認知度予測部204、決定部205、トレーニング情報記憶部206、表示制御部207、モータ制御部208、識別情報取得部(取得部)209、抽出部210、認知度記憶部(記憶部)211、及び、データテーブル記憶部212を有している。
 なお、図4に示す測定管理部201等の機能ブロックは、制御部60の機能を便宜上複数のブロックに区切ったものに過ぎず、制御部60を構成するハードウェアがこのようなブロックに分かれていることを意味するものではない。また、各機能ブロックは、プログラムの実行により実現されるものに限られず、専用の電気回路(例えば論理回路)により実現されるものであってもよい。
 測定管理部201は、傾斜板150上に立つ対象者の重心位置の変化を測定する際の測定の種類の管理、及び、測定の指示を行う。すなわち、制御部60は、傾斜板150上に立つ対象者の重心位置の変化を測定する際の測定の種類の管理、及び、測定の指示を行うこと、を実行可能である。ここで、対象者の重心位置の変化を測定する測定内容として、本実施形態では、一例として、次の第一の測定から第四の測定を行う。
 第一の測定では、傾斜板150を固定(例えば、水平状態で固定)した状態で、対象者の開眼時と閉眼時とにおける重心位置の変化を測定する。第二の測定では、傾斜板150を前方向、後方向、左方向及び右方向に傾斜させた場合における対象者の重心位置の変化を測定する。更に、第二の測定では、傾斜する傾斜板150の下り方向の向きが、例えば、前、右、後ろ、左、前の順のように中心点Pを中心として回転するように傾斜板150を傾斜させた場合おける対象者の重心位置の変化を測定する。
 第三の測定では、傾斜板150が自由に傾斜可能な状態で、傾斜板150上に立つ対象者の重心の位置の変化を測定する。第四の測定では、傾斜板150を固定(例えば、水平状態で固定)した状態で、対象者が傾斜板150上で足踏みをした場合の重心位置の変化及び足踏みのテンポを測定する。
 第一の測定から第四の測定は、一例として、第一の測定、第二の測定、第三の測定及び第四の測定の順で行われる。測定管理部201は、第一の測定から第四の測定のうち、実施する測定の種類を表示制御部207及びモータ制御部208に対して出力する。
 表示制御部207は、測定管理部201から入力された測定の種類に基づいて、実施される測定の種類を対象者が把握できるように、表示部50の表示画像を制御する。すなわち、制御部60は、実施される測定の種類を対象者が把握できるように、表示部50の表示画像を制御すること、を実行可能である。
 これにより、対象者は、表示部50を見ることで、どのような測定が実施されるかを把握することができる。モータ制御部208は、測定管理部201から入力された測定の種類に基づいて、下側モータ111及び上側モータ151の駆動を制御する。これにより、対象者が行う測定の種類に応じて、傾斜板150の傾斜が制御され、或は、傾斜板150が固定等される。
 測定結果取得部202は、第一の測定から第四の測定時に、センサ155から出力された対象者の重心の位置の変化の測定結果を取得する。すなわち、制御部60は、第一の測定から第四の測定時に、センサ155から出力された対象者の重心の位置の変化の測定結果を取得すること、を実行可能である。第一の測定から第四の測定を行った際の測定結果は、対象者の運動能力を表している。
 認知度推定部203は、第一の測定から第四の測定の結果に基づいて、対象者の認知度を推定する。すなわち、認知度推定部203は、第一の測定から第四の測定の結果に基づいて、対象者の認知度を推定すること、を実行可能である。ここで、認知度は、対象者の運動能力と相関関係があることが知られている。そこで、認知度推定部203は、対象者の運動能力として第一の測定から第四の測定の結果を用い、第一の測定から第四の測定の結果に基づいて認知度を推定する。
 具体的には、予めデータテーブル記憶部212に、第一の測定から第四の測定の結果と、認知度とが対応付けられたデータテーブルを記憶させておく。このデータテーブルは、被験者がファイブ・コグテストを行うことで求められる認知度と、この被験者が第一の測定から第四の測定を行うことによって得られる測定の結果とを対応付けることによって生成される。ここでの被験者とは、データテーブルを作成するためにファイブ・コグテスト及び第一の測定から第四の測定を行う人をいう。データテーブルは、複数の被験者についてのデータに基づいて生成される。
 なお、認知症に関連した5つの認知機能をファイブ・コグニティブ・ファンクションズ(Five cognitive functions)という。ここではファイブ・コグニティブ・ファンクションズをファイブ・コグという。また、認知症に関連した5つの認知機能とは、「記憶機能」、「注意機能」、「言語機能」、「視空間機能」、及び、「思考機能」をいう。ファイブ・コグテストとは、これらの5つの認知機能を測定するテストである。
 ここでは、一例として、第一の測定から第四の測定の全ての測定結果と認知度とを対応させたが、第一の測定から第四の測定の全ての測定結果のいずれか一つ以上と認知度とを対応付けてもよい。この場合、測定管理部201は、第一の測定から第四の測定のうち認知度と対応付けられている測定のみを行ってもよい。また、データテーブルは、第一の測定から第四の測定の結果に対して統計処理等を行った値と、認知度とを対応付けることによって生成されていてもよい。第一の測定から第四の測定の結果と認知度との対応付けは、種々の方法によって行うことができる。
 認知度推定部203は、データテーブル記憶部212に記憶されたデータテーブルと、測定結果取得部202によって取得された第一の測定から第四の測定の結果とに基づいて、認知度を推定する。
 認知度推定部203は、識別情報取得部209から対象者の識別情報を取得する。なお、認知度の推定をしようとする対象者は、第一の測定等の前に、カードに格納された識別情報をカードリーダ70によって読み取らせる。識別情報取得部209は、カードリーダ70によって読み取られた識別情報を取得する。認知度推定部203は、推定した認知度と、識別情報取得部209によって取得された対象者の識別情報とを対応付ける。認知度推定部203は、識別情報と対応付けした認知度を認知度記憶部211に記憶させる。なお、認知度推定部203は、第一の測定から第四の測定の結果についても識別情報と対応付けて、認知度記憶部211に記憶させてもよい。
 抽出部210は、識別情報取得部209によって対象者の識別情報が取得されると、認知度記憶部211から、取得された識別情報に対応する認知度のうち、過去(例えば、直近)に対応付けされた認知度を抽出する。このように、抽出部210は、認知度の推定を行う対象者における、過去に推定された認知度を抽出する。すなわち、制御部60は、認知度の推定を行う対象者における、過去に推定された認知度を抽出すること、を実行可能である。
 認知度予測部204は、認知度推定部203によって推定された認知度に基づいて、対象者の将来の認知度を予測する。認知度の予測は、認知度推定部203によって推定された認知度と、抽出部210によって抽出された過去の認知度との比較結果に基づいて行ってもよい。また、認知度の予測は、認知度推定部203によって推定された認知度と、予め定められた認知度の経時的変化のパターンとに基づいて行ってもよい。或は、測定結果取得部202によって取得された第一の測定から第四の測定の少なくともいずれかの測定結果のみに基づいて、認知度を予測してもよい。すなわち、制御部60は、推定した認知度等に基づいて、対象者の将来の認知度を予測すること、を実行可能である。
 決定部205は、認知度推定部203によって推定された認知度に基づいて、トレーニングメニューを決定する。具体的には、トレーニング情報記憶部206には、認知度のレベルに応じた複数のトレーニングメニューが記憶されている。ここでのトレーニングメニューとは、一例として、認知度又は運動能力を向上させるためのトレーニングメニューである。決定部205は、トレーニング情報記憶部206に記憶されたトレーニングメニューと、認知度推定部203によって推定された認知度とに基づいて、トレーニングメニューを決定する。或は、決定部205は、トレーニング情報記憶部206に記憶されたトレーニングメニューと、認知度推定部203によって推定された認知度と、第一の測定から第四の測定の結果とに基づいて、トレーニングメニューを決定してもよい。すなわち、制御部60は、推定した認知度等に基づいて、トレーニングメニューを決定すること、を実行可能である。
 表示制御部207は、認知度推定部203によって推定された認知度を表示部50に表示させる。また、表示制御部207は、認知度予測部204によって予測された認知度を表示部50に表示させる。なお、表示制御部207は、認知度推定部203によって推定された認知度、及び、認知度予測部204によって予測された認知度のうち少なくともいずれかを表示部50に表示させてもよい。
 また、表示制御部207は、決定部205によって決定されたトレーニングメニューを表示部50に表示させる。なお、決定されたトレーニングメニューが傾斜板150の傾斜を用いたトレーニングである場合、モータ制御部208は、下側モータ111及び上側モータ151を制御して傾斜板150を傾斜させてもよい。これにより、対象者は、認知度の推定と、トレーニングとを認知度推定装置1を用いて行うことができる。
 また、表示制御部207は、抽出部210によって抽出された過去の認知度を表示部50に表示させてもよい。更に、表示制御部207は、測定結果取得部202によって取得された第一の測定から第四の測定の結果、及び、過去の測定の結果を表示部50に表示させてもよい。すなわち、制御部60は、推定した認知度等を表示部50に表示させること、を実行可能である。
 なお、表示制御部207は、対象者が表示部50のタッチパネルを操作して表示画像を切り替える指示を行った場合、切り替えの指示に応じて表示部50の表示画像を切り替えてもよい。
 次に、認知度推定装置1が認知度を推定する処理の流れを説明する。認知度の推定処理を開始する場合、例えば、対象者は、表示部50のタッチパネルを操作して認知度の推定処理の開始を認知度推定装置1に指示する。認知度の推定処理の開始の指示があると、図5に示すように識別情報取得部209は、カードリーダ70によって読み取られた対象者の識別情報を取得する(ステップS101)。
 測定管理部201は、表示制御部207及びモータ制御部208に対して、第一の測定から第四の測定の実行を指示する。表示制御部207及びモータ制御部208は、第一の測定から第四の測定を実行する(ステップS102)。
 認知度推定部203は、第一の測定から第四の測定の結果に基づいて、対象者の認知度を推定する(ステップS103)。認知度予測部204は、認知度推定部203によって推定された認知度に基づいて、対象者の将来の認知度を予測する(ステップS104)。
 決定部205は、認知度推定部203によって推定された認知度に基づいて、トレーニングメニューを決定する(ステップS105)。表示制御部207は、認知度推定部203によって推定された認知度等を表示部50に表示させる(ステップS106)。
 本実施形態は以上のように構成され、第一の測定から第四の測定時における対象者の重心の位置の変化の測定結果に基づいて、認知度推定部203が認知度を推定する。これにより、認知度推定装置1は、重心の位置の変化の測定結果に基づいて対象者の認知度を推定することができる。
 認知度予測部204は、認知度推定部203によって推定された認知度に基づいて、対象者の将来の認知度を予測する。これにより、第一の測定から第四の測定を行うことにより、現在の認知度に加えて将来の認知度を予測することができる。
 表示制御部207は、認知度推定部203によって推定された認知度及び認知度予測部204によって予測された認知度を表示部50に表示させる。これにより、対象者は、表示部50を通じて現在の認知度及び将来の認知度を把握することができる。
 決定部205は、認知度推定部203によって推定された認知度に基づいて、トレーニングメニューを決定する。表示制御部207は、決定されたトレーニングメニューを表示部50に表示させる。これにより、対象者は、推定された認知度のレベルに応じたトレーニングメニューを把握することができる。対象者は、表示部50に表示されたトレーニングメニューを行うことで、例えば、認知度又は運動能力等を向上させることができる。
 決定部205は、認知度推定部203によって推定された認知度と、第一の測定から第四の測定の結果とに基づいて、トレーニングメニューを決定することもできる。この場合、対象者は、推定された認知度と、第一の測定から第四の測定の結果(運動能力)とに応じたトレーニングメニューを把握することができる。対象者は、表示部50に表示されたトレーニングメニューを行うことで、例えば、認知度又は運動能力等を向上させることができる。
 認知度記憶部211には、対象者の識別情報と対応付けされた認知度が記憶されている。抽出部210は、認知度の推定を行う対象者についての過去の認知度を認知度記憶部211から抽出する。表示制御部207は、抽出部210によって抽出された過去の認知度を表示部50に表示させてもよい。この場合、対象者は、推定された現在の認知度と共に過去に推定された認知度についても把握することができる。これにより対象者は、認知度の変化を把握することができる。
 表示制御部207は、測定結果取得部202によって取得された第一の測定から第四の測定の結果(運動能力)を表示部50に表示させてもよい。この場合、対象者は、認知度に加えて第一の測定から第四の測定の結果についても把握することができる。
 測定部10は、対象者の運動能力として、対象者の重心の位置の変化を測定する。これにより、対象者の重心位置の変化を測定するだけで、自動的に認知度を推定することができる。また、対象者の重心位置の変化を測定するという簡易な測定方法によって、認知度を容易に推定することができる。
 以上、本発明の一実施形態について説明したが、本発明は、上記実施形態に限定されるものではない。例えば、対象者の運動能力として、測定部10によって対象者の重心位置の変化を測定したが、対象者の重心位置の変化以外の運動能力を測定してもよい。
 認知度推定部203によって将来の認知度を予測することは必須ではなく、現在の認知度の推定のみを行ってもよい。決定部205によってトレーニングメニューを決定し、表示部50にトレーニングメニューを表示することは必須ではない。
 単に認知度を推定するのみの場合等、対象者の識別情報と対応付けられた過去の認知度を用いる必要が無ければ、カードリーダ70等は設けなくてもよい。
 表示部50に、認知度等を表示させたが、スピーカを用いて音声等の音により、認知度及びトレーニングメニュー等を対象者に伝達してもよい。
 対象者の認知度を推定可能な認知度推定装置を提供できる。
 1…認知度推定装置、50…表示部(出力部)、203…認知度推定部、204…認知度予測部、205…決定部、209…識別情報取得部(取得部)、210…抽出部、211…認知度記憶部(記憶部)。

Claims (9)

  1.  対象者の運動能力を測定する運動能力測定部と、
     前記運動能力測定部によって測定された前記運動能力に基づいて前記対象者の認知度を推定する認知度推定部と、を備える認知度推定装置。
  2.  前記認知度推定部によって推定された前記認知度に基づいて、前記対象者の将来の認知度を予測する認知度予測部を更に備える、請求項1に記載の認知度推定装置。
  3.  前記認知度推定部によって推定された前記認知度を出力する出力部を更に備える、請求項1に記載の認知度推定装置。
  4.  前記認知度推定部によって推定された前記認知度、及び、前記認知度予測部で予測された前記将来の認知度のうち少なくともいずれかを出力する出力部を更に備える、請求項2に記載の認知度推定装置。
  5.  前記認知度推定部によって推定された前記認知度に基づいて、トレーニングメニューを決定する決定部を更に備え、
     前記出力部は、前記決定部によって決定された前記トレーニングメニューを更に出力する、請求項3又は4に記載の認知度推定装置。
  6.  前記決定部は、更に前記運動能力測定部で測定された前記運動能力に基づいて前記トレーニングメニューを決定する、請求項5に記載の認知度推定装置。
  7.  前記運動能力測定部によって運動能力の測定を行う前記対象者の識別情報を取得する取得部と、
     前記取得部によって取得された前記識別情報と前記認知度推定部によって推定された前記認知度とを対応付けて記憶する記憶部と、
     前記取得部によって取得された前記識別情報に基づいて、前記記憶部から前記対象者の過去の前記認知度を抽出する抽出部と、を更に備え、
     前記出力部は、前記抽出部によって抽出された前記過去の認知度を更に出力する、請求項3から6のいずれか一項に記載の認知度推定装置。
  8.  前記出力部は、前記運動能力測定部で測定された前記運動能力を更に出力する、請求項3から7のいずれか一項に記載の認知度推定装置。
  9.  前記運動能力測定部は、前記対象者の重心の位置の変化に基づいて前記運動能力を測定する、請求項1から8のいずれか一項に記載の認知度推定装置。
PCT/JP2014/058292 2014-03-25 2014-03-25 認知度推定装置 WO2015145573A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2014/058292 WO2015145573A1 (ja) 2014-03-25 2014-03-25 認知度推定装置
JP2016509881A JP6390698B2 (ja) 2014-03-25 2014-09-08 認知度推定装置、認知度推定システム、認知度推定方法
PCT/JP2014/073703 WO2015145810A1 (ja) 2014-03-25 2014-09-08 認知度推定装置、認知度推定システム、認知度推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/058292 WO2015145573A1 (ja) 2014-03-25 2014-03-25 認知度推定装置

Publications (1)

Publication Number Publication Date
WO2015145573A1 true WO2015145573A1 (ja) 2015-10-01

Family

ID=54194172

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2014/058292 WO2015145573A1 (ja) 2014-03-25 2014-03-25 認知度推定装置
PCT/JP2014/073703 WO2015145810A1 (ja) 2014-03-25 2014-09-08 認知度推定装置、認知度推定システム、認知度推定方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/073703 WO2015145810A1 (ja) 2014-03-25 2014-09-08 認知度推定装置、認知度推定システム、認知度推定方法

Country Status (2)

Country Link
JP (1) JP6390698B2 (ja)
WO (2) WO2015145573A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7051704B2 (ja) * 2016-11-29 2022-04-11 ソニーモバイルコミュニケーションズ株式会社 情報処理方法および情報処理装置
KR102403474B1 (ko) * 2019-12-12 2022-06-10 주식회사 엔가든 인지장애 재활훈련 판단 장치 및 방법
KR102403472B1 (ko) * 2019-12-12 2022-06-10 주식회사 엔가든 인지장애 재활훈련 판단 장치 및 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132147A (ja) * 2001-07-27 2003-05-09 Siemens Ag リハビリテーションにおける訓練管理のための分析システム
JP2007282930A (ja) * 2006-04-19 2007-11-01 Shinshu Univ 健康管理支援システム
WO2009069756A1 (ja) * 2007-11-30 2009-06-04 Panasonic Electric Works Co., Ltd. 脳機能維持改善装置
JP2011115362A (ja) * 2009-12-03 2011-06-16 Univ Of Tsukuba 認知機能評価システム
JP2012105795A (ja) * 2010-11-17 2012-06-07 Nippon Tect Co Ltd 認知機能予測システム
JP2012157581A (ja) * 2011-02-01 2012-08-23 Panasonic Corp 運動機能測定システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4623614B2 (ja) * 2000-11-27 2011-02-02 ミナト医科学株式会社 平衡機能訓練装置
JP2007313280A (ja) * 2006-04-27 2007-12-06 Shinsedai Kk 運動メニュー作成方法及びコンテスト方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132147A (ja) * 2001-07-27 2003-05-09 Siemens Ag リハビリテーションにおける訓練管理のための分析システム
JP2007282930A (ja) * 2006-04-19 2007-11-01 Shinshu Univ 健康管理支援システム
WO2009069756A1 (ja) * 2007-11-30 2009-06-04 Panasonic Electric Works Co., Ltd. 脳機能維持改善装置
JP2011115362A (ja) * 2009-12-03 2011-06-16 Univ Of Tsukuba 認知機能評価システム
JP2012105795A (ja) * 2010-11-17 2012-06-07 Nippon Tect Co Ltd 認知機能予測システム
JP2012157581A (ja) * 2011-02-01 2012-08-23 Panasonic Corp 運動機能測定システム

Also Published As

Publication number Publication date
JP6390698B2 (ja) 2018-09-19
WO2015145810A1 (ja) 2015-10-01
JPWO2015145810A1 (ja) 2017-04-13

Similar Documents

Publication Publication Date Title
KR101794842B1 (ko) 이미지들을 캡처하는 것을 돕기 위해 햅틱 피드백을 제공하기 위한 시스템 및 방법
JP2007525775A5 (ja)
JP2015510619A5 (ja)
JP2009294850A5 (ja)
WO2015145573A1 (ja) 認知度推定装置
JP2015532996A5 (ja)
JP2010092086A5 (ja)
JP6379501B2 (ja) ロボットの教示装置
JP2007221721A5 (ja)
JP5846661B2 (ja) 表示装置、表示装置の制御方法
TW202017626A (zh) 資訊處理裝置、中介裝置、模擬系統以及資訊處理方法
RU2015149665A (ru) Контроллер для оттображения карты
JP2018106117A5 (ja)
JP2005332325A (ja) 力覚付与型入力装置
JP6251544B2 (ja) リハビリ支援画像生成装置、リハビリ支援システム及びプログラム
JP2005250983A (ja) 力覚付与型入力装置
JP2004164375A (ja) 情報処理装置
JP2006332728A5 (ja)
JP2011186693A (ja) 情報入力装置
JP4856136B2 (ja) 移動制御プログラム
TW202017625A (zh) 訓練處理裝置、中介裝置、訓練系統以及訓練處理方法
JP2010069228A (ja) 圧力分布測定センサ装置
JP5403271B2 (ja) 携帯端末装置、計算方法、及び計算プログラム
JP2021060724A5 (ja)
JP2010227308A (ja) 洗濯機

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14887424

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 14887424

Country of ref document: EP

Kind code of ref document: A1