WO2023053176A1 - 学習装置、行動推薦装置、学習方法、行動推薦方法及び記憶媒体 - Google Patents

学習装置、行動推薦装置、学習方法、行動推薦方法及び記憶媒体 Download PDF

Info

Publication number
WO2023053176A1
WO2023053176A1 PCT/JP2021/035571 JP2021035571W WO2023053176A1 WO 2023053176 A1 WO2023053176 A1 WO 2023053176A1 JP 2021035571 W JP2021035571 W JP 2021035571W WO 2023053176 A1 WO2023053176 A1 WO 2023053176A1
Authority
WO
WIPO (PCT)
Prior art keywords
action
subject
information
recommended
history
Prior art date
Application number
PCT/JP2021/035571
Other languages
English (en)
French (fr)
Inventor
遼介 外川
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2023550765A priority Critical patent/JPWO2023053176A5/ja
Priority to PCT/JP2021/035571 priority patent/WO2023053176A1/ja
Publication of WO2023053176A1 publication Critical patent/WO2023053176A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/60ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to nutrition control, e.g. diets

Definitions

  • the present disclosure relates to the technical field of a learning device, a behavior recommendation device, a learning method, a behavior recommendation method, and a storage medium that perform processing related to recommendation of behavior for changing a subject's health condition.
  • Patent Document 1 by collecting basic information, physical information, and behavioral information of a user whose health condition has been determined to have improved, and analyzing the conditions under which a certain behavior contributes to improving the health condition, A system is disclosed for presenting a user with a success story according to the person's physical function and lifestyle. Further, Patent Literature 2 discloses a system that provides a subject with an improvement behavior portfolio that encourages behavioral change for improving the health condition, etc., based on data of health checkup results and the like.
  • Patent Literature 1 and Patent Literature 2 do not disclose the point of determining an action to be recommended in consideration of both the subject's past behavior and health condition.
  • one object of the present disclosure is to provide a learning device, a behavior recommendation device, a learning method, a behavior recommendation method, and a storage medium capable of suitably determining behavior to recommend to a subject. do.
  • One aspect of the learning device includes: History information representing a history of a subject's health condition and behavior that contributes to a change in the subject's health condition; success/failure information indicating whether or not the behavior contributed to a change in the subject's health condition; an acquisition means for acquiring Recommend action to be recommended to improve the health condition of the subject when the history information representing the history of the behavior and the health condition of the subject is input based on the history information and the success/failure information a learning means for learning a model that outputs information; is a learning device having
  • One aspect of the action recommendation device is history information acquisition means for acquiring history information representing a history of a subject's health condition and actions that contribute to changes in the subject's health condition; recommended action determination means for determining a recommended action, which is an action to be recommended to the target person, based on the history information and the recommendation model; output means for outputting information about the recommended action; has
  • the recommendation model is based on history information representing a history of the health conditions of the plurality of persons and actions that contribute to changes in the health conditions of the plurality of persons.
  • One aspect of the learning method comprises: the computer History information representing a history of a subject's health condition and behavior that contributes to a change in the subject's health condition; success/failure information indicating whether or not the behavior contributed to a change in the subject's health condition; and get Information on a recommended action to be recommended for improving the health condition of the subject when the history information representing the history of the behavior and health status of the subject is input based on the history information and the success/failure information. train a model that outputs It's a learning method.
  • the "computer” includes any electronic device (it may be a processor included in the electronic device), and may be composed of a plurality of electronic devices.
  • Another aspect of the action recommendation method is the computer Acquiring history information representing a history of a subject's health condition and behavior that contributes to a change in the subject's health condition; determining a recommended action, which is an action to be recommended to the target person, based on the history information and the recommendation model; An action recommendation method for outputting information about the recommended action,
  • the recommendation model is based on history information representing a history of the health conditions of the plurality of persons and actions that contribute to changes in the health conditions of the plurality of persons.
  • History information representing a history of a subject's health condition and behavior that contributes to a change in the subject's health condition
  • success/failure information indicating whether or not the behavior contributed to a change in the subject's health condition
  • Another aspect of the storage medium is Acquiring history information representing a history of a subject's health condition and behavior that contributes to a change in the subject's health condition; determining a recommended action, which is an action to be recommended to the target person, based on the history information and the recommendation model; cause a computer to execute a process of outputting information about the recommended action;
  • the recommendation model is based on history information representing a history of the health conditions of the plurality of persons and actions that contribute to changes in the health conditions of the plurality of persons.
  • This is a storage medium storing a program that is a model that has learned the relationship between recommended actions recommended to improve each individual's health condition.
  • FIG. 1 shows a schematic configuration of an action recommendation system according to a first embodiment
  • (A) shows the hardware configuration of the learning device
  • (B) shows the hardware configuration of the action recommendation device
  • FIG. 10 is a diagram schematically showing the operation of generating a recommendation model in the SAiL method
  • FIG. 4 is a diagram schematically showing an operation for optimizing a behavior mimicker
  • FIG. 4 is a diagram schematically showing learning of a recommendation model and calculation of a recommended action using the recommendation model; It is an example of the flowchart showing the learning process of the recommendation model which a learning apparatus performs. It is an example of a functional block of an action recommendation device.
  • FIG. 1 shows a schematic configuration of an action recommendation system according to a second embodiment
  • FIG. 11 is a block diagram of a learning device in a third embodiment
  • FIG. 11 is an example of a flowchart executed by a learning device in the third embodiment
  • FIG. It is a block diagram of the action recommendation device in 4th Embodiment. It is an example of a flow chart which an action recommendation device performs in a 4th embodiment.
  • FIG. 1 shows a schematic configuration of an action recommendation system 100 according to the first embodiment.
  • the action recommendation system 100 is a system related to health management of a subject, and learns a recommendation model that recommends the next action to be performed from the history of the subject's behavior and health condition, and the action using the learned recommendation model. recommend and do.
  • the recommendation model is a model that has learned the relationship between history information representing the history of actions and the health condition of the person who performed the action, and actions recommended to the person who performed the action.
  • a "subject” is a person whose behavior is recommended by the behavior recommendation system 100, and may be a person whose behavior is managed by an organization, or an individual user.
  • the above-mentioned “health management” includes diet support for the purpose of improving body weight and body fat percentage, etc., general health management such as health promotion for the purpose of improving blood sugar levels and other test items, It also includes maintaining the condition of special workers such as athletes and managing the rehabilitation of patients who require rehabilitation.
  • “behavior” includes any behavior that affects the health of the subject, and includes not only active behavior performed by oneself, but also passive behavior such as receiving a massage or treatment.
  • the action recommendation system 100 mainly includes a learning device 1, an action recommendation device 2, a storage device 3, an input device 4, an output device 5, and a sensor 6.
  • the learning device 1 and the storage device 3, and the action recommendation device 2 and the storage device 3 perform data communication via a communication network or by direct wireless or wired communication.
  • the action recommendation device 2 and the input device 4, the action recommendation device 2 and the output device 5, and the action recommendation device 2 and the sensor 6 perform data communication via a communication network or direct wireless or wired communication.
  • the learning device 1 performs machine learning of a recommendation model, which is a learning device, based on the training data stored in the training data storage unit 32 of the storage device 3, and stores the parameters of the recommendation model obtained by the machine learning in the storage device 3.
  • the recommendation model uses, as input data, information representing the history of the subject's behavior and health condition (also referred to as "behavior/state history information"), and actions to be recommended to the subject (also referred to as "recommended action”). ) as an inference result.
  • the aforementioned recommendation model is learned based on the SAiL (Skill Acquisition Learning) method. The details of the learning of the recommendation model will be described later.
  • the behavior recommendation device 2 constructs a recommendation model based on the parameters stored in the model information storage unit 31 of the storage device 3, and stores the constructed recommendation model and the behavior/state history representing the history of the subject's most recent behavior and health condition. Based on the information, a recommended action to be recommended to the target person is determined.
  • the action recommendation device 2 is based on the input signal "S1" supplied from the input device 4, the sensor (detection) signal "S3" supplied from the sensor 6, or/and the information stored in the storage device 3. , to acquire action/state history information representing the history of the subject's most recent actions and health conditions. Then, the action recommendation device 2 outputs information on the determined recommended action through the output device 5 . In this case, the behavior recommendation device 2 generates an output signal “S2” related to the recommended behavior to be recommended to the target person, and supplies the generated output signal S2 to the output device 5 .
  • the input device 4 is an interface that accepts manual input (external input) of information about each subject.
  • the user who inputs information using the input device 4 may be the subject himself/herself, or may be a person who manages or supervises the activity of the subject.
  • the input device 4 may be, for example, various user input interfaces such as a touch panel, buttons, keyboard, mouse, and voice input device.
  • the input device 4 supplies the generated input signal S ⁇ b>1 to the action recommendation device 2 .
  • the output device 5 displays or outputs predetermined information based on the output signal S2 supplied from the action recommendation device 2 .
  • the output device 5 is, for example, a display, a projector, a speaker, or the like.
  • the sensor 6 measures the subject's biological signal and the like, and supplies the measured biological signal and the like to the action recommendation device 2 as a sensor signal S3.
  • the sensor signal S3 is an arbitrary biological signal such as the subject's heartbeat, brain wave, pulse wave, perspiration (electrodermal activity), hormone secretion, cerebral blood flow, blood pressure, body temperature, myoelectricity, respiration rate, acceleration, etc. It may be a signal (including vital information).
  • the sensor 6 may be a device that analyzes the blood sampled from the subject and outputs a sensor signal S3 indicating the analysis result.
  • the senor 6 may be a wearable terminal worn by the subject, a camera for photographing the subject, a microphone for generating an audio signal of the subject's speech, or a personal device operated by the subject.
  • a terminal such as a computer or a smartphone may be used.
  • the wearable terminal described above includes, for example, a GNSS (Global Navigation Satellite System) receiver, an acceleration sensor, and other sensors that detect biological signals, and outputs the output signal of each of these sensors as a sensor signal S3.
  • the sensor 6 may supply the action recommendation device 2 with information corresponding to the operation amount of a personal computer, a smartphone, or the like as the sensor signal S3.
  • the sensor 6 may output a sensor signal S3 representing biometric data (including sleeping time) from the subject while the subject is sleeping.
  • the storage device 3 is a memory that stores various types of information necessary for the processing executed by the learning device 1 and the action recommendation device 2.
  • the storage device 3 may be an external storage device such as a hard disk connected to or built into either the learning device 1 and the action recommendation device 2, or a storage medium such as a portable flash memory.
  • the storage device 3 may be a server device that performs data communication with the learning device 1 and the action recommendation device 2 .
  • the storage device 3 may be composed of a plurality of devices.
  • the storage device 3 functionally has a model information storage unit 31 and a training data storage unit 32 .
  • the model information storage unit 31 stores the parameters of the recommendation model that the learning device 1 learns.
  • the recommendation model is learned to output, as an inference result, a recommended action to be recommended to the target person, using as input data action/state history information representing the history of previous actions and health conditions relating to the target person.
  • the parameters of the recommendation model use the behavior/state history information as input data, and the behavior/state history information represents the history of the behavior/health status of a successful case (that is, a positive example), or the behavior/state history information of a failure case. It is generated by machine learning using a teacher label (also referred to as “success/failure information”) that indicates whether it represents a history of health conditions (that is, negative examples).
  • KPI It is determined before learning based on Key Performance Indicator.
  • a KPI is an example of a "reference index.”
  • the model information storage unit 31 stores the layer structure adopted in the model, the neuron structure of each layer, the number of filters in each layer, and the number of filters. Information is stored for various parameters such as the size as well as the weight of each element of each filter. The parameters stored in the model information storage unit 31 are generated and updated by the learning device 1 .
  • the training data storage unit 32 stores training data (learning data) that is data for learning (training) used for learning by the learning device 1 .
  • the training data is a set of behavior/state history information representing the behavior and health status of a subject for training data generation (also referred to as a “training subject”) and a positive/negative label for the behavior/state history information. contains multiple sets of
  • the configuration of the action recommendation system 100 shown in FIG. 1 is an example, and various changes may be made to the configuration.
  • the learning device 1 and the action recommendation device 2 may each be composed of a plurality of devices.
  • the plurality of devices that constitute the learning device 1 and the plurality of devices that constitute the action recommendation device 2 exchange information necessary for executing pre-assigned processing by direct wired or wireless communication. Alternatively, it is performed between devices by communication via a network.
  • the learning device 1 functions as a learning system
  • the behavior recommendation device 2 functions as a behavior recommendation system.
  • the input device 4 and the output device 5 may be integrally constructed.
  • the input device 4 and the output device 5 may be configured as tablet terminals that are integrated with or separate from the action recommendation device 2 .
  • the input device 4 and the sensor 6 may be integrated.
  • FIG. 2A shows the hardware configuration of the learning device 1.
  • the learning device 1 includes a processor 11, a memory 12, and an interface 13 as hardware.
  • Processor 11 , memory 12 and interface 13 are connected via data bus 10 .
  • the processor 11 functions as a controller (arithmetic device) that controls the entire learning device 1 by executing programs stored in the memory 12 .
  • the processor 11 is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or a TPU (Tensor Processing Unit).
  • Processor 11 may be composed of a plurality of processors.
  • Processor 11 is an example of a computer.
  • the memory 12 is composed of various volatile and nonvolatile memories such as RAM (Random Access Memory), ROM (Read Only Memory), and flash memory.
  • the memory 12 also stores a program for executing the processing that the learning device 1 executes. Part of the information stored in the memory 12 may be stored in one or more external storage devices that can communicate with the learning device 1, or may be stored in a storage medium that is detachable from the learning device 1. good.
  • the interface 13 is an interface for electrically connecting the learning device 1 and other devices.
  • These interfaces may be wireless interfaces such as network adapters for wirelessly transmitting and receiving data to and from other devices, or hardware interfaces for connecting to other devices via cables or the like.
  • the hardware configuration of the learning device 1 is not limited to the configuration shown in FIG. 2(A).
  • the learning device 1 may further include a display section such as a display, an input section such as a keyboard and a mouse, and a sound output section such as a speaker.
  • FIG. 2(B) shows an example of the hardware configuration of the action recommendation device 2.
  • the action recommendation device 2 includes a processor 21, a memory 22, and an interface 23 as hardware.
  • Processor 21 , memory 22 and interface 23 are connected via data bus 20 .
  • the processor 21 functions as a controller (arithmetic device) that performs overall control of the action recommendation device 2 by executing programs stored in the memory 22 .
  • the processor 21 is, for example, a processor such as a CPU, GPU, TPU, or quantum processor.
  • Processor 21 may be composed of a plurality of processors.
  • Processor 21 is an example of a computer.
  • the memory 22 is composed of various volatile and nonvolatile memories such as RAM, ROM, and flash memory. Further, the memory 22 stores a program for executing the process executed by the action recommendation device 2 . Part of the information stored in the memory 22 may be stored in an external storage device such as the storage device 3 that can communicate with the action recommendation device 2, or may be stored in a storage medium that is detachable from the action recommendation device 2. may be Alternatively, the memory 22 may store information stored by the storage device 3 .
  • the interface 23 is an interface for electrically connecting the action recommendation device 2 and other devices. These interfaces may be wireless interfaces such as network adapters for wirelessly transmitting and receiving data to and from other devices, or hardware interfaces for connecting to other devices via cables or the like.
  • the hardware configuration of the action recommendation device 2 is not limited to the configuration shown in FIG. 2(B).
  • the action recommendation device 2 may incorporate any of these.
  • FIG. 3 is a diagram schematically showing the operation of generating a recommendation model in the SAiL method.
  • the recommendation model includes a behavioral policy selector and a plurality of behavioral imitators (behavioral imitator A, behavioral imitator B, . . . ).
  • the circle (o) represents the behavior taken by the training subject
  • the triangle ( ⁇ ) represents the health condition of the training subject.
  • the action imitator is a model that, when a certain past case is input, outputs a recommended action case by adding recommended actions to the input past case.
  • a past case A is used, which shows a history of five elements in which actions and health conditions occurring as a result of the actions are alternately shown in chronological order.
  • the past case A is input to each behavior mimicker as a history of four elements excluding the last behavior.
  • each behavior imitator infers a recommended action based on the input four elements of the past case A, and outputs a recommended action B in which the recommended action is added to the input four elements of the past case A.
  • the action recommendation example B is a history of a total of five elements of actions and health conditions, including inferred recommended actions.
  • the arrow 90 shown below the past case A on the left side indicates the input to the action mimicker of past case A for four elements excluding the last action, and the arrow 91 below the action recommendation case B indicates the action 4 shows the output from the behavioral mimicker for recommendation case B;
  • the action policy selector compares the input (that is, past example A for five elements) and the inference result, and based on the accuracy of the inference Choose the best behavioral mimic.
  • An arrow 92 between the past case A and the action recommendation case B in FIG. 3 indicates a comparison between the five elements of the past case A, which is an input, and the action recommendation case B, which is an inference result.
  • An arrow 93 from the arrow 92 to the behavioral course selector and an arrow 94 from the arrow 92 to the behavioral mimicker indicate that the comparison results are input to the behavioral policy selector and the behavioral mimicker.
  • the learning device 1 generates a recommendation model by simultaneously learning the action policy selector and the action imitator based on the comparison result of the input and the inference result.
  • FIG. 4 is a diagram schematically showing the operation of optimizing the behavior mimicker.
  • the learning device 1 generates a behavior imitator by the ACIL (Adversarial Cooperative Imitation Learning) method.
  • the learning device 1 compares the cases generated by the behavior mimicker with the past success cases in the success case classifier, which is a part of the action policy selector. Further, the learning device 1 compares the cases generated by the behavior mimicker with past failure cases in the failure case classifier, which is a part of the action policy selector.
  • a past success case X in FIG. 4 is input data used as a positive example.
  • the past failure case Z is input data used as a negative example. Whether a past case is a positive example or a negative example is identified by referring to the corresponding success/failure information.
  • Generated case Y is data generated by the behavior mimicker based on the input data.
  • the successful case classifier performs the operation of distinguishing (or classifying) past successful cases and cases generated by the behavior mimicker. Therefore, the behavior imitator and the successful case classifier learn (select the optimal behavior imitator) while opposing each other, with the behavior imitator trying to approximate past successful cases and the successful case classifier trying to distinguish them. proceed.
  • ⁇ Proceeding with learning while being hostile'' means that the behavior mimicker tries to generate cases with small differences from the successful cases, while the successful case classifier tries to further identify small differences, so that the input data This is the process of proceeding with learning so as to reduce the difference between the successful cases, which are the inference results, and the generated cases, which are the inference results.
  • the failure case classifier distinguishes (or classifies) the past failure cases and the cases generated by the behavior mimicker. Therefore, the behavior imitator and the failure case classifier advance learning while cooperating with the behavior imitator that tries to keep away from past failure cases and the success case classifier that tries to distinguish them.
  • ⁇ Proceeding learning while cooperating'' means that the behavior mimicker tries to generate cases with a large difference from the failure case, while the failure case classifier tries to select cases with a larger difference. It refers to the process of proceeding with learning so that the difference between the failure case, which is the input data, and the generated case, which is the inference result, becomes large. In this way, the learning device 1 performs machine learning using both hostility and cooperation, thereby obtaining a recommendation model capable of performing highly accurate inference without fatal failure. .
  • the learning device 1 performs machine learning using training data of positive examples and negative examples to generate a recommendation model.
  • a recommendation model may be generated by performing machine learning using only data.
  • the behavior/state history information indicates a history that alternately indicates the behavior and health status of the subject or training subject.
  • information representing actions at a certain point in time that is, actions corresponding to one circle (o) in FIGS. 3 and 4
  • action element information information representing actions at a certain point in time
  • the above-mentioned "point of time” may have a temporal width (for example, a temporal width of several hours to several days).
  • state element information information representing a health state at a certain point in time (that is, a health state corresponding to one circle ( ⁇ ) in FIGS. 3 and 4) is called “state element information”.
  • the action indicated by the action element information is an action that can be detected by the sensor 6 or the like in terms of the timing at which the action was performed (time period, date and time, when the target person's state reaches a predetermined state, etc.) and the content of the action. Alternatively, it is an action that can be recorded as a history by manual input to the input device 4 or the like. Examples of such behavior include exercise-related behavior (walking, jogging, weight training, stretching, exercise content such as various sports, exercise frequency, amount of exercise, etc.), meal-related behavior (intake, intake limit, meal time period, etc.) , etc.), behavior related to sleep (for example, sleep time and time zone), treatment (including bodywork treatment and medication treatment), massage treatment, and the like.
  • the action element information may include information representing the type of action, or may be information including a combination of the type of action and the degree of action (amount of action).
  • the action element information represents a combination of "type of action” and "degree of action”
  • the “degree of activity” is the number of steps or walking distance.
  • the “degree of action” is distance, load, action time, and the like.
  • the “degree of activity” is the amount of calorie intake or the amount of calorie reduction compared to normal times.
  • the "behavior type” is the type of dietary behavior (carbohydrate intake/restriction, protein intake/restriction, other nutrient intake/restriction)
  • the “degree of behavior” is the intake of the target nutrient. Alternatively, it is an amount of reduction compared to normal, or an index value (for example, GI (Glycemic Index) value) related to dietary intake.
  • the behavior element information does not have to include information about the degree of behavior. In this case, the behavioral element information represents the type of behavior that affects the health condition (for example, training, carbohydrate restriction, etc.).
  • the information on the recommended action output by the recommendation model (also referred to as “recommended action information”) represents the type of action or a combination of the type of action and the degree of action, similar to the action element information.
  • the recommended action information output by the recommendation model has the same data format as the action element information included in the action/state history information used for learning.
  • the state element information is information representing a health condition that can be detected by the sensor 6 or the like, or a health condition that can be acquired as a history by manual input to the input device 4 or the like, and includes one or more health-related index values.
  • Health-related index values include, for example, blood sugar, triglyceride, and cholesterol values that can be obtained by blood tests, body weight, BMI, body fat percentage, blood pressure, heart rate, and the like.
  • the state element information includes at least a health condition index value used to calculate a KPI, which is a key index in determining whether a case is a success or a failure.
  • the index value of the health condition used for calculation of the above-mentioned KPI is also called "KPI-related index value.”
  • the KPI-related index value may be the KPI itself.
  • the state element information may include any index value that is not directly used for KPI calculation, in addition to the index value required for KPI calculation.
  • an index value related to the health condition that is not directly used for KPI calculation is also referred to as a "KPI peripheral index value.”
  • KPI peripheral index value an index value related to the health condition that is not directly used for KPI calculation.
  • the KPI-related index values are weight and height
  • the KPI peripheral index values are blood pressure, heart rate, blood sugar level, and the like.
  • success/failure information used as a teacher label in learning a recommendation model is information indicating whether the action/state history information paired in the learning of the recommendation model is a success case (that is, a positive example) or a failure case (that is, a negative example), and is stored in the training data storage unit 32. remembered.
  • the success/failure information is, for example, when the KPI calculated from the state element information representing the latest health state among the state element information included in the action/state history information belongs to a predetermined preferable value range, the corresponding action • State history information is generated to indicate that it is positive. In addition, if the KPI calculated by the state element information representing the latest health state among the state element information included in the action/state history information is outside the above-described value range, the success/failure information is the corresponding action/state history information. Information is generated to indicate that it is a negative example.
  • the success/failure information would be generated to indicate that it is positive if the body weight decreased after a series of actions or after a certain period of time; Generated to indicate a negative case if the weight after the period did not decrease.
  • the determination of positive or negative cases is not limited to being determined based only on the latest (final) health status, and may be performed in consideration of the health status in the process of reaching the latest health status. .
  • success/failure information indicating that the action/state history information satisfying those conditions is a positive example is given. good.
  • the success/failure information may be generated based on any rule or personal method other than the generation examples described above.
  • FIG. 5 is an example of functional blocks of the learning apparatus 1 .
  • the processor 11 of the learning device 1 functionally has an acquisition unit 15 and a learning unit 16 .
  • the acquisition unit 15 acquires a set of action/state history information and success/failure information that has not yet been used for learning of the recommendation model from the training data storage unit 32 via the interface 13, and acquires the acquired action/state history information and success/failure information. are supplied to the learning unit 16 . Then, the acquisition unit 15 waits until the learning unit 16 finishes learning the recommendation model, or acquires all sets of action/state history information and success/failure information stored in the training data storage unit 32. It acquires a set of status history information and success/failure information and supplies it to the learning unit 16 .
  • the learning unit 16 learns a recommendation model based on the set of action/state history information and success/failure information supplied from the acquisition unit 15 . Specifically, the learning unit 16 determines whether the action/state history information is a success case or a failure case based on the success/failure information. A behavioral policy selector (including a success case classifier and a failure case classifier) and a behavior imitator are trained so as to output an inference result close to a case and far from a failure case. Then, the learning unit 16 updates each parameter of the action guideline selector and the action mimicker by a parameter determination algorithm such as the gradient descent method or the error backpropagation method, and stores the updated parameters in the model information storage unit 31 .
  • a parameter determination algorithm such as the gradient descent method or the error backpropagation method
  • the learning unit 16 ends the learning of the recommendation model when a predetermined learning end condition is satisfied. For example, the learning unit 16 completes learning for a predetermined number of pairs of action/state history information and success/failure information, detects a user input indicating that learning should be terminated, or/and detects an error. When it becomes equal to or less than a predetermined threshold value, it is determined that the end condition of learning is satisfied.
  • each component of the acquisition unit 15 and the learning unit 16 can be implemented by the processor 11 executing a program, for example. Further, each component may be realized by recording necessary programs in an arbitrary nonvolatile storage medium and installing them as necessary. Note that at least part of each of these components may be realized by any combination of hardware, firmware, and software, without being limited to being implemented by program software. Also, at least part of each of these components may be implemented using a user-programmable integrated circuit, such as an FPGA (Field-Programmable Gate Array) or a microcontroller. Also, at least part of each component may be configured by an ASSP (Application Specific Standard Produce), an ASIC (Application Specific Integrated Circuit), or a quantum processor (quantum computer control chip). Thus, each component may be realized by various hardware. The above also applies to other embodiments described later. Furthermore, each of these components may be realized by cooperation of a plurality of computers using, for example, cloud computing technology.
  • FIG. 6 is a diagram schematically showing learning of a recommendation model and calculation of a recommended action using the recommendation model.
  • the learning unit 16 learns a recommendation model by inputting a set of action/state history information and success/failure information into the recommendation model in the learning stage.
  • the learning unit 16 uses the action/state history information of the failure case (here, the success/failure information is “0”) and the action/state history information of the success case (here, the success/failure information is “1”).
  • Train a recommendation model is composed of a total of four elements of behavior and health condition, but is not limited to this, and may have a variable length.
  • the behavior/state history information used for learning may include, for example, a total of two elements (that is, one set of behavior and health condition) of behavior/state history information, or a total of six or more elements of behavior/state history information. Information may be included.
  • FIG. 7 is an example of a flowchart showing the recommendation model learning process executed by the learning device 1 .
  • the learning device 1 acquires a set of action/state history information and success/failure information from the training data storage unit 32 (step S11). Then, the learning device 1 learns a recommendation model based on the set of the action/state history information and the success/failure information acquired in step S11 (step S12). In this case, the learning device 1 updates the parameters of the recommendation model based on the set of the action/state history information and the success/failure information acquired in step S11, and stores the updated parameters in the model information storage unit 31.
  • step S13 determines whether or not the learning has ended.
  • step S13 determines that the learning has ended (step S13; YES)
  • step S13; NO the processing of the flowchart ends.
  • step S13; NO the process returns to step S11.
  • FIG. 8 shows an example of functional blocks of the action recommendation device 2 .
  • the processor 21 of the behavior recommendation device 2 functionally includes a subject data acquisition unit 25 , a history information generation unit 26 , a recommended behavior determination unit 27 , and an output control unit 28 .
  • the blocks that exchange data are connected by solid lines, but the combination of blocks that exchange data is not limited to this. The same applies to other functional block diagrams to be described later.
  • the target person data acquisition unit 25 acquires data related to the target person (also referred to as “subject data”) necessary for generating the behavior/state history information (that is, behavior element information and state element information) of the target person through the interface 23 . to get through.
  • the subject data acquisition unit 25 acquires the input signal S1 generated by the input device 4 and/or the sensor signal S3 generated by the sensor 6 .
  • the subject data acquisition unit 25 or the The history information generation unit 26 may acquire from the storage device 3 the subject's attribute information necessary for generating behavior/state history information.
  • the target person data acquired by the target person data acquisition unit 25 is stored in the storage device 3 or the memory 22 in association with, for example, the date and time of acquisition acquired by the target person data acquisition unit 25 or the date and time designated by the user. may
  • the history information generation unit 26 extracts the time-series behavior and health condition of the subject from the time-series subject data acquired by the subject data acquisition unit 25, and calculates the time-series behavior based on the extraction result. Generate element information and state element information. Then, the history information generation unit 26 supplies the action/state history information, which is time-series data of the generated action element information and state element information, to the recommended action determination unit 27 .
  • the history information generation unit 26 performs predetermined feature extraction processing on the sensor signal S3 to obtain an index (KPI-related indicators and KPI peripheral indicators).
  • the sensor signal S3 is biometric data such as heartbeat and perspiration
  • the history information generation unit 26 performs predetermined feature extraction processing on the biometric data and stress estimation processing based on the extracted feature amount. , a stress value that is a KPI-related index or a KPI-related index is calculated.
  • Various techniques have been proposed for estimating the degree of stress from biometric data.
  • the history information generation unit 26 counts the number of steps in the predetermined period from the sensor signal S3 acquired in the predetermined period. Then, action element information representing the number of steps in a predetermined period is generated based on the count result.
  • the history information generation unit 26 performs feature extraction processing (including feature extraction technology using a learning model using a neural network, etc.) and the like so that the data format matches the input format of the recommendation model. , converts the subject data into action element information and state element information. Then, the history information generation unit 26 supplies the action/state history information including the generated time-series action element information and state element information to the recommended action determination unit 27 .
  • the action/state history information is represented by, for example, a tensor in a predetermined format.
  • the history information generation unit 26 sets an observation period for an action to be included in each action element information included in the action/state history information, and based on the sensor signal S3 etc. obtained for each set observation period, the observation period Generate action element information representing actions for each.
  • the history information generation unit 26 determines the observation timing of the target health condition in each state element information to be included in the action/state history information, and determines the subject's health condition based on the sensor signal S3 etc. obtained at the observation timing. Generates state element information representing a state of health.
  • the health condition observation timing is set, for example, immediately after the observation period of each action or between the observation periods of each action.
  • the history information generation unit 26 generates action/state history information including a predetermined number of the most recently generated time-series action element information and state element information, and uses the generated action/state history information to determine a recommended action. 27.
  • the recommended action determination unit 27 acquires the parameters of the recommended model from the model information storage unit 31, inputs the action/state history information supplied from the history information generation unit 26 to the recommended model configured based on the parameters, Acquire recommended action information representing recommended actions output by the recommendation model based on the input action/state history information.
  • the recommended action determining unit 27 can acquire ground information that serves as a basis for determining the recommended action together with the recommended action information.
  • the basis information includes the past recommended behavior of a person whose behavior/state history information is similar to the behavior/state history information of the target person or a person whose attributes are similar to those of the target person, and the state reached by the recommended action. including.
  • the recommended action determination unit 27 when the recommended action determination unit 27 generates the recommended action information for the target person with the content of "walking for one hour a day", "Mr. AA, a person similar to the target person's health condition, Information such as ⁇ My health condition has improved by walking for one hour a day'' is generated as the basis information.
  • the target person can work on the recommended action with a sense of convincing, so that the probability of working on the recommended action can be improved.
  • the basis information may be generated using a recommendation model by another component instead of the recommended action determination unit 27 .
  • the processing of the recommended action determination unit 27 will be supplemented with reference to FIG. 6 again.
  • the recommended action determination unit 27 inputs action/state history information having four elements of action, health condition, action, and health condition into the recommendation model, and determines the recommended action output from the recommendation model as a result. Representing recommended action information is acquired. The recommended action determination unit 27 then supplies the acquired recommended action information to the output control unit 28 .
  • the action/state history information to be input to the recommendation model need not represent a history with the action as the first element and the health condition as the last element, as shown in FIG. , or may represent a history with an action as the last element.
  • the processing of the output control unit 28 will be described with reference to FIG.
  • the output control unit 28 outputs information about the determined recommended action by controlling the output device 5 based on the recommended action information supplied from the recommended action determination unit 27 .
  • the recommended action determining unit 27 generates image information, text information, or audio information (collectively referred to as “recommended action promotion information”) that prompts the recommended action as the output signal S2, and controls the output.
  • the unit 28 causes the output device 5 to execute image information, text information, or audio information that prompts the user to perform the recommended action.
  • the output control unit 28 based on the recommended behavior promotion information, "reduce the calorie intake (or fat or sugar) by Z (Z is a positive number)", “reduce the number of steps by V (V is a positive number) The user is notified of text information such as "Please increase by the number)".
  • the output control unit 28 can suitably recommend the action that the subject should take next.
  • the output control unit 28 may store the recommended action information or the recommended action promotion information in the storage device 3 or the memory 22 instead of generating the recommended action promotion information as the output signal S2. You may transmit to the external device which communicates.
  • each component of the subject data acquisition unit 25, the history information generation unit 26, the recommended action determination unit 27, and the output control unit 28 can be realized by the processor 21 executing a program, for example. Further, each component may be realized by recording necessary programs in an arbitrary nonvolatile storage medium and installing them as necessary. Note that at least part of each of these components may be realized by any combination of hardware, firmware, and software, without being limited to being implemented by program software. Also, at least a portion of each of these components may be implemented using user-programmable integrated circuits, such as FPGAs or microcontrollers. Also, at least part of each component may be configured by an ASSP, an ASIC, or a quantum processor (quantum computer control chip). Thus, each component may be realized by various hardware. The above also applies to other embodiments described later. Furthermore, each of these components may be realized by cooperation of a plurality of computers using, for example, cloud computing technology.
  • FIG. 9 is an example of a flowchart of action recommendation processing by the action recommendation device 2 .
  • the action recommendation device 2 acquires target person data about the target person from at least one of the input device 4, the sensor 6, and the storage device 3 (step S21). Then, the behavior recommendation device 2 determines whether or not it is time to recommend behavior (step S22). For example, when the action recommendation device 2 receives an input signal S1 requesting action recommendation from the input device 4, or when a predetermined date and time for action recommendation is reached, or when other predetermined action recommendation When the execution condition is met, it is determined that it is time to recommend an action. In this case, the action recommendation execution condition may be determined based on the subject's health condition.
  • the action recommendation device 2 determines that other actions need to be recommended. When the health condition is detected, it may be determined that the action recommendation execution condition is satisfied. In step S22, the processor 21 of the action recommendation device 2 functions as "determination means".
  • step S22 determines that it is not the timing for action recommendation
  • step S21 the action recommendation device 2 continues the process of acquiring the target person data in step S21.
  • step S22 when the action recommendation device 2 determines that it is time to recommend actions (step S22; Yes), action/state history information is generated based on the subject data acquired in step S21 (step S23). Then, the action recommendation device 2 inputs the action/state history information generated in step S23 to the recommendation model configured by referring to the model information storage unit 31, and outputs recommended action information representing the recommended action output by the recommendation model. Acquire (step S24). Then, based on the recommended action information acquired in step S24, the action recommendation device 2 uses the output device 5 to output the recommended action to be recommended to the target person (step S25).
  • the target person is a person undergoing a health checkup
  • the action recommendation device 2 recommends the action that the target person should take based on the diagnostic data of the health checkup that is regularly performed on an annual or monthly basis.
  • the diagnostic data is the diagnostic results or measurement results of each diagnostic item such as height, weight, blood test results, urine test results, X-ray test results, electrocardiogram, etc. These diagnostic data are stored in the storage device 3. ing.
  • step S22 of FIG. when it is time to recommend an action in step S22 of FIG. generates state element information representing the state of health at the time of consultation.
  • the learning device 1 generates behavioral element information representing the behavior before receiving the health checkup based on the subject data observed before the health checkup in the same manner as in the above-described embodiment, and the generated behavioral element information and the health Action/state history information including state element information based on the diagnosis is generated in step S23.
  • the learning device 1 acquires recommended action information output by the recommendation model by inputting the action/state history information to the recommendation model in step S24, and outputs the recommended action in step S25.
  • the learning device 1 can suitably recommend to the subject, who is the subject of the health checkup, the action that the subject should take based on the diagnostic data of the health checkup.
  • the learning device 1 expresses the subject's health condition by using both the diagnostic data of the physical examination and the sensor signal S3 output by the sensor 6 provided in the wearable terminal or mobile terminal owned by the subject. State element information may be generated.
  • the learning device 1 learns a recommendation model for each attribute classification of the training subject, and the action recommendation device 2 uses a recommendation model for determining a recommended action based on the subject's attribute. may be selected.
  • the training subjects are classified into a plurality of groups based on predetermined attributes (eg, age, gender, race, etc.), and the learning device 1 corresponds to the training subjects divided for each group.
  • a recommendation model is learned for each group based on the training data, and the parameters of the recommendation model for each group obtained by the learning are stored in the model information storage unit 31 .
  • the action recommendation device 2 determines the recommended action of the target person
  • the target person's attribute information is stored in the storage device 3, or the signal acquired from the input device 4 or the sensor 6. and recognize groups into which the subject is classified based on the attributes of the recognized subject.
  • the storage device 3 extracts the parameters of the recommendation model corresponding to the group into which the subject is classified from the model information storage unit 31, configures the recommendation model, and determines the recommended behavior of the subject using the recommendation model. do.
  • the action recommendation system 100 learns the action that the subject should take based on the training data acquired from the training subject whose attributes are similar to the subject, and It becomes possible to recommend the desired action to the target person.
  • FIG. 10 shows a schematic configuration of an action recommendation system 100A in the second embodiment.
  • a behavior recommendation system 100A according to the second embodiment is a server-client model system, and a behavior recommendation device 2A functioning as a server device performs processing of the learning device 1 and the behavior recommendation device 2 in the first embodiment.
  • symbol is attached suitably, and the description is abbreviate
  • a behavior recommendation system 100A mainly includes a behavior recommendation device 2A functioning as a server, a storage device 3 storing data similar to that of the first embodiment, and a terminal device 8 functioning as a client.
  • the action recommendation device 2 ⁇ /b>A and the terminal device 8 perform data communication via the network 7 .
  • the terminal device 8 is a terminal having an input function, a display function, and a communication function, and functions as the input device 4 and the output device 5 shown in FIG.
  • the terminal device 8 may be, for example, a personal computer, a tablet terminal, a PDA (Personal Digital Assistant), or the like.
  • the terminal device 8 transmits a biological signal output by the sensor 6, an input signal based on a user input, or the like to the action recommendation device 2A.
  • the action recommendation device 2A has the hardware configuration shown in FIG. 2(A) or FIG. 2(B) and the functional block configurations shown in FIGS. 5 and 8, respectively. Then, the action recommendation device 2A, after executing the recommendation model learning process shown in the flowchart of FIG. 7 as target person data from the terminal device 8, and based on the received target person data, action recommendation processing shown in the flowchart of FIG. 9 or the like is executed. In this case, the action recommendation device 2A (specifically, the output control unit 28 in FIG. 8) sends an output signal related to the recommended action determined by the action recommendation process to the terminal device 8 via the network 7 based on the request from the terminal device 8. Send to device 8 . In this case, the terminal device 8 functions as the output device 5 in the first embodiment.
  • the behavior recommendation device 2A can suitably present information regarding recommended behavior determined based on the history of the behavior and health condition of the user of the terminal device 8 to the user of the terminal device 8. can be done.
  • a device other than the action recommendation device 2A may perform the learning process of the recommendation model.
  • FIG. 11 is a block diagram of a learning device 1X according to the third embodiment.
  • the learning device 1X mainly has an acquisition means 15X and a learning means 16X. Note that the learning device 1X may be composed of a plurality of devices.
  • Acquisition means 15X obtains history information indicating the history of the subject's health condition and behavior that contributes to the change in the subject's health condition, and success/failure indicating whether or not the behavior contributed to the change in the subject's health condition. Get information and
  • the acquisition unit 15X can be, for example, the acquisition unit 15 of the learning device 1 in the first embodiment or the acquisition unit 15 of the action recommendation device 2A in the second embodiment.
  • the learning means 16X recommends actions to be recommended to improve the health condition of the subject when the history information representing the history of the subject's behavior and health condition is input. Train a model that outputs information about .
  • the learning unit 16X can be, for example, the learning unit 16 of the learning device 1 in the first embodiment or the learning unit 16 of the action recommendation device 2A in the second embodiment.
  • FIG. 12 is an example of a flowchart executed by the learning device 1X in the third embodiment.
  • Acquisition means 15X of learning device 1X acquires history information indicating the history of the subject's health condition and behavior that contributes to the change in the subject's health condition, and whether or not the behavior has contributed to the change in the subject's health condition. Acquire success/failure information indicating whether or not (step S31). Then, the learning means 16X of the learning device 1X improves the subject's health condition based on the history information and the success/failure information, when the history information representing the history of the behavior and health condition of the subject is input. It learns a model that outputs information about recommended actions to be recommended (step S32).
  • the third embodiment it is possible to learn a model that can determine a recommended action to be recommended to a subject in consideration of the history of the subject's behavior and health condition.
  • FIG. 13 is a block diagram of an action recommendation device 2X according to the fourth embodiment.
  • the action recommendation device 2X mainly includes history information acquisition means 26X, recommended action determination means 27X, and output means 28X.
  • the action recommendation device 2Y may be composed of a plurality of devices.
  • the history information acquisition means 26X acquires history information representing the history of the subject's health condition and actions that contribute to changes in the subject's health condition.
  • the history information acquisition unit 26X can be the history information generation unit 26 of the behavior recommendation device 2 in the first embodiment or the history information generation unit 26 of the behavior recommendation device 2A in the second embodiment.
  • the recommended action determination means 27X determines recommended actions, which are actions to be recommended to the target person, based on the history information and the recommendation model.
  • the recommendation model is based on the history information representing the history of the health conditions of the plurality of persons and the history of actions that contribute to changes in the health conditions of the plurality of persons. It is a model that has learned the relationship between the recommended action recommended to improve each person's health condition.
  • the recommended action determination unit 27X can be the recommended action determination unit 27 of the action recommendation device 2 in the first embodiment or the recommended action determination unit 27 of the action recommendation device 2A in the second embodiment.
  • the output means 28X outputs information on recommended actions.
  • the output means 28X may display and/or output information on the recommended action to an output device connected to the action recommendation device 2X by wire or wirelessly or built in the action recommendation device 2X, and may output the information by voice.
  • Information on the recommended action may be transmitted to an external device connected to the device 2X by wire or wirelessly, and the recommended action is stored in a storage device connected to the action recommendation device 2X by wire or wirelessly or built into the action recommendation device 2X. may store information about
  • the output means 28X can be the output control unit 28 of the action recommendation device 2 in the first embodiment or the output control unit 28 of the action recommendation device 2A in the second embodiment.
  • FIG. 14 is an example of a flowchart executed by the action recommendation device 2X in the fourth embodiment.
  • the history information acquisition unit 26X of the behavior recommendation device 2X acquires history information representing the history of the subject's health condition and behaviors that contribute to changes in the subject's health condition (step S41).
  • the recommended action determination means 27X of the action recommendation device 2X determines a recommended action, which is an action to be recommended to the target person, based on the history information and the recommendation model (step S42).
  • the recommendation model is based on the history information representing the history of the health conditions of the plurality of persons and the history of actions that contribute to changes in the health conditions of the plurality of persons. It is a model that has learned the relationship between recommended actions recommended to improve the health condition of the patient.
  • the output means 28X of the action recommendation device 2X outputs information on the recommended action (step S43).
  • the behavior recommendation device 2X can accurately determine and output the recommended behavior to be recommended to the target person, taking into consideration the history of the target person's behavior and health condition.
  • Non-transitory computer readable media include various types of tangible storage media.
  • Examples of non-transitory computer-readable media include magnetic storage media (e.g., floppy disks, magnetic tapes, hard disk drives), magneto-optical storage media (e.g., magneto-optical discs), CD-ROMs (Read Only Memory), CD-Rs, CD-R/W, semiconductor memory (eg mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)).
  • the program may also be delivered to the computer on various types of transitory computer readable medium.
  • Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves.
  • Transitory computer-readable media can deliver the program to the computer via wired channels, such as wires and optical fibers, or wireless channels.
  • the learning device according to appendix 1 or 2, wherein the history information includes information about the type of action and the degree of the action as the history of the action.
  • the history information includes, as the history of the health condition, at least an index related to the health condition used for calculating a reference index serving as a reference for determining whether the history is the successful case. or the learning device according to claim 1.
  • history information acquisition means for acquiring history information representing a history of a subject's health condition and actions that contribute to changes in the subject's health condition; recommended action determination means for determining a recommended action, which is an action to be recommended to the target person, based on the history information and the recommendation model; output means for outputting information about the recommended action; has The recommendation model is based on history information representing a history of the health conditions of the plurality of persons and actions that contribute to changes in the health conditions of the plurality of persons. A model that has learned the relationship between recommended actions recommended to improve each health condition, Action recommender.
  • the recommended action determining means generates recommended action promotion information to be notified to the target person based on the recommended action, 6.
  • the action recommendation device according to appendix 5, wherein the output means further outputs the recommended action promotion information.
  • Appendix 7 further comprising a basis information generating means for generating basis information relating to the basis for determining the recommended action; 7.
  • the action recommendation device according to appendix 5 or 6, wherein the output means outputs the basis information.
  • Appendix 8 Further comprising determination means for determining whether or not it is time to recommend actions to the target person, 8.
  • the action recommendation device according to any one of appendices 5 to 7, wherein the output means outputs information about the recommended action when it is determined that the timing is reached.
  • Appendix 9 further comprising subject data acquisition means for acquiring subject data, which is data relating to the subject; 9.
  • the action recommendation device according to any one of appendices 5 to 8, wherein the history information acquisition means generates the history information based on the subject data.
  • the action recommendation device according to appendix 9, wherein the target person data includes a signal output by a sensor that observes the target person.
  • the subject data acquisition means acquires the subject data from a terminal device used by the subject, 11.
  • the action recommendation device according to appendix 9 or 10, wherein the output control means transmits information about the recommended action to the terminal device.
  • Appendix 12 12.
  • the behavior recommendation device according to any one of appendices 9 to 11, wherein the history information acquisition means generates the history information based on diagnosis data of a physical examination received by the subject.
  • the recommendation model is based on history information representing a history of the health conditions of the plurality of persons and actions that contribute to changes in the health conditions of the plurality of persons.
  • History information representing a history of a subject's health condition and behavior that contributes to a change in the subject's health condition ; success/failure information indicating whether or not the behavior contributed to a change in the subject's health condition; and get Information on a recommended action to be recommended for improving the health condition of the subject when the history information representing the history of the behavior and health status of the subject is input based on the history information and the success/failure information.
  • [Appendix 16] Acquiring history information representing a history of a subject's health condition and behavior that contributes to a change in the subject's health condition; determining a recommended action, which is an action to be recommended to the target person, based on the history information and the recommendation model; cause a computer to execute a process of outputting information about the recommended action;
  • the recommendation model is based on history information representing a history of the health conditions of the plurality of persons and actions that contribute to changes in the health conditions of the plurality of persons.
  • a model that has learned the relationship between recommended actions recommended to improve each health condition, A storage medium in which programs are stored.
  • the learning system according to appendix 17 or 18, wherein the history information includes information about the type of action and the degree of the action as the action history.
  • Appendix 20 Any one of Appendices 17 to 19, wherein the history information includes, as the history of the health condition, at least an index related to the health condition used for calculating a reference index serving as a reference for determining whether the history is the successful case. 1.
  • the learning system according to 1.
  • history information acquisition means for acquiring history information representing a history of a subject's health condition and actions that contribute to changes in the subject's health condition; recommended action determination means for determining a recommended action, which is an action to be recommended to the target person, based on the history information and the recommendation model; output means for outputting information about the recommended action; has The recommendation model is based on history information representing a history of the health conditions of the plurality of persons and actions that contribute to changes in the health conditions of the plurality of persons. A model that has learned the relationship between recommended actions recommended to improve each health condition, action recommendation system.
  • the recommended action determining means generates recommended action promotion information to be notified to the target person based on the recommended action, 22.
  • Appendix 23 further comprising a basis information generating means for generating basis information relating to the basis for determining the recommended action; 23.
  • Appendix 24 Further comprising determination means for determining whether or not it is time to recommend actions to the target person, 24.
  • Appendix 25 further comprising subject data acquisition means for acquiring subject data, which is data relating to the subject; 25.
  • the action recommendation system according to any one of appendices 21 to 24, wherein the history information acquisition means generates the history information based on the subject data.
  • the subject data acquisition means acquires the subject data from a terminal device used by the subject, 27.
  • the action recommendation system according to appendix 25 or 26, wherein the output control means transmits information about the recommended action to the terminal device.
  • [Appendix 28] 28 28.
  • the action recommendation system according to any one of appendices 25 to 27, wherein the history information acquisition means generates the history information based on diagnostic data of a physical examination received by the subject.
  • Used for services related to health management such as diet support, health promotion, athlete health management, and patient rehabilitation management.

Landscapes

  • Health & Medical Sciences (AREA)
  • Nutrition Science (AREA)
  • Engineering & Computer Science (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

学習装置1Xの取得手段15Xは、対象者の健康状態と対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報と、当該行動が対象者の健康状態の変化に寄与したか否かを示す成否情報と、を取得する。そして、学習装置1Xの学習手段16Xは、履歴情報と、成否情報とに基づき、対象者の行動と健康状態との履歴を表す履歴情報が入力された場合に、対象者の健康状態を改善するために推薦する推薦行動に関する情報を出力するモデルを学習する。

Description

学習装置、行動推薦装置、学習方法、行動推薦方法及び記憶媒体
 本開示は、対象者の健康状態を変容するための行動の推薦に関する処理を行う学習装置、行動推薦装置、学習方法、行動推薦方法及び記憶媒体の技術分野に関する。
 対象者がとるべき行動を提示する装置又はシステムが知られている。例えば、特許文献1には、健康状態が改善したと判定された利用者の基本情報、身体情報及び行動情報を収集し、ある行動が健康状態の改善に寄与する条件を分析することで、利用者の身体機能及び生活習慣に応じた成功体験談を利用者に提示するシステムが開示されている。また、特許文献2には、健康診断結果のデータ等に基づき、健康状態改善等のための行動変容を促す改善行動ポートフォリオを対象者に提供するシステムが開示されている。
特開2015-200969号公報 特開2009-157837号公報
 健康管理のための行動変容を対象者に提示する場合、当該対象者の過去の行動及び健康状態によって次にとるべき適切な行動は異なる。一方、特許文献1及び特許文献2には、対象者の過去の行動と健康状態の両方を勘案して推薦すべき行動を決定する点については開示されていない。
 本開示は、上述した課題を鑑み、対象者に推薦する行動を好適に決定することが可能な学習装置、行動推薦装置、学習方法、行動推薦方法及び記憶媒体を提供することを目的の1つとする。
 学習装置の一の態様は、
 対象者の健康状態と前記対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報と、前記行動が前記対象者の健康状態の変化に寄与したか否かを示す成否情報と、を取得する取得手段と、
 前記履歴情報と、前記成否情報とに基づき、前記対象者の行動と健康状態との履歴を表す履歴情報が入力された場合に、前記対象者の健康状態を改善するために推薦する推薦行動に関する情報を出力するモデルを学習する学習手段と、
を有する学習装置である。
 行動推薦装置の一の態様は、
対象者の健康状態と前記対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報を取得する履歴情報取得手段と、
 前記履歴情報と、推薦モデルとに基づいて、前記対象者に対して推薦する行動である推薦行動を決定する推薦行動決定手段と、
 前記推薦行動に関する情報を出力する出力手段と、
を有し、
 前記推薦モデルは、複数の人物の健康状態と前記複数の人物の健康状態の変化に寄与する行動との履歴を表す履歴情報に基づいて、前記複数の人物各々の健康状態と、前記複数の人物各々の健康状態を改善するために推薦される推薦行動と、の関係を学習したモデルである、
行動推薦装置である。
 学習方法の一の態様は、
 コンピュータが、
 対象者の健康状態と前記対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報と、前記行動が前記対象者の健康状態の変化に寄与したか否かを示す成否情報と、を取得し、
 前記履歴情報と、前記成否情報とに基づき、前記対象者の行動と健康状態との履歴を表す履歴情報が入力された場合に前記対象者の健康状態を改善するために推薦する推薦行動に関する情報を出力するモデルを学習する、
学習方法である。なお、「コンピュータ」は、あらゆる電子機器(電子機器に含まれるプロセッサであってもよい)を含み、かつ、複数の電子機器により構成されてもよい。
 行動推薦方法の他の態様は、
 コンピュータが、
 対象者の健康状態と前記対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報を取得し、
 前記履歴情報と、推薦モデルとに基づいて、前記対象者に対して推薦する行動である推薦行動を決定し、
 前記推薦行動に関する情報を出力する行動推薦方法であって、
 前記推薦モデルは、複数の人物の健康状態と前記複数の人物の健康状態の変化に寄与する行動との履歴を表す履歴情報に基づいて、前記複数の人物各々の健康状態と、前記複数の人物各々の健康状態を改善するために推薦される推薦行動と、の関係を学習したモデルである、
行動推薦方法である。
 記憶媒体の一の態様は、
 対象者の健康状態と前記対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報と、前記行動が前記対象者の健康状態の変化に寄与したか否かを示す成否情報と、を取得し、
 前記履歴情報と、前記成否情報とに基づき、前記対象者の行動と健康状態との履歴を表す履歴情報が入力された場合に前記対象者の健康状態を改善するために推薦する推薦行動に関する情報を出力するモデルを学習する処理をコンピュータに実行させるプログラムが格納された記憶媒体である。
 記憶媒体の他の態様は、
 対象者の健康状態と前記対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報を取得し、
 前記履歴情報と、推薦モデルとに基づいて、前記対象者に対して推薦する行動である推薦行動を決定し、
 前記推薦行動に関する情報を出力する処理をコンピュータに実行させ、
 前記推薦モデルは、複数の人物の健康状態と前記複数の人物の健康状態の変化に寄与する行動との履歴を表す履歴情報に基づいて、前記複数の人物各々の健康状態と、前記複数の人物各々の健康状態を改善するために推薦される推薦行動と、の関係を学習したモデルである、プログラムが格納された記憶媒体である。
 本開示の1つの効果の例として、対象者の過去の行動と健康状態を勘案して、対象者の健康を改善するための推薦行動を好適に決定することができる。
第1実施形態に係る行動推薦システムの概略構成を示す。 (A)学習装置のハードウェア構成を示す。(B)行動推薦装置のハードウェア構成を示す。 SAiL法における推薦モデルの生成動作を模式的に示す図である。 行動模倣器を最適化する動作を模式的に示す図である。 学習装置の機能ブロックの一例である。 推薦モデルの学習及び推薦モデルを用いた推薦行動の算出を模式的に示した図である。 学習装置が実行する推薦モデルの学習処理を表すフローチャートの一例である。 行動推薦装置の機能ブロックの一例である。 行動推薦装置が実行する行動推薦処理のフローチャートの一例である。 第2実施形態に係る行動推薦システムの概略構成を示す。 第3実施形態における学習装置のブロック図である。 第3実施形態において学習装置が実行するフローチャートの一例である。 第4実施形態における行動推薦装置のブロック図である。 第4実施形態において行動推薦装置が実行するフローチャートの一例である。
 以下、図面を参照しながら、学習装置、行動推薦装置、学習方法、行動推薦方法及び記憶媒体の実施形態について説明する。
 <第1実施形態>
 (1)システム構成
 図1は、第1実施形態に係る行動推薦システム100の概略構成を示す。行動推薦システム100は、対象者の健康管理に関するシステムであり、対象者の行動及び健康状態の履歴から次に実行すべき行動を推薦する推薦モデルの学習と、学習された推薦モデルを用いた行動の推薦とを行う。推薦モデルは、後述するように、行動と行動を行った者の健康状態との履歴を表す履歴情報と、行動を行った者に対して推薦する行動との関係を学習したモデルである。
 以後において、「対象者」は、行動推薦システム100により行動の推薦を受けるものであって、組織により行動の管理が行われる者であってもよく、個人のユーザであってもよい。また、上述した「健康管理」には、体重・体脂肪率の改善等を目的としたダイエット支援、血糖値などその他検査項目の改善を目的とした健康増進などの一般的な健康管理の他、アスリートなどの特殊業務者のコンディション維持、リハビリを必要とする患者のリハビリテーションの管理なども含まれる。また、「行動」は、対象者の健康に影響がある任意の行動を含み、自ら実行する能動的な行動に限らず、マッサージや治療を受けるなどの受動的な行動も含む。
 行動推薦システム100は、主に、学習装置1と、行動推薦装置2と、記憶装置3と、入力装置4と、出力装置5と、センサ6とを備える。ここで、学習装置1と記憶装置3、及び、行動推薦装置2と記憶装置3は、通信網を介し、又は、無線若しくは有線による直接通信によりデータ通信を行う。同様に、行動推薦装置2と入力装置4、行動推薦装置2と出力装置5、及び行動推薦装置2とセンサ6は、通信網を介し、又は、無線若しくは有線による直接通信によりデータ通信を行う。
 学習装置1は、記憶装置3の訓練データ記憶部32が記憶する訓練データに基づいて、学習器である推薦モデルの機械学習を行い、機械学習により得られた推薦モデルのパラメータを記憶装置3のモデル情報記憶部31に記憶する。ここで、推薦モデルは、対象者の行動と健康状態の履歴を表す情報(「行動・状態履歴情報」とも呼ぶ。)を入力データとし、対象者に推薦する行動(「推薦行動」とも呼ぶ。)を推論結果として出力する学習モデルである。このような推薦モデルの機械学習方法の一例として、本実施形態では、SAiL(Skill Acquisition Learning)法に基づく上述の推薦モデルの学習を行う。推薦モデルの学習の詳細については後述する。
 行動推薦装置2は、記憶装置3のモデル情報記憶部31が記憶するパラメータに基づき推薦モデルを構成し、構成した推薦モデルと、対象者の直近の行動及び健康状態の履歴を表す行動・状態履歴情報とに基づき、対象者に推薦する推薦行動を決定する。この場合、行動推薦装置2は、入力装置4から供給される入力信号「S1」、センサ6から供給されるセンサ(検出)信号「S3」、又は/及び記憶装置3に記憶された情報に基づき、対象者の直近の行動及び健康状態の履歴を表す行動・状態履歴情報を取得する。そして、行動推薦装置2は、決定した推薦行動に関する情報を、出力装置5により出力する。この場合、行動推薦装置2は、対象者に推薦する推薦行動に関する出力信号「S2」を生成し、生成した出力信号S2を出力装置5に供給する。
 入力装置4は、各対象者に関する情報の手入力(外部入力)を受け付けるインターフェースである。なお、入力装置4を用いて情報の入力を行うユーザは、対象者本人であってもよく、対象者の活動を管理又は監督する者であってもよい。入力装置4は、例えば、タッチパネル、ボタン、キーボード、マウス、音声入力装置などの種々のユーザ入力用インターフェースであってもよい。入力装置4は、生成した入力信号S1を、行動推薦装置2へ供給する。出力装置5は、行動推薦装置2から供給される出力信号S2に基づき、所定の情報を表示又は音出力する。出力装置5は、例えば、ディスプレイ、プロジェクタ、スピーカ等である。
 センサ6は、対象者の生体信号等を測定し、測定した生体信号等を、センサ信号S3として行動推薦装置2へ供給する。この場合、センサ信号S3は、対象者の心拍、脳波、脈波、発汗量(皮膚電気活動)、ホルモン分泌量、脳血流、血圧、体温、筋電、呼吸数、加速度などの任意の生体信号(バイタル情報を含む)であってもよい。また、センサ6は、対象者から採取された血液を分析し、その分析結果を示すセンサ信号S3を出力する装置であってもよい。また、センサ6は、対象者が装着するウェアラブル端末であってもよく、対象者を撮影するカメラ又は対象者の発話の音声信号を生成するマイク等であってもよく、対象者が操作するパーソナルコンピュータやスマートフォンなどの端末であってもよい。上述のウェアラブル端末は、例えば、GNSS(Global Navigation Satellite System)受信機、加速度センサ、その他生体信号を検出するセンサ等を含んでおり、これらの各センサの出力信号をセンサ信号S3として出力する。また、センサ6は、パーソナルコンピュータやスマートフォンなどの操作量に相当する情報をセンサ信号S3として行動推薦装置2に供給してもよい。また、センサ6は、対象者の睡眠中に対象者から生体データ(睡眠時間を含む)を表すセンサ信号S3を出力するものであってもよい。
 記憶装置3は、学習装置1及び行動推薦装置2が実行する処理に必要な各種情報を記憶するメモリである。記憶装置3は、学習装置1及び行動推薦装置2に接続又はいずれか一方に内蔵されたハードディスクなどの外部記憶装置であってもよく、持ち運び自在なフラッシュメモリなどの記憶媒体であってもよい。また、記憶装置3は、学習装置1及び行動推薦装置2とデータ通信を行うサーバ装置であってもよい。また、記憶装置3は、複数の装置から構成されてもよい。
 記憶装置3は、機能的には、モデル情報記憶部31と、訓練データ記憶部32とを有している。
 モデル情報記憶部31は、学習装置1が学習する推薦モデルのパラメータを記憶する。推薦モデルは、対象者に関する直前の行動及び健康状態の履歴を表す行動・状態履歴情報を入力データとし、当該対象者へ推薦する推薦行動を推論結果として出力するように学習される。推薦モデルのパラメータは、行動・状態履歴情報を入力データとして用い、当該行動・状態履歴情報が成功事例の行動・健康状態の履歴を表すもの(即ち正例)であるか又は失敗事例の行動・健康状態の履歴を表すものであるか(即ち負例)を表す教師ラベル(「成否情報」とも呼ぶ。)を用いた機械学習によって生成される。ここで、成功事例であるか失敗事例であるかは、対象の健康状態の改善の有無(及び改善度合い)に基づき判定され、具体的には対象者の健康管理にとって重要となる指標(KPI:Key Performance Indicator)に基づき学習前において判定される。KPIは、「基準指標」の一例である。
 なお、推薦モデルとして、畳み込みニューラルネットワークなどのニューラルネットワークに基づくモデルが用いられる場合には、モデル情報記憶部31には、モデルにおいて採用される層構造、各層のニューロン構造、各層におけるフィルタ数及びフィルタサイズ、並びに各フィルタの各要素の重みなどの種々のパラメータの情報が記憶される。モデル情報記憶部31に記憶されるパラメータは、学習装置1により生成及び更新される。
 訓練データ記憶部32は、学習装置1による学習に用いられる学習用(訓練用)のデータである訓練データ(学習データ)を記憶する。訓練データは、訓練データ生成用の被検者(「訓練用被検者」とも呼ぶ。)の行動と健康状態を表す行動・状態履歴情報と、当該行動・状態履歴情報に対する正負ラベルとの組を複数組含んでいる。
 なお、図1に示す行動推薦システム100の構成は一例であり、当該構成に種々の変更が行われてもよい。例えば、学習装置1と、行動推薦装置2と、記憶装置3とのうち少なくとも2つが同一装置により実現されてもよい。他の例では、学習装置1と行動推薦装置2とは、夫々、複数の装置により構成されてもよい。この場合、学習装置1を構成する複数の装置及び行動推薦装置2を構成する複数の装置は、予め割り当てられた処理を実行するために必要な情報の授受を、有線又は無線での直接通信により又はネットワークを介した通信により装置間において行う。この場合、学習装置1は学習システムとして機能し、行動推薦装置2は行動推薦システムとして機能する。さらに別の例では、入力装置4及び出力装置5は、一体となって構成されてもよい。この場合、入力装置4及び出力装置5は、行動推薦装置2と一体又は別体となるタブレット型端末として構成されてもよい。また、入力装置4とセンサ6とは、一体となって構成されてもよい。
 (2)ハードウェア構成
 図2(A)は、学習装置1のハードウェア構成を示す。学習装置1は、ハードウェアとして、プロセッサ11と、メモリ12と、インターフェース13とを含む。プロセッサ11、メモリ12及びインターフェース13は、データバス10を介して接続されている。
 プロセッサ11は、メモリ12に記憶されているプログラムを実行することにより、学習装置1の全体の制御を行うコントローラ(演算装置)として機能する。プロセッサ11は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、TPU(Tensor Processing Unit)などのプロセッサである。プロセッサ11は、複数のプロセッサから構成されてもよい。プロセッサ11は、コンピュータの一例である。
 メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリなどの各種の揮発性メモリ及び不揮発性メモリにより構成される。また、メモリ12には、学習装置1が実行する処理を実行するためのプログラムが記憶される。なお、メモリ12が記憶する情報の一部は、学習装置1と通信可能な1又は複数の外部記憶装置により記憶されてもよく、学習装置1に対して着脱自在な記憶媒体により記憶されてもよい。
 インターフェース13は、学習装置1と他の装置とを電気的に接続するためのインターフェースである。これらのインターフェースは、他の装置とデータの送受信を無線により行うためのネットワークアダプタなどのワイアレスインタフェースであってもよく、他の装置とケーブル等により接続するためのハードウェアインターフェースであってもよい。
 なお、学習装置1のハードウェア構成は、図2(A)に示す構成に限定されない。例えば、学習装置1は、ディスプレイなどの表示部、キーボードやマウスなどの入力部、スピーカなどの音出力部などをさらに備えてもよい。
 図2(B)は、行動推薦装置2のハードウェア構成の一例を示す。行動推薦装置2は、ハードウェアとして、プロセッサ21と、メモリ22と、インターフェース23とを含む。プロセッサ21、メモリ22、及びインターフェース23は、データバス20を介して接続されている。
 プロセッサ21は、メモリ22に記憶されているプログラムを実行することにより、行動推薦装置2の全体の制御を行うコントローラ(演算装置)として機能する。プロセッサ21は、例えば、CPU、GPU、TPU、量子プロセッサなどのプロセッサである。プロセッサ21は、複数のプロセッサから構成されてもよい。プロセッサ21は、コンピュータの一例である。
 メモリ22は、RAM、ROM、フラッシュメモリなどの各種の揮発性メモリ及び不揮発性メモリにより構成される。また、メモリ22には、行動推薦装置2が実行する処理を実行するためのプログラムが記憶される。なお、メモリ22が記憶する情報の一部は、行動推薦装置2と通信可能な記憶装置3などの外部記憶装置により記憶されてもよく、行動推薦装置2に対して着脱自在な記憶媒体により記憶されてもよい。また、メモリ22は、記憶装置3が記憶する情報を代わりに記憶してもよい。
 インターフェース23は、行動推薦装置2と他の装置とを電気的に接続するためのインターフェースである。これらのインターフェースは、他の装置とデータの送受信を無線により行うためのネットワークアダプタなどのワイアレスインタフェースであってもよく、他の装置とケーブル等により接続するためのハードウェアインターフェースであってもよい。
 なお、行動推薦装置2のハードウェア構成は、図2(B)に示す構成に限定されない。例えば、行動推薦装置2は、入力装置4、出力装置5、センサ6とインターフェース23を介して接続する代わりに、これらのいずれかを内蔵してもよい。
 (3)推薦モデルの概要
 (3-1)SAiL法の基本説明
 次に、本実施形態において推薦モデルの学習に用いるSAiL法に関する基本説明を行う。図3は、SAiL法における推薦モデルの生成動作を模式的に示す図である。図3に示されるように、推薦モデルは、行動方針選択器と、複数の行動模倣器(行動模倣器A、行動模倣器B、…)とを含んでいる。ここで、丸印(〇)は訓練用被検者がとった行動を表し、三角印(△)は訓練用被検者の健康状態を表す。
 ここで、行動模倣器は、ある過去事例が入力されると、入力された過去事例に推薦行動を付加した行動推薦事例を出力するモデルである。図3では、行動とその行動の結果として発生した健康状態とが時系列により交互に示された5要素分の履歴を示す過去事例Aが用いられている。そして、過去事例Aは、最後の行動を除いた4要素分の履歴として各行動模倣器に入力される。そして、各行動模倣器は、入力された4要素分の過去事例Aに基づき推薦行動を推論し、入力された4要素分の過去事例Aに推薦行動を付加した行動推薦事例Bを出力する。ここで、行動推薦事例Bは、推論された推薦行動を含む、行動と健康状態の計5要素分の履歴となっている。左側の過去事例Aの下に示す矢印90は、最後の行動を除いた4要素分の過去事例Aの行動模倣器への入力を示しており、行動推薦事例Bの下の矢印91は、行動推薦事例Bの行動模倣器からの出力を示している。
 入力された過去事例に基づき各行動模倣器が行動推薦事例を推論すると、行動方針選択器は、入力(即ち5要素分の過去事例A)と推論結果とを比較し、推論の精度を基に最適な行動模倣器を選択する。図3の過去事例Aと行動推薦事例Bの間の矢印92は、入力である5要素分の過去事例Aと、推論結果である行動推薦事例Bの比較を示している。矢印92から行動方針選択器への矢印93および矢印92から行動模倣器に向けた矢印94は、比較結果が行動方針選択器と行動模倣器に入力されることを示している。
 そして、学習装置1は、入力と推論結果の比較結果を基に、行動方針選択器と、行動模倣器を同時に学習することで推薦モデルを生成する。
 図4は、行動模倣器を最適化する動作を模式的に示す図である。学習装置1は、行動模倣器をACIL(Adversarial Cooperative Imitation Learning)法によって生成する。学習装置1は、行動方針選択器の一部である成功事例分類器において、行動模倣器が生成した事例と、過去の成功事例と比較する。また、学習装置1は、行動方針選択器の一部である失敗事例分類器において、行動模倣器が生成した事例と、過去の失敗事例と比較する。図4の過去の成功事例Xは、正例として用いられる入力データである。また、過去の失敗事例Zは、負例として用いられる入力データである。過去事例が正例であるか負例であるは、対応する成否情報を参照することで識別される。生成された事例Yは、入力データを基に行動模倣器によって生成されたデータである。
 成功事例分類器は、過去の成功事例と行動模倣器が生成した事例を見分ける(または分類する)動作を行う。そのため、行動模倣器と成功事例分類器は、過去の成功事例に近づけようとする行動模倣器と見分けようとする成功事例分類器とで、敵対しながら学習(最適な行動模倣器の選択)を進める。「敵対しながら学習を進める」とは、行動模倣器が成功事例との差が小さい事例を生成しようとするのに対し、成功事例分類器が小さな差をさらに見極めようとすることで、入力データである成功事例と推論結果である生成された事例との差が小さくなるように学習を進めていく処理のことをいう。
 一方、失敗事例分類器は、過去の失敗事例と行動模倣器が生成した事例を見分ける(または分類する)動作を行う。そのため、行動模倣器と失敗事例分類器は、過去の失敗事例に遠ざけようとする行動模倣器と見分けようとする成功事例分類器とで、協調しながら学習を進める。「協調しながら学習を進める」とは、行動模倣器が失敗事例との差が大きい事例を生成しようとするのに対し、差がより大きい事例を失敗事例分類器が選択しようとすることで、入力データである失敗事例と推論結果である生成された事例との差が大きくなるように学習を進めていく処理のことをいう。このように、学習装置1は、敵対と協調の両方を用いて機械学習を行うことで、致命的な失敗に至ることなく精度の高い推論を行うことができる推薦モデルを得ることが可能になる。
 ACIL法およびSAiL法の詳細は、Lu Wand et al., " Adversarial Cooperative Imitation Learning for Dynamic Treatment Regimes", Proceedings of The Web Conference 2020 (WWW '20), [2021年8月5日検索]Internet <URL: https://dl.acm.org/doi/10.1145/3366423.3380248>に記載されている。
 なお、図3及び図4の例では、学習装置1は、正例と負例の訓練データを用いて機械学習を行って推薦モデルを生成しているが、学習装置1は、正例の訓練データのみを用いて機械学習を行って推薦モデルを生成してもよい。
 (3-2)行動・状態履歴情報
 次に、推薦モデルの学習時又は推薦モデルを用いた推薦行動の決定時において推薦モデルへの入力データとして用いられる行動・状態履歴情報について具体的に説明する。
 行動・状態履歴情報は、対象者又は訓練用被検者の行動と健康状態とを交互に示した履歴を示す。以後では、行動・状態履歴情報において、ある時点における行動(即ち図3及び図4における1個分の丸印(〇)に該当する行動)を表す情報を「行動要素情報」と呼ぶ。上述の「時点」は時間的な幅(例えば数時間~数日単位の時間的な幅)を有してもよい。また、行動・状態履歴情報において、ある時点における健康状態(即ち図3及び図4における1個分の丸印(△)に該当する健康状態)を表す情報を「状態要素情報」と呼ぶ。
 行動要素情報が示す行動は、行動が行われたタイミング(時間帯や日時、対象者の状態が所定の状態になった時、など)と行動の内容とがセンサ6等により検出可能な行動、又は、入力装置4等への手入力等により履歴として記録することが可能な行動である。このような行動の例として、運動に関する行動(ウォーキング、ジョギング、ウエイトトレーニング、ストレッチ、各種スポーツ等の運動内容、運動をする頻度、運動量など)、食事に関する行動(摂取、摂取制限、食事の時間帯、など)、睡眠に関する行動(例えば睡眠時間や時間帯)、治療(整体治療や投薬治療も含む)やマッサージの施術などが挙げられる。そして、行動要素情報は、行動の種類を表す情報を含んでもよく、行動の種類と行動の度合い(行動量)の組み合わせを含む情報であってもよい。
 ここで、行動要素情報が「行動の種類」と「行動の度合い」の組み合わせを表す場合について例示する。例えば、「行動の種類」が歩行である場合には、「行動の度合い」は歩数又は歩行距離である。その他、「行動の種類」が運動に関する行動の種類(例えば、ジョギング、ウエイトトレーニング、その他各種スポーツ)である場合には、「行動の度合い」は距離、負荷、行動時間等である。また、「行動の種類」がカロリーの摂取制限である場合には、「行動の度合い」は摂取カロリー又は通常時により削減したカロリーの削減量である。その他、「行動の種類」が食事に関する行動の種類(糖質摂取/制限、タンパク質摂取/制限、その他栄養素の摂取/制限)である場合には、「行動の度合い」は対象の栄養素の摂取量又は通常と比較した削減量、又は食事摂取に関する指標値(例えばGI(Glycemic Index)値)である。なお、行動要素情報は、行動の度合いに関する情報を含まなくてもよい。この場合、行動要素情報は、健康状態に影響がある行動の種類(例えばトレーニングの実行、糖質制限の実行等)を表す。
 また、推薦モデルが出力する推薦行動に関する情報(「推薦行動情報」とも呼ぶ。)は、行動要素情報と同様に、行動の種類、又は、行動の種類と行動の度合いの組み合わせを表す。推薦モデルが出力する推薦行動情報は、学習に用いた行動・状態履歴情報に含まれる行動要素情報と同一のデータ形式となる。
 状態要素情報は、センサ6等により検出可能な健康状態、又は、入力装置4等への手入力により履歴として取得することが可能な健康状態を表す情報であり、1又は複数の健康に関する指標値を含んでいる。健康に関する指標値は、例えば、血糖値や中性脂肪やコレステロール値等の血液検査で取得可能な数値、体重、BMI,体脂肪率、血圧、心拍数などが該当する。状態要素情報は、成功事例か失敗事例かの判定においてキーとなる指標であるKPIの算出に用いる健康状態の指標値を少なくとも含んでいる。以後では、上述のKPIの算出に用いる健康状態の指標値を、「KPI関連指標値」とも呼ぶ。なお、KPI関連指標値は、KPIそのものであってもよい。
 また、状態要素情報は、KPIの算出に必要な指標値に加えて、KPIの算出に直接用いない任意の指標値を含んでもよい。以後では、KPIの算出に直接用いない健康状態に関する指標値を「KPI周辺指標値」とも呼ぶ。例えば、KPIがBMIである場合には、KPI関連指標値は、体重及び身長であり、KPI周辺指標値は、血圧、心拍数、血糖値などである。このように、KPIに直接関連するKPI関連指標値に加えて、KPI周辺指標値を状態要素情報に含めることで、対象者の健康状態を総合的に勘案して最適な推薦行動を出力するように推薦モデルの学習及び推薦行動の決定を行うことが可能となる。
 (3-3)成否情報
 次に、推薦モデルの学習において教師ラベルとして用いられる成否情報について説明する。成否情報は、推薦モデルの学習においてペアとなる行動・状態履歴情報が成功事例(即ち正例)であるか失敗事例(即ち負例)であるかを示す情報であり、訓練データ記憶部32に記憶されている。
 ここで、成否情報は、例えば、行動・状態履歴情報に含まれる状態要素情報のうち最新の健康状態を表す状態要素情報により算出されるKPIが所定の好ましい値域に属する場合には、対応する行動・状態履歴情報が正例であることを示すように生成される。また、成否情報は、行動・状態履歴情報に含まれる状態要素情報のうち最新の健康状態を表す状態要素情報により算出されるKPIが上述の値域外である場合には、対応する行動・状態履歴情報が負例であることを示すように生成される。例えば、KPIが体重であった場合には、成否情報は、一連の行動後又は一定期間後の体重が減少した場合には正例であることを示すように生成され、一連の行動後又は一定期間後の体重が減少しなかった場合には負例であることを示すように生成される。
 なお、正例又は負例の判定は、最新(最終)の健康状態のみに基づき決定されることに限定されず、最新の健康状態に至る過程での健康状態を勘案して行われてもよい。この場合、最新の健康状態と、中間の健康状態とに夫々条件を設け、それらの条件が満たされている行動・状態履歴情報に対して正例であることを示す成否情報が付与されてもよい。成否情報は、上述した生成例の他、任意の規則又は属人的手法に基づき生成されてもよい。
 (4)学習装置が実行する処理
 図5は、学習装置1の機能ブロックの一例である。学習装置1のプロセッサ11は、機能的には、取得部15と、学習部16とを有する。
 取得部15は、推薦モデルの学習にまだ用いられていない行動・状態履歴情報と成否情報の組を訓練データ記憶部32からインターフェース13を介して取得し、取得した行動・状態履歴情報と成否情報の組を学習部16へ供給する。そして、取得部15は、学習部16が推薦モデルの学習を終了するまで、又は、訓練データ記憶部32に記憶された全ての行動・状態履歴情報と成否情報の組を取得するまで、行動・状態履歴情報と成否情報の組の取得及び学習部16への供給を行う。
 学習部16は、取得部15から供給される行動・状態履歴情報と成否情報の組に基づき、推薦モデルの学習を行う。具体的には、学習部16は、成否情報に基づき行動・状態履歴情報が成功事例であるか失敗事例であるか判定し、さらに図3及び図4に示したようなSAiL法に基づき、成功事例に近く、かつ、失敗事例に遠くなるような推論結果を出力するように行動指針選択器(成功事例分類器及び失敗事例分類器を含む)及び行動模倣器の学習を行う。そして、学習部16は、勾配降下法や誤差逆伝播法などのパラメータ決定アルゴリズムにより、行動指針選択器及び行動模倣器の各パラメータを更新し、更新したパラメータをモデル情報記憶部31に記憶する。そして、学習部16は、所定の学習の終了条件が満たされた場合に、推薦モデルの学習を終了する。学習部16は、例えば、予め定めた数の行動・状態履歴情報と成否情報の組に対する学習が完了した場合、学習を終了すべき旨のユーザ入力等を検知した場合、又は/及び、誤差が所定の閾値以下となった場合に、学習の終了条件が満たされたと判定する。
 ここで、取得部15及び学習部16の各構成要素は、例えば、プロセッサ11がプログラムを実行することによって実現できる。また、必要なプログラムを任意の不揮発性記憶媒体に記録しておき、必要に応じてインストールすることで、各構成要素を実現するようにしてもよい。なお、これらの各構成要素の少なくとも一部は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組合せ等により実現してもよい。また、これらの各構成要素の少なくとも一部は、例えばFPGA(Field-Programmable Gate Array)又はマイクロコントローラ等の、ユーザがプログラミング可能な集積回路を用いて実現してもよい。また、各構成要素の少なくとも一部は、ASSP(Application Specific Standard Produce)、ASIC(Application Specific Integrated Circuit)又は量子プロセッサ(量子コンピュータ制御チップ)により構成されてもよい。このように、各構成要素は、種々のハードウェアにより実現されてもよい。以上のことは、後述する他の実施の形態においても同様である。さらに、これらの各構成要素は、例えば、クラウドコンピューティング技術などを用いて、複数のコンピュータの協働によって実現されてもよい。
 図6は、推薦モデルの学習及び推薦モデルを用いた推薦行動の算出を模式的に示した図である。図示のように、学習部16は、学習段階において、行動・状態履歴情報と成否情報の組を推薦モデルに入力することで推薦モデルの学習を行う。この場合、学習部16は、失敗事例(ここでは成否情報が「0」)の行動・状態履歴情報と成功事例(ここでは成否情報が「1」)の行動・状態履歴情報とを夫々用いて推薦モデルの学習を行う。なお、ここでは、行動・状態履歴情報は、行動と健康状態の計4要素から構成されているが、これに限らず、可変長であってもよい。即ち、学習に用いられる行動・状態履歴情報として、例えば、計2要素(即ち1組の行動と健康状態)の行動・状態履歴情報が含まれてもよく、計6要素以上の行動・状態履歴情報が含まれていてもよい。
 図7は、学習装置1が実行する推薦モデルの学習処理を表すフローチャートの一例である。
 まず、学習装置1は、行動・状態履歴情報と成否情報の組を訓練データ記憶部32から取得する(ステップS11)。そして、学習装置1は、ステップS11で取得した行動・状態履歴情報と成否情報の組に基づき、推薦モデルの学習を行う(ステップS12)。この場合、学習装置1は、ステップS11で取得した行動・状態履歴情報と成否情報の組に基づき、推薦モデルのパラメータを更新し、更新したパラメータをモデル情報記憶部31に記憶する。
 そして、学習装置1は、学習が終了したか否か判定する(ステップS13)。そして、学習装置1は、学習が終了したと判定した場合(ステップS13;YES)、フローチャートの処理を終了する。一方、学習装置1は、学習が終了していないと判定した場合(ステップS13;NO)、ステップS11へ処理を戻す。
 (5)行動推薦装置が実行する処理
 図8は、行動推薦装置2の機能ブロックの一例である。行動推薦装置2のプロセッサ21は、機能的には、対象者データ取得部25と、履歴情報生成部26と、推薦行動決定部27と、出力制御部28とを有する。なお、図8では、データの授受が行われるブロック同士を実線により結んでいるが、データの授受が行われるブロックの組合せはこれに限定されない。後述する他の機能ブロックの図においても同様である。
 対象者データ取得部25は、対象者の行動・状態履歴情報(即ち、行動要素情報と状態要素情報)の生成に必要な対象者に関するデータ(「対象者データ」とも呼ぶ。)を、インターフェース23を介して取得する。この場合、対象者データ取得部25は、入力装置4が生成する入力信号S1、又は/及び、センサ6が生成するセンサ信号S3を取得する。なお、行動・状態履歴情報の生成に必要な対象者に関する任意の属性情報(年齢、身長、体重等)等が記憶装置3に記憶されている場合には、対象者データ取得部25又は後述する履歴情報生成部26は、行動・状態履歴情報の生成に必要な対象者の属性情報を記憶装置3から取得してもよい。また、対象者データ取得部25が取得した対象者データは、例えば、対象者データ取得部25が取得した取得日時又はユーザが指定した日時等と関連付けられて記憶装置3又はメモリ22等に記憶されてもよい。
 履歴情報生成部26は、対象者データ取得部25が取得した時系列での対象者データから、対象者の時系列での行動と健康状態を抽出し、その抽出結果に基づき時系列での行動要素情報と状態要素情報を生成する。そして、履歴情報生成部26は、生成した行動要素情報と状態要素情報の時系列データとなる行動・状態履歴情報を、推薦行動決定部27に供給する。
 この場合、履歴情報生成部26は、対象者データがセンサ信号S3である場合には、センサ信号S3に対して所定の特徴抽出処理を行うことで、対象者の健康状態を表す指標(KPI関連指標及びKPI周辺指標)を算出する。例えば、履歴情報生成部26は、センサ信号S3が心拍や発汗等の生体データである場合には、当該生体データに対して所定の特徴抽出処理及び抽出した特徴量に基づくストレス推定処理を行うことで、KPI関連指標又はKPI周辺指標となるストレス値を算出する。なお、生体データからストレス度合いを推定する手法については種々の手法が提案されている。他の例では、履歴情報生成部26は、センサ信号S3がスマートフォンやウエアラブルセンサの加速度センサ等の出力データである場合には、所定期間において取得されるセンサ信号S3から当該所定期間における歩数をカウントし、カウント結果に基づき所定期間における歩数を表す行動要素情報を生成する。
 このように、履歴情報生成部26は、推薦モデルの入力形式に整合するデータ形式となるように、特徴抽出処理(ニューラルネットワーク等を用いた学習モデルを用いた特徴抽出技術を含む)などを行い、対象者データを行動要素情報と状態要素情報に変換する。そして、履歴情報生成部26は、生成した時系列の行動要素情報と状態要素情報を含む行動・状態履歴情報を、推薦行動決定部27に供給する。この場合、行動・状態履歴情報は、例えば、所定形式のテンソルにより表される。
 ここで、時系列での行動要素情報と状態要素情報の生成方法について補足説明する。例えば、履歴情報生成部26は、行動・状態履歴情報に含める各行動要素情報において対象となる行動の観測期間を設けておき、設けた観測期間ごとに得られるセンサ信号S3等に基づき、観測期間ごとの行動を表す行動要素情報を生成する。同様に、履歴情報生成部26は、行動・状態履歴情報に含める各状態要素情報において対象となる健康状態の観測タイミングを定めておき、当該観測タイミングにおいて得られるセンサ信号S3等に基づく対象者の健康状態を表す状態要素情報を生成する。この場合、健康状態の観測タイミングは、例えば、各行動の観測期間の直後又は各行動の観測期間の合間などに設定される。そして、履歴情報生成部26は、直近に生成された所定個数分の時系列の行動要素情報と状態要素情報を含む行動・状態履歴情報を生成し、生成した行動・状態履歴情報を推薦行動決定部27に供給する。
 推薦行動決定部27は、モデル情報記憶部31から推薦モデルのパラメータを取得し、当該パラメータに基づき構成した推薦モデルに対し、履歴情報生成部26から供給される行動・状態履歴情報を入力し、入力された行動・状態履歴情報に基づき推薦モデルが出力する推薦行動を表す推薦行動情報を取得する。
 さらに、推薦行動決定部27は、当該推薦行動情報と併せて、当該推薦行動を決定した根拠となる根拠情報を取得することができる。例えば、根拠情報は、対象者の行動・状態履歴情報に類似する行動・状態履歴情報の人物や対象者の属性に類似する属性の人物などに対する過去の推薦行動と、当該推薦行動により至った状態とを含む。具体的には、推薦行動決定部27が、対象者に対して「一日に一時間のウォーキング」という内容の推薦行動情報を生成した場合、「対象者の健康状態に類似の人物AAさんが『一日に一時間のウォーキング』により健康状態が改善されたため。」などの情報が根拠情報として生成される。これにより、対象者は納得感を持って推薦行動に取り組むことができるため、推薦行動に取り組む確度を向上させることができる。なお、根拠情報は、推薦行動決定部27ではなく、他の構成が推薦モデルを用いて生成してもよい。
 ここで、推薦行動決定部27の処理について再び図6を参照して補足説明する。図6の例では、推薦行動決定部27は、行動、健康状態、行動、健康状態の4要素を有する行動・状態履歴情報を推薦モデルに入力し、その結果推薦モデルから出力される推薦行動を表す推薦行動情報を取得している。そして、推薦行動決定部27は、取得した推薦行動情報を出力制御部28へ供給する。なお、推薦モデルに入力する行動・状態履歴情報は、図6に示すように行動を最初の要素とし健康状態を最後の要素とする履歴を表すものである必要はなく、健康状態を最初の要素とする履歴を表すものであってもよく、行動を最後の要素とする履歴を表すものであってもよい。
 引き続き図8を参照して出力制御部28の処理について説明する。出力制御部28は、推薦行動決定部27から供給される推薦行動情報に基づき、出力装置5を制御することで、決定した推薦行動に関する情報を出力する。この場合、推薦行動決定部27は、推薦行動を行うことを促す画像情報、テキスト情報又は音声情報(これらをまとめて「推薦行動促進情報」とも呼ぶ。)を出力信号S2として生成し、出力制御部28が当該出力信号S2を出力装置5に供給することで、推薦行動を行うことを促す画像情報、テキスト情報又は音声情報を出力装置5に実行させる。このとき、例えば、出力制御部28は、推薦行動促進情報に基づき、「摂取カロリー(又は脂質、糖質)をZ(Zは正数)だけ減らしてください」、「歩数をV(Vは正数)だけ増やしてください」などのテキスト情報の報知をユーザに対して行う。
 これにより、出力制御部28は、対象者が次に実行すべき行動を好適に推薦することができる。なお、出力制御部28は、推薦行動促進情報を出力信号S2として生成する代わりに、推薦行動情報又は推薦行動促進情報を記憶装置3又はメモリ22に記憶してもよく、行動推薦装置2とデータ通信を行う外部装置に送信してもよい。
 ここで、対象者データ取得部25、履歴情報生成部26、推薦行動決定部27、及び出力制御部28の各構成要素は、例えば、プロセッサ21がプログラムを実行することによって実現できる。また、必要なプログラムを任意の不揮発性記憶媒体に記録しておき、必要に応じてインストールすることで、各構成要素を実現するようにしてもよい。なお、これらの各構成要素の少なくとも一部は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組合せ等により実現してもよい。また、これらの各構成要素の少なくとも一部は、例えばFPGA又はマイクロコントローラ等の、ユーザがプログラミング可能な集積回路を用いて実現してもよい。また、各構成要素の少なくとも一部は、ASSP、ASIC又は量子プロセッサ(量子コンピュータ制御チップ)により構成されてもよい。このように、各構成要素は、種々のハードウェアにより実現されてもよい。以上のことは、後述する他の実施の形態においても同様である。さらに、これらの各構成要素は、例えば、クラウドコンピューティング技術などを用いて、複数のコンピュータの協働によって実現されてもよい。
 図9は、行動推薦装置2による行動推薦処理のフローチャートの一例である。
 まず、行動推薦装置2は、対象者に関する対象者データを、入力装置4、センサ6又は記憶装置3の少なくともいずれから取得する(ステップS21)。そして、行動推薦装置2は、行動推薦を行うタイミングであるか否か判定する(ステップS22)。例えば、行動推薦装置2は、行動推薦を要求する入力信号S1を入力装置4から受信した場合、又は、予め定められた行動推薦を行う日時や時間帯になった場合、その他予め定めた行動推薦実行条件に該当する場合等に、行動推薦を行うタイミングであると判定する。この場合、行動推薦実行条件は、対象者の健康状態に基づき定められてもよい。行動推薦装置2は、例えば、予め定めた健康状態が検出された場合(例えば対象者の検出されたストレス値が所定値以上となった場合)、その他行動を推薦する必要があると判定される健康状態が検出された場合に、行動推薦実行条件が満たされたと判定してもよい。ステップS22において、行動推薦装置2のプロセッサ21は、「判定手段」として機能する。
 そして、行動推薦装置2は、行動推薦を行うタイミングではないと判定した場合(ステップS22;NO),ステップS21において引き続き対象者データを取得する処理を実行する。
 一方、行動推薦装置2は、行動推薦を行うタイミングであると判定した場合(ステップS22;Yes)、ステップS21で取得した対象者データに基づき、行動・状態履歴情報を生成する(ステップS23)。そして、行動推薦装置2は、モデル情報記憶部31を参照して構成した推薦モデルに、ステップS23で生成した行動・状態履歴情報を入力し、推薦モデルが出力する推薦行動を表す推薦行動情報を取得する(ステップS24)。そして、行動推薦装置2は、ステップS24で取得した推薦行動情報に基づき、対象者に推薦する推薦行動に関する出力を出力装置5により行う(ステップS25)。
 (6)応用例
 ここで、応用例について説明する。応用例として、対象者は健康診断受診者であり、行動推薦装置2は、年次又は月次などで定期的に実施される健康診断の診断データに基づき、対象者がとるべき行動を推薦する。この場合、診断データは、身長、体重、血液検査結果、尿検査結果、X線検査結果、心電図などの各診断項目の診断結果又は測定結果であり、これらの診断データが記憶装置3に記憶されている。
 そして、図9のステップS22において行動推薦タイミングとなった場合、学習装置1は、記憶装置3を参照することで対象者の健康診断の診断データを取得し、当該診断データから対象者の健康診断の受診時点での健康状態を表す状態要素情報を生成する。また、学習装置1は、健康診断前に観測された対象者データに基づき、健康診断の受診前の行動を表す行動要素情報を上述した実施形態と同様に生成し、生成した行動要素情報と健康診断に基づく状態要素情報とを含む行動・状態履歴情報をステップS23において生成する。その後、学習装置1は、ステップS24において行動・状態履歴情報を推薦モデルに入力することで推薦モデルが出力する推薦行動情報を取得し、ステップS25において推薦行動に関する出力を行う。
 このように、応用例によれば、学習装置1は、健康診断の診断データに基づき、健康診断受診者である対象者がとるべき行動を対象者に好適に推薦することができる。なお、学習装置1は、健康診断の診断データと、対象者が所有するウェアラブル端末や携帯端末に設けられたセンサ6が出力するセンサ信号S3との両方を用いて、対象者の健康状態を表す状態要素情報を生成してもよい。
 (7)変形例
 学習装置1は、訓練用被検者の属性の分類ごとに推薦モデルの学習を行い、行動推薦装置2は、対象者の属性に基づき、推薦行動を決定するための推薦モデルを選択してもよい。
 この場合、訓練用被検者は、所定の属性(例えば、年齢、性別、人種等)に基づき複数グループに分類され、学習装置1は、グループごとに分けられた訓練用被検者に対応する訓練データに基づき、グループごとに推薦モデルの学習を行い、学習により得られたグループごとの推薦モデルのパラメータをモデル情報記憶部31に記憶する。そして、行動推薦装置2は、対象者の推薦行動を決定する場合、対象者の属性を記憶装置3に記憶された対象者の属性情報、又は、入力装置4又はセンサ6から取得される信号に基づき認識し、認識した対象者の属性に基づき、対象者が分類されるグループを認識する。そして、記憶装置3は、対象者が分類されたグループに対応する推薦モデルのパラメータをモデル情報記憶部31から抽出して推薦モデルを構成し、当該推薦モデルを用いて対象者の推薦行動を決定する。
 このようにすることで、変形例に係る行動推薦システム100は、対象者と属性が類似する訓練用被検者から取得した訓練データに基づき対象者がとるべき行動を学習し、対象者により適した行動を対象者に推薦することが可能となる。
 <第2実施形態>
 図10は、第2実施形態における行動推薦システム100Aの概略構成を示す。第2実施形態に係る行動推薦システム100Aは、サーバクライアントモデルのシステムであり、サーバ装置として機能する行動推薦装置2Aが第1実施形態における学習装置1及び行動推薦装置2の処理を行う。以後では、第1実施形態と同一構成要素については、適宜同一符号を付し、その説明を省略する。
 図10に示すように、行動推薦システム100Aは、主に、サーバとして機能する行動推薦装置2Aと、第1実施形態と同様のデータを記憶する記憶装置3と、クライアントとして機能する端末装置8とを有する。行動推薦装置2Aと端末装置8とは、ネットワーク7を介してデータ通信を行う。
 端末装置8は、入力機能、表示機能、及び通信機能を有する端末であり、図1に示される入力装置4及び出力装置5として機能する。端末装置8は、例えば、パーソナルコンピュータ、タブレット型端末、PDA(Personal Digital Assistant)などであってもよい。端末装置8は、センサ6が出力する生体信号又はユーザ入力に基づく入力信号などを、行動推薦装置2Aに送信する。
 行動推薦装置2Aは、図2(A)又は図2(B)に示されるハードウェア構成と、図5と図8に夫々示される各機能ブロック構成とを有する。そして、行動推薦装置2Aは、図7のフローチャート等により示される推薦モデルの学習処理の実行後、図1に示す行動推薦装置2が入力装置及びセンサ6から取得する対象者に関する情報などを、ネットワーク7を介して端末装置8から対象者データとして受信し、受信した対象者データに基づき、図9のフローチャート等により示される行動推薦処理を実行する。この場合、行動推薦装置2A(具体的には図8の出力制御部28)は、端末装置8からの要求に基づき、行動推薦処理により決定した推薦行動に関する出力信号を、ネットワーク7を介して端末装置8へ送信する。この場合、端末装置8は、第1実施形態における出力装置5として機能する。
 以上のように、第2実施形態に係る行動推薦装置2Aは、端末装置8のユーザの行動と健康状態の履歴に基づき決定した推薦行動に関する情報を、端末装置8のユーザに好適に提示することができる。なお、第2実施形態において、行動推薦装置2Aとは別の装置が推薦モデルの学習処理を実行してもよい。
 <第3実施形態>
 図11は、第3実施形態における学習装置1Xのブロック図である。学習装置1Xは、主に、取得手段15Xと、学習手段16Xとを有する。なお、学習装置1Xは、複数の装置により構成されてもよい。
 取得手段15Xは、対象者の健康状態と対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報と、当該行動が対象者の健康状態の変化に寄与したか否かを示す成否情報と、を取得する。取得手段15Xは、例えば、第1実施形態における学習装置1の取得部15又は第2実施形態における行動推薦装置2Aの取得部15とすることができる。
 学習手段16Xは、履歴情報と、成否情報とに基づき、対象者の行動と健康状態との履歴を表す履歴情報が入力された場合に、対象者の健康状態を改善するために推薦する推薦行動に関する情報を出力するモデルを学習する。学習手段16Xは、例えば、第1実施形態における学習装置1の学習部16又は第2実施形態における行動推薦装置2Aの学習部16とすることができる。
 図12は、第3実施形態において学習装置1Xが実行するフローチャートの一例である。学習装置1Xの取得手段15Xは、対象者の健康状態と対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報と、当該行動が対象者の健康状態の変化に寄与したか否かを示す成否情報と、を取得する(ステップS31)。そして、学習装置1Xの学習手段16Xは、履歴情報と、成否情報とに基づき、対象者の行動と健康状態との履歴を表す履歴情報が入力された場合に、対象者の健康状態を改善するために推薦する推薦行動に関する情報を出力するモデルを学習する(ステップS32)。
 第3実施形態によれば、対象者の行動と健康状態の履歴を勘案して対象者に推薦する推薦行動を決定できるようなモデルの学習を行うことができる。
 <第4実施形態>
 図13は、第4実施形態における行動推薦装置2Xのブロック図である。行動推薦装置2Xは、主に、履歴情報取得手段26Xと、推薦行動決定手段27Xと、出力手段28Xとを有する。なお、行動推薦装置2Yは、複数の装置により構成されてもよい。
 履歴情報取得手段26Xは、対象者の健康状態と対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報を取得する。履歴情報取得手段26Xは、第1実施形態における行動推薦装置2の履歴情報生成部26又は第2実施形態における行動推薦装置2Aの履歴情報生成部26とすることができる。
 推薦行動決定手段27Xは、履歴情報と、推薦モデルとに基づいて、対象者に対して推薦する行動である推薦行動を決定する。ここで、推薦モデルは、複数の人物の健康状態と複数の人物の健康状態の変化に寄与する行動との履歴を表す履歴情報に基づいて、複数の人物各々の健康状態と、前記複数の人物各々の健康状態を改善するために推薦される推薦行動と、の関係を学習したモデルである。推薦行動決定手段27Xは、第1実施形態における行動推薦装置2の推薦行動決定部27又は第2実施形態における行動推薦装置2Aの推薦行動決定部27とすることができる。
 出力手段28Xは、推薦行動に関する情報を出力する。この場合、出力手段28Xは、行動推薦装置2Xと有線又は無線により接続された又は行動推薦装置2Xに内蔵された出力装置に推薦行動に関する情報を表示又は/及び音声出力してもよく、行動推薦装置2Xと有線又は無線により接続された外部装置に推薦行動に関する情報を送信してもよく、行動推薦装置2Xと有線又は無線により接続された又は行動推薦装置2Xに内蔵された記憶装置に推薦行動に関する情報を記憶してもよい。出力手段28Xは、第1実施形態における行動推薦装置2の出力制御部28又は第2実施形態における行動推薦装置2Aの出力制御部28とすることができる。
 図14は、第4実施形態において行動推薦装置2Xが実行するフローチャートの一例である。行動推薦装置2Xの履歴情報取得手段26Xは、対象者の健康状態と対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報を取得する(ステップS41)。行動推薦装置2Xの推薦行動決定手段27Xは、履歴情報と、推薦モデルとに基づいて、対象者に対して推薦する行動である推薦行動を決定する(ステップS42)。ここで、推薦モデルは、複数の人物の健康状態と複数の人物の健康状態の変化に寄与する行動との履歴を表す履歴情報に基づいて、複数の人物各々の健康状態と、複数の人物各々の健康状態を改善するために推薦される推薦行動と、の関係を学習したモデルである。そして、行動推薦装置2Xの出力手段28Xは、推薦行動に関する情報を出力する(ステップS43)。
 第4実施形態に係る行動推薦装置2Xは、対象者の行動と健康状態の履歴を勘案し、対象者に推薦すべき推薦行動を的確に決定及び出力することが可能となる。
 なお、上述した各実施形態において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータであるプロセッサ等に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記憶媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記憶媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記憶媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 その他、上記の各実施形態の一部又は全部は、以下の付記のようにも記載され得るが以下には限られない。
[付記1]
 対象者の健康状態と前記対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報と、前記行動が前記対象者の健康状態の変化に寄与したか否かを示す成否情報と、を取得する取得手段と、
 前記履歴情報と、前記成否情報とに基づき、前記対象者の行動と健康状態との履歴を表す履歴情報が入力された場合に、前記対象者の健康状態を改善するために推薦する推薦行動に関する情報を出力するモデルを学習する学習手段と、
を有する学習装置。
[付記2]
 前記履歴情報は、前記行動と、当該行動後に観測された前記健康状態とを時系列により交互に表す情報である、付記1に記載の学習装置。
[付記3]
 前記履歴情報は、前記行動の履歴として、当該行動の種類と当該行動の度合いとに関する情報を含む、付記1または2に記載の学習装置。
[付記4]
 前記履歴情報は、前記健康状態の履歴として、前記履歴が前記成功事例であるか否か判定するための基準となる基準指標の算出に用いる健康状態に関する指標を少なくとも含む、付記1~3のいずれか一項に記載の学習装置。
[付記5]
 対象者の健康状態と前記対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報を取得する履歴情報取得手段と、
 前記履歴情報と、推薦モデルとに基づいて、前記対象者に対して推薦する行動である推薦行動を決定する推薦行動決定手段と、
 前記推薦行動に関する情報を出力する出力手段と、
を有し、
 前記推薦モデルは、複数の人物の健康状態と前記複数の人物の健康状態の変化に寄与する行動との履歴を表す履歴情報に基づいて、前記複数の人物各々の健康状態と、前記複数の人物各々の健康状態を改善するために推薦される推薦行動と、の関係を学習したモデルである、
行動推薦装置。
[付記6]
 前記推薦行動決定手段は、前記推薦行動に基づいて、前記対象者に報知するための推薦行動促進情報を生成し、
 前記出力手段は、前記推薦行動促進情報をさらに出力する
 付記5に記載の行動推薦装置。
[付記7]
 前記推薦行動が決定された根拠に関する根拠情報を生成する根拠情報生成手段をさらに備え、
 前記出力手段は、前記根拠情報を出力する
 付記5又は6に記載の行動推薦装置。
[付記8]
 前記対象者に行動推薦するタイミングであるか否かを判定するために判定手段をさらに備え、
 前記タイミングであると判定された場合に、前記出力手段は、前記推薦行動に関する情報を出力する
 付記5~7のいずれか一項に記載の行動推薦装置。
[付記9]
 前記対象者に関するデータである対象者データを取得する対象者データ取得手段をさらに有し、
 前記履歴情報取得手段は、前記対象者データに基づき、前記履歴情報を生成する、付記5~8のいずれか一項に記載の行動推薦装置。
[付記10]
 前記対象者データは、前記対象者を観測するセンサが出力する信号を含む、付記9に記載の行動推薦装置。
[付記11]
 前記対象者データ取得手段は、前記対象者データを前記対象者が使用する端末装置から取得し、
 前記出力制御手段は、前記端末装置に対し、前記推薦行動に関する情報を送信する、付記9または10に記載の行動推薦装置。
[付記12]
 前記履歴情報取得手段は、前記対象者が受信した健康診断の診断データに基づき、前記履歴情報を生成する、付記9~11のいずれか一項に記載の行動推薦装置。
[付記13]
 コンピュータが、
 対象者の健康状態と前記対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報と、前記行動が前記対象者の健康状態の変化に寄与したか否かを示す成否情報と、を取得し、
 前記履歴情報と、前記成否情報とに基づき、前記対象者の行動と健康状態との履歴を表す履歴情報が入力された場合に前記対象者の健康状態を改善するために推薦する推薦行動に関する情報を出力するモデルを学習する、
学習方法。
[付記14]
 コンピュータが、
 対象者の健康状態と前記対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報を取得し、
 前記履歴情報と、推薦モデルとに基づいて、前記対象者に対して推薦する行動である推薦行動を決定し、
 前記推薦行動に関する情報を出力する行動推薦方法であって、
 前記推薦モデルは、複数の人物の健康状態と前記複数の人物の健康状態の変化に寄与する行動との履歴を表す履歴情報に基づいて、前記複数の人物各々の健康状態と、前記複数の人物各々の健康状態を改善するために推薦される推薦行動と、の関係を学習したモデルである、
行動推薦方法。
[付記15]
 対象者の健康状態と前記対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報と、前記行動が前記対象者の健康状態の変化に寄与したか否かを示す成否情報と、を取得し、
 前記履歴情報と、前記成否情報とに基づき、前記対象者の行動と健康状態との履歴を表す履歴情報が入力された場合に前記対象者の健康状態を改善するために推薦する推薦行動に関する情報を出力するモデルを学習する処理をコンピュータに実行させるプログラムが格納された記憶媒体。
[付記16]
 対象者の健康状態と前記対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報を取得し、
 前記履歴情報と、推薦モデルとに基づいて、前記対象者に対して推薦する行動である推薦行動を決定し、
 前記推薦行動に関する情報を出力する処理をコンピュータに実行させ、
 前記推薦モデルは、複数の人物の健康状態と前記複数の人物の健康状態の変化に寄与する行動との履歴を表す履歴情報に基づいて、前記複数の人物各々の健康状態と、前記複数の人物各々の健康状態を改善するために推薦される推薦行動と、の関係を学習したモデルである、
プログラムが格納された記憶媒体。
[付記17]
 対象者の健康状態と前記対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報と、前記行動が前記対象者の健康状態の変化に寄与したか否かを示す成否情報と、を取得する取得手段と、
 前記履歴情報と、前記成否情報とに基づき、前記対象者の行動と健康状態との履歴を表す履歴情報が入力された場合に、前記対象者の健康状態を改善するために推薦する推薦行動に関する情報を出力するモデルを学習する学習手段と、
を有する学習システム。
[付記18]
 前記履歴情報は、前記行動と、当該行動後に観測された前記健康状態とを時系列により交互に表す情報である、付記17に記載の学習システム。
[付記19]
 前記履歴情報は、前記行動の履歴として、当該行動の種類と当該行動の度合いとに関する情報を含む、付記17または18に記載の学習システム。
[付記20]
 前記履歴情報は、前記健康状態の履歴として、前記履歴が前記成功事例であるか否か判定するための基準となる基準指標の算出に用いる健康状態に関する指標を少なくとも含む、付記17~19のいずれか一項に記載の学習システム。
[付記21]
 対象者の健康状態と前記対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報を取得する履歴情報取得手段と、
 前記履歴情報と、推薦モデルとに基づいて、前記対象者に対して推薦する行動である推薦行動を決定する推薦行動決定手段と、
 前記推薦行動に関する情報を出力する出力手段と、
を有し、
 前記推薦モデルは、複数の人物の健康状態と前記複数の人物の健康状態の変化に寄与する行動との履歴を表す履歴情報に基づいて、前記複数の人物各々の健康状態と、前記複数の人物各々の健康状態を改善するために推薦される推薦行動と、の関係を学習したモデルである、
行動推薦システム。
[付記22]
 前記推薦行動決定手段は、前記推薦行動に基づいて、前記対象者に報知するための推薦行動促進情報を生成し、
 前記出力手段は、前記推薦行動促進情報をさらに出力する
 付記21に記載の行動推薦システム。
[付記23]
 前記推薦行動が決定された根拠に関する根拠情報を生成する根拠情報生成手段をさらに備え、
 前記出力手段は、前記根拠情報を出力する
 付記21又は22に記載の行動推薦システム。
[付記24]
 前記対象者に行動推薦するタイミングであるか否かを判定するために判定手段をさらに備え、
 前記タイミングであると判定された場合に、前記出力手段は、前記推薦行動に関する情報を出力する
 付記21~23のいずれか一項に記載の行動推薦システム。
[付記25]
 前記対象者に関するデータである対象者データを取得する対象者データ取得手段をさらに有し、
 前記履歴情報取得手段は、前記対象者データに基づき、前記履歴情報を生成する、付記21~24のいずれか一項に記載の行動推薦システム。
[付記26]
 前記対象者データは、前記対象者を観測するセンサが出力する信号を含む、付記25に記載の行動推薦システム。
[付記27]
 前記対象者データ取得手段は、前記対象者データを前記対象者が使用する端末装置から取得し、
 前記出力制御手段は、前記端末装置に対し、前記推薦行動に関する情報を送信する、付記25または26に記載の行動推薦システム。
[付記28]
 前記履歴情報取得手段は、前記対象者が受信した健康診断の診断データに基づき、前記履歴情報を生成する、付記25~27のいずれか一項に記載の行動推薦システム。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。すなわち、本願発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。また、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。
 ダイエット支援、健康増進、アスリートの健康管理、患者のリハビリテーションの管理などの健康のマネジメント(セルフマネジメントを含む)に関するサービスに利用される。
 1、1X 学習装置
 2、2A、2X 行動推薦装置
 3 記憶装置
 4 入力装置
 5 出力装置
 6 センサ
 8 端末装置
 100、100A 行動推薦システム

Claims (16)

  1.  対象者の健康状態と前記対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報と、前記行動が前記対象者の健康状態の変化に寄与したか否かを示す成否情報と、を取得する取得手段と、
     前記履歴情報と、前記成否情報とに基づき、前記対象者の行動と健康状態との履歴を表す履歴情報が入力された場合に、前記対象者の健康状態を改善するために推薦する推薦行動に関する情報を出力するモデルを学習する学習手段と、
    を有する学習装置。
  2.  前記履歴情報は、前記行動と、当該行動後に観測された前記健康状態とを時系列により交互に表す情報である、請求項1に記載の学習装置。
  3.  前記履歴情報は、前記行動の履歴として、当該行動の種類と当該行動の度合いとに関する情報を含む、請求項1または2に記載の学習装置。
  4.  前記履歴情報は、前記健康状態の履歴として、前記履歴が前記成功事例であるか否か判定するための基準となる基準指標の算出に用いる健康状態に関する指標を少なくとも含む、請求項1~3のいずれか一項に記載の学習装置。
  5.  対象者の健康状態と前記対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報を取得する履歴情報取得手段と、
     前記履歴情報と、推薦モデルとに基づいて、前記対象者に対して推薦する行動である推薦行動を決定する推薦行動決定手段と、
     前記推薦行動に関する情報を出力する出力手段と、
    を有し、
     前記推薦モデルは、複数の人物の健康状態と前記複数の人物の健康状態の変化に寄与する行動との履歴を表す履歴情報に基づいて、前記複数の人物各々の健康状態と、前記複数の人物各々の健康状態を改善するために推薦される推薦行動と、の関係を学習したモデルである、
    行動推薦装置。
  6.  前記推薦行動決定手段は、前記推薦行動に基づいて、前記対象者に報知するための推薦行動促進情報を生成し、
     前記出力手段は、前記推薦行動促進情報をさらに出力する
     請求項5に記載の行動推薦装置。
  7.  前記推薦行動が決定された根拠に関する根拠情報を生成する根拠情報生成手段をさらに備え、
     前記出力手段は、前記根拠情報を出力する
     請求項5又は6に記載の行動推薦装置。
  8.  前記対象者に行動推薦するタイミングであるか否かを判定するために判定手段をさらに備え、
     前記タイミングであると判定された場合に、前記出力手段は、前記推薦行動に関する情報を出力する
     請求項5~7のいずれか一項に記載の行動推薦装置。
  9.  前記対象者に関するデータである対象者データを取得する対象者データ取得手段をさらに有し、
     前記履歴情報取得手段は、前記対象者データに基づき、前記履歴情報を生成する、請求項5~8のいずれか一項に記載の行動推薦装置。
  10.  前記対象者データは、前記対象者を観測するセンサが出力する信号を含む、請求項9に記載の行動推薦装置。
  11.  前記対象者データ取得手段は、前記対象者データを前記対象者が使用する端末装置から取得し、
     前記出力制御手段は、前記端末装置に対し、前記推薦行動に関する情報を送信する、請求項9または10に記載の行動推薦装置。
  12.  前記履歴情報取得手段は、前記対象者が受信した健康診断の診断データに基づき、前記履歴情報を生成する、請求項9~11のいずれか一項に記載の行動推薦装置。
  13.  コンピュータが、
     対象者の健康状態と前記対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報と、前記行動が前記対象者の健康状態の変化に寄与したか否かを示す成否情報と、を取得し、
     前記履歴情報と、前記成否情報とに基づき、前記対象者の行動と健康状態との履歴を表す履歴情報が入力された場合に前記対象者の健康状態を改善するために推薦する推薦行動に関する情報を出力するモデルを学習する、
    学習方法。
  14.  コンピュータが、
     対象者の健康状態と前記対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報を取得し、
     前記履歴情報と、推薦モデルとに基づいて、前記対象者に対して推薦する行動である推薦行動を決定し、
     前記推薦行動に関する情報を出力する行動推薦方法であって、
     前記推薦モデルは、複数の人物の健康状態と前記複数の人物の健康状態の変化に寄与する行動との履歴を表す履歴情報に基づいて、前記複数の人物各々の健康状態と、前記複数の人物各々の健康状態を改善するために推薦される推薦行動と、の関係を学習したモデルである、
    行動推薦方法。
  15.  対象者の健康状態と前記対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報と、前記行動が前記対象者の健康状態の変化に寄与したか否かを示す成否情報と、を取得し、
     前記履歴情報と、前記成否情報とに基づき、前記対象者の行動と健康状態との履歴を表す履歴情報が入力された場合に前記対象者の健康状態を改善するために推薦する推薦行動に関する情報を出力するモデルを学習する処理をコンピュータに実行させるプログラムが格納された記憶媒体。
  16.  対象者の健康状態と前記対象者の健康状態の変化に寄与する行動との履歴を表す履歴情報を取得し、
     前記履歴情報と、推薦モデルとに基づいて、前記対象者に対して推薦する行動である推薦行動を決定し、
     前記推薦行動に関する情報を出力する処理をコンピュータに実行させ、
     前記推薦モデルは、複数の人物の健康状態と前記複数の人物の健康状態の変化に寄与する行動との履歴を表す履歴情報に基づいて、前記複数の人物各々の健康状態と、前記複数の人物各々の健康状態を改善するために推薦される推薦行動と、の関係を学習したモデルである、
    プログラムが格納された記憶媒体。
PCT/JP2021/035571 2021-09-28 2021-09-28 学習装置、行動推薦装置、学習方法、行動推薦方法及び記憶媒体 WO2023053176A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023550765A JPWO2023053176A5 (ja) 2021-09-28 学習装置、行動推薦装置、学習方法、行動推薦方法及びプログラム
PCT/JP2021/035571 WO2023053176A1 (ja) 2021-09-28 2021-09-28 学習装置、行動推薦装置、学習方法、行動推薦方法及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/035571 WO2023053176A1 (ja) 2021-09-28 2021-09-28 学習装置、行動推薦装置、学習方法、行動推薦方法及び記憶媒体

Publications (1)

Publication Number Publication Date
WO2023053176A1 true WO2023053176A1 (ja) 2023-04-06

Family

ID=85781471

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/035571 WO2023053176A1 (ja) 2021-09-28 2021-09-28 学習装置、行動推薦装置、学習方法、行動推薦方法及び記憶媒体

Country Status (1)

Country Link
WO (1) WO2023053176A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006190127A (ja) * 2005-01-07 2006-07-20 Sony Corp 情報処理装置および方法、並びにプログラム
JP2018190409A (ja) * 2017-04-28 2018-11-29 国立大学法人北見工業大学 推薦装置、推薦方法、及びプログラム
WO2021100880A1 (ja) * 2019-11-19 2021-05-27 株式会社Aventino 提案システム、提案方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006190127A (ja) * 2005-01-07 2006-07-20 Sony Corp 情報処理装置および方法、並びにプログラム
JP2018190409A (ja) * 2017-04-28 2018-11-29 国立大学法人北見工業大学 推薦装置、推薦方法、及びプログラム
WO2021100880A1 (ja) * 2019-11-19 2021-05-27 株式会社Aventino 提案システム、提案方法及びプログラム

Also Published As

Publication number Publication date
JPWO2023053176A1 (ja) 2023-04-06

Similar Documents

Publication Publication Date Title
US20230082019A1 (en) Systems and methods for monitoring brain health status
US10299735B2 (en) Automated diagnosis based at least in part on pulse waveforms
Jeddi et al. Remote patient monitoring using artificial intelligence
WO2017040331A1 (en) Determining sleep stages and sleep events using sensor data
JP2019509101A (ja) 小児対象に関する血行力学的不安定性リスクスコアを決定するシステム及び方法
WO2022115701A1 (en) Method and system for detecting mood
CN114616632A (zh) 用于临床结果量度的自动检测的***和方法
US11617545B2 (en) Methods and systems for adaptable presentation of sensor data
US20220192556A1 (en) Predictive, diagnostic and therapeutic applications of wearables for mental health
KR20210114012A (ko) 주의력 결핍 과잉행동 장애 모니터링의 진단 및 효율성
Ahmed An intelligent healthcare service to monitor vital signs in daily life–a case study on health-iot
US20240065599A1 (en) Cognitive function estimation device, cognitive function estimation method, and storage medium
WO2023053176A1 (ja) 学習装置、行動推薦装置、学習方法、行動推薦方法及び記憶媒体
US20230290506A1 (en) Systems and methods for rapidly screening for signs and symptoms of disorders
WO2023281424A1 (en) Integrative system and method for performing medical diagnosis using artificial intelligence
WO2022272057A1 (en) Devices, systems, and methods for mental health assessment
Lim et al. Developing a mobile wellness management system for healthy lifestyle by analyzing daily living activities
EP4385402A1 (en) Hypnodensity-based sleep apnea monitoring system and method of operation thereof
Durga Intelligent Support for Cardiovascular Diagnosis: The AI-CDSS Approach
WO2023058200A1 (ja) 疲労度算出装置、疲労度算出方法及び記憶媒体
Sze Mei et al. LiveHeart: AI-augmented lifestyle habit monitoring system for decision making in digital care pathway
Li et al. Real-time tracking and detection of patient conditions in the intelligent m-Health monitoring system
EP4388985A1 (en) System for estimating uncertainty of overnight sleep parameters through a stochastic neural network
US20240008813A1 (en) Smart wearable device and method for estimating traditional medicine system parameters
Sharma et al. Quantified Self: From Self-Learning to Machine Learning

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21959228

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023550765

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE