WO2024062935A1 - 情報処理装置、システム、情報処理方法、およびプログラム - Google Patents

情報処理装置、システム、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2024062935A1
WO2024062935A1 PCT/JP2023/032650 JP2023032650W WO2024062935A1 WO 2024062935 A1 WO2024062935 A1 WO 2024062935A1 JP 2023032650 W JP2023032650 W JP 2023032650W WO 2024062935 A1 WO2024062935 A1 WO 2024062935A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
subject
processing device
information processing
measurement
Prior art date
Application number
PCT/JP2023/032650
Other languages
English (en)
French (fr)
Inventor
裕貴 前田
綾乃 三大寺
悠加 風間
靖子 石川
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Publication of WO2024062935A1 publication Critical patent/WO2024062935A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/372Analysis of electroencephalograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance

Definitions

  • the present invention relates to an information processing device, a system, an information processing method, and a program.
  • Patent Document 1 describes that the degree of concentration of a subject is estimated by analyzing changes in the subject's vital data obtained by a vital sensor.
  • Patent Document 2 discloses that a wearable sensor attached to the learner's ear is used to detect the learner's heartbeat, and based on the obtained heartbeat information, whether the learner is concentrating or not. It is described that it is possible to determine the
  • Patent Document 3 describes that a learner's understanding level and concentration level are evaluated by analyzing the learner's writing activities based on the learner's writing data.
  • Patent Documents 1 to 3 described above do not perform analysis that takes into account the attributes of the learners, so there is a problem in that it is difficult to accurately estimate the states of learners who have different characteristics. Ta.
  • An example of an object of the present invention is to provide an information processing device, a system, an information processing method, and a program that can perform more accurate state estimation by taking into account the attributes of a subject, in view of the above-mentioned problems.
  • Acquisition means for acquiring measurement information indicating at least one of brain waves and vital signs of the subject during learning, and attribute information of the subject; analysis means for generating state information regarding the condition of the subject using the measurement information and the attribute information;
  • An information processing apparatus including an output means for outputting the state information.
  • the above information processing device a measuring device that measures at least one of the subject's brain waves and vital signs;
  • a system comprising: a terminal in which the output means outputs the status information.
  • One or more computers Acquire measurement information indicating at least one of an electroencephalogram and a vital sign of a subject during learning, and attribute information of the subject; generating status information regarding a status of the subject using the measurement information and the attribute information; An information processing method for outputting the status information is provided.
  • computer Acquisition means for acquiring measurement information indicating at least one of brain waves and vital signs of a subject during learning, and attribute information of the subject;
  • a program is provided that functions as an analysis means that uses the measurement information and the attribute information to generate state information regarding the condition of the subject, and an output means that outputs the state information.
  • an information processing device a system, an information processing method, and a program that can perform more accurate state estimation by taking into account the attributes of a subject.
  • FIG. 1 is a diagram showing an overview of an information processing device according to a first embodiment.
  • FIG. 1 is a diagram illustrating an overview of a system according to a first embodiment.
  • FIG. 1 is a block diagram illustrating a functional configuration of a system according to a first embodiment.
  • FIG. 2 is a diagram illustrating a configuration of target person information.
  • FIG. 3 is a diagram illustrating display of status information by a terminal.
  • FIG. 2 is a diagram illustrating a computer for realizing an information processing device.
  • 1 is a diagram showing an overview of an information processing method according to a first embodiment;
  • FIG. FIG. 3 is a diagram illustrating a functional configuration of a system according to a second embodiment.
  • FIG. 7 is a diagram illustrating an example of an image displayed on a terminal according to a second embodiment.
  • FIG. 11 is a diagram showing another example of an image displayed on the terminal according to the second embodiment.
  • 12 is a flowchart illustrating the flow of processing executed by an analysis unit according to a third example.
  • 13 is a flowchart showing another example of the flow of the process executed by the analysis unit according to the third example.
  • FIG. 1 is a diagram showing an overview of an information processing device 10 according to the first embodiment.
  • the information processing device 10 includes an acquisition section 110, an analysis section 130, and an output section 150.
  • the acquisition unit 110 acquires measurement information indicating at least one of electroencephalograms and vital signs of the subject during learning, and attribute information of the subject.
  • the analysis unit 130 uses the measurement information and the attribute information to generate state information regarding the state of the subject.
  • the output unit 150 outputs status information.
  • Students and children receiving instruction include children with various characteristics. Some children have special needs. It is not easy for teachers to provide appropriate guidance to each child under such conditions. The teacher may not have sufficient knowledge about teaching children with special needs. If teachers can easily grasp the condition of each child and provide instruction appropriate to each child, both the teacher and the children receiving instruction will benefit. In other words, for teachers, the difficulties caused by poor instruction are reduced. For children, it is possible to avoid situations in which the effectiveness of instruction is not improved due to children not receiving appropriate instruction.
  • the target person is a learner, and is, for example, at least one of a student (junior high school student), a child (elementary school student), and a student at a university, graduate school, vocational school, etc.
  • the age of the subject is not particularly limited, and may be an adult or a child (for example, 18 years old or younger).
  • the information processing device 10 is particularly suitable for targeting students and children in elementary schools, junior high schools, high schools, special needs schools, etc. that educate a variety of children.
  • the learning that the target person undertakes includes learning about subjects, hobbies, qualifications, or skills, etc.
  • Target students can learn under the guidance of instructors such as teachers and instructors.
  • instructors such as teachers and instructors.
  • the instructor may instruct the subject face-to-face in a classroom or the like, or may instruct the subject remotely online. In addition, the instructor may instruct the subject in a virtual space such as the metaverse.
  • the instructor may instruct a subject one-on-one or may instruct a plurality of subjects at the same time. When an instructor instructs a plurality of subjects at the same time, it becomes particularly difficult to grasp the condition of each subject in detail, so it is particularly preferable to obtain status information using the information processing device 10 according to the present embodiment.
  • FIG. 2 is a diagram illustrating an example of an overview of a system 50 according to this embodiment.
  • the system 50 includes an information processing device 10, a measurement device 20, and a terminal 30.
  • the measurement device 20 measures at least one of the subject's brain waves and vital signs.
  • the output section 150 of the information processing device 10 outputs status information to the terminal 30.
  • the system 50 can be said to be a teaching support system or a learning support system.
  • the information processing device 10 can communicate with the measurement device 20 via wired or wireless communication.
  • the information processing device 10 can communicate with the terminal 30 via wired or wireless communication.
  • the information processing device 10 may be connected to at least one of the measurement device 20 and the terminal 30 via a communication network.
  • the measurement device 20 measures at least one of the subject's brain waves and vital signs.
  • the vitals are, for example, one or more of pulse rate, heartbeat, respiration, blood pressure, surface temperature, and body temperature.
  • the measuring device 20 is a measuring device that measures at least one of brain waves and vital signs when worn by the subject or touched during learning.
  • the measuring device 20 may be a contact measuring device.
  • Examples of the measuring device 20 include earphones, pencil-type devices, head-mounted devices, necklace-type devices, finger-ring-type devices, wristwatches, and wristband-type devices.
  • the system 50 may include multiple measuring devices 20. Also, multiple measuring devices 20 may be provided for one subject. The system 50 may include multiple types of measuring devices 20.
  • the learning subject is wearing or using one or more measuring devices 20.
  • the measuring device 20 measures at least one of the brain waves and vitals of the subject wearing or using the measuring device 20.
  • the measuring device 20 is associated with a subject to be measured by the measuring device 20. Specifically, each target person is given unique identification information (hereinafter also referred to as "individual ID"). If there are multiple subjects, each subject can be identified by the individual ID.
  • the measurement device 20 is associated in advance with the personal ID of the person to be measured by the measurement device 20.
  • the measuring device 20 measures at least one of the brain waves and vitals of the subject wearing or using the measuring device 20, and generates and outputs measurement information indicating at least one of the brain waves and vitals.
  • the measurement information may be measurement results at a certain point in time, statistical values (average value, maximum value, minimum value, etc.) of measurement results over a predetermined time period, or time-series measurement data for a predetermined time period. .
  • the measuring device 20 outputs the personal ID associated with the measuring device 20 in association with the measurement information. By doing so, it is possible to identify which subject each measurement information corresponds to.
  • the acquisition unit 110 of the information processing device 10 acquires the measurement information and personal ID output from the measurement device 20.
  • the measuring device 20 may output identification information given to the measuring device 20 (hereinafter also referred to as "measuring device ID") in association with the measurement information.
  • the measurement device ID is identification information unique to each measurement device 20, and when the system 50 includes a plurality of measurement devices 20, each measurement device 20 can be identified by the measurement device ID.
  • the acquisition unit 110 that has acquired the measurement device ID specifies the personal ID corresponding to the measurement device ID using ID reference information that associates the measurement device ID with the personal ID.
  • the acquisition unit 110 then associates the identified individual ID with the measurement information.
  • the ID reference information is stored in advance in a storage device (for example, the subject storage unit 120 described later) that can be accessed by the acquisition unit 110, and the acquisition unit 110 can read and use it. Note that this storage device may be provided inside the information processing device 10 or may be provided outside the information processing device 10.
  • the measuring device 20 repeatedly outputs the measurement information to the information processing device 10 at a predetermined cycle.
  • a measurement may be performed by the measuring device 20 and the measurement information may be output as a result of a predetermined operation (hereinafter also referred to as a "request operation") being performed on the terminal 30 to request the output of status information.
  • request operations include an operation on the terminal 30 to display status information and an operation to select a desired subject.
  • FIG. 3 is a block diagram illustrating the functional configuration of the system 50 according to this embodiment.
  • the information processing apparatus 10 according to the present embodiment further includes a subject storage section 120, an analysis storage section 140, and a state information storage section 160.
  • at least one of the subject storage unit 120, the analysis storage unit 140, and the status information storage unit 160 may be provided outside the information processing device 10.
  • the target person storage unit 120 is accessible from the acquisition unit 110 and holds target person information in advance.
  • the subject information is information in which attribute information is associated with each of the individual IDs of a plurality of subjects.
  • the analysis storage unit 140 is accessible from the analysis unit 130 and holds in advance analysis information necessary for generating state information.
  • the state information storage unit 160 stores the generated state information. In the example of FIG.
  • the system 50 includes a plurality of measurement devices 20 and an imaging device 40.
  • the imaging device 40 it is possible to image the subject.
  • the imaging device 40 include a fixed camera, a wearable camera, and a VR camera.
  • the imaging device 40 is a wearable camera, the wearable camera is worn by, for example, an instructor.
  • FIG. 4 is a diagram illustrating the structure of target person information.
  • the attribute information indicates one or more attributes. Each individual ID is associated with one or more attributes. A collection of one or more attributes associated with a subject's personal ID is called attribute information of the subject.
  • the attribute information may include one or more of age, gender, personality, factors requiring support, hobbies, and preferences.
  • the attribute information includes attributes related to factors that require support.
  • attributes related to factors that require support include information regarding the target person's disability, information regarding the target person's language, information regarding attendance status, and information indicating that there is no support factor.
  • the attribute information includes at least one of information regarding the subject's disability and information regarding the subject's language as an attribute.
  • Examples of information about a person's disability include visual impairment, hearing impairment, intellectual disability, physical disability, infirmity, physical frailty, speech impairment, autism, emotional disability, learning disability, and attention deficit hyperactivity disorder. is included.
  • information on the subject's disability in the attribute information instructors can grasp changes in the condition of subjects with disabilities, which are difficult to judge based on the same standards as children and students without disabilities, and utilize this information in their instruction.
  • Examples of information regarding the subject's language include information that the language used for instruction is not the subject's first language, and the subject's level of understanding of the language used for instruction. Since the attribute information includes information regarding the target person's language, the instructor can understand the condition of the target person, who is an international student or foreigner, and utilize this information in instruction.
  • Attribute information for each target person can be determined based on the results of preliminary questionnaires, tests, surveys, etc.
  • the acquisition unit 110 acquires attribute information for the personal ID associated with the measurement information. Specifically, the acquisition unit 110 acquires attribute information associated with the subject's personal ID in the subject information stored in the subject storage unit 120. In this way, the acquisition unit 110 can acquire the measurement information and attribute information of each subject.
  • the acquisition unit 110 may acquire the measurement information and attribute information of multiple subjects all at once, or may acquire them sequentially.
  • the analysis unit 130 uses the measurement information and attribute information to generate status information regarding the condition of the subject.
  • the state information may be information regarding at least one of the state of the subject at the time of measurement at which the measurement information was obtained and the state of the subject after the time of measurement.
  • the state information indicates, for example, at least one of the subject's emotion, concentration level, and understanding level. In this embodiment, an example in which the state information relates to the state of the subject at the time of measurement when the measurement information is obtained will be described below.
  • the analysis unit 130 generates status information by reading out the analysis information stored in the analysis memory unit 140 and using it to analyze the measurement information.
  • the analysis memory unit 140 stores multiple pieces of analysis information, each associated with one attribute or a combination of two or more attributes. That is, analysis information corresponding to the contents of the attribute information is prepared in advance and stored in the analysis memory unit 140.
  • the analysis unit 130 selects the analysis information to be used from the multiple pieces of analysis information based on the subject's attribute information, and uses the selected analysis information to generate the status information. Specifically, the analysis unit 130 selects analysis information such that one or more attributes indicated in the subject's attribute information match one or more attributes associated with the analysis information used to generate the status information. In this way, analysis is performed using different analysis information depending on the attribute information, and analysis suitable for the subject's attributes can be performed.
  • the analysis storage unit 140 does not necessarily need to hold analysis information for all combinations of attributes. It is sufficient that analysis information is held for at least attributes that may be used and combinations of attributes. If the analysis storage unit 140 does not hold analysis information for a combination of attributes that completely matches the attribute information, the analysis unit 130 may use analysis information for a combination of attributes that has the highest degree of similarity to the attribute information. good. A method in which the analysis unit 130 generates state information regarding the condition of the subject using measurement information and attribute information will be described in detail later.
  • the output unit 150 outputs the status information generated by the analysis unit 130 to the terminal 30.
  • the terminal 30 is, for example, a terminal used by an instructor. Examples of terminal 30 include computers, smartphones, tablets, smart glasses, and earphones.
  • the output unit 150 can output status information in real time to a terminal used by an instructor who is instructing the subject at the time of measurement when the measurement information is obtained. Specifically, the output unit 150 outputs the status information as soon as the status information is generated by the analysis unit 130. The time lag from measurement to display of measurement information is, for example, within one minute. In addition, if the measurement time is during a class, the output unit 150 outputs the measurement information during the class at the latest. By outputting status information in real time, instructors can grasp the status of the subject and take appropriate actions.
  • the output unit 150 may further output notification information to the terminal 30 when the status information satisfies a predetermined condition. For example, when the state information indicates a degree of calmness, the analysis unit 130 determines whether the degree of calmness is less than or equal to a predetermined threshold. When the degree of calmness is less than or equal to a predetermined threshold, the analysis unit 130 generates notification information. Further, the output unit 150 further outputs broadcast information to the terminal 30. On the other hand, if the degree of calmness exceeds a predetermined threshold, the analysis unit 130 does not generate notification information. Further, the output unit 150 does not output broadcast information to the terminal 30. By doing so, the instructor can receive an alert if a subject is experiencing heightened emotions, and can take the necessary response to the subject. Note that the threshold value used here may be included in the analysis information. In that case, determination is performed using different thresholds depending on the attribute information.
  • the terminal 30 Upon acquiring the status information from the output unit 150, the terminal 30 outputs the status information so that the user of the terminal 30 can recognize it. For example, the terminal 30 outputs status information through at least one of audio and display.
  • the terminal 30 may output the status information using AR (Augmented Reality) technology.
  • the user of the terminal 30 is not particularly limited, but may be, for example, at least one of an instructor who instructs the subject, a supervisor who supervises the learning status of the subject or the instruction status of the instructor, a doctor, and a researcher. .
  • the terminal 30 may be used in the same space as the subject, for example in the same classroom, or may be used in a different location from the subject, for example in a separate room.
  • the terminal 30 is smart glasses
  • the user of the terminal 30 sees the target person through a translucent display member provided on the smart glasses.
  • Smart glasses use AR technology to display status information superimposed on the subject.
  • FIG. 5 is a diagram illustrating the display of status information by the terminal 30.
  • a teacher is wearing smart glasses, which are terminals 30, while teaching a class.
  • the terminal 30 is equipped with a sensor that detects the teacher's eye movements.
  • the teacher looks at a specific child for a predetermined period of time among the multiple children (target subjects) taking the class, the child's status is displayed in real time.
  • the child's face is surrounded by a circle, and a diagram showing the main situation ( ⁇ STATUS''), the balance between the degree of relaxation and the degree of stress, and the degree of each state of mind is displayed. Directing one's gaze toward a specific child for a predetermined period of time or longer may correspond to the request operation described above.
  • class concentration Lv the average concentration level of the entire class
  • the acquisition unit 110 of the information processing device 10 acquires an image including the target person from the imaging device 40, and the analysis unit 130 uses the acquired image to identify the target person. Locate the person.
  • the imaging device 40 is, for example, a camera such as a VR (Virtual Reality) camera.
  • the imaging device 40 may image the subject from multiple directions. Further, the imaging area of the imaging device 40 may be fixed or variable.
  • the imaging device 40 may be worn by the user of the terminal 30, or may be included in the terminal 30.
  • each individual ID is further associated with a feature amount for face recognition processing.
  • the analysis unit 130 of the information processing device 10 acquires the feature amount of the target person from the target person storage unit 120, the analysis unit 130 performs face recognition processing on the image generated by the imaging device 40 using the feature amount.
  • the position of the subject in the image is specified.
  • the position of the subject in real space can be specified using the position of the subject in the image, the position of the imaging device 40, and the relationship between the imaging device 40 and the imaging area.
  • the output unit 150 outputs the location of the subject to the terminal 30 in association with the status information.
  • the terminal 30 can specify the position where the status information is to be displayed on the terminal 30 based on the position of the subject, the position of the terminal 30, and the orientation of the terminal 30. Note that the above-described location of the target person may be specified by the terminal 30.
  • the terminal 30 is a computer, smartphone, or tablet
  • an image including the target person is displayed on the display of the terminal 30 along with status information.
  • An image including this subject is captured by the imaging device 40, for example.
  • the imaging device 40 may be included in the terminal 30. Then, by performing face recognition processing on the image containing the target person as described above, the position of each target person in the image is recognized, and the display position of each target person's status information is determined based on that position. may be determined. The face recognition process and the determination of the display position may be performed by the information processing device 10 or the terminal 30.
  • the analysis unit 130 may generate the state information based on a predetermined rule, or may use a model generated by machine learning. Each example will be explained below.
  • the analysis unit 130 generates state information based on a predetermined rule.
  • the analysis information read out from the analysis storage section 140 and used by the analysis section 130 is information indicating a rule for generating state information based on measurement information.
  • the analysis information includes, for example, one or more of a mathematical formula, a condition, and a threshold value.
  • Analysis information corresponding to each attribute information is obtained by collecting and analyzing data showing the relationship between the brain waves and vitals of a learner with that attribute and the state of that learner when those brain waves and vitals were measured. It can be prepared in advance.
  • the analysis unit 130 can estimate the state of the subject using an existing method such as the Russell ring model. For example, the analysis unit 130 performs processing to remove noise from the brain wave waveform, and then extracts each component of alpha waves, gamma waves, beta waves, theta waves, and delta waves. The analysis unit 130 calculates the activity level and comfort level by applying these components to predetermined formulas. Then, the analysis unit 130 can estimate the subject's emotion based on the position when the calculated activation level and comfort level are arranged on a biaxial plane with the vertical axis as the activation level and the horizontal axis as the comfort level.
  • the analysis information includes, for example, mathematical formulas for calculating the degree of activity and the degree of comfort from each component of the brain waves.
  • the analysis unit 130 calculates the ratio of alpha waves to beta waves ( ⁇ / ⁇ ) and fluctuations in components below a predetermined frequency (LF fluctuations) of the brain wave waveform. Then, the analysis unit 130 can estimate the emotion based on the position when the calculated ⁇ / ⁇ and LF fluctuation are arranged on a biaxial plane where the vertical axis is ⁇ / ⁇ and the horizontal axis is the LF fluctuation.
  • the analysis information may be how to allocate the area on the biaxial plane to each emotion.
  • the analysis unit 130 can estimate the condition of the subject using one or more vital values such as pulse, heartbeat, respiration, blood pressure, surface temperature, and body temperature. For example, the lower the pulse rate, the calmer the subject is. It can also be said that when the level of understanding decreases, pulse, body temperature, blood pressure, etc. increase due to impatience and agitation. For example, the analysis unit 130 obtains a score indicating the probability that the subject is in that state by substituting one or more vital values into a formula prepared for each state. Specifically, by substituting the values of pulse, body temperature, and blood pressure into the mathematical formula for determining the "level of understanding," a score indicating the level of understanding can be obtained.
  • vital values such as pulse, heartbeat, respiration, blood pressure, surface temperature, and body temperature. For example, the lower the pulse rate, the calmer the subject is. It can also be said that when the level of understanding decreases, pulse, body temperature, blood pressure, etc. increase due to impatience and agitation.
  • the analysis unit 130 obtains
  • the analysis unit 130 can obtain a score indicating the level of concentration by substituting the rate of variation of the pulse or heart rate into the formula for determining the "level of concentration.”
  • the measurement information includes time-series measurement data of pulse or heartbeat.
  • Analysis information can include such mathematical formulas.
  • the analysis information may include formulas for each emotion such as joy, anger, anxiety, calmness, etc.
  • the analysis unit 130 may also generate state information by combining multiple methods as described above. For example, the analysis unit 130 obtains a state score indicating the likelihood or degree of a certain state (such as “high understanding,” “happy,” “angry,” “anxious,” or “calm") using each of the multiple methods. The analysis unit 130 then obtains an overall state score for that state by calculating the average, sum, or weighted sum of the multiple state scores obtained. A higher overall state score indicates a higher possibility that the subject is in that state. Note that each weight in the weighted sum may also be included in the analysis information. The analysis unit 130 may similarly obtain an overall state score for each of the multiple states.
  • the state information generated by the analysis unit 130 may be information indicating a specified predetermined state, or may be a score (state score or comprehensive state score) indicating the probability of each of a plurality of states. Good too.
  • the analysis unit 130 estimates that the subject is in that state, and Information indicating the status may be included in the status information. This reference value may also be included in the analysis information.
  • the analysis unit 130 generates state information using a model generated by machine learning.
  • the analysis information is a model. That is, the analysis storage unit 140 holds a plurality of models each associated with one attribute or a combination of two or more attributes. Then, the analysis unit 130 selects a model to be used from the plurality of models based on the attribute information of the subject, and uses the selected model to generate state information.
  • the model corresponding to each attribute information performs machine learning using data showing the relationship between the brain waves and vitals of a learner with that attribute and the state of that learner when those brain waves and vitals are measured as training data. This allows you to prepare in advance.
  • the input of the model according to this example is measurement information
  • the output of the model is the likelihood of each of one or more states.
  • the higher the likelihood the higher the possibility that the subject is in that state.
  • the analysis unit 130 obtains each likelihood of one or more states by inputting measurement information into the model read from the analysis storage unit 140.
  • the state information may be a likelihood for each of one or more states.
  • the analysis unit 130 identifies that the subject is in that state, and includes information indicating the state in the state information. It's okay. This reference value may also be included in the analysis information.
  • the analysis unit 130 may generate state information by further using an image of the subject who is currently learning.
  • the model input further includes images of the subject being trained.
  • Such a model corresponding to each attribute information can be prepared in advance by performing machine learning using a learning image of a learner having the attribute as training data.
  • the acquisition unit 110 acquires an image of the person being studied from the imaging device 40.
  • the analysis unit 130 obtains the likelihood of each state by inputting the image acquired by the acquisition unit 110 into the model together with the measurement information.
  • the method by which the analysis unit 130 generates state information is not limited to the above-mentioned example, and various methods may be adopted.
  • the analysis unit 130 associates a personal ID with the status information so that it is possible to identify which subject the generated status information belongs to.
  • the analysis unit 130 may associate information indicating the subject's position with the status information.
  • the information indicating the position can be generated based on an image obtained by the imaging device 40, as described above.
  • the output unit 150 further outputs the personal ID or information indicating the position associated with the status information.
  • the terminal 30 acquires the personal ID or information indicating the position associated with the status information.
  • the terminal 30 can determine at least one of the display position and the display format of each piece of status information based on the personal ID or the information indicating the position.
  • the analysis unit 130 In a situation where multiple subjects are learning at the same time, the analysis unit 130 generates status information for each subject.
  • the analysis unit 130 may further calculate the average of the state information of the plurality of subjects. That is, the average value of the score or likelihood included in the state information is calculated for each state.
  • the output unit 150 can further output the calculated average value. For example, by checking such average values during class, instructors can grasp the overall situation (atmosphere, etc.) of the classroom.
  • Each functional component of the information processing device 10 may be realized by hardware (e.g., a hard-wired electronic circuit) that realizes each functional component. Alternatively, it may be realized by a combination of hardware and software (eg, a combination of an electronic circuit and a program that controls it). A case in which each functional component of the information processing device 10 is realized by a combination of hardware and software will be further described below.
  • FIG. 6 is a diagram illustrating a computer 1000 for realizing the information processing device 10.
  • Computer 1000 is any computer.
  • the computer 1000 is an SoC (System On Chip), a Personal Computer (PC), a server machine, a tablet terminal, a smartphone, or the like.
  • the computer 1000 may be a dedicated computer designed to implement the information processing device 10, or may be a general-purpose computer. Further, the information processing device 10 may be realized by one computer 1000 or may be realized by a combination of multiple computers 1000.
  • the computer 1000 has a bus 1020, a processor 1040, a memory 1060, a storage device 1080, an input/output interface 1100, and a network interface 1120.
  • Bus 1020 is a data transmission path through which processor 1040, memory 1060, storage device 1080, input/output interface 1100, and network interface 1120 exchange data with each other.
  • the processor 1040 is a variety of processors such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or an FPGA (Field-Programmable Gate Array).
  • the memory 1060 is a main storage device implemented using RAM (Random Access Memory) or the like.
  • the storage device 1080 is an auxiliary storage device implemented using a hard disk, an SSD (Solid State Drive), a memory card, a ROM (Read Only Memory), or the like.
  • the input/output interface 1100 is an interface for connecting the computer 1000 to an input/output device.
  • an input device such as a keyboard and an output device such as a display are connected to the input/output interface 1100.
  • the input/output interface 1100 may be connected to the input device or output device by a wireless connection or a wired connection.
  • the network interface 1120 is an interface for connecting the computer 1000 to a network.
  • This communication network is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network).
  • the method for connecting the network interface 1120 to the network may be a wireless connection or a wired connection.
  • the computer 1000 according to the present embodiment can be connected to the measurement device 20 via the input/output interface 1100 or the network interface 1120. Further, the computer 1000 according to the present embodiment can be connected to the terminal 30 via the input/output interface 1100 or the network interface 1120.
  • the storage device 1080 stores program modules that implement each functional component of the information processing device 10.
  • Processor 1040 reads each of these program modules into memory 1060 and executes them, thereby realizing the functions corresponding to each program module.
  • the subject storage unit 120, the analysis storage unit 140, and the status information storage unit 160 are each provided inside the information processing device 10, for example, the subject storage unit 120, the analysis storage unit 140, and the status information storage unit 160 Each of these is realized using a storage device 1080.
  • FIG. 7 is a diagram showing an overview of the information processing method according to this embodiment.
  • the information processing method according to this embodiment is executed by one or more computers.
  • This information processing method includes an acquisition step S10, an analysis step S20, and an output step S30.
  • acquisition step S10 measurement information indicating at least one of the subject's brain waves and vital signs while the subject is learning, and attribute information of the subject are acquired.
  • analysis step S20 status information regarding the subject's status is generated using the measurement information and attribute information.
  • the output step S30 the status information is output.
  • the information processing method according to this embodiment can be executed by the information processing device 10.
  • the acquisition step S10 to the output step S30 are repeatedly performed.
  • the output of the status information from the output unit 150 to the terminal 30 may be performed due to a request operation being performed.
  • the acquisition step S10 and the analysis step S20 may be performed only when a request operation is performed, or may be further performed during other periods.
  • the status information generated by the analysis unit 130 is preferably held in a storage device that is accessible from the output unit 150, regardless of whether the status information is output from the output unit 150 to the terminal 30. That is, the output unit 150 may output the status information to the status information storage unit 160. This is because the information can be confirmed after the fact. Further, the measurement information acquired by the acquisition unit 110 may be further held in the analysis storage unit 140.
  • the status information includes multiple types of information
  • some types of information for example, average values regarding multiple subjects
  • other types of information for example, the status of a specific subject
  • information may be output from the output unit 150 in response to a request operation.
  • the analysis unit 130 uses measurement information and attribute information to generate state information regarding the state of the subject. Therefore, more accurate state estimation can be performed by taking into account the attributes of the subject.
  • FIG. 8 is a diagram illustrating the functional configuration of a system 50 according to the second embodiment.
  • the system 50 according to this embodiment is the same as the system 50 according to the first embodiment except for the points described below.
  • the state information is the state of the subject at the time of measurement when the measurement information was obtained, but in this embodiment, the state information is the state of the subject at the time of measurement when the measurement information was obtained.
  • the analysis unit 130 of the information processing device 10 collects state information regarding the state of the subject at the measurement time when the measurement information was obtained, and state information about the subject's state after the measurement time when the measurement information was obtained. Both state information and state information may be generated.
  • first state information State information regarding the state of the subject after the measurement time point at which the measurement information was obtained is hereinafter also referred to as second state information.
  • the analysis unit 130 of the information processing device 10 further uses learning information indicating at least the learning content at the time of measurement of the measurement information to generate state information regarding the learning state of the subject after the time of measurement. Furthermore, the analysis unit 130 generates state information using the accumulated information or model held in the accumulated storage unit 145.
  • the accumulation storage section 145 is provided inside the information processing device 10, but the accumulation storage section 145 may be provided outside the information processing device 10.
  • the storage unit 145 is realized using the storage device 1080, for example.
  • the learning information includes at least the learning content.
  • Examples of learning content include subjects, units, and page numbers of texts and the like.
  • the learning content is input to the terminal 30 at the start of learning. For example, at the start of a class, the user inputs the subject, unit, etc. of the class into the terminal 30.
  • the acquisition unit 110 of the information processing device 10 can acquire learning information from the terminal 30.
  • the learning state includes, for example, one or more of the following: achievement level, understanding level, concentration level, and test result.
  • the analysis unit 130 generates state information regarding the learning state of the subject after the measurement time, thereby grasping the subject's state transition in advance and adjusting the state as necessary. Measures can be considered.
  • FIG. 9 is a diagram illustrating an image displayed on the terminal 30 according to the present embodiment.
  • This image allows you to see the information for the entire class.
  • the "TOPICS" column of this image messages indicating the status of multiple members (subjects) of the class are displayed.
  • a message indicating the status of each subject is generated based on the status information. By checking such messages, instructors can understand which students they should take care of. Note that the message may be displayed only when the status information satisfies a predetermined condition.
  • the "class atmosphere” is displayed based on the average of the emotions of all members of the class.
  • This average of emotions is, for example, the average of state information during the most recent class, or the average of state information during the most recent predetermined period (for example, one week).
  • the status of multiple members of the class is displayed in a list.
  • Information about each member includes a photograph of the member's face, a symbol indicating an emotion, their name, and attributes.
  • the status of each member is, for example, the average of the status information during the most recent lesson, or the average of the status information during the most recent specified period (for example, one week).
  • FIG. 10 is a diagram showing another example of an image displayed on the terminal 30 according to the present embodiment.
  • FIG. 10 is an image displaying information on individual subjects. For example, by selecting any member in the member list of FIG. 9, it is possible to transition to the image of FIG. 10.
  • the face photo, name, class, and attributes of one subject are displayed. Further, advice based on the prediction result of the subsequent state is further displayed.
  • a line graph showing time-series data of interest in classes is displayed. This graph includes the status of the person being displayed in this image ( ⁇ individual''), the overall average based on the status information of multiple subjects ( ⁇ overall''), and the average ( ⁇ overall'') of the person with each attribute.
  • "ADHD”, "Autism Spectrum Disorder”, “Focal Learning Disorder”, “Depression”), and the average of subjects who have the same combination of attributes as the display target (“same disorder”) can be selected and displayed.
  • this graph can be displayed by switching subjects.
  • the terminal 30 can output status information in a comparable state between multiple subjects or multiple units.
  • the type of state to be displayed may be changed from, for example, "interest in class” to "level of understanding.”
  • information for confirming scenes in which emotions have changed is displayed. Specifically, a list of dates and times when there was a change in emotion is displayed.
  • the point in time when there is a change in emotion is, for example, the point in time when the likelihood or score of any emotion indicated in the state information generated by the analysis unit 130 changes by a predetermined rate of change or more. Then, the status of the subject at the selected date and time among the listed dates and times is displayed in a radar chart.
  • the information processing device 10 based on the comparison result of the target person's information and the accumulated data of children and students with the same or similar characteristics, future prediction comments, subjects and units that are likely to cause trouble, etc. information, predicted understanding level, etc. can be output. Therefore, the instructor can detect signs that the target person will need support.
  • the terminal 30 may further output a three-dimensional model video that reproduces the subject's learning situation including the surrounding environment. For example, by recreating and checking the situations before and after the above-mentioned emotional movement, it becomes easier to identify the cause.
  • An image for generating a three-dimensional model image is captured by, for example, an imaging device 40.
  • the information processing device 10 includes a measurement storage section 100.
  • the measurement storage unit 100 is realized using a storage device 1080, for example.
  • the acquisition unit 110 can store the measurement information acquired from the measurement device 20 in the measurement storage unit 100 in association with the personal ID.
  • the analysis unit 130 does not need to generate status information in real time.
  • the analysis unit 130 can generate status information by subsequently processing the measurement information held in the measurement storage unit 100.
  • the analysis unit 130 may generate state information using time-series data of measurement information.
  • the output unit 150 causes the status information storage unit 160 to hold the status information generated by the analysis unit 130.
  • the output unit 150 reads the status information from the status information storage unit 160 in response to a request from the terminal 30 and outputs the status information to the terminal 30. Therefore, the 30 users can check the status information after the fact at a desired timing.
  • Examples of how the analysis unit 130 according to the present embodiment generates state information regarding the learning state of the subject after the measurement time of the measurement information will be described below as a third example and a fourth example.
  • the accumulation storage unit 145 holds, for example, accumulated information of a plurality of past learners.
  • Each accumulated information is time-series data of at least one of measurement information and first state information.
  • This first state information is, for example, information generated in advance by the method described in the first embodiment based on measurement information.
  • each stored information is associated with one attribute or a combination of two or more attributes.
  • a learning log is associated with data at each point in time-series data.
  • Each learning log includes at least learning content.
  • each learning log includes a learning state.
  • the analysis unit 130 predicts the subsequent state of the subject by comparing at least one of the measurement information and the first state information of the subject with the accumulated information held in the accumulation storage unit 145.
  • FIG. 11 is a flowchart illustrating the flow of processing executed by the analysis unit 130 according to this example.
  • the analysis unit 130 extracts one or more pieces of accumulated information associated with one or more attributes corresponding to the target person's attribute information from among the plural pieces of accumulated information held in the accumulated storage unit 145. That is, the analysis unit 130 extracts one or more accumulated information so that one or more attributes indicated in the target person's attribute information match one or more attributes associated with the extracted accumulated information. .
  • step S120 the analysis unit 130 selects measurement information associated with the same learning content as the learning content indicated in the learning information acquired by the acquisition unit 110 from among the time-series measurement information of each extracted accumulated information. Identify. By doing so, information on the same learning content can be compared.
  • step S130 the analysis unit 130 compares the measurement information specified in each of the one or more pieces of extracted accumulated information and the measurement information of the subject acquired by the acquisition unit 110. As a result, the analysis unit 130 identifies, as similar accumulated information, the accumulated information whose specified measurement information is most similar to the measurement information of the subject, among the one or more accumulated information. Note that the comparison between the measurement information of the accumulated information and the measurement information of the subject may be performed using any one indicator included in the measurement information, or may be performed using multiple indicators (for example, brain waves and pulse rate). Good too.
  • the analysis unit 130 calculates the difference between the measurement information of the subject and the measurement information of the accumulated information for each index, and selects the accumulated information with the smallest sum or average of the plurality of differences obtained from the similar accumulated information. Can be identified as information.
  • the comparison between the measurement information of the accumulated information and the measurement information of the subject may be a comparison of their respective time series data.
  • the degree of similarity of time series data is calculated using an existing method, and the stored information with the highest degree of similarity is determined as similar stored information.
  • step S140 the analysis unit 130 generates second status information of the subject based on the learning log indicated in the specified accumulated information. That is, the analysis unit 130 sets the learning state indicated in the learning log included in the identified similar accumulated information as second state information. Information indicating learning content is associated with the second state information. Furthermore, the analysis unit 130 associates the second status information with the subject's personal ID.
  • the second status information for example, learning content that the subject will be weak in in the future can be predicted.
  • FIG. 12 is a flowchart showing another example of the flow of processing executed by the analysis unit 130.
  • similar accumulated information is identified by comparing the first state information of the accumulated information and the first state information of the subject.
  • Step S210 is the same as step S110 in FIG. 11.
  • the analysis unit 130 generates first status information based on the measurement information of the subject acquired by the acquisition unit 110. Generation of the first state information can be performed in the same manner as described in the first embodiment.
  • step S230 the analysis unit 130 selects the same learning content as the learning content indicated in the learning information acquired by the acquisition unit 110 from among the time-series first state information of each accumulated information extracted in step S210. Identifying associated first state information.
  • step S240 the analysis unit 130 compares the first status information identified in each of the extracted one or more pieces of accumulated information with the first status information of the subject generated in step S220. As a result, the analysis unit 130 identifies, among the one or more pieces of accumulated information, the accumulated information in which the identified first status information is most similar to the first status information of the subject as similar accumulated information.
  • the comparison between the first status information of the accumulated information and the first status information of the subject may be performed using any one of the indices included in the first status information, or may be performed using multiple indices (for example, the degree of calmness and the degree of understanding). A specific example of the latter case is the same as that described above for the measurement information.
  • the comparison between the first status information of the accumulated information and the first status information of the subject may also be a comparison of their respective time series data.
  • the similarity of the time series data is calculated using an existing method, and the accumulated information with the highest similarity is determined to be the similar accumulated information.
  • Step S250 is the same as step S140 in FIG. 11.
  • analysis unit 130 may identify similar accumulated information based on a combination of measurement information and first state information.
  • the measurement information acquired by the acquisition unit 110 and the status information generated by the analysis unit 130 may be held in the accumulation storage unit 145 as at least part of the accumulation information.
  • the storage unit 145 holds a plurality of models generated by machine learning. Each of the plurality of models is associated with one attribute or a combination of two or more attributes.
  • the analysis unit 130 selects a model to be used from a plurality of models based on the attribute information of the subject, reads the selected model, and generates state information in the same manner as described in the first embodiment. used for
  • the input of the model according to this example is the subject's measurement information and learning information.
  • the measurement information input to the model may be time-series data of the measurement information.
  • the output of the model according to this example is information indicating the learning state of each learning content.
  • Such a model can be generated, for example, by machine learning using the plurality of accumulated information described in the third example as training data.
  • the analysis unit 130 inputs the measurement information and learning information acquired by the acquisition unit 110 into the model read out from the accumulation storage unit 145. Then, as an output of the model, information indicating the learning state of each learning content is obtained. Then, the analysis unit 130 sets the acquired information indicating the learning state as second state information. The analysis unit 130 associates the learning content and the subject's personal ID with the second status information.
  • second state information for a plurality of learning contents is generated. That is, the analysis unit 130 generates status information for each subject or unit. Therefore, the analysis unit 130 may further extract second state information associated with learning content that the subject has not learned from the plurality of generated second state information. For example, information indicating learning content that the subject has learned is stored in a storage device that can be accessed by the analysis unit 130, and the analysis unit 130 can read and use it.
  • the analysis unit 130 may include advice information regarding guidance to the subject in the status information.
  • the analysis unit 130 can select advice information according to the predicted learning state from among a plurality of pieces of advice information prepared in advance and include it in the state information.
  • the method by which the analysis unit 130 generates state information is not limited to the above-mentioned example, and various methods may be adopted.
  • the analysis unit 130 of the information processing device 10 further uses the learning information indicating at least the learning content at the time of measurement of the measurement information to obtain state information regarding the learning state of the subject after the time of measurement. generate. Therefore, it is possible to grasp the subject's state transition in advance and consider preventive measures as necessary.
  • the system 50 according to this embodiment is the same as the system 50 according to the first or second embodiment except for the points described below.
  • the system 50 includes, as the measuring device 20, an imaging device, such as a thermography camera, that images the subject from a position away from the subject and measures vital signs.
  • an imaging device such as a thermography camera
  • the measuring device 20 outputs an image.
  • the measuring device 20 is a thermography camera
  • the measuring device 20 outputs an image showing the temperature at each position within the imaging range.
  • the imaging area of the measuring device 20 may be fixed or variable.
  • the acquisition unit 110 of the information processing device 10 obtains measurement information by processing an image of the subject undergoing learning. That is, the measuring device 20 captures an image of the subject undergoing learning to generate an image. The measuring device 20 then outputs the generated image. The acquisition unit 110 acquires the image output from the measuring device 20.
  • the measuring device 20 when the measuring device 20 is provided to mainly image a specific subject, the measuring device 20 is associated with the subject who is the measurement target of the measuring device 20. Then, like the example of the contact-type measuring device 20 described above, a personal ID is associated with the measurement information.
  • the acquisition unit 110 can associate the measurement information and individual ID of each subject by performing the following processing.
  • position information indicating the position within the image is associated with each of the plurality of individual IDs in advance.
  • the position information can be prepared, for example, based on the seat position assigned to each subject in the classroom.
  • the acquisition unit 110 uses the location information to identify the location corresponding to each individual ID.
  • the acquisition unit 110 then extracts position information corresponding to each individual ID from the image acquired from the measuring device 20.
  • the acquisition unit 110 uses position information to identify coordinates in the image that correspond to a certain personal ID.
  • the acquisition unit 110 associates the temperature at that coordinate in the thermography image with that individual ID.
  • each individual ID may be associated with information indicating an area in the image. In that case, the acquisition unit 110 may calculate the average temperature within a region in the thermography image and associate it with the individual ID.
  • each subject may be detected using an image obtained by the imaging device 40.
  • each individual ID is further associated with a feature quantity for face recognition processing.
  • the acquisition unit 110 of the information processing device 10 acquires the feature amount of the target person from the target person storage unit 120, the acquisition unit 110 performs face recognition processing on the image generated by the imaging device 40 using the feature amount. By doing so, the position of the subject in the image is identified.
  • the position of the subject in real space can be specified using the position of the subject in the image, the position of the imaging device 40, and the relationship between the imaging device 40 and the imaging area of the imaging device 40.
  • the acquisition unit 110 can specify the position of the subject in the captured image of the measuring device 20.
  • 1-1 Acquisition means for acquiring measurement information indicating at least one of brain waves and vital signs of the subject during learning, and attribute information of the subject; analysis means for generating state information regarding the condition of the subject using the measurement information and the attribute information; An information processing device comprising an output means for outputting the state information.
  • the state information is an information processing device regarding at least one of the state of the subject at the time of measurement when the measurement information was obtained, and the state of the subject after the time of measurement. 1-3. 1-1. Or 1-2.
  • the state information is an information processing device that indicates at least one of the subject's emotion, concentration level, and understanding level. 1-4. 1-1. From 1-3.
  • the output means is an information processing device that outputs the status information in real time to a terminal used by an instructor who is instructing the subject at the time of the measurement. 1-5. 1-1. From 1-4.
  • In the information processing device according to any one of The output means is an information processing device that further outputs notification information to the terminal when the status information satisfies a predetermined condition. 1-6. 1-2.
  • the analysis means is an information processing device that further uses learning information indicating at least learning content at the measurement time to generate the state information regarding the learning state of the subject after the measurement time. 1-7. 1-6.
  • the status information includes advice information regarding guidance to the subject. 1-8. 1-6. or 1-7.
  • the information processing device described in The analysis means is an information processing device that generates the status information for each subject or unit. 1-9. 1-8.
  • the output means outputs the status information to a terminal,
  • the terminal is an information processing device that outputs the status information in a comparable state between a plurality of subjects or a plurality of units. 1-10. 1-1. From 1-9.
  • the attribute information includes an attribute related to a factor that requires support. 1-11. 1-10.
  • the attribute information includes at least one of information regarding a disability of the target person and information regarding a language of the target person. 1-12. 1-1. From 1-11.
  • the analysis means is an information processing device that generates the state information using a model generated by machine learning. 1-13. 1-12.
  • the analysis storage means holds a plurality of the models each associated with one attribute or a combination of two or more attributes
  • the analysis means is an information processing device that selects the model to be used from the plurality of models based on the attribute information of the subject, and uses the selected model to generate the state information. 1-14. 1-1. From 1-13.
  • the acquisition means is an information processing device that acquires the measurement information by processing an image of the subject under learning. 1-15. 1-1. From 1-14.
  • the information processing device according to any one of The analysis means is an information processing device that generates the status information by further using an image of the subject who is undergoing learning. 2-1. 1-1. From 1-15.
  • the information processing device according to any one of a measuring device that measures at least one of the subject's brain waves and vital signs; and a terminal in which the output means outputs the status information.
  • 3-1. one or more computers Obtaining measurement information indicating at least one of brain waves and vital signs of the subject during learning, and attribute information of the subject; generating state information regarding the state of the subject using the measurement information and the attribute information; An information processing method for outputting the state information.
  • the state information is an information processing method relating to at least one of a state of the subject at the time of measurement when the measurement information was obtained and a state of the subject after the time of measurement. 3-3. 3-1. Or 3-2.
  • the output means outputs the status information in real time to a terminal used by an instructor who is instructing the subject at the time of the measurement. 3-5. 3-1. From 3-4.
  • the information processing method described in any one of The one or more computers further output notification information to the terminal when the status information satisfies a predetermined condition. 3-6. 3-2.
  • the information processing method described in The one or more computers further use learning information indicating at least learning content at the measurement time to generate the state information regarding the learning state of the subject after the measurement time. 3-7.
  • the information processing method described in The information processing method includes the status information including advice information regarding guidance to the subject. 3-8. 3-6. or 3-7.
  • the one or more computers generate the status information for each subject or unit. 3-9. 3-8.
  • the information processing method described in the one or more computers output the status information to a terminal; An information processing method, wherein the terminal outputs the status information in a comparable state between a plurality of subjects or a plurality of units. 3-10. 3-1. From 3-9.
  • the attribute information includes attributes related to factors that require support. 3-11. 3-10.
  • the attribute information includes at least one of information regarding a disability of the target person and information regarding a language of the target person. 3-12. 3-1. From 3-11.
  • the one or more computers generate the state information using a model generated by machine learning. 3-13.
  • 3-12. In the information processing method described in The attribute information indicates one or more attributes,
  • the analysis storage means holds a plurality of the models each associated with one attribute or a combination of two or more attributes, The one or more computers select the model to be used from the plurality of models based on the attribute information of the subject, and use the selected model to generate the state information. 3-14. 3-1. From 3-13.
  • the one or more computers obtain the measurement information by processing images of the subject during learning. 3-15. 3-1. From 3-14.
  • the one or more computers generate the status information by further using an image of the subject who is undergoing learning.
  • computer Acquisition means for acquiring measurement information indicating at least one of brain waves and vital signs of the subject during learning, and attribute information of the subject;
  • a program that functions as an analysis means for generating state information regarding the condition of the subject using the measurement information and the attribute information, and an output means for outputting the state information. 4-2. 4-1.
  • the state information is a program related to at least one of the state of the subject at the measurement time when the measurement information was obtained and the state of the subject after the measurement time. 4-3. 4-1. Or 4-2.
  • the state information is a program that indicates at least one of the subject's emotion, concentration level, and understanding level. 4-4. 4-1. From 4-3.
  • the output means is a program that outputs the status information in real time to a terminal used by an instructor who is instructing the subject at the time of the measurement. 4-5. 4-1. From 4-4.
  • In the program described in any one of The output means is a program that further outputs notification information to the terminal when the status information satisfies a predetermined condition. 4-6.
  • the analysis means further uses learning information indicating at least learning content at the measurement time to generate the state information regarding the learning state of the subject after the measurement time. 4-7. 4-6.
  • the status information is a program including advice information regarding guidance to the subject. 4-8. 4-6. or 4-7.
  • the analysis means is a program that generates the status information for each subject or unit. 4-9. 4-8.
  • the output means outputs the status information to a terminal, The terminal is a program that outputs the status information in a comparable state between a plurality of subjects or a plurality of units. 4-10. 4-1. From 4-9.
  • any one of The attribute information includes attributes related to factors that require support. 4-11. 4-10.
  • the attribute information includes at least one of information regarding a disability of the target person and information regarding a language of the target person. 4-12. 4-1. From 4-11.
  • the analysis means is a program that generates the state information using a model generated by machine learning. 4-13. 4-12.
  • the attribute information indicates one or more attributes
  • the analysis storage means holds a plurality of the models each associated with one attribute or a combination of two or more attributes,
  • the analysis means is a program that selects the model to be used from the plurality of models based on the attribute information of the subject and uses the selected model to generate the state information. 4-14. 4-1. From 4-13.
  • the acquisition means is a program that acquires the measurement information by processing an image of the subject who is currently learning. 4-15. 4-1. From 4-14.
  • the analysis means is a program that generates the status information by further using an image of the subject who is currently learning. 5-1.
  • a computer-readable recording medium that records a program, The program causes the computer to Acquisition means for acquiring measurement information indicating at least one of brain waves and vital signs of the subject during learning, and attribute information of the subject;
  • a recording medium that functions as an analysis means for generating state information regarding the condition of the subject using the measurement information and the attribute information, and an output means for outputting the state information. 5-2. 5-1.
  • the state information is a recording medium related to at least one of the state of the subject at the measurement time when the measurement information was obtained and the state of the subject after the measurement time. 5-3. 5-1. Or 5-2.
  • the state information is a recording medium that indicates at least one of the subject's emotion, concentration level, and understanding level. 5-4. 5-1. From 5-3.
  • the output means is a recording medium that outputs the status information in real time to a terminal used by an instructor who is instructing the subject at the time of the measurement. 5-5. 5-1. From 5-4.
  • the output means is a recording medium that further outputs notification information to the terminal when the status information satisfies a predetermined condition. 5-6. 5-2.
  • the analyzing means further uses learning information indicating at least learning content at the time of measurement to generate the state information regarding the learning state of the subject after the time of measurement. 5-7. 5-6.
  • the status information is a recording medium that includes advice information regarding guidance to the subject. 5-8. 5-6. or 5-7.
  • the analysis means is a recording medium that generates the status information for each subject or unit. 5-9. 5-8.
  • the output means outputs the status information to a terminal
  • the terminal is a recording medium that outputs the status information in a comparable state between a plurality of subjects or a plurality of units. 5-10. 5-1. From 5-9.
  • the attribute information is a recording medium including attributes related to factors that require support. 5-11. 5-10.
  • the attribute information is a recording medium that includes at least one of information regarding the subject's disability and information regarding the subject's language. 5-12. 5-1. From 5-11.
  • In the recording medium described in any one of The analysis means is a recording medium that generates the state information using a model generated by machine learning. 5-13. 5-12.
  • the analysis storage means holds a plurality of the models each associated with one attribute or a combination of two or more attributes, The analyzing means selects the model to be used from the plurality of models based on the attribute information of the subject, and uses the selected model to generate the state information. 5-14. 5-1. From 5-13.
  • the acquisition means is a recording medium that acquires the measurement information by processing an image of the subject under study. 5-15. 5-1. From 5-14.
  • the recording medium described in any one of The analysis means is a recording medium that generates the status information further using an image of the subject who is undergoing learning.
  • Information processing device 20 Measuring device 30 Terminal 40 Imaging device 50 System 100 Measurement storage section 110 Acquisition section 120 Subject storage section 130 Analysis section 140 Analysis storage section 145 Accumulation storage section 150 Output section 160 Status information storage section 1000 Computer 1020 Bus 1040 Processor 1060 Memory 1080 Storage device 1100 Input/output interface 1120 Network interface

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Primary Health Care (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

情報処理装置(10)は、取得部(110)、分析部(130)、および出力部(150)を備える。取得部(110)は、対象者の学習中の、脳波およびバイタルの少なくとも一方を示す測定情報と、対象者の属性情報とを取得する。分析部(130)は、測定情報および属性情報を用いて、対象者の状態に関する状態情報を生成する。出力部(150)は、状態情報を出力する。

Description

情報処理装置、システム、情報処理方法、およびプログラム
 本発明は、情報処理装置、システム、情報処理方法、およびプログラムに関する。
 学習や教育の現場では、学習者の状態を推定してよりよい学習につなげる試みが検討されている。
 特許文献1には、バイタルセンサで得られた対象者のバイタルデータの変化を解析することによって、対象者の集中度を推定することが記載されている。
 特許文献2には、学習者の耳に装着されるウェアラブル型のセンサを用いて、学習者の心拍を検出し、得られた心拍情報に基づいて、学習者が意識を集中しているか否かを判定することが記載されている。
 特許文献3には、学習者の筆記データに基づきその筆記活動を解析することによって、学習者の理解度や集中度を評価することが記載されている。
特開2021-23492号公報 特開2022-77300号公報 国際公開第2014/141414号
 しかしながら、上述した特許文献1から特許文献3の技術においては、学習者の属性を加味した解析が行われないため、それぞれ特性の異なる学習者の状態を正しく推定することが難しいという問題点があった。
 本発明の目的の一例は、上述した課題を鑑み、対象者の属性を加味してより正確な状態推定を行える情報処理装置、システム、情報処理方法、およびプログラムを提供することにある。
 本発明の一態様によれば、
 対象者の学習中の、脳波およびバイタルの少なくとも一方を示す測定情報と、前記対象者の属性情報とを取得する取得手段と、
 前記測定情報および前記属性情報を用いて、前記対象者の状態に関する状態情報を生成する分析手段と、
 前記状態情報を出力する出力手段とを備える
情報処理装置が提供される。
 本発明の一態様によれば、
 上記の情報処理装置と、
 前記対象者の脳波およびバイタルの少なくとも一方を測定する測定装置と、
 前記出力手段が前記状態情報を出力する端末とを備える
システムが提供される。
 本発明の一態様によれば、
 一以上のコンピュータが、
  対象者の学習中の、脳波およびバイタルの少なくとも一方を示す測定情報と、前記対象者の属性情報とを取得し、
  前記測定情報および前記属性情報を用いて、前記対象者の状態に関する状態情報を生成し、
  前記状態情報を出力する
情報処理方法が提供される。
 本発明の一態様によれば、
 コンピュータを、
  対象者の学習中の、脳波およびバイタルの少なくとも一方を示す測定情報と、前記対象者の属性情報とを取得する取得手段、
  前記測定情報および前記属性情報を用いて、前記対象者の状態に関する状態情報を生成する分析手段、および
  前記状態情報を出力する出力手段として機能させる
プログラムが提供される。
 本発明の一態様によれば、対象者の属性を加味してより正確な状態推定を行える情報処理装置、システム、情報処理方法、およびプログラムを提供できる。
第1の実施形態に係る情報処理装置の概要を示す図である。 第1の実施形態に係るシステムの概要を例示する図である。 第1の実施形態に係るシステムの機能構成を例示するブロック図である。 対象者情報の構成を例示する図である。 端末による状態情報の表示を例示する図である。 情報処理装置を実現するための計算機を例示する図である。 第1の実施形態に係る情報処理方法の概要を示す図である。 第2の実施形態に係るシステムの機能構成を例示する図である。 第2の実施形態に係る端末に表示される画像を例示する図である。 第2の実施形態に係る端末に表示される画像の他の例を示す図である。 第3例に係る分析部が実行する処理の流れを例示するフローチャートである。 第3例に係る分析部が実行する処理の流れの他の例を示すフローチャートである。
 以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
(第1の実施形態)
 図1は、第1の実施形態に係る情報処理装置10の概要を示す図である。情報処理装置10は、取得部110、分析部130、および出力部150を備える。取得部110は、対象者の学習中の、脳波およびバイタルの少なくとも一方を示す測定情報と、対象者の属性情報とを取得する。分析部130は、測定情報および属性情報を用いて、対象者の状態に関する状態情報を生成する。出力部150は、状態情報を出力する。
 この情報処理装置10によれば、対象者の属性を加味してより正確な状態推定を行える。
 以下、情報処理装置10の詳細例について説明する。
 たとえば学校等の教育現場では、教師が複数の生徒や児童を指導している。指導を受ける生徒や児童には様々な特性の子供が含まれる。子供達の中には、特別な支援を必要とする子もいる。そのような状態で教師が子供達それぞれに対して適した指導を行うことは容易ではない。その教師が特別な支援を必要とする子の指導について、充分に知識を有していないこともある。教師が各子供の状態を容易に把握し、それぞれに適した指導を行えれば、教師と指導を受ける子供達の双方にとって利益がある。すなわち、教師にとっては、指導がうまくいかないことによる苦労が低減する。子供達にとっては、適した指導を受けられないことにより、指導効果が上がらないといったことが避けられる。
 本実施形態において、対象者は学習者であり、たとえば、生徒(中高生)、児童(小学生)、および大学や大学院、専門学校等の学生の少なくともいずれかである。対象者の年齢は特に限定されず、大人であってもよいし、子供(たとえば18歳以下)であってもよい。情報処理装置10は、様々な子供達に対して教育を行う小学校、中学校、高校、特別支援学校等での、生徒や児童を対象者とすることに特に適する。
 対象者が行う学習は、教科や科目の学習、趣味、資格、または技能に関する学習等が含まれる。対象者は、教師や講師等の指導者の指導を受けて学習を行える。対象者が学習を行う場所は特に限定されない。対象者はたとえば、学校等の教室、自宅、その他の学習室等で学習を行う。「学習中」の例には、たとえば授業中、講義中、対象者が指導を受けているとき、および対象者が自習しているときが含まれる。
 指導者は、教室等において対面で対象者を指導してもよいし、オンラインによる遠隔で対象者を指導してもよい。その他、指導者は、メタバース等の仮想空間で対象者を指導してもよい。指導者は、マンツーマンで対象者を指導してもよいし、複数の対象者を同時に指導してもよい。指導者が複数の対象者を同時に指導する場合に、各対象者の状態を細かく把握することが特に困難になるため、本実施形態に係る情報処理装置10により状態情報を得ることが特に好ましい。
 図2は、本実施形態に係るシステム50の概要を例示する図である。本実施形態に係るシステム50は、情報処理装置10、測定装置20、および端末30を備える。測定装置20は、対象者の脳波およびバイタルの少なくとも一方を測定する。情報処理装置10の出力部150は端末30に状態情報を出力する。
 システム50は、指導支援システムまたは学習支援システムであると言える。情報処理装置10は測定装置20と、有線通信または無線通信することができる。情報処理装置10は端末30と、有線通信または無線通信することができる。情報処理装置10は、測定装置20および端末30の少なくとも一方と、通信ネットワークを介して接続されていても良い。
 上述した通り、測定装置20は、対象者の脳波およびバイタルの少なくとも一方を測定する。本実施形態において、バイタルは、たとえば、脈拍、心拍、呼吸、血圧、表面温度、体温のうち一以上である。測定装置20は対象者が身につけたり、学習中に触れたりすることで、脳波およびバイタルの少なくとも一方を測定する測定装置である。測定装置20は、接触式の測定装置であり得る。
 測定装置20の例には、イヤホン、ペンシル型デバイス、ヘッドマウント式デバイス、ネックレス型デバイス、指輪型デバイス、リストウォッチ、およびリストバンド型デバイスが含まれる。システム50は、複数の測定装置20を含むことができる。また、一人の対象者に対して、複数の測定装置20が設けられていてもよい。システム50は、複数種類の測定装置20を含んでもよい。
 学習中の対象者は一以上の測定装置20を身につけている、または使用している。測定装置20は、その測定装置20を身につけている、または使用している対象者の脳波およびバイタルの少なくとも一方を測定する。測定装置20は、その測定装置20が測定対象とする対象者に関連付けられている。具体的には、各対象者には、固有の識別情報(以後、「個人ID」とも呼ぶ)が付与されている。複数の対象者が存在する場合、個人IDによって、各対象者を識別可能である。そして、測定装置20には、その測定装置20の測定対象である対象者の、個人IDが予め関連付けられている。
 測定装置20は、その測定装置20を身につけている、または使用している対象者の脳波およびバイタルの少なくとも一方を測定し、脳波およびバイタルの少なくとも一方を示す測定情報を生成して出力する。測定情報は、ある時点での測定結果でもよいし、所定の時間の測定結果の統計値(平均値、最大値、最小値等)でもよいし、所定の時間分の時系列の測定データでもよい。このとき測定装置20は、その測定装置20に関連付けられた個人IDを測定情報に関連付けて出力する。そうすることで、各測定情報がどの対象者の情報であるか識別できる。情報処理装置10の取得部110は、測定装置20から出力された測定情報および個人IDを取得する。
 なお、測定装置20は、個人IDを出力する代わりに、測定装置20に付与された識別情報(以後、「測定装置ID」とも呼ぶ)を測定情報に関連付けて出力してもよい。測定装置IDは、各測定装置20に固有の識別情報であり、システム50が複数の測定装置20を含む場合、測定装置IDによって、各測定装置20を識別可能である。測定装置IDを取得した取得部110は、測定装置IDと個人IDとを関連付けたID参照情報を用いて、測定装置IDに対応する個人IDを特定する。そして、取得部110は特定した個人IDをその測定情報に関連付ける。ID参照情報は、取得部110からアクセス可能な記憶装置(たとえば後述する対象者記憶部120)に予め保持させておき、取得部110がそれを読み出して用いることができる。なお、この記憶装置は情報処理装置10の内部に設けられていてもよいし、情報処理装置10の外部に設けられていてもよい。
 たとえば測定装置20は、所定の周期で繰り返し測定情報を情報処理装置10に出力する。その他、状態情報の出力をリクエストするための所定の操作(以下、「リクエスト操作」とも呼ぶ)が端末30に対して行われたことに起因して、測定装置20で測定が行われ、測定情報が出力されてもよい。リクエスト操作の例には、端末30において、状態情報を表示させるための操作、および所望の対象者を選択する操作が含まれる。
 図3は、本実施形態に係るシステム50の機能構成を例示するブロック図である。本実施形態に係る情報処理装置10は、対象者記憶部120、分析記憶部140、および状態情報記憶部160をさらに備える。ただし、対象者記憶部120、分析記憶部140、および状態情報記憶部160の少なくとも一方は、情報処理装置10の外部に設けられていてもよい。対象者記憶部120は、取得部110からアクセス可能であり、対象者情報を予め保持している。対象者情報は複数の対象者の個人IDのそれぞれに、属性情報を関連付けた情報である。分析記憶部140は、分析部130からアクセス可能であり、状態情報の生成に必要な分析情報を予め保持している。状態情報記憶部160は、生成された状態情報を記憶する。図3の例において、システム50は複数の測定装置20、および撮像装置40を備える。撮像装置40によれば、対象者を撮像することができる。撮像装置40の例には、固定カメラ、ウェアブルカメラ、およびVRカメラが含まれる。撮像装置40がウェアブルカメラである場合、ウェアブルカメラはたとえば指導者が身に付ける。
 図4は、対象者情報の構成を例示する図である。属性情報には、一以上の属性が示されている。各個人IDには、一以上の属性が関連付けられている。対象者の個人IDに関連付けられた一以上の属性のまとまりを、その対象者の属性情報と呼ぶ。属性情報は、属性として、年齢、性別、性格に関する属性、支援が必要である要因に関する属性、趣味に関する属性、および嗜好に関する属性のうち一以上が含まれうる。
 中でも属性情報は、支援が必要である要因に関する属性を含むことが好ましい。支援が必要である要因に関する属性の例には、対象者の障害に関する情報、対象者の言語に関する情報、出席状況に関する情報、および、支援要因がない旨の情報が含まれる。なかでも、属性情報は、属性として、対象者の障害(difficulty)に関する情報および対象者の言語に関する情報の少なくとも一方を含むことが好ましい。
 対象者の障害に関する情報の例には、視覚障害、聴覚障害、知的障害、肢体不自由、病弱、身体虚弱、言語障害、自閉症、情緒障害、学習障害、および注意欠陥多動性障害が含まれる。属性情報が対象者の障害に関する情報を含むことにより、障害を持たない児童や生徒と同じ基準では判断が難しい、障害を持つ対象者の状態の変化を汲み取り、指導者が指導に活かすことができる。対象者の言語に関する情報の例には、指導に用いられる言語が対象者の第1言語でない旨の情報、および指導に用いられる言語についての対象者の理解度が含まれる。属性情報が対象者の言語に関する情報を含むことにより、留学生や外国人である対象者の状態を汲み取り、指導者が指導に活かすことができる。
 各対象者の属性情報は事前のアンケート、テスト、調査等の結果に基づいて定めることができる。
 図3に戻り、取得部110は、上述したように測定情報を取得すると、その測定情報に関連付けられた個人IDについて、属性情報を取得する。具体的には、取得部110は、対象者記憶部120に保持された対象者情報において、対象者の個人IDに関連付けられた属性情報を取得する。そうすることで、取得部110は、各対象者の測定情報と、属性情報を取得することができる。取得部110は、複数の対象者の測定情報と属性情報をまとめて取得しても良いし、順に取得しても良い。
 取得部110が測定情報および属性情報を取得すると、分析部130は、測定情報および属性情報を用いて、対象者の状態に関する状態情報を生成する。状態情報は、測定情報が得られた測定時点の対象者の状態、および測定時点より後の対象者の状態の少なくとも一方に関する情報であり得る。状態情報は、たとえば対象者の感情、集中度、および理解度のうち少なくとも一つを示す。本実施形態では、状態情報が、測定情報が得られた測定時点の対象者の状態に関する例について、以下に説明する。
 分析部130は、分析記憶部140に保持された分析情報を読み出して測定情報の分析に用いることで、状態情報を生成する。分析記憶部140には、一の属性または二以上の属性の組み合わせにそれぞれが関連付けられた複数の分析情報が保持されている。すなわち、属性情報の内容に対応する分析情報が予め準備されて、分析記憶部140に保持されている。分析部130は、対象者の属性情報に基づいて、複数の分析情報から使用すべき分析情報を選択し、選択した分析情報を状態情報の生成に用いる。具体的には、分析部130は、対象者の属性情報に示された一以上の属性と、状態情報の生成に用いる分析情報に関連付けられた一以上の属性とが一致するように、分析情報を選択する。そうすることで、属性情報に応じて異なる分析情報を用いた分析が行われ、対象者の属性に適した分析が行える。
 ただし、分析記憶部140には、必ずしも属性の全ての組み合わせについて、分析情報が保持されている必要はない。少なくとも使用する可能性のある属性、および属性の組み合わせについて、分析情報が保持されていればよい。属性情報に完全に一致する属性の組み合わせの分析情報が分析記憶部140に保持されていない場合には、分析部130は、属性情報に最も類似度が高い属性の組み合わせの分析情報を用いてもよい。分析部130が、測定情報および属性情報を用いて、対象者の状態に関する状態情報を生成する方法については、詳しく後述する。
 出力部150は、分析部130により生成された状態情報を端末30に出力する。端末30は、たとえば指導者が用いる端末である。端末30の例には、コンピュータ、スマートフォン、タブレット、スマートグラス、およびイヤホンが含まれる。
 出力部150はたとえば、測定情報が得られた測定時点において対象者を指導している指導者が用いる端末に対し、リアルタイムで状態情報を出力することができる。具体的には、出力部150は、分析部130で状態情報が生成され次第、その状態情報を出力する。測定情報の測定から表示までのタイムラグはたとえば1分以内である。その他、測定時点が授業中である場合、出力部150は、遅くともその授業中に測定情報を出力する。リアルタイムで状態情報が出力されることで、指導者が対象者の状態を把握し、適切な対応を行うことができる。
 また、出力部150は、状態情報が予め定められた条件を満たす場合に、端末30に報知情報をさらに出力してもよい。たとえば、分析部130は、状態情報が落ち着き度合いを示す場合、落ち着き度合いが予め定められた閾値以下であるか否かを判定する。落ち着き度合いが予め定められた閾値以下である場合に、分析部130は報知情報を生成する。また出力部150は、端末30に報知情報をさらに出力する。一方、落ち着き度合いが予め定められた閾値超過である場合、分析部130は報知情報を生成しない。また、出力部150は端末30に報知情報を出力しない。そうすることで、指導者は、感情が高ぶっている対象者がいる場合にアラートを受け、その対象者に対して必要な対応を行うことができる。なお、ここで用いる閾値は、分析情報に含まれてもよい。その場合、属性情報に応じて異なる閾値での判定が行われる。
 端末30は、出力部150から状態情報を取得すると、その状態情報を、端末30の使用者が認識可能に出力する。たとえば端末30は、状態情報を音声および表示の少なくとも一方により出力する。端末30は、AR(Augmented Reality)技術を用いて状態情報を出力してもよい。端末30の使用者は特に限定されないが、たとえば対象者を指導している指導者、対象者の学習状況または指導者の指導状況を監督する監督者、医師、および研究者の少なくともいずれかである。端末30は、対象者と同じ空間、たとえば同じ教室で使用されてもよいし、対象者とは異なる場所、たとえば別室で使用されてもよい。
 たとえば端末30がスマートグラスである場合、端末30の使用者は、スマートグラスに備えられた透光性の表示部材を介して対象者を見る。スマートグラスでは、AR技術によって、状態情報が対象者に重なるように表示される。
 図5は、端末30による状態情報の表示を例示する図である。図5の例では、教師が端末30であるスマートグラスを装着して授業をしている。端末30には、教師の目の動きを検出するセンサが備えられている。教師が、授業を受けている複数の児童(対象者)のうち、特定の児童に所定の時間以上視線を向けると、その児童の状態がリアルタイムで表示される。たとえば本図では、その児童の顔が丸で囲われ、主な状況(「STATUS」)、リラックス度合いとストレス度合いのバランス、および各心情の度合いを示す図が表示されている。特定の児童に所定の時間以上視線を向けることは、上述したリクエスト操作に相当しうる。
 また、混乱状態など、注意が必要な児童に対し、アラートを示す記号(「ATTENTION」)等が表示されている。さらに、クラス全体の集中度合いの平均(「クラス集中Lv」)が表示されている。
 端末30が、AR技術を用いて状態情報を出力する場合、情報処理装置10の取得部110は撮像装置40から対象者が含まれる画像を取得し、分析部130は取得した画像を用いて対象者の位置を特定する。撮像装置40はたとえばVR(Virtual Reality)カメラ等のカメラである。撮像装置40は複数の方向から対象者を撮像してもよい。また、撮像装置40の撮像領域は固定されていてもよいし、可変であってもよい。撮像装置40は、端末30の使用者が身につけていてもよいし、端末30に備えられていてもよい。
 また、対象者記憶部120の対象者情報において、各個人IDにはさらに、顔認識処理のための特徴量が関連付けられている。情報処理装置10の分析部130は、対象者記憶部120から、対象者の特徴量を取得すると、その特徴量を用い、撮像装置40で生成された画像に対し顔認識処理を行う。そうすることで、画像中の対象者の位置が特定される。また、画像中の対象者の位置、撮像装置40の位置、および撮像装置40と撮像領域との関係を用いて、実空間での対象者の位置を特定できる。対象者の位置が特定されると、出力部150は、その対象者の位置を、状態情報に対応付けて端末30に出力する。端末30は、対象者の位置、端末30の位置、および端末30の向きに基づき、端末30において状態情報を表示する位置等を特定することができる。なお、上述した対象者の位置の特定は、端末30で行われてもよい。
 その他の例として、端末30がコンピュータ、スマートフォン、またはタブレットである場合、端末30のディスプレイに、対象者を含む画像が、状態情報とともに表示される。この対象者を含む画像は、たとえば撮像装置40で撮像される。上述した通り、撮像装置40は端末30に備えられていてもよい。そして、対象者を含む画像に対し、上述したように顔認識処理を行うことで、各対象者の画像中の位置を認識し、その位置に基づいて、各対象者の状態情報の表示位置が決定されてもよい。顔認識処理、および、表示位置の決定は、情報処理装置10で行われてもよいし、端末30で行われてもよい。
 分析部130が、測定情報および属性情報を用いて、対象者の状態に関する状態情報を生成する方法について、以下に詳しく説明する。
 分析部130は、状態情報の生成を、所定のルールベースで行っても良いし、機械学習によって生成されたモデルを用いて行っても良い。各例について、以下に説明する。
<第1例>
 第1例では、分析部130は、状態情報の生成を、所定のルールベースで行う。この場合、分析部130が分析記憶部140から読み出して用いる分析情報は、測定情報に基づいて状態情報を生成するためのルールを示す情報である。分析情報には、たとえば数式、条件、および閾値のうち一以上が含まれる。各属性情報に対応する分析情報は、その属性を有する学習者の脳波やバイタルと、その脳波やバイタルを測定した時のその学習者の状態との関係を示すデータを収集し、解析することで予め準備することができる。
<<脳波>>
 測定情報が脳波を含む場合、分析部130はラッセル円環モデル等、既存の手法を用いて対象者の状態を推定できる。たとえば分析部130は脳波波形からノイズを除去する処理を行った上で、アルファー波、ガンマ波、ベータ波、シータ波、デルタ波の各成分を抽出する。分析部130は、これらの成分を所定の数式に当てはめることで、活性度および快適度をそれぞれ算出する。そして、算出された活性度および快適度を、縦軸を活性度、横軸を快適度とした二軸平面に配置した場合の位置に基づいて、分析部130は対象者の感情を推定できる。ここで、分析情報は、たとえば脳波の各成分から活性度および快適度をそれぞれ算出するための数式を含む。
 その他の例として、分析部130は、アルファー波とベータ波の比(β/α)および、脳波の波形のうち、所定の周波数以下の成分の変動(LF揺らぎ)を算出する。そして、算出されたβ/αおよびLF揺らぎを、縦軸をβ/α、横軸をLF揺らぎとした二軸平面に配置した場合の位置に基づいて、分析部130は感情を推定できる。ここで、各感情に割り当てる二軸平面における領域の取り方が分析情報であり得る。
<<バイタル>>
 分析部130は、脈拍、心拍、呼吸、血圧、表面温度、および体温等の一以上のバイタルの値を用いて、対象者の状態を推定できる。たとえば、脈拍が低いほど、対象者が落ち着いていると言える。また、理解度が下がると焦りや動揺により、脈拍、体温、血圧等が上がると言える。たとえば、分析部130は、各状態について準備された数式に、一以上のバイタルの値を代入することで、対象者がその状態である確からしさを示すスコアを得る。具体的には、「理解度の高さ」を求めるための数式に、脈拍、体温、血圧の値を代入することで、理解度の高さを示すスコアを得ることができる。その他、脈拍の変動が小さいほど対象者が集中していると言うことができる。したがって、分析部130は、「集中度の高さ」を求めるための数式に、脈拍または心拍の変動率を代入することで、集中度の高さを示すスコアを得ることができる。なおこの場合、測定情報は脈拍または心拍の時系列の測定データを含むとする。分析情報は、このような数式を含みうる。たとえば、分析情報は喜び、怒り、不安、落ち着き等の感情ごとの数式を含んでも良い。
 また、分析部130は上述したような複数の方法を組み合わせて状態情報を生成してもよい。たとえば分析部130は、複数の方法のそれぞれで、ある状態(「理解度が高い」、「喜んでいる」、「怒っている」、「不安」、または「落ち着いている」等)の確からしさ、または度合いを示す状態スコアを得る。そして、分析部130は、得られた複数の状態スコアの平均、和、または重み付け和を算出することにより、その状態に関する総合状態スコアを得る。総合状態スコアが高いほど、対象者がその状態である可能性が高いことを示す。なお、重み付け和の各重みがさらに分析情報に含まれてもよい。分析部130は、同様にして複数の状態のそれぞれについて総合状態スコアを得てもよい。
 分析部130で生成される状態情報は、特定された所定の状態を示す情報であってもよいし、複数の状態のそれぞれについての確からしさを示すスコア(状態スコアまたは総合状態スコア)であってもよい。その他、分析部130は、ある状態について算出したスコア(状態スコアまたは総合状態スコア)が予め定められた所定の基準値以上である場合に、対象者がその状態であると推定し、その状態を示す情報を状態情報に含めてもよい。この基準値がさらに分析情報に含まれてもよい。
<第2例>
 第2例では、分析部130は、機械学習によって生成されたモデルを用いて状態情報を生成する。この場合、分析情報は、モデルである。すなわち、分析記憶部140には、一の属性または二以上の属性の組み合わせにそれぞれが関連付けられた複数のモデルが保持されている。そして分析部130は、対象者の属性情報に基づいて、複数のモデルから使用すべきモデルを選択し、選択したモデルを状態情報の生成に用いる。
 各属性情報に対応するモデルは、その属性を有する学習者の脳波やバイタルと、その脳波やバイタルを測定した時のその学習者の状態との関係を示すデータを教師データとして、機械学習を行うことで、予め準備することができる。
 本例に係るモデルの入力は測定情報であり、モデルの出力は一以上の状態の各尤度である。尤度が高いほど、対象者がその状態である可能性が高いことを示す。分析部130は分析記憶部140から読み出したモデルに測定情報を入力することで、一以上の状態の各尤度を得る。状態情報は、一以上の状態それぞれについての尤度であってよい。その他、分析部130は、ある状態について算出した尤度が予め定められた所定の基準値以上である場合に、対象者がその状態であると特定し、その状態を示す情報を状態情報に含めてもよい。この基準値がさらに分析情報に含まれてもよい。
 また、分析部130は、学習中の対象者の画像をさらに用いて状態情報を生成してもよい。この場合、モデルの入力は、さらに学習中の対象者の画像を含む。各属性情報に対応するこのようなモデルは、その属性を有する学習者の学習中の画像をさらに教師データとして、機械学習を行うことで、予め準備することができる。
 取得部110は撮像装置40から学習中の対象者の画像を取得する。分析部130は、取得部110が取得した画像を、測定情報と合わせてモデルに入力することで、各状態の尤度を得る。
 なお、分析部130が状態情報を生成する方法は上述した例に限定されず、様々な方法が採用され得る。
 分析部130は、生成した状態情報が、どの対象者の状態情報であるか識別できるよう、状態情報に個人IDを関連付ける。または、分析部130は、状態情報に対象者の位置を示す情報を関連付けてもよい。位置を示す情報は、上述したように、撮像装置40により得られた画像に基づいて生成できる。出力部150は、状態情報に関連付けられた個人IDまたは位置を示す情報をさらに出力する。端末30は、状態情報に関連付けられた個人IDまたは位置を示す情報を取得する。端末30は、各状態情報の表示位置および表示形式の少なくとも一方を、個人IDまたは位置を示す情報に基づいて決定することができる。
 複数の対象者が同時に学習している場面において、分析部130は、各対象者の状態情報を生成する。そして、分析部130はさらに、複数の対象者の状態情報の平均を算出してもよい。すなわち、状態情報に含まれるスコアまたは尤度の、平均値を状態ごとに算出する。そして、出力部150は、算出された平均値をさらに出力することができる。たとえば指導者は授業中にこのような平均値を確認することにより、教室全体の状況(雰囲気など)を把握することができる。
 情報処理装置10のハードウエア構成について以下に説明する。情報処理装置10の各機能構成部(取得部110、分析部130、および出力部150)は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置10の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
 図6は、情報処理装置10を実現するための計算機1000を例示する図である。計算機1000は任意の計算機である。例えば計算機1000は、SoC(System On Chip)、Personal Computer(PC)、サーバマシン、タブレット端末、またはスマートフォンなどである。計算機1000は、情報処理装置10を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。また、情報処理装置10は、一つの計算機1000で実現されても良いし、複数の計算機1000の組み合わせにより実現されても良い。
 計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、およびネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、およびネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、または FPGA(Field-Programmable Gate Array)などの種々のプロセッサである。メモリ1060は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、メモリカード、または ROM(Read Only Memory)などを用いて実現される補助記憶装置である。
 入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース1100には、キーボードなどの入力装置や、ディスプレイなどの出力装置が接続される。入出力インタフェース1100が入力装置や出力装置に接続する方法は、無線接続であってもよいし、有線接続であってもよい。
 ネットワークインタフェース1120は、計算機1000をネットワークに接続するためのインタフェースである。この通信網は、例えば LAN(Local Area Network)や WAN(Wide Area Network)である。ネットワークインタフェース1120がネットワークに接続する方法は、無線接続であってもよいし、有線接続であってもよい。
 本実施形態に係る計算機1000は、入出力インタフェース1100またはネットワークインタフェース1120を介して測定装置20と接続されうる。また、本実施形態に係る計算機1000は、入出力インタフェース1100またはネットワークインタフェース1120を介して端末30と接続されうる。
 ストレージデバイス1080は、情報処理装置10の各機能構成部を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、各プログラムモジュールに対応する機能を実現する。
 また、対象者記憶部120、分析記憶部140、および状態情報記憶部160がそれぞれ情報処理装置10の内部に設けられる場合、例えば対象者記憶部120、分析記憶部140、および状態情報記憶部160のそれぞれは、ストレージデバイス1080を用いて実現される。
 図7は、本実施形態に係る情報処理方法の概要を示す図である。本実施形態に係る情報処理方法は、一以上のコンピュータによって実行される。本情報処理方法は、取得ステップS10、分析ステップS20、および出力ステップS30を含む。取得ステップS10では、対象者の学習中の、脳波およびバイタルの少なくとも一方を示す測定情報と、対象者の属性情報とが取得される。分析ステップS20では、測定情報および属性情報を用いて、対象者の状態に関する状態情報が生成される。出力ステップS30では、状態情報が出力される。
 本実施形態に係る情報処理方法は、情報処理装置10によって実行され得る。
 本実施形態において情報処理装置10の処理を開始する操作が行われると、取得ステップS10から出力ステップS30が繰り返し行われる。または、出力部150から端末30への状態情報の出力は、リクエスト操作が行われたことに起因して行われても良い。その場合、取得ステップS10および分析ステップS20は、リクエスト操作が行われたときにのみ行われてもよいし、それ以外の期間にさらに行われてもよい。分析部130が生成した状態情報は、出力部150から端末30へ状態情報が出力されるか否かにかかわらず、出力部150からアクセス可能な記憶装置に保持されることが好ましい。すなわち、出力部150は、状態情報を状態情報記憶部160に対して出力してもよい。そうすれば、事後的に情報を確認できるからである。また、取得部110が取得した測定情報がさらに分析記憶部140に保持されてもよい。
 状態情報に複数種類の情報が含まれる場合、一部の種類の情報(たとえば複数の対象者に関する平均値)が常に出力部150から出力され、他の種類の情報(たとえば特定の対象者の状態情報)が、リクエスト操作に応じて出力部150から出力されてもよい。そうすることで、端末30による情報の出力が雑多にならず、使用者が内容を把握しやすくなる。
 以上、本実施形態によれば、分析部130は、測定情報および属性情報を用いて、対象者の状態に関する状態情報を生成する。したがって、対象者の属性を加味してより正確な状態推定を行える。
(第2の実施形態)
 図8は、第2の実施形態に係るシステム50の機能構成を例示する図である。本実施形態に係るシステム50は、以下に説明する点を除いて第1の実施形態に係るシステム50と同じである。
 第1の実施形態では、状態情報が、測定情報が得られた測定時点の対象者の状態である例について説明したが、本実施形態では、状態情報が、測定情報が得られた測定時点より後の対象者の状態に関する例について説明する。ただし、本実施形態に係る情報処理装置10の分析部130は、測定情報が得られた測定時点の対象者の状態に関する状態情報と、測定情報が得られた測定時点より後の対象者の状態に関する状態情報との両方を生成してもよい。測定情報が得られた測定時点の対象者の状態に関する状態情報を、以後、第1状態情報とも呼ぶ。測定情報が得られた測定時点より後の対象者の状態に関する状態情報を、以後、第2状態情報とも呼ぶ。
 本実施形態に係る情報処理装置10の分析部130は、測定情報の測定時点の学習内容を少なくとも示す学習情報をさらに用いて、測定時点より後の対象者の学習状態に関する状態情報を生成する。また、分析部130は、蓄積記憶部145に保持された蓄積情報またはモデルを用いて状態情報を生成する。図8の例において、蓄積記憶部145は情報処理装置10の内部に設けられているが、蓄積記憶部145は、情報処理装置10の外部に設けられていてもよい。蓄積記憶部145が情報処理装置10の内部に設けられる場合、例えば蓄積記憶部145は、ストレージデバイス1080を用いて実現される。
 学習情報には、少なくとも学習内容が含まれる。学習内容の例には、教科、単元、およびテキスト等のページ番号が含まれる。学習内容は、学習の開始時に端末30に対して入力される。たとえば使用者は、授業の開始時に、端末30に対してその授業の教科、単元等を入力する。情報処理装置10の取得部110は、端末30から、学習情報を取得することができる。
 学習状態には、たとえば達成度、理解度、集中度、およびテスト結果のうち一以上が含まれる。
 本実施形態に係る情報処理装置10によれば、分析部130が測定時点より後の対象者の学習状態に関する状態情報を生成することで、対象者の状態遷移を予め把握し、必要に応じた対応を検討することができる。
 図9は、本実施形態に係る端末30に表示される画像を例示する図である。本画像では、クラス全体の情報を俯瞰することができる。教師等、端末30の利用者は、授業後等にこのような表示内容を確認して、クラスの現状を把握し、その後の指導をより良くすることができる。本画像の「TOPICS」欄には、クラスの複数のメンバー(対象者)の状態を示すメッセージが表示されている。各対象者の状態を示すメッセージは状態情報に基づいて生成される。このようなメッセージを確認することで、指導者はケアすべき生徒を把握することができる。なお、状態情報が所定の条件を満たす場合にのみ、メッセージが表示されてもよい。
 また、図9の例では、クラスの全メンバーの感情の平均に基づく「クラスの雰囲気」が表示されている。この感情の平均はたとえば、直近の授業中の状態情報の平均、または直近の所定の期間(たとえば一週間)中の状態情報の平均である。
 さらに、図9の例では、クラスの複数のメンバーの状態がリスト表示されている。各メンバーの情報としては、メンバーの顔写真、感情を示す記号、氏名、および属性が表示されている。各メンバーの状態は、たとえば、直近の授業中の状態情報の平均、または直近の所定の期間(たとえば一週間)中の状態情報の平均である。
 図10は、本実施形態に係る端末30に表示される画像の他の例を示す図である。図10は、個別の対象者の情報を表示する画像である。たとえば図9のメンバーリストにおいていずれかのメンバーを選択することで、図10の画像に遷移することができる。
 図10の例では、一人の対象者の顔写真、氏名、クラス、属性、が表示されている。また、その後の状態の予測結果に基づくアドバイスがさらに表示されている。加えて、図10の左下部分には授業への興味関心(感情の一例)の時系列データを示す折れ線グラフが表示されている。このグラフには、この画像で表示対象である対象者の状態(「個人」)のほか、複数の対象者の状態情報に基づく全体平均(「全体」)、各属性を有する対象者の平均(「ADHD」、「自閉症スペクトラム障害」、「限局性学習症」、「うつ病」)、および、表示対象である対象者と同じ属性の組み合わせを有する対象者の平均(「同じ障害」)を、それぞれ選択して表示できる。したがって、使用者は同様の特徴を持つ学習者の平均的な状態の推移を確認することができる。図10の例では、「個人」、「全体」、「自閉症スペクトラム障害」、および「同じ障害」が選択され、それらのデータが表示されている。なお、このグラフには、過去の情報と未来の情報が含まれうる。
 また、このグラフは、教科を切り替えて表示可能である。このように、端末30は、複数の教科間または複数の単元間で、比較可能な状態で状態情報を出力することができる。さらに、表示させる状態の種類を、たとえば「授業への興味関心」から「理解度」等へ変更できてもよい。
 また、図10の右下部分には、感情に動きがあったシーンを確認するための情報が表示されている。具体的には、感情に動きがあった時点の日時がリスト表示されている。感情に動きがあった時点はたとえば、分析部130で生成された状態情報に示されるいずれかの感情の尤度またはスコアが、所定の変化率以上に変化した時点である。そして、リスト表示された日時のうち、選択された日時の対象者の状態がレーダーチャートで表示されている。
 本実施形態に係る情報処理装置10によれば、対象者の情報と、同一または類似の特性を持つ児童や生徒の蓄積データとの比較結果に基づき、今後の予測コメント、つまずきやすい教科および単元などの情報、および予測理解度等を出力できる。したがって、指導者は、対象者に支援が必要になる予兆を検知できる。
 端末30は、他の例として、対象者の学習中の状況を周囲の環境も含めて再現する三次元モデル映像をさらに出力してもよい。たとえば、上述した感情に動きがあった時点の前後の状況を再現して確認することにより、その原因を特定しやすくなる。三次元モデル映像を生成するための画像は、たとえば撮像装置40により撮像される。
 図8の例において、情報処理装置10は測定記憶部100を備える。測定記憶部100が情報処理装置10の内部に設けられる場合、例えば測定記憶部100は、ストレージデバイス1080を用いて実現される。本実施形態において、取得部110は、測定装置20から取得した測定情報を個人IDと関連付けて測定記憶部100に蓄積することができる。本実施形態において、分析部130は状態情報をリアルタイムで生成する必要はない。分析部130は、測定記憶部100に保持された測定情報を事後的に処理して、状態情報を生成することができる。また、分析部130は、測定情報の時系列データを用いて状態情報を生成してもよい。
 本実施形態において出力部150は、分析部130が生成した状態情報を、状態情報記憶部160に保持させる。たとえば、出力部150は、端末30からの要求に応じて、状態情報記憶部160から状態情報を読み出し、端末30に状態情報を出力する。したがって、30の使用者は、事後的に所望のタイミングで状態情報を確認できる。
 本実施形態に係る分析部130が、測定情報の測定時点より後の、対象者の学習状態に関する状態情報を生成する方法の例を、第3例、第4例として以下に説明する。
<第3例>
 第3例において、蓄積記憶部145にはたとえば、過去の複数の学習者の蓄積情報が保持されている。各蓄積情報は測定情報および第1状態情報のうち少なくとも1つの時系列データである。この第1状態情報はたとえば、測定情報に基づいて、第1の実施形態で説明した方法で予め生成された情報である。また、各蓄積情報には一の属性または二以上の属性の組み合わせが関連付けられている。さらに、各蓄積情報において、時系列データの各時点のデータには、学習ログが関連付けられている。各学習ログには少なくとも学習内容が含まれる。また、各学習ログには、学習状態が含まれる。
 分析部130は、対象者の測定情報および第1状態情報の少なくとも一方と、蓄積記憶部145に保持された蓄積情報とを比較することで、対象者のその後の状態を予測する。
 図11は、本例に係る分析部130が実行する処理の流れを例示するフローチャートである。ステップS110において、分析部130は、蓄積記憶部145に保持された複数の蓄積情報の中から、対象者の属性情報に対応する一以上の属性が関連付けられた一以上の蓄積情報を抽出する。すなわち、分析部130は、対象者の属性情報に示された一以上の属性と、抽出される蓄積情報に関連付けられた一以上の属性とが一致するように、一以上の蓄積情報を抽出する。
 ステップS120において、分析部130は、抽出された各蓄積情報の時系列の測定情報の中から、取得部110が取得した学習情報に示された学習内容と同一の学習内容に関連付けられた測定情報を特定する。そうすることで、同一の学習内容における情報同士を比較できる。
 ステップS130において分析部130は、抽出された一以上の蓄積情報のそれぞれにおいて特定された測定情報と、取得部110が取得した対象者の測定情報とを比較する。その結果、分析部130は、一以上の蓄積情報の中で、特定された測定情報が、対象者の測定情報に最も類似する蓄積情報を、類似の蓄積情報として特定する。なお、蓄積情報の測定情報と、対象者の測定情報との比較は、測定情報に含まれるいずれか一つの指標で行われても良いし、複数の指標(たとえば脳波と脈拍)で行われてもよい。後者の場合、分析部130は、各指標について対象者の測定情報と、蓄積情報の測定情報との差を算出し、得られた複数の差の合計または平均が最も小さい蓄積情報を類似の蓄積情報として特定できる。
 また、蓄積情報の測定情報と、対象者の測定情報との比較は、それぞれの時系列データの比較であってもよい。この場合、時系列データの類似度を既存の手法を用いて算出し、類似度が最も高い蓄積情報を、類似の蓄積情報とする。
 対象者がその後学習する内容についての学習状態は、特定された類似の蓄積情報の学習ログに示された学習状態と類似することが推定される。そこで、ステップS140において分析部130は、特定した蓄積情報に示された学習ログに基づいて、対象者の第2状態情報を生成する。すなわち、分析部130は、特定した類似の蓄積情報に含まれる学習ログに示される学習状態を、第2状態情報とする。第2状態情報には、学習内容を示す情報が関連付けられる。また、分析部130は、第2状態情報に、対象者の個人IDを関連付ける。
 第2状態情報によればたとえば、対象者が今後苦手とする学習内容が予想できる。
 図12は、分析部130が実行する処理の流れの他の例を示すフローチャートである。本例では、蓄積情報の第1状態情報と、対象者の第1状態情報とを比較することで、類似の蓄積情報を特定する。
 ステップS210は、図11のステップS110と同じである。ついで、ステップS220において、分析部130は、取得部110が取得した対象者の測定情報に基づいて、第1状態情報を生成する。第1状態情報の生成は、第1の実施形態で説明したのと同様の方法で行える。
 ステップS230において、分析部130は、ステップS210で抽出された各蓄積情報の時系列の第1状態情報の中から、取得部110が取得した学習情報に示された学習内容と同一の学習内容に関連付けられた第1状態情報を特定する。
 ステップS240において分析部130は、抽出された一以上の蓄積情報のそれぞれにおいて特定された第1状態情報と、ステップS220で生成された対象者の第1状態情報とを比較する。その結果、分析部130は、一以上の蓄積情報の中で、特定された第1状態情報が、対象者の第1状態情報に最も類似する蓄積情報を、類似の蓄積情報として特定する。なお、蓄積情報の第1状態情報と、対象者の第1状態情報との比較は、第1状態情報に含まれるいずれか一つの指標で行われても良いし、複数の指標(たとえば落ち着き度合いと理解度)で行われてもよい。後者の場合の具体例は測定情報について上述したのと同様である。また、蓄積情報の第1状態情報と、対象者の第1状態情報との比較は、それぞれの時系列データの比較であってもよい。この場合、時系列データの類似度を既存の手法を用いて算出し、類似度が最も高い蓄積情報を、類似の蓄積情報とする。
 ステップS250は、図11のステップS140と同じである。
 なお、分析部130は、測定情報と第1状態情報の組み合わせにより、類似の蓄積情報を特定してもよい。
 第3例において、取得部110が取得した測定情報および、分析部130が生成した状態情報は、蓄積情報の少なくとも一部として蓄積記憶部145に保持されてもよい。
<第4例>
 第4例において、蓄積記憶部145には、機械学習によって生成された複数のモデルが保持されている。複数のモデルのそれぞれは、一の属性または二以上の属性の組み合わせに関連付けられている。分析部130は、第1の実施形態で説明したのと同様にして、対象者の属性情報に基づいて、複数のモデルから使用すべきモデルを選択し、選択したモデルを読み出して状態情報の生成に用いる。
 本例に係るモデルの入力は対象者の測定情報、および学習情報である。ただし、モデルに入力する測定情報は、測定情報の時系列データであってもよい。そして、本例に係るモデルの出力は各学習内容における学習状態を示す情報である。このようなモデルは、たとえば第3例で説明した複数の蓄積情報を教師データとして用いた機械学習により、生成できる。
 分析部130は、蓄積記憶部145から読み出したモデルに、取得部110が取得した測定情報および学習情報を入力する。そして、モデルの出力として、各学習内容における学習状態を示す情報を取得する。そして、分析部130は、取得した学習状態を示す情報を第2状態情報とする。分析部130は、第2状態情報に、学習内容および対象者の個人IDを関連付ける。
 上述した第3例および第4例によれば、複数の学習内容に対する第2状態情報が生成される。すなわち、分析部130は、教科または単元ごとの状態情報を生成する。そこで分析部130はさらに、生成した複数の第2状態情報から、対象者が未学習である学習内容に関連付けられた第2状態情報を抽出しても良い。たとえば、分析部130がアクセス可能な記憶装置に、対象者が学習済みの学習内容を示す情報が保持されており、分析部130がそれを読み出して用いることができる。
 また、分析部130は、状態情報に、対象者への指導に関するアドバイス情報を含めてもよい。分析部130は、予め準備された複数のアドバイス情報の中から、予測される学習状態に応じたアドバイス情報を選択して状態情報に含めることができる。
 なお、分析部130が状態情報を生成する方法は上述した例に限定されず、様々な方法が採用され得る。
 次に、本実施形態の作用および効果について説明する。本実施形態においては第1の実施形態と同様の作用および効果が得られる。加えて、本実施形態に係る情報処理装置10の分析部130は、測定情報の測定時点の学習内容を少なくとも示す学習情報をさらに用いて、測定時点より後の対象者の学習状態に関する状態情報を生成する。したがって、対象者の状態遷移を予め把握し、必要に応じた予防策を検討することができる。
(変形例)
 本実施形態に係るシステム50は、以下に説明する点を除いて第1または第2の実施形態に係るシステム50と同じである。
 本変形例において、システム50は測定装置20として、サーモグラフィカメラ等、対象者から離れた位置から対象者を撮像してバイタルを測定する、撮像装置を含む。測定装置20が撮像装置である場合、測定装置20は画像を出力する。測定装置20がサーモグラフィカメラである場合、測定装置20からは撮像範囲内の各位置の温度を示す画像が出力される。測定装置20の撮像領域は固定されていてもよいし、可変であってもよい。
 測定装置20が撮像装置である場合、情報処理装置10の取得部110は、学習中の対象者の画像を処理することにより、測定情報を得る。すなわち、測定装置20は学習中の対象者を撮像して画像を生成する。そして、測定装置20は生成した画像を出力する。取得部110は、測定装置20から出力された画像を取得する。
 ここで、測定装置20が、特定の対象者を主に撮像するように設けられる場合、測定装置20は、その測定装置20が測定対象とする対象者に関連付けられている。そして、上述した接触式の測定装置20の例と同様、測定情報に個人IDが関連付けられる。
 一方、測定装置20が複数の対象者を撮像する場合、たとえば、取得部110は以下のような処理を行うことで、各対象者の測定情報と個人IDとを関連付けることができる。
 本変形例に係る対象者記憶部120に保持された対象者情報では、あらかじめ、複数の個人IDのそれぞれに対し、画像内での位置を示す位置情報が関連付けられている。位置情報は、たとえば教室内で各対象者に定められた座席位置等に基づいて、準備できる。取得部110は、位置情報を用いて各個人IDに対応する位置を特定する。そして取得部110は、測定装置20から取得した画像から、各個人IDに対応する位置の情報を抽出する。たとえば測定装置20で得られる画像がサーモグラフィ画像である場合、取得部110は、位置情報を用いて、ある個人IDに対応する、画像中の座標を特定する。そして、取得部110は、サーモグラフィ画像中のその座標における温度を、その個人IDに関連付ける。なお、各個人IDには、画像中の領域を示す情報が対応付けられていてもよい。その場合、取得部110はサーモグラフィ画像における領域内の温度の平均を算出して個人IDに関連付ければよい。
 その他、各対象者の位置は、撮像装置40で得られる画像を用いて検出されてもよい。この場合、対象者記憶部120の対象者情報において、各個人IDにはさらに、顔認識処理のための特徴量が関連付けられている。情報処理装置10の取得部110は、対象者記憶部120から、対象者の特徴量を取得すると、その特徴量を用い、撮像装置40で生成された画像に対し顔認識処理を行う。そうすることで、画像中の対象者の位置が特定される。また、画像中の対象者の位置、撮像装置40の位置、および撮像装置40と撮像装置40の撮像領域との関係を用いて、実空間での対象者の位置を特定できる。さらに、測定装置20の位置、および測定装置20と測定装置20の撮像領域との関係を用いて、取得部110は、測定装置20の撮像画像中での対象者の位置を特定できる。
 本実施形態においても、第1または第2の実施形態と同様の作用および効果が得られる。
 以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
 また、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態は、内容が相反しない範囲で組み合わせることができる。
 上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1-1. 対象者の学習中の、脳波およびバイタルの少なくとも一方を示す測定情報と、前記対象者の属性情報とを取得する取得手段と、
 前記測定情報および前記属性情報を用いて、前記対象者の状態に関する状態情報を生成する分析手段と、
 前記状態情報を出力する出力手段とを備える
情報処理装置。
1-2. 1-1.に記載の情報処理装置において、
 前記状態情報は、前記測定情報が得られた測定時点の前記対象者の状態、および前記測定時点より後の前記対象者の状態の少なくとも一方に関する
情報処理装置。
1-3. 1-1.または1-2.に記載の情報処理装置において、
 前記状態情報は、前記対象者の感情、集中度、および理解度のうち少なくとも一つを示す
情報処理装置。
1-4. 1-1.から1-3.のいずれか一つに記載の情報処理装置において、
 前記出力手段は、前記測定時点において前記対象者を指導している指導者が用いる端末に対し、リアルタイムで前記状態情報を出力する
情報処理装置。
1-5. 1-1.から1-4.のいずれか一つに記載の情報処理装置において、
 前記出力手段は、前記状態情報が予め定められた条件を満たす場合に、前記端末に報知情報をさらに出力する
情報処理装置。
1-6. 1-2.に記載の情報処理装置において、
 前記分析手段は、前記測定時点の学習内容を少なくとも示す学習情報をさらに用いて、前記測定時点より後の前記対象者の学習状態に関する前記状態情報を生成する
情報処理装置。
1-7. 1-6.に記載の情報処理装置において、
 前記状態情報は、前記対象者への指導に関するアドバイス情報を含む
情報処理装置。
1-8. 1-6.または1-7.に記載の情報処理装置において、
 前記分析手段は、教科または単元ごとの前記状態情報を生成する
情報処理装置。
1-9. 1-8.に記載の情報処理装置において、
 前記出力手段は、端末に前記状態情報を出力し、
 前記端末は、複数の教科間または複数の単元間で、比較可能な状態で前記状態情報を出力する
情報処理装置。
1-10. 1-1.から1-9.のいずれか一つに記載の情報処理装置において、
 前記属性情報は、支援が必要である要因に関する属性を含む
情報処理装置。
1-11. 1-10.に記載の情報処理装置において、
 前記属性情報は、前記対象者の障害に関する情報および前記対象者の言語に関する情報の少なくとも一方を含む
情報処理装置。
1-12. 1-1.から1-11.のいずれか一つに記載の情報処理装置において、
 前記分析手段は、機械学習によって生成されたモデルを用いて前記状態情報を生成する
情報処理装置。
1-13. 1-12.に記載の情報処理装置において、
 前記属性情報には、一以上の属性が示されており、
 分析記憶手段には、一の属性または二以上の属性の組み合わせにそれぞれが関連付けられた複数の前記モデルが保持されており、
 前記分析手段は、前記対象者の前記属性情報に基づいて、前記複数のモデルから使用すべき前記モデルを選択し、選択した前記モデルを前記状態情報の生成に用いる
情報処理装置。
1-14. 1-1.から1-13.のいずれか一つに記載の情報処理装置において、
 前記取得手段は、学習中の前記対象者の画像を処理することにより、前記測定情報を得る
情報処理装置。
1-15. 1-1.から1-14.のいずれか一つに記載の情報処理装置において、
 前記分析手段は、学習中の前記対象者の画像をさらに用いて前記状態情報を生成する
情報処理装置。
2-1. 1-1.から1-15.のいずれか一つに記載の情報処理装置と、
 前記対象者の脳波およびバイタルの少なくとも一方を測定する測定装置と、
 前記出力手段が前記状態情報を出力する端末とを備える
システム。
3-1. 一以上のコンピュータが、
 対象者の学習中の、脳波およびバイタルの少なくとも一方を示す測定情報と、前記対象者の属性情報とを取得し、
 前記測定情報および前記属性情報を用いて、前記対象者の状態に関する状態情報を生成し、
 前記状態情報を出力する
情報処理方法。
3-2. 3-1.に記載の情報処理方法において、
 前記状態情報は、前記測定情報が得られた測定時点の前記対象者の状態、および前記測定時点より後の前記対象者の状態の少なくとも一方に関する
情報処理方法。
3-3. 3-1.または3-2.に記載の情報処理方法において、
 前記状態情報は、前記対象者の感情、集中度、および理解度のうち少なくとも一つを示す
情報処理方法。
3-4. 3-1.から3-3.のいずれか一つに記載の情報処理方法において、
 前記出力手段は、前記測定時点において前記対象者を指導している指導者が用いる端末に対し、リアルタイムで前記状態情報を出力する
情報処理方法。
3-5. 3-1.から3-4.のいずれか一つに記載の情報処理方法において、
 前記一以上のコンピュータは、前記状態情報が予め定められた条件を満たす場合に、前記端末に報知情報をさらに出力する
情報処理方法。
3-6. 3-2.に記載の情報処理方法において、
 前記一以上のコンピュータは、前記測定時点の学習内容を少なくとも示す学習情報をさらに用いて、前記測定時点より後の前記対象者の学習状態に関する前記状態情報を生成する
情報処理方法。
3-7. 3-6.に記載の情報処理方法において、
 前記状態情報は、前記対象者への指導に関するアドバイス情報を含む
情報処理方法。
3-8. 3-6.または3-7.に記載の情報処理方法において、
 前記一以上のコンピュータは、教科または単元ごとの前記状態情報を生成する
情報処理方法。
3-9. 3-8.に記載の情報処理方法において、
 前記一以上のコンピュータは、端末に前記状態情報を出力し、
 前記端末は、複数の教科間または複数の単元間で、比較可能な状態で前記状態情報を出力する
情報処理方法。
3-10. 3-1.から3-9.のいずれか一つに記載の情報処理方法において、
 前記属性情報は、支援が必要である要因に関する属性を含む
情報処理方法。
3-11. 3-10.に記載の情報処理方法において、
 前記属性情報は、前記対象者の障害に関する情報および前記対象者の言語に関する情報の少なくとも一方を含む
情報処理方法。
3-12. 3-1.から3-11.のいずれか一つに記載の情報処理方法において、
 前記一以上のコンピュータは、機械学習によって生成されたモデルを用いて前記状態情報を生成する
情報処理方法。
3-13. 3-12.に記載の情報処理方法において、
 前記属性情報には、一以上の属性が示されており、
 分析記憶手段には、一の属性または二以上の属性の組み合わせにそれぞれが関連付けられた複数の前記モデルが保持されており、
 前記一以上のコンピュータは、前記対象者の前記属性情報に基づいて、前記複数のモデルから使用すべき前記モデルを選択し、選択した前記モデルを前記状態情報の生成に用いる
情報処理方法。
3-14. 3-1.から3-13.のいずれか一つに記載の情報処理方法において、
 前記一以上のコンピュータは、学習中の前記対象者の画像を処理することにより、前記測定情報を得る
情報処理方法。
3-15. 3-1.から3-14.のいずれか一つに記載の情報処理方法において、
 前記一以上のコンピュータは、学習中の前記対象者の画像をさらに用いて前記状態情報を生成する
情報処理方法。
4-1. コンピュータを、
 対象者の学習中の、脳波およびバイタルの少なくとも一方を示す測定情報と、前記対象者の属性情報とを取得する取得手段、
 前記測定情報および前記属性情報を用いて、前記対象者の状態に関する状態情報を生成する分析手段、および
 前記状態情報を出力する出力手段として機能させる
プログラム。
4-2. 4-1.に記載のプログラムにおいて、
 前記状態情報は、前記測定情報が得られた測定時点の前記対象者の状態、および前記測定時点より後の前記対象者の状態の少なくとも一方に関する
プログラム。
4-3. 4-1.または4-2.に記載のプログラムにおいて、
 前記状態情報は、前記対象者の感情、集中度、および理解度のうち少なくとも一つを示す
プログラム。
4-4. 4-1.から4-3.のいずれか一つに記載のプログラムにおいて、
 前記出力手段は、前記測定時点において前記対象者を指導している指導者が用いる端末に対し、リアルタイムで前記状態情報を出力する
プログラム。
4-5. 4-1.から4-4.のいずれか一つに記載のプログラムにおいて、
 前記出力手段は、前記状態情報が予め定められた条件を満たす場合に、前記端末に報知情報をさらに出力する
プログラム。
4-6. 4-2.に記載のプログラムにおいて、
 前記分析手段は、前記測定時点の学習内容を少なくとも示す学習情報をさらに用いて、前記測定時点より後の前記対象者の学習状態に関する前記状態情報を生成する
プログラム。
4-7. 4-6.に記載のプログラムにおいて、
 前記状態情報は、前記対象者への指導に関するアドバイス情報を含む
プログラム。
4-8. 4-6.または4-7.に記載のプログラムにおいて、
 前記分析手段は、教科または単元ごとの前記状態情報を生成する
プログラム。
4-9. 4-8.に記載のプログラムにおいて、
 前記出力手段は、端末に前記状態情報を出力し、
 前記端末は、複数の教科間または複数の単元間で、比較可能な状態で前記状態情報を出力する
プログラム。
4-10. 4-1.から4-9.のいずれか一つに記載のプログラムにおいて、
 前記属性情報は、支援が必要である要因に関する属性を含む
プログラム。
4-11. 4-10.に記載のプログラムにおいて、
 前記属性情報は、前記対象者の障害に関する情報および前記対象者の言語に関する情報の少なくとも一方を含む
プログラム。
4-12. 4-1.から4-11.のいずれか一つに記載のプログラムにおいて、
 前記分析手段は、機械学習によって生成されたモデルを用いて前記状態情報を生成する
プログラム。
4-13. 4-12.に記載のプログラムにおいて、
 前記属性情報には、一以上の属性が示されており、
 分析記憶手段には、一の属性または二以上の属性の組み合わせにそれぞれが関連付けられた複数の前記モデルが保持されており、
 前記分析手段は、前記対象者の前記属性情報に基づいて、前記複数のモデルから使用すべき前記モデルを選択し、選択した前記モデルを前記状態情報の生成に用いる
プログラム。
4-14. 4-1.から4-13.のいずれか一つに記載のプログラムにおいて、
 前記取得手段は、学習中の前記対象者の画像を処理することにより、前記測定情報を得る
プログラム。
4-15. 4-1.から4-14.のいずれか一つに記載のプログラムにおいて、
 前記分析手段は、学習中の前記対象者の画像をさらに用いて前記状態情報を生成する
プログラム。
5-1.プログラムを記録しているコンピュータ読み取り可能な記録媒体であって、
 前記プログラムは、コンピュータを、
  対象者の学習中の、脳波およびバイタルの少なくとも一方を示す測定情報と、前記対象者の属性情報とを取得する取得手段、
  前記測定情報および前記属性情報を用いて、前記対象者の状態に関する状態情報を生成する分析手段、および
  前記状態情報を出力する出力手段として機能させる
記録媒体。
5-2. 5-1.に記載の記録媒体において、
 前記状態情報は、前記測定情報が得られた測定時点の前記対象者の状態、および前記測定時点より後の前記対象者の状態の少なくとも一方に関する
記録媒体。
5-3. 5-1.または5-2.に記載の記録媒体において、
 前記状態情報は、前記対象者の感情、集中度、および理解度のうち少なくとも一つを示す
記録媒体。
5-4. 5-1.から5-3.のいずれか一つに記載の記録媒体において、
 前記出力手段は、前記測定時点において前記対象者を指導している指導者が用いる端末に対し、リアルタイムで前記状態情報を出力する
記録媒体。
5-5. 5-1.から5-4.のいずれか一つに記載の記録媒体において、
 前記出力手段は、前記状態情報が予め定められた条件を満たす場合に、前記端末に報知情報をさらに出力する
記録媒体。
5-6. 5-2.に記載の記録媒体において、
 前記分析手段は、前記測定時点の学習内容を少なくとも示す学習情報をさらに用いて、前記測定時点より後の前記対象者の学習状態に関する前記状態情報を生成する
記録媒体。
5-7. 5-6.に記載の記録媒体において、
 前記状態情報は、前記対象者への指導に関するアドバイス情報を含む
記録媒体。
5-8. 5-6.または5-7.に記載の記録媒体において、
 前記分析手段は、教科または単元ごとの前記状態情報を生成する
記録媒体。
5-9. 5-8.に記載の記録媒体において、
 前記出力手段は、端末に前記状態情報を出力し、
 前記端末は、複数の教科間または複数の単元間で、比較可能な状態で前記状態情報を出力する
記録媒体。
5-10. 5-1.から5-9.のいずれか一つに記載の記録媒体において、
 前記属性情報は、支援が必要である要因に関する属性を含む
記録媒体。
5-11. 5-10.に記載の記録媒体において、
 前記属性情報は、前記対象者の障害に関する情報および前記対象者の言語に関する情報の少なくとも一方を含む
記録媒体。
5-12. 5-1.から5-11.のいずれか一つに記載の記録媒体において、
 前記分析手段は、機械学習によって生成されたモデルを用いて前記状態情報を生成する
記録媒体。
5-13. 5-12.に記載の記録媒体において、
 前記属性情報には、一以上の属性が示されており、
 分析記憶手段には、一の属性または二以上の属性の組み合わせにそれぞれが関連付けられた複数の前記モデルが保持されており、
 前記分析手段は、前記対象者の前記属性情報に基づいて、前記複数のモデルから使用すべき前記モデルを選択し、選択した前記モデルを前記状態情報の生成に用いる
記録媒体。
5-14. 5-1.から5-13.のいずれか一つに記載の記録媒体において、
 前記取得手段は、学習中の前記対象者の画像を処理することにより、前記測定情報を得る
記録媒体。
5-15. 5-1.から5-14.のいずれか一つに記載の記録媒体において、
 前記分析手段は、学習中の前記対象者の画像をさらに用いて前記状態情報を生成する
記録媒体。
 この出願は、2022年9月21日に出願された日本出願特願2022-150214号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10 情報処理装置
20 測定装置
30 端末
40 撮像装置
50 システム
100 測定記憶部
110 取得部
120 対象者記憶部
130 分析部
140 分析記憶部
145 蓄積記憶部
150 出力部
160 状態情報記憶部
1000 計算機
1020 バス
1040 プロセッサ
1060 メモリ
1080 ストレージデバイス
1100 入出力インタフェース
1120 ネットワークインタフェース

Claims (18)

  1.  対象者の学習中の、脳波およびバイタルの少なくとも一方を示す測定情報と、前記対象者の属性情報とを取得する取得手段と、
     前記測定情報および前記属性情報を用いて、前記対象者の状態に関する状態情報を生成する分析手段と、
     前記状態情報を出力する出力手段とを備える
    情報処理装置。
  2.  請求項1に記載の情報処理装置において、
     前記状態情報は、前記測定情報が得られた測定時点の前記対象者の状態、および前記測定時点より後の前記対象者の状態の少なくとも一方に関する
    情報処理装置。
  3.  請求項1または2に記載の情報処理装置において、
     前記状態情報は、前記対象者の感情、集中度、および理解度のうち少なくとも一つを示す
    情報処理装置。
  4.  請求項1から3のいずれか一項に記載の情報処理装置において、
     前記出力手段は、前記測定情報が得られた測定時点において前記対象者を指導している指導者が用いる端末に対し、リアルタイムで前記状態情報を出力する
    情報処理装置。
  5.  請求項4に記載の情報処理装置において、
     前記出力手段は、前記状態情報が予め定められた条件を満たす場合に、前記端末に報知情報をさらに出力する
    情報処理装置。
  6.  請求項2に記載の情報処理装置において、
     前記分析手段は、前記測定時点の学習内容を少なくとも示す学習情報をさらに用いて、前記測定時点より後の前記対象者の学習状態に関する前記状態情報を生成する
    情報処理装置。
  7.  請求項6に記載の情報処理装置において、
     前記状態情報は、前記対象者への指導に関するアドバイス情報を含む
    情報処理装置。
  8.  請求項6または7に記載の情報処理装置において、
     前記分析手段は、教科または単元ごとの前記状態情報を生成する
    情報処理装置。
  9.  請求項8に記載の情報処理装置において、
     前記出力手段は、端末に前記状態情報を出力し、
     前記端末は、複数の教科間または複数の単元間で、比較可能な状態で前記状態情報を出力する
    情報処理装置。
  10.  請求項1から9のいずれか一項に記載の情報処理装置において、
     前記属性情報は、支援が必要である要因に関する属性を含む
    情報処理装置。
  11.  請求項10に記載の情報処理装置において、
     前記属性情報は、前記対象者の障害に関する情報および前記対象者の言語に関する情報の少なくとも一方を含む
    情報処理装置。
  12.  請求項1から11のいずれか一項に記載の情報処理装置において、
     前記分析手段は、機械学習によって生成されたモデルを用いて前記状態情報を生成する
    情報処理装置。
  13.  請求項12に記載の情報処理装置において、
     前記属性情報には、一以上の属性が示されており、
     分析記憶手段には、一の属性または二以上の属性の組み合わせにそれぞれが関連付けられた複数の前記モデルが保持されており、
     前記分析手段は、前記対象者の前記属性情報に基づいて、前記複数のモデルから使用すべき前記モデルを選択し、選択した前記モデルを前記状態情報の生成に用いる
    情報処理装置。
  14.  請求項1から13のいずれか一項に記載の情報処理装置において、
     前記取得手段は、学習中の前記対象者の画像を処理することにより、前記測定情報を得る
    情報処理装置。
  15.  請求項1から14のいずれか一項に記載の情報処理装置において、
     前記分析手段は、学習中の前記対象者の画像をさらに用いて前記状態情報を生成する
    情報処理装置。
  16.  請求項1から15のいずれか一項に記載の情報処理装置と、
     前記対象者の脳波およびバイタルの少なくとも一方を測定する測定装置と、
     前記出力手段が前記状態情報を出力する端末とを備える
    システム。
  17.  一以上のコンピュータが、
      対象者の学習中の、脳波およびバイタルの少なくとも一方を示す測定情報と、前記対象者の属性情報とを取得し、
      前記測定情報および前記属性情報を用いて、前記対象者の状態に関する状態情報を生成し、
      前記状態情報を出力する
    情報処理方法。
  18.  コンピュータを、
      対象者の学習中の、脳波およびバイタルの少なくとも一方を示す測定情報と、前記対象者の属性情報とを取得する取得手段、
      前記測定情報および前記属性情報を用いて、前記対象者の状態に関する状態情報を生成する分析手段、および
      前記状態情報を出力する出力手段として機能させる
    プログラム。
PCT/JP2023/032650 2022-09-21 2023-09-07 情報処理装置、システム、情報処理方法、およびプログラム WO2024062935A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022150214 2022-09-21
JP2022-150214 2022-09-21

Publications (1)

Publication Number Publication Date
WO2024062935A1 true WO2024062935A1 (ja) 2024-03-28

Family

ID=90454268

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/032650 WO2024062935A1 (ja) 2022-09-21 2023-09-07 情報処理装置、システム、情報処理方法、およびプログラム

Country Status (1)

Country Link
WO (1) WO2024062935A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011007963A (ja) * 2009-06-24 2011-01-13 Tokyo Denki Univ 遠隔学習システム及び遠隔学習方法
WO2018168220A1 (ja) * 2017-03-14 2018-09-20 日本電気株式会社 学習材推薦方法、学習材推薦装置および学習材推薦プログラム
JP2019179103A (ja) * 2018-03-30 2019-10-17 特定非営利活動法人まなの樹 学習支援プログラム
CN110489455A (zh) * 2019-08-14 2019-11-22 北京金山安全软件有限公司 学习资源推荐方法、装置、电子设备和存储介质
JP2021023492A (ja) * 2019-08-02 2021-02-22 オムロン株式会社 集中度解析装置、集中度解析方法、プログラム
WO2021214936A1 (ja) * 2020-04-23 2021-10-28 日本電気株式会社 予測装置、予測方法、及び、記録媒体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011007963A (ja) * 2009-06-24 2011-01-13 Tokyo Denki Univ 遠隔学習システム及び遠隔学習方法
WO2018168220A1 (ja) * 2017-03-14 2018-09-20 日本電気株式会社 学習材推薦方法、学習材推薦装置および学習材推薦プログラム
JP2019179103A (ja) * 2018-03-30 2019-10-17 特定非営利活動法人まなの樹 学習支援プログラム
JP2021023492A (ja) * 2019-08-02 2021-02-22 オムロン株式会社 集中度解析装置、集中度解析方法、プログラム
CN110489455A (zh) * 2019-08-14 2019-11-22 北京金山安全软件有限公司 学习资源推荐方法、装置、电子设备和存储介质
WO2021214936A1 (ja) * 2020-04-23 2021-10-28 日本電気株式会社 予測装置、予測方法、及び、記録媒体

Similar Documents

Publication Publication Date Title
US10643487B2 (en) Communication and skills training using interactive virtual humans
Zhang et al. Data-driven online learning engagement detection via facial expression and mouse behavior recognition technology
Arguel et al. Inside out: detecting learners’ confusion to improve interactive digital learning environments
JP3224675U (ja) 瞳孔反応、顔追跡、及び感情検出を使用した対話型・適応型学習、神経認知障害診断、並びに非追随性検出のシステム
EP3361467A1 (en) Interactive and adaptive training and learning management system using face tracking and emotion detection with associated methods
Cirett Galán et al. EEG estimates of engagement and cognitive workload predict math problem solving outcomes
US11301775B2 (en) Data annotation method and apparatus for enhanced machine learning
Pise et al. Estimation of learning affects experienced by learners: an approach using relational reasoning and adaptive mapping
JP2005338173A (ja) 外国語読解学習支援装置
Sakamoto et al. Exploring pupillometry as a method to evaluate reading comprehension in VR-based educational comics
Wang et al. Attention-based applications in extended reality to support autistic users: a systematic review
Santos et al. Challenges for inclusive affective detection in educational scenarios
Villegas-Ch et al. Identification of emotions from facial gestures in a teaching environment with the use of machine learning techniques
JP2020126214A (ja) 情報処理装置及び情報処理方法
Horvat et al. Emerging opportunities for education in the time of covid-19-adaptive e-learning intelligent agent based on assessment of emotion and attention
TW201913546A (zh) 心理與行為狀態評量暨診斷方法及系統
WO2024062935A1 (ja) 情報処理装置、システム、情報処理方法、およびプログラム
Khedher et al. Predicting user learning performance from eye movements during interaction with a serious game
Hirt et al. Measuring emotions during learning: lack of coherence between automated facial emotion recognition and emotional experience
Anisimov et al. OkenReader: ML-based classification of the reading patterns using an Apple iPad
Xia et al. An interpretable English reading proficiency detection model in an online learning environment: A study based on eye movement
Ali et al. A Review on Different Approaches for Assessing Student Attentiveness in Classroom using Behavioural Elements
Utami et al. A Brief Study of The Use of Pattern Recognition in Online Learning: Recommendation for Assessing Teaching Skills Automatically Online Based
Khosravi et al. Employing a Wearable Eye-tracker to Observe Mind-wandering in Dynamic Stimuli
Horvat et al. Quantitative measures for classification of human upper body posture in video signal to improve online learning

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23868058

Country of ref document: EP

Kind code of ref document: A1