WO2020250492A1 - 支援装置、支援方法およびプログラム - Google Patents

支援装置、支援方法およびプログラム Download PDF

Info

Publication number
WO2020250492A1
WO2020250492A1 PCT/JP2020/006545 JP2020006545W WO2020250492A1 WO 2020250492 A1 WO2020250492 A1 WO 2020250492A1 JP 2020006545 W JP2020006545 W JP 2020006545W WO 2020250492 A1 WO2020250492 A1 WO 2020250492A1
Authority
WO
WIPO (PCT)
Prior art keywords
actor
support
support information
support device
target person
Prior art date
Application number
PCT/JP2020/006545
Other languages
English (en)
French (fr)
Inventor
俊文 岸田
小林 剛
郁奈 辻
貴宏 高山
一哲 北角
真也 阪田
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Publication of WO2020250492A1 publication Critical patent/WO2020250492A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Definitions

  • the present invention relates to a support device, a support method and a program.
  • One aspect of the present invention has been made to solve the above-mentioned problems, and an object of the present invention is to provide a technique for improving the skill of an actor and improving the satisfaction of a subject who receives an act. ..
  • the first aspect of the present invention includes a determination unit that determines the procedure performed by the actor of the act based on the state of the subject of the act including a plurality of procedures, and support information that supports the operation of each procedure.
  • a support device including a presentation unit that acquires support information for a procedure performed by an actor from a storage unit and presents the support information to the actor.
  • Act is an act that includes multiple procedures and is achieved by implementing each procedure.
  • An “actor” is a person who carries out an act.
  • the "target person” is a person who is the target of an act performed by the actor.
  • the "state of the target person” is, for example, a state such as the posture of the target person, and information regarding the state of the target person is input by the actor.
  • the determination unit can determine which procedure the actor is performing based on the state of the subject.
  • "Support information" is information for supporting the implementation of each procedure.
  • the actor can carry out the act appropriately by carrying out each procedure according to the support information.
  • the subject can receive actions according to appropriate procedures. Therefore, according to the support device, it is possible to improve the skill of the actor and improve the satisfaction of the subject who receives the act.
  • the support device may further include an imaging unit that captures an image of the subject and an image processing unit that analyzes the state of the subject by detecting a body part of the subject from the captured image of the subject. ..
  • the support device can acquire the state of the target person by analyzing the image captured by the imaging unit by the image processing unit. Therefore, the support device can acquire the state of the target person and determine which procedure the actor is performing without the actor inputting the state of the target person.
  • the judgment unit determines whether or not the procedure performed by the actor has been completed based on the support information presented by the presentation unit and the state of the target person, and the presentation unit is performed by the actor.
  • the support information for the next procedure may be acquired from the storage unit and presented to the actor.
  • the support device can determine whether or not the procedure performed by the actor has been completed and proceed to the next procedure even if there is no notification or operation from the actor that the procedure has been completed.
  • the support device may further include an authentication unit that identifies the target person, and the presentation unit may acquire support information corresponding to the specified target person from the storage unit.
  • the support device can identify the target person and present support information according to the target person.
  • the presentation unit may present the support information by at least one of characters, images, and sounds. Since the presenting unit presents the support information by at least one of characters, images, and voice, the support information can be presented by voice when the target person is not in the field of view of the actor. Therefore, the support device can present support information even for an act in which the target person does not come into the field of view of the actor. In addition, by presenting a combination of text, image, and voice support information, each procedure can be easily executed, and the skill of the actor is improved.
  • the presentation unit may superimpose the support information on the body part of the target person and present it.
  • the presentation unit may superimpose the support information on the body part of the target person and present it.
  • the support device further includes a detection unit that detects the line of sight of the actor, and the presentation unit provides support information instructing the target person to match the line of sight when the line of sight of the actor does not match the line of sight of the target person. It may be presented.
  • the target person can receive the action with peace of mind, and the satisfaction level of the target person can be improved.
  • the presenting unit may present support information instructing the actor to give a live commentary when the actor is not in a conversation. Further, the presenting unit may present support information instructing the target person to face the front when the actor's face is not facing the front. Further, the presenting unit may present support information instructing the subject to make the face orientation horizontal when the actor's face orientation to the subject is not horizontal. Further, the presenting unit may present support information instructing the target person to bring the face closer when the distance from the actor's face to the target person's face is not equal to or less than a predetermined threshold value. ..
  • the support device can improve the satisfaction level of the target person by presenting support information instructing the actor's conversation, face orientation, and distance from the target person to be appropriate.
  • the second aspect of the present invention includes a determination step for determining the procedure performed by the actor of the act based on the state of the subject of the act including a plurality of procedures, and support information for supporting the operation of each procedure.
  • a support method including a presentation step of acquiring support information for a procedure performed by an actor from a storage unit and presenting the support information to the actor.
  • the present invention can also be regarded as a program for realizing such a method by a computer or a recording medium in which the program is recorded non-temporarily. It should be noted that each of the above means and treatments can be combined with each other as much as possible to form the present invention.
  • FIG. 1 is a diagram showing an application example of the support device.
  • FIG. 2 is a diagram illustrating a hardware configuration of the support device.
  • FIG. 3 is a diagram illustrating the functional configuration of the support device.
  • FIG. 4 is a diagram illustrating a procedure for assisting in getting up.
  • FIG. 5 is a flowchart illustrating the support process.
  • FIG. 6 is a diagram illustrating a functional configuration of the support device according to the second embodiment.
  • FIG. 7 is a diagram illustrating a procedure for bathing assistance for a person with left hemiplegia.
  • FIG. 8 is a flowchart illustrating the support process according to the second embodiment.
  • FIG. 9 is a diagram illustrating a procedure for transfer assistance.
  • FIG. 1 is a diagram showing an application example of the support device.
  • FIG. 2 is a diagram illustrating a hardware configuration of the support device.
  • FIG. 3 is a diagram illustrating the functional configuration of the support device.
  • FIG. 4 is a
  • FIG. 10 is a diagram illustrating a hardware configuration of the support device according to the fourth embodiment.
  • FIG. 11 is a diagram illustrating a functional configuration of the support device according to the fourth embodiment.
  • FIG. 12 is a flowchart illustrating the support process according to the fourth embodiment.
  • the support device 1 is a device that supports an actor who performs an act such as long-term care by specifically presenting what kind of action should be taken to the target person who receives the act.
  • the support device 1 is a wearable device that an actor wears on his / her body and uses, for example, a smart glass.
  • the support device 1 includes an input device such as a camera or a microphone.
  • the support device 1 can capture a subject to be acted by a camera, detect a body part of the subject by analyzing the captured image, and recognize a state such as the posture of the subject.
  • the support device 1 can also recognize the state of the target person from the conversation of the actor or the target person collected from the microphone.
  • Acts such as getting up assistance in long-term care include multiple procedures (procedure 1, procedure 2, procedure 3 ).
  • the support device 1 can determine the procedure performed by the actor based on the state of the target person.
  • the support device 1 acquires support information that supports the action to be taken by the actor in the procedure performed by the actor, and presents the support information to the actor.
  • the support information that supports the operation of each procedure may be stored in the storage unit included in the support device 1. Further, for example, in the field of long-term care, the support information may be the information of the operation when the skilled caregiver uses the support device 1 stored in the storage unit. Further, the support information may be acquired from an external device via a network.
  • the support device 1 When the procedure performed by the actor is completed, the support device 1 presents support information for the next procedure. In this way, in a series of actions including a plurality of procedures, by presenting the support information corresponding to each procedure, the actor can take the same action as an expert even if he / she is inexperienced. Can be done. Therefore, it is possible to improve the skill of the actor and improve the satisfaction of the subject who receives the act.
  • FIG. 2 is a diagram illustrating a hardware configuration of the support device.
  • the support device 1 is a wearable device worn by an actor such as a smart glass or a head-mounted display.
  • the support device 1 includes a processor 11, a main storage device 12, an auxiliary storage device 13, an input device 14, and an output device 15.
  • the processor 11 reads the program stored in the auxiliary storage device 13 into the main storage device 12 and executes it, thereby realizing the functions of the support device 1 as each functional configuration. Further, some of these functions may be realized by a dedicated hardware circuit such as an ASIC or FPGA.
  • the input device 14 is a device for inputting the state of the target person who receives an act such as nursing care from the actor and the implementation status of the procedure included in the act.
  • the input device 14 includes a camera 14a, a microphone 14b, and an operation button 14c.
  • the camera 14a is an image pickup device having an optical system including a lens and an image pickup element (image sensor such as CCD or CMOS).
  • image sensor such as CCD or CMOS
  • the camera 14a captures an captured image for analyzing the state of the subject.
  • the camera 14a is a distance measuring sensor such as a radar or a stereo camera that measures a distance or direction from a target person.
  • the microphone 14b is a device that converts sound into an electric signal, and collects the voices of the actor and the target person. For example, the actor can input the state of the target person into the microphone 14b by voice.
  • the operation button 14c is a button for executing an operation for setting an action to be executed by the actor or recommending the next procedure.
  • the output device 15 is a device for outputting support information for supporting the movement of the actor.
  • the output device 15 includes a display 15a and a speaker 15b.
  • the display 15a is, for example, a transmissive display or a retinal projection display.
  • the display 15a superimposes on the actually visible target person and presents the actor with support information that supports the operation corresponding to each procedure.
  • the speaker 15b is a device that converts an electric signal into sound, and presents the support information to the actor by outputting it by voice.
  • FIG. 3 is a diagram illustrating the functional configuration of the support device 1.
  • the support device 1 includes an image pickup unit 101, an image processing unit 102, a determination unit 103, a presentation unit 104, and a support information database (DB) 105.
  • DB support information database
  • the imaging unit 101 images the subject to be acted upon.
  • the image processing unit 102 detects the body part of the subject from the captured image of the subject captured by the imaging unit 101.
  • the image processing unit 102 can analyze the state of the subject based on the positional relationship of the detected body parts such as hands, feet, head, and torso.
  • the determination unit 103 determines which procedure the actor is performing in a series of actions based on the state of the target person analyzed by the image processing unit 102. It should be noted that each procedure and the state of the target person are stored in the support information database 105 in association with each other.
  • the presentation unit 104 can acquire support information for the procedure performed by the actor from the storage unit (auxiliary storage device 13). Each procedure is stored in the support information database 105 in association with the support information that supports the operation corresponding to the procedure.
  • the presentation unit 104 can also acquire support information and information associated with each procedure from an external device such as a personal computer or a server computer via a network.
  • the presentation unit 104 presents the acquired support information to the actor.
  • the support information may be displayed so as to be superimposed on the target person that the actor is viewing through the support device 1.
  • the support information database 105 stores support information to be presented to the actor.
  • the support information database 105 stores information such as a procedure included in the action, support information corresponding to the procedure, and a state of a target person corresponding to the procedure for various actions (hereinafter, also referred to as a scene).
  • the various scenes are, for example, in the field of long-term care, actions such as getting up assistance, bathing assistance, and transfer assistance.
  • the information stored in the support information database 105 may be acquired from an external device.
  • FIG. 4 is a diagram illustrating a procedure for assisting in getting up.
  • the flow of the support process for presenting the support information for the wake-up assistance of the target person (care recipient) shown in FIG. 4 to the actor (caregiver) will be described with reference to FIG.
  • the caregiver proceeds with the act of assisting the care recipient in getting up according to the following procedure.
  • Step 1 Cross your arms in front of your chest
  • Step 2 Raise your knees
  • Step 3 Turn your body sideways
  • Step 4 Lower your legs from the bed
  • Step 5 Raise your upper body while holding your pelvis
  • FIG. 5 is a flowchart illustrating the support process according to the first embodiment. The process shown in FIG. 5 is started, for example, when the caregiver wears the support device 1 and turns on the power of the support device 1.
  • step S11 the determination unit 103 receives the setting of the care scene from the caregiver.
  • the care scene is a type of care performed by the caregiver on the care recipient.
  • the caregiver sets the wake-up assistance shown in FIG. 4 as the care scene.
  • the caregiver sets the care scene via the input device 14 of the support device 1.
  • the caregiver can input and set the care scene by voice to the microphone 14b.
  • the caregiver may be able to set the care scene by the operation button 14c for setting the care scene.
  • the care scene is not limited to the case where the care scene is set by the caregiver, and the determination unit 103 may determine the care scene from the surrounding situation of the captured image of the care recipient. For example, the determination unit 103 can determine that the care scene is wake-up assistance when the care recipient is lying on the bed.
  • the image processing unit 102 detects the body part of the long-term care person from the captured image of the long-term care person captured by the image pickup unit 101, and analyzes the state of the long-term care person.
  • the image processing unit 102 can detect the head, torso, hands, and feet of the care recipient and analyze that the care recipient is in a lying state based on their positional relationship.
  • the image processing unit 102 stores the detected size of the body part in the support information database 105 as information on the care recipient. Information on the size of the body part of the care recipient is used when presenting support information.
  • step S13 the determination unit 103 acquires the information of each procedure included in the care scene set in step S11 from the support information database 105. Then, the determination unit 103 determines which procedure of the care scene the caregiver is performing for the care recipient. The determination unit 103 can determine the procedure performed by the caregiver based on the state of the care recipient analyzed by the image processing unit 102 in step S12. In the example of wake-up assistance, the determination unit 103 may determine that the caregiver intends to perform step 1 "arms folded in front of the chest" when the care recipient is lying on his back and his limbs are extended. it can.
  • Each procedure included in the long-term care scene is stored in the support information database 105 in association with the state of the long-term care recipient assumed in advance.
  • the determination unit 103 compares the state of the care recipient analyzed by the image processing unit 102 in step S12 with the state of the care recipient stored in the support information database 105, and determines the procedure performed by the caregiver. To do.
  • the state of the care recipient stored in the support information database 105 is stored as, for example, an image of the care recipient (hereinafter, also referred to as a reference image) seen from the line of sight of the caregiver.
  • the determination unit 103 detects and superimposes the body part of the care recipient in each image from the reference image and the image captured in step S12.
  • the determination unit 103 calculates the ratio of the region where the body detected in the captured image overlaps with the region of the body portion detected in the reference image as the degree of coincidence.
  • the determination unit 103 can determine that the procedure corresponding to the reference image having a larger degree of agreement is the procedure performed by the caregiver.
  • step S14 the presentation unit 104 presents the support information for the procedure determined in step S13 to the caregiver.
  • the presentation unit 104 presents support information by superimposing it on the body part of the care recipient who is the target of the operation in the procedure.
  • the presentation unit 104 presents the support information instructing the caregiver to move the care recipient from the extended state to the upright state of both knees. ..
  • the presentation unit 104 can display the support information according to the body shape of the care recipient by using the size of the care recipient stored in the support information database 105 in step S12.
  • the balloon for step 2 in FIG. 4 shows a specific example of support information when the caregiver sees the care recipient via the support device 1.
  • the presentation unit 104 displays a frame F1 indicating a state after both knees of the care recipient are raised in step 2.
  • the caregiver may assist the care recipient so that both feet are in the frame F1 state.
  • the presentation unit 104 indicates by a circle C1 which position of the care recipient the caregiver should touch.
  • the presentation unit 104 shows a circle mark when the position to attach the hand is on the visible part of the care recipient's body, and a circle mark when the position is on the back side of the care recipient's body. It may be shown by a dotted line.
  • the circle C1 shown in FIG. 4 is indicated by a dotted line because the caregiver puts his / her hand on the back side of the knee.
  • the presentation unit 104 may indicate the direction in which the hand attached to the body of the care recipient is moved by the arrow A1.
  • the caregiver can take an appropriate action for the care recipient by moving the body part of the care recipient according to the direction of the arrow A1.
  • the presentation unit 104 ends the display of the support information for the procedure and proceeds to the display of the support information for the next procedure.
  • the presentation unit 104 presents the support information to the caregiver so that the care recipient moves from the state where both knees are on his / her back to the state where the body is sideways. ..
  • the balloon for step 3 in FIG. 4 shows a specific example of support information when the caregiver sees the care recipient through the support device 1.
  • the presentation unit 104 displays the frame F2 indicating the sideways state of the care recipient's body in step 3.
  • the caregiver may assist the care recipient so that the care recipient's body is in the frame F2 state.
  • the presentation unit 104 indicates by a circle C2 which position of the care recipient the caregiver should touch. Further, the presentation unit 104 indicates the direction in which the hand attached to the body of the care recipient is moved by the arrow A2. When the state of the long-term care recipient reaches the state indicated by the frame F2, the presentation unit 104 ends the display of the support information for the procedure and proceeds to the display of the support information for the next procedure.
  • step S15 the determination unit 103 determines whether or not the procedure performed by the caregiver has been completed.
  • the determination unit 103 can determine whether or not the procedure performed by the caregiver has been completed based on the support information presented by the presentation unit 104 and the state of the target person. Specifically, in the example of step 2 of FIG. 4, the determination unit 103 is in a state where the care recipient has both knees upright, and the degree of coincidence between the care recipient's feet and the area surrounded by the frame F1 is determined. When the value exceeds a predetermined threshold value, it can be determined that the procedure is completed.
  • the degree of agreement can be, for example, the ratio of the region in which the corresponding body part of the care recipient overlaps the frame F1 with respect to the region surrounded by the frame F1.
  • step S16 the determination unit 103 determines whether or not all the procedures included in the nursing care scene have been completed, that is, whether or not the nursing care has been completed. Whether or not the care is completed can be determined by, for example, whether or not the last procedure included in the care scene is completed.
  • step S16: YES the process shown in FIG. 5 ends. If the care is not completed (step S16: NO), the process returns to step S12. Returning to step S12, the process of presenting support information for each procedure is performed until the care is completed.
  • the support device 1 captures the care recipient with the camera 14a, detects the body part of the care recipient, and analyzes the state of the care recipient. The support device 1 determines which procedure the caregiver is performing in the care scene. The support device 1 presents support information for the operation corresponding to the determined procedure. This makes it possible to improve the skills of the caregiver and improve the satisfaction of the care recipient.
  • the presentation unit proceeds to the next procedure and switches the support information presented to the caregiver to the support information for the next procedure.
  • the caregiver can recognize the specific action to be taken for each procedure included in the care scene, and can assist the care recipient in the same manner as a skilled person even if he / she is inexperienced.
  • the support device 1 presents the support information according to the unique circumstances of the target person (care recipient) to the actor (caregiver). For example, in the nursing care scene (act) of bathing assistance, in the case of a care recipient who has a physical disability, the method of assistance differs depending on which part is inconvenient. Therefore, in the second embodiment, the support device 1 authenticates the care recipient individually and acquires information about the care recipient. The support device 1 presents the support information according to the care recipient to the caregiver based on the acquired information about the care recipient.
  • FIG. 6 is a diagram illustrating a functional configuration of the support device according to the second embodiment.
  • the support device 1 according to the second embodiment includes an authentication unit 106 in addition to the functional configuration of the support device 1 according to the first embodiment.
  • the same functional configuration as that of the support device 1 according to the first embodiment is designated by the same reference numerals, and the description thereof will be omitted.
  • the authentication unit 106 analyzes the image captured by the image pickup unit 101 of the care recipient and identifies the care recipient.
  • the care recipient is associated with a physical condition such as left hemiplegia in the support information database 105.
  • the care recipient is associated with each procedure of the care scene according to the physical condition.
  • the determination unit 103 can acquire each procedure of the care scene according to the care recipient based on the information of the care recipient specified by the authentication unit 106.
  • FIG. 7 is a diagram illustrating a procedure for bathing assistance for a person with left hemiplegia.
  • FIG. 8 describes a flow of support processing by the support device 1 that presents the support information for bathing assistance of the care recipient shown in FIG. 7 to the caregiver.
  • the caregiver proceeds with the act of assisting the care recipient in bathing according to the following procedure.
  • Step 1 Sit so that the right foot and the bathtub are parallel
  • Step 2 Have the right foot put in the bathtub
  • Step 2 Lift the left foot and put it in the bathtub
  • Step 4 Move the buttocks to the bathtub 5: Put the whole body in the bathtub
  • FIG. 8 is a flowchart illustrating the support process according to the second embodiment.
  • the process shown in FIG. 8 is started, for example, when the caregiver wears the support device 1 and turns on the power of the support device 1.
  • the same process as the support process (FIG. 5) according to the first embodiment is designated by the same reference numerals and description thereof will be omitted.
  • step S11 The process of setting the care scene (step S11) is the same as that of the first embodiment.
  • step S21 the determination unit 103 performs personal authentication by identifying the person to be cared for by face recognition or the like.
  • the state of the care recipient for example, the state of left-sided hemiplegia, is stored in the support information database 105 in association with the care recipient.
  • the care recipient's information including the association between the care recipient and the care recipient's condition, may be input by a skilled caregiver and stored in the support information database 105.
  • the information of the long-term care person may be the information that the support device 1 receives the information of the long-term care person input by the external device and stores it in the support information database 105.
  • step S12 The process of the state analysis of the care recipient (step S12) is the same as that of the first embodiment.
  • the determination unit 103 provides information on each procedure of the care scene according to the care recipient in the support information database based on the care scene set in step S11 and the information of the care recipient identified in step S21. Obtained from 105. Then, the determination unit 103 determines which procedure of the care scene the caregiver is performing for the care recipient. Since the method of determining the procedure performed by the caregiver is the same as that of the first embodiment, the description thereof will be omitted.
  • step S24 the presentation unit 104 presents the support information for the procedure determined in step S23 to the caregiver.
  • the presentation unit 104 presents support information by superimposing it on the body part of the care recipient who is the target of the operation in the procedure.
  • the presentation unit 104 puts the left foot of the care recipient into the bathtub while the left foot of the care recipient is outside the bathtub.
  • the balloon for step 3 in FIG. 7 shows a specific example of support information when the caregiver sees the care recipient via the support device 1.
  • the presentation unit 104 displays a frame F3 indicating a state in which the left foot of the care recipient is placed in the bathtub in step 3.
  • the caregiver may assist the care recipient to lift the left foot and put it in the bathtub so that the left foot is in the frame F3 state.
  • the presentation unit 104 indicates by a circle C3 which position of the care recipient the caregiver should touch. Further, the presentation unit 104 indicates the direction in which the hand attached to the body of the care recipient is moved by the arrow A3. When the state of the long-term care recipient reaches the state indicated by the frame F3, the presentation unit 104 ends the display of the support information for the procedure and proceeds to the display of the support information for the next procedure.
  • the processing of the determination of the completion of the implementation procedure (step S15) and the determination of the completion of the long-term care (step S16) is the same as that of the first embodiment.
  • the support device 1 presents support information corresponding to each procedure according to the procedure according to the condition of the care recipient.
  • the caregiver can complete each step included in the care scene according to the support information presented.
  • the support device 1 identifies the care recipient and presents the care recipient with support information according to the unique circumstances of the care recipient. Since the caregiver can provide support according to the condition of the care recipient, it is possible to improve the satisfaction level of the care recipient.
  • the support device 1 presents the support information not only by the image information but also by at least one of characters, images, and sounds. For example, in the care scene of transfer assistance, there is an action in which the care recipient is out of sight of the caregiver during the care act. Therefore, in the third embodiment, the support device 1 presents the support information to the caregiver by an aspect other than the image information.
  • the hardware configuration of the support device 1 according to the third embodiment is the same as the hardware configuration of the support device 1 according to the first embodiment shown in FIG. Further, the functional configuration of the support device 1 according to the third embodiment is the same as the functional configuration of the support device 1 according to the first embodiment shown in FIG.
  • FIG. 9 is a diagram illustrating a procedure for transfer assistance.
  • the caregiver proceeds with the act of assisting the transfer of the care recipient by the following procedure.
  • Step 1 Stand in front of the care recipient
  • Step 2 Turn the arm around the care recipient's back and turn the care recipient's arm around the caregiver's back
  • Step 3 Stand up while lifting
  • Step 4 Rotate towards the chair
  • Step 5 Sit while supporting the care recipient
  • the support device 1 sets the care scene in step S11 as in the flowchart shown in FIG.
  • the care recipient is out of sight of the caregiver at the stage of proceeding to step 2. Since the care recipient is not detected in the captured image in step S12, the determination unit 103 may set the implementation procedure to the current procedure 2 in step S13.
  • the presentation unit 104 can present support information in at least one of letters and voices for the procedures after step 2.
  • the presentation unit 104 analyzes the captured image regardless of whether or not the care recipient is detected in the captured image.
  • Support information may be presented by voice or the like without any problem.
  • the determination unit 103 may be able to determine the procedure being performed by voice input from the caregiver. Further, the determination unit 103 may proceed to the next procedure when the operation button 14c for notifying that the procedure is completed is pressed.
  • step S15 and step S16 the determination unit 103 completes the implementation procedure or the care is completed by voice input from the caregiver, pressing the operation button 14c notifying that the procedure or care is completed. It may be possible to determine that.
  • the support device 1 can present support information by at least one of characters, images, and sounds. Therefore, the support device 1 can appropriately present support information to the caregiver even in a care scene in which the care recipient is out of sight of the caregiver during the care act.
  • the support device 1 presents both the support information by characters and images and the support information by voice regardless of whether or not the care recipient is detected in the captured image. May be good. By using text, image, and voice support information together, the caregiver can easily understand the operation of each procedure.
  • the support device 1 presents the support information of humanitude.
  • Humanitude is a care technique that uses words, gestures, and gaze for patients with dementia. By using the technology of humanitude, caregivers can feel reassured even for patients whose words and attitudes are aggressive due to dementia, and can provide smooth care.
  • conversations that bring the faces closer to each other, conversations that match the height of the face, conversations that match the line of sight, and conversations that are not interrupted by the actual conditions of long-term care are required. Therefore, in the fourth embodiment, the support device 1 presents support information instructing the person to be cared for to make a line of sight or to promote a live broadcast of the long-term care operation.
  • FIG. 10 is a diagram illustrating a hardware configuration of the support device according to the fourth embodiment.
  • the support device 1 according to the fourth embodiment includes a hardware configuration of the support device 1 according to the first embodiment shown in FIG. 2, and an eyeball photographing camera 14d for detecting the line of sight of the caregiver.
  • FIG. 11 is a diagram illustrating the functional configuration of the support device according to the fourth embodiment.
  • the support device 1 according to the fourth embodiment has a detection unit 107 (camera for eyeball imaging 14d) for detecting the line of sight of a caregiver (actor). ) Is provided.
  • the presentation unit 104 determines whether the caregiver's line of sight matches the care recipient's line of sight based on the direction of the caregiver's line of sight detected by the detection unit 107 and the analysis result of the image captured by the image processing unit 102. It can be determined whether or not.
  • FIG. 12 is a flowchart illustrating the support process according to the fourth embodiment.
  • the support device 1 presents the caregiver with information for supporting the care by humanitude, in addition to the support information exemplified in the first to third embodiments.
  • the same process as the support process (FIG. 5) according to the first embodiment is designated by the same reference numerals and the description thereof will be omitted.
  • step S31 the presentation unit 104 determines whether or not the line of sight of the caregiver matches the line of sight of the care recipient.
  • the presentation unit 104 determines that the line of sight of the caregiver is the line of sight of the care recipient, depending on whether or not the direction of the line of sight detected by the detection unit 107 is toward the line of sight of the care recipient imaged by the image pickup unit 101. It is possible to determine whether or not they match.
  • whether or not the line of sight is aligned can be determined by whether or not the deviation between the direction of the line of sight of the caregiver and the direction of the line of sight of the care recipient is equal to or less than a predetermined threshold value.
  • the process proceeds to step S14. If the line of sight of the caregiver does not match the line of sight of the care recipient (step S31: NO), the process proceeds to step S32.
  • step S32 the presentation unit 104 instructs the caregiver to make a line of sight with the care recipient.
  • the instruction to the caregiver in step S32 is displayed on the display 15a as text information such as "Please make eye contact with the care recipient". Further, the instruction in step S32 may be transmitted as voice from the speaker 15b.
  • step S14 The processing of the support information presentation (step S14), the determination of the completion of the implementation procedure (step S15), and the determination of the completion of the long-term care (step S16) is the same as that of the first embodiment.
  • FIG. 12 shows an example in which it is determined whether the line of sight is aligned with the care recipient at the timing before the support information such as assistance support is presented in step S14, and the support information (instruction) by humanitude is presented.
  • the support device 1 determines the line of sight of the caregiver at an arbitrary timing in parallel with the processes from step S12 to step S16 in the support process (FIG. 5) according to the first embodiment, and gives a care instruction by humanitude. May be presented.
  • FIG. 12 shows an example in which the caregiver's line of sight is instructed to match the care recipient's line of sight as the humanitude support information when the care recipient's line of sight does not match the care recipient's line of sight. Absent.
  • the combination of the determination content in step S31 and the instruction content for the determination result will be illustrated below. The determination contents and instructions in each example may be executed in appropriate combinations.
  • the caregiver's conversation is collected by the microphone 14b, and the presentation unit 104 determines whether or not the caregiver is in conversation.
  • the presentation unit 104 presents instructions for prompting the caregiver to perform auto-feedback (live relay of the care operation) as support information.
  • the presentation unit 104 determines whether or not the caregiver's face is facing the front.
  • the presentation unit 104 can determine whether or not the caregiver's face is facing the front, for example, depending on whether or not the care recipient in the image captured by the image pickup unit 101 is reflected in the central portion of the captured image. ..
  • the image processing unit 102 analyzes the orientation of the care recipient's face in the captured image, and when the care recipient is facing the front, it is determined that the caregiver's face is facing the front. It may be.
  • the presentation unit 104 presents as support information an instruction for urging the care recipient to face the front.
  • the presentation unit 104 determines whether or not the orientation of the caregiver's face with respect to the care recipient is horizontal. Whether or not the orientation of the caregiver's face with respect to the care recipient is horizontal depends on, for example, the inclination of the support device 1 obtained from the acceleration sensor included in the camera 14a and the inclination of the care recipient's face analyzed from the captured image. Can be determined by.
  • the term "horizontal" can be defined as, for example, a case where the deviation between the inclination of the support device 1 and the inclination of the face of the care recipient is equal to or less than the threshold value.
  • the presentation unit 104 presents instructions for urging the care recipient to make the face orientation horizontal as support information.
  • the presentation unit 104 determines whether or not the distance from the face of the caregiver to the face of the care recipient is equal to or less than a predetermined threshold value. This is because, in humanitude, the caregiver preferably takes care of the care recipient by approaching a predetermined distance.
  • the predetermined threshold value is the distance at which the long-term care recipient can receive long-term care with peace of mind.
  • the distance from the face of the caregiver to the face of the care recipient may be measured by the distance measurement sensor provided in the support device 1, or can be estimated from the size of the care recipient by analyzing the captured image. ..
  • the presentation unit 104 presents as support information an instruction for urging the care recipient to bring the face closer.
  • the support device 1 detects the line of sight, the direction of the face, and the distance to the care recipient, and the line of sight, the direction of the face, and the distance to the care recipient are in an appropriate state. Present the caregiver with support information instructing them to do so. As a result, the long-term care recipient can receive long-term care with peace of mind.
  • a determination unit (103) that determines the procedure performed by the actor of the act based on the state of the subject of the act including a plurality of procedures
  • a presentation unit (104) that acquires the support information for the procedure performed by the actor from a storage unit that stores the support information that supports the operation of each procedure and presents the support information to the actor.
  • a support device (1) which comprises.
  • Support device 11 Processor 12: Main storage device 13: Auxiliary storage device 14: Input device 15: Output device 101: Imaging unit 102: Image processing unit 103: Judgment unit 104: Presentation unit 105: Support information database (DB) 106: Authentication unit 107: Detection unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Image Analysis (AREA)

Abstract

支援装置は、複数の手順を含む行為の対象者の状態に基づいて、前記行為の行為者が実施している手順を判定する判定部と、各手順の動作を支援する支援情報を格納する記憶部から、前記行為者が実施している手順に対する前記支援情報を取得し、前記行為者に提示する提示部と、を備える。

Description

支援装置、支援方法およびプログラム
 本発明は、支援装置、支援方法およびプログラムに関する。
 近年、介護士が不足しており、それに伴い指導が可能な熟練介護士も不足している。この問題に対し、被介護者に関する情報を、介護士が装着、保持する装着装置に送信して介護を支援する技術が提案されている(例えば、特許文献1を参照)。
特開2015-220597号公報
 しかしながら、経験の浅い介護士は、被介護者の状態または介護履歴などの情報が提供されても、これらの情報に対し、どのように行動すべきかがわからないという課題があった。また、介護に限られず、他人に対して、医療行為、美容行為、介助行為、訓練行為などの行為をする行為者に対して、早期にスキルを習得させ、行為を受ける対象者の満足度を向上させる技術は有用である。
 本発明は、一側面では、上述した課題を解決するためになされたものであり、行為者のスキルを向上させ、行為を受ける対象者の満足度を向上させる技術を提供することを目的とする。
 上記課題を解決するため、本発明の一側面では以下の構成を採用する。
 本発明の第一側面は、複数の手順を含む行為の対象者の状態に基づいて、行為の行為者が実施している手順を判定する判定部と、各手順の動作を支援する支援情報を格納する記憶部から、行為者が実施している手順に対する支援情報を取得し、行為者に提示する提示部と、を備えることを特徴とする支援装置を提供する。
 「行為」は、複数の手順を含み、各手順を実施することにより達成される行為である。「行為者」は、行為を実施する者である。「対象者」は行為者が実施する行為の対象となる者である。「対象者の状態」は、例えば、対象者の体勢などの状態であり、対象者の状態に関する情報は、行為者によって入力される。判定部は、対象者の状態に基づいて、行為者がどの手順を実施しているかを判定することができる。「支援情報」は、各手順の実施を支援するための情報である。行為者は、支援情報に従って各手順を実施することで、適切に行為を実施することができる。また、対象者は、適切な手順による行為を受けることができる。したがって、上記支援装置によれば、行為者のスキルを向上させ、行為を受ける対象者の満足度を向上させることができる。
 支援装置は、対象者を撮像する撮像部と、対象者の撮像画像から対象者の身体部位を検出することにより対象者の状態を解析する画像処理部と、をさらに備えるものであってもよい。支援装置は、撮像部による撮像画像を画像処理部が解析することにより、対象者の状態を取得することができる。したがって、行為者が対象者の状態を入力することなく、支援装置は、対象者の状態を取得し、行為者がどの手順を実施しているかを判定することができる。
 判定部は、提示部によって提示された支援情報と対象者の状態とに基づいて、行為者が実施している手順が完了したか否かを判定し、提示部は、行為者が実施している手順が完了したと判定された場合に、次の手順に対する支援情報を記憶部から取得し、行為者に提示するものであってもよい。支援装置は、行為者から手順が完了したことの通知または操作がない場合でも、行為者が実施している手順が完了したか否かを判定し、次の手順に進むことができる。
 支援装置は、対象者を特定する認証部を、さらに備え、提示部は、特定された対象者に応じた支援情報を記憶部から取得するものであってもよい。支援装置は、対象者を特定し、対象者に応じた支援情報を提示することができる。
 提示部は、支援情報を、文字、画像および音声の少なくともいずれかによって提示するものであってもよい。提示部は、支援情報を、文字、画像および音声の少なくともいずれかによって提示するため、行為者の視界に対象者が存在しない場合には、音声で支援情報を提示することができる。したがって、対象者が行為者の視界に入らないような行為に対しても、支援装置は、支援情報を提示することができる。また、文字、画像および音声による支援情報を組み合わせて提示することにより、各手順の実行が容易になり、行為者のスキルは向上する。
 提示部は、支援情報を、対象者の身体部位に重畳させて提示するものであってもよい。支援情報が対象者の身体部位に重畳させて提示されることにより、行為者は、支援情報の内容を視覚的に理解することができ、各手順を容易に実施することができる。
 支援装置は、行為者の視線を検出する検出部をさらに備え、提示部は、行為者の視線が対象者の視線と合っていない場合に、対象者と視線を合わせることを指示する支援情報を提示するものであってもよい。行為者の視線が対象者の視線と合うように指示することで、対象者は安心して行為を受けることができるようになり、対象者の満足度の向上が図られる。
 提示部は、行為者が会話中でない場合に、行為の実況をすることを指示する支援情報を提示するものであってもよい。また、提示部は、行為者の顔が正面を向いていない場合に、対象者に対して正面を向くことを指示する支援情報を提示するものであってもよい。また、提示部は、対象者に対する行為者の顔の向きが水平でない場合に、対象者に対する顔の向きを水平にするように指示する支援情報を提示するものであってもよい。また、提示部は、行為者の顔から対象者の顔までの距離が所定の閾値以下でない場合に、対象者に対して顔を近づけることを指示する支援情報を提示するものであってもよい。支援装置は、行為者の会話、顔の向き、対象者との距離が適切となるように指示する支援情報を提示することで、対象者の満足度を向上させることができる。
 本発明の第二側面は、複数の手順を含む行為の対象者の状態に基づいて、行為の行為者が実施している手順を判定する判定ステップと、各手順の動作を支援する支援情報を格納する記憶部から、行為者が実施している手順に対する支援情報を取得し、行為者に提示する提示ステップと、を含むことを特徴とする支援方法を提供する。
 本発明は、かかる方法をコンピュータによって実現するためのプログラムやそのプログラムを非一時的に記録した記録媒体として捉えることもできる。なお、上記手段および処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。
 本発明によれば、行為者のスキルを向上させ、行為を受ける対象者の満足度を向上させる技術を提供することができる。
図1は、支援装置の適用例を示す図である。 図2は、支援装置のハードウェア構成を例示する図である。 図3は、支援装置の機能構成を例示する図である。 図4は、起床介助の手順を例示する図である。 図5は、支援処理を例示するフローチャートである。 図6は、実施形態2に係る支援装置の機能構成を例示する図である。 図7は、左半身麻痺の方の入浴介助の手順を例示する図である。 図8は、実施形態2に係る支援処理を例示するフローチャートである。 図9は、移乗介助の手順を例示する図である。 図10は、実施形態4に係る支援装置のハードウェア構成を例示する図である。 図11は、実施形態4に係る支援装置の機能構成を例示する図である。 図12は、実施形態4に係る支援処理を例示するフローチャートである。
 <適用例>
 図1を参照して、本発明に係る支援装置の適用例を説明する。支援装置1は、介護などの行為をする行為者が、行為を受ける対象者に対してどのような動作を取ればよいかを具体的に提示して、行為者を支援する装置である。
 支援装置1は、行為者が身体に装着して使用するウェアラブルデバイスであり、例えばスマートグラスである。支援装置1は、カメラまたはマイクなどの入力装置を備える。支援装置1は、行為を受ける対象者をカメラで撮像し、撮像画像を解析することにより対象者の身体部位を検出し、対象者の体勢などの状態を認識することができる。また、支援装置1は、マイクから収集した行為者または対象者の会話から対象者の状態を認識することも可能である。
 介護における起床介助といった行為には、複数の手順(手順1、手順2、手順3・・・)が含まれる。支援装置1は、対象者の状態に基づいて、行為者が実施している手順を判定することができる。支援装置1は、行為者が実施している手順において、行為者が取るべき動作を支援する支援情報を取得し、行為者に対して提示する。
 各手順の動作を支援する支援情報は、支援装置1が備える記憶部に格納されたものであってもよい。また、例えば介護の分野において、支援情報は、熟練介護士が支援装置1を使用したときの動作の情報が、記憶部に蓄積されたものとすることもできる。さらに、支援情報は、ネットワークを介して、外部の装置から取得したものであってもよい。
 支援装置1は、行為者が実施している手順が完了すると、次の手順に対する支援情報を提示する。このように、複数の手順を含む一連の行為において、手順ごとに対応する支援情報が提示されることで、行為者は、経験が浅い場合であっても、熟練者と同様の動作を取ることができる。したがって、行為者のスキルを向上させ、行為を受ける対象者の満足度を向上させることが可能となる。
 <実施形態1>
 (ハードウェア構成)
 図2は、支援装置のハードウェア構成を例示する図である。支援装置1は、スマートグラス、ヘッドマウントディスプレイのような行為者が身体に装着するウェアラブルデバイスである。支援装置1は、プロセッサ11、主記憶装置12、補助記憶装置13、入力装置14、出力装置15を備える。プロセッサ11は、補助記憶装置13に記憶されたプログラムを主記憶装置12に読み出して実行することにより、支援装置1の各機能構成としての機能を実現する。また、これらの機能の一部は、ASICやFPGAなど専用のハードウェア回路によって実現されてもよい。
 入力装置14は、行為者から介護などの行為を受ける対象者の状態、および行為に含まれる手順の実施状況などを入力するための装置である。入力装置14は、カメラ14a、マイク14b、操作ボタン14cを含む。
 カメラ14aは、レンズを含む光学系および撮像素子(CCDやCMOSなどのイメージセンサ)を有する撮像装置である。カメラ14aは、対象者の状態を解析するための撮像画像を撮像する。カメラ14aは、例えば、レーダ、ステレオカメラなど対象者との距離や方向を測る距測センサである。
 マイク14bは、音を電気信号に変換する機器であり、行為者および対象者の声を集音する。例えば、行為者は、マイク14bに対し、対象者の状態を音声で入力することができる。操作ボタン14cは、行為者が実行しようとする行為を設定したり、次の手順に勧めたりする操作を実行するためのボタンである。
 出力装置15は、行為者の動作を支援するための支援情報を出力するための装置である。出力装置15は、ディスプレイ15aおよびスピーカー15bを含む。ディスプレイ15aは、例えば透過型ディスプレイ、網膜投影型ディスプレイである。ディスプレイ15aは、実際に見えている対象者に重畳させて、各手順に対応する動作を支援する支援情報を行為者に提示する。スピーカー15bは、電気信号を音に変換する機器であり、支援情報を音声で出力することにより行為者に提示する。
 (機能構成)
 次に、図3を参照して、支援装置1の機能構成について説明する。図3は、支援装置1の機能構成を例示する図である。支援装置1は、撮像部101、画像処理部102、判定部103、提示部104、支援情報データベース(DB)105を含む。
 撮像部101は、行為を受ける対象者を撮像する。画像処理部102は、撮像部101が撮像した対象者の撮像画像から対象者の身体部位を検出する。画像処理部102は、検出した身体部位、例えば、手、足、頭部、胴体などの位置関係によって対象者の状態を解析することができる。
 判定部103は、画像処理部102が解析した対象者の状態に基づいて、行為者が一連の行為においてどの手順を実施しているかを判定する。なお、各手順と対象者の状態とは、それぞれ対応付けて支援情報データベース105に記憶されている。
 提示部104は、行為者が実施している手順に対する支援情報を記憶部(補助記憶装置13)から取得することができる。各手順は、支援情報データベース105において、手順に対応する動作を支援する支援情報と対応付けて記憶されている。なお、提示部104は、支援情報および各手順との対応付けの情報を、ネットワークを介して外部の装置、例えばパーソナルコンピュータ、サーバコンピュータのような汎用的なコンピュータから取得することも可能である。提示部104は、取得した支援情報を行為者に提示する。支援情報は、行為者が支援装置1を介して見ている対象者と、重畳させて表示されるようにしてもよい。
 支援情報データベース105は、行為者に提示するための支援情報を格納する。支援情報データベース105は、各種行為(以下、シーンとも称される)に対して、行為に含まれる手順、手順に対応する支援情報、手順に対応する対象者の状態といった情報を格納する。各種シーンは、例えば、介護の分野では、起床介助、入浴介助、移乗介助のような行為である。なお、支援情報データベース105に格納される情報は、外部の装置から取得されるようにしてもよい。
 (支援処理の流れ)
 図4および図5を用いて、実施形態1に係る支援処理の流れを説明する。実施形態1は、介護の分野における起床介助を例として説明される。図4は、起床介助の手順を例示する図である。図5により、図4に示す対象者(被介護者)の起床介助の支援情報を行為者(介護者)に提示する支援処理の流れを説明する。図4に示すように、介護者は、以下の手順で被介護者の起床介助の行為を進める。
  手順1:腕を胸の前で組む
  手順2:両膝を立てる
  手順3:身体を横向きにする
  手順4:両足をベッドから下ろす
  手順5:骨盤を押さえながら上半身を起こす
 図5は、実施形態1に係る支援処理を例示するフローチャートである。図5に示す処理は、例えば、介護者が支援装置1を装着し、支援装置1の電源を入れることを契機として開始される。
 ステップS11では、判定部103は、介護者から介護シーンの設定を受け付ける。介護シーンは、介護者が被介護者に対して行う介助行為の種類である。ここでは、介護者は、図4に示す起床介助を介護シーンとして設定したものとする。
 なお、介護者は、支援装置1の入力装置14を介して介護シーンを設定する。例えば、介護者は、マイク14bに対して音声で介護シーンを入力して設定することができる。また、介護者は、介護シーンを設定するための操作ボタン14cにより、介護シーンを設定できるようにしてもよい。さらに、介護シーンは、介護者によって設定される場合に限られず、判定部103は、被介護者の撮像画像の周囲の状況から介護シーンを判定するようにしてもよい。例えば、判定部103は、被介護者がベッドの上で仰向けになっている場合、介護シーンは起床介助であると判定することができる。
 ステップS12では、画像処理部102は、撮像部101によって撮像された被介護者の撮像画像から、被介護者の身体部位を検出し、被介護者の状態を解析する。起床介助の例では、画像処理部102は、被介護者の頭部、胴体、手、足を検出し、それらの位置関係から被介護者が仰向けの状態であると解析することができる。なお、画像処理部102は、検出した身体部位の大きさを、被介護者の情報として支援情報データベース105に格納する。被介護者の身体部位の大きさの情報は、支援情報を提示する際に用いられる。
 ステップS13では、判定部103は、ステップS11で設定された介護シーンに含まれる各手順の情報を、支援情報データベース105から取得する。そして、判定部103は、介護者が、被介護者に対して介護シーンのどの手順を実施しているかを判定する。判定部103は、ステップS12で画像処理部102が解析した被介護者の状態に基づいて、介護者が実施している手順を判定することができる。起床介助の例では、判定部103は、被介護者が仰向けの状態で手足が伸びている場合、介護者が手順1「腕を胸の前で組む」を実施しようとしていると判定することができる。
 なお、介護シーンに含まれる各手順は、予め想定される被介護者の状態と対応付けて支援情報データベース105に格納される。判定部103は、ステップS12で画像処理部102が解析した被介護者の状態を、支援情報データベース105に格納された被介護者の状態と対比して、介護者が実施している手順を判定する。
 ここで、画像処理部102が解析した被介護者の状態と、支援情報データベース105に格納された被介護者の状態とを対比し、介護者が実施している手順を判定する方法の一例を説明する。支援情報データベース105に格納された被介護者の状態は、例えば、介護者の視線から見た被介護者の画像(以下、基準画像とも称される)として格納される。判定部103は、基準画像およびステップS12の撮像画像から、それぞれの画像中の被介護者の身体部位を検出して重ね合わせる。判定部103は、基準画像中で検出した身体部位の領域に対し、撮像画像中で検出した身体が重なる領域の割合を一致度として算出する。判定部103は、一致度がより大きい基準画像に対応する手順を、介護者が実施している手順であると判定することができる。
 ステップS14では、提示部104は、ステップS13で判定した手順に対する支援情報を介護者に提示する。提示部104は、当該手順における動作の対象となる被介護者の身体部位に重畳させて、支援情報を提示する。図4に示す起床介助の手順2の例では、提示部104は、介護者に対し、被介護者の足が延びた状態から両膝を立てた状態に動かすことを指示する支援情報を提示する。提示部104は、ステップS12において支援情報データベース105に記憶した被介護者の大きさを用いることで、被介護者の体形に合わせた支援情報を表示させることができる。
 図4の手順2に対する吹き出しは、介護者が支援装置1を介して被介護者を見た場合の支援情報の具体例を示す。提示部104は、手順2において被介護者の両膝を立てた後の状態を示すフレームF1を表示する。介護者は、両足がフレームF1の状態になるように被介護者を介助すればよい。
 また、提示部104は、介護者が被介護者のどの位置に手を添えればよいかを丸印C1で示す。提示部104は、手を添える位置が、被介護者の身体の見えている部分にある場合は丸印を実線で示し、被介護者の身体の裏側など見えない部分にある場合は丸印を点線で示すようにしてもよい。図4に示す丸印C1は、介護者が膝の裏側に手を添えるため、点線で示される。
 また、提示部104は、被介護者の身体に添えた手を動かす向きを矢印A1で示してもよい。介護者は、矢印A1の向きに従って被介護者の身体部位を動かすことで、被介護者に対し適切な動作をとることができる。被介護者の状態が、フレームF1で示される状態になると、提示部104は、当該手順に対する支援情報の表示を終了し、次の手順の支援情報の表示に進む。
 図4に示す起床介助の手順3の例では、提示部104は、介護者に対し、被介護者が仰向けで両膝を立てた状態から身体が横向きの状態に動かすように支援情報を提示する。図4の手順3に対する吹き出しは、介護者が支援装置1を介して被介護者を見た場合の支援情報の具体例を示す。提示部104は、手順3において被介護者の身体が横向きの状態を示すフレームF2を表示する。介護者は、被介護者の身体がフレームF2の状態になるように被介護者を介助すればよい。
 また、提示部104は、介護者が被介護者のどの位置に手を添えればよいかを丸印C2で示す。また、提示部104は、被介護者の身体に添えた手を動かす向きを矢印A2で示す。被介護者の状態が、フレームF2で示される状態になると、提示部104は、当該手順に対する支援情報の表示を終了し、次の手順の支援情報の表示に進む。
 ステップS15では、判定部103は、介護者が実施している手順が完了したか否かを判定する。判定部103は、提示部104によって提示された支援情報と対象者の状態とに基づいて、介護者が実施している手順が完了したか否かを判定することができる。具体的には、判定部103は、図4の手順2の例において、被介護者が両膝を立てた状態となり、被介護者の足とフレームF1で囲まれた領域との一致度が、所定の閾値以上となった場合に、手順が完了したと判定することができる。ここでの一致度は、例えば、フレームF1で囲まれた領域に対し、被介護者の対応する身体部位がフレームF1と重なる領域の割合とすることができる。介護者が実施している手順が完了した場合(ステップS15:YES)、処理はステップS16に進む。介護者が実施している手順が完了していない場合(ステップS15:NO)、処理はステップS14に戻る。
 ステップS16では、判定部103は、介護シーンに含まれる手順がいずれも完了したか否か、即ち介護が完了したか否かを判定する。介護が完了したか否かは、例えば、介護シーンに含まれる最後の手順が完了したか否かにより判定することができる。介護が完了した場合(ステップS16:YES)、図5に示す処理は終了する。介護が完了していない場合(ステップS16:NO)、処理はステップS12に戻る。ステップS12に戻ると、介護が完了するまで、各手順に対する支援情報の提示処理が行われる。
 (実施形態1の作用効果)
 上記実施形態1では、支援装置1は、被介護者をカメラ14aで撮像し、被介護者の身体部位を検出して、被介護者の状態を解析する。支援装置1は、介護者が介護シーンにおいてどの手順を実施しているかを判定する。支援装置1は、判定した手順に対応する動作の支援情報を提示する。これにより、介護者のスキルを向上させ、被介護者の満足度を向上させることが可能となる。
 提示部は、介護者が実施している手順が完了すると、次の手順に進み、介護者に提示する支援情報を、次の手順に対する支援情報に切り替える。介護者は、介護シーンに含まれる手順ごとに、具体的に取るべき動作を認識することができ、経験が浅い場合であっても熟練者と同等に被介護者の介助をすることができる。
 <実施形態2>
 実施形態2では、支援装置1は、対象者(被介護者)の固有の事情に応じた支援情報を行為者(介護者)に提示する。例えば、入浴介助の介護シーン(行為)において、身体の一部が不自由な被介護者の場合、どの部分が不自由かによって、介助の方法は異なる。そこで、実施形態2では、支援装置1は、被介護者の個人認証を行い、被介護者に関する情報を取得する。支援装置1は、取得した被介護者に関する情報に基づいて、被介護者に応じた支援情報を介護者に提示する。
 実施形態2に係る支援装置1のハードウェア構成は、図2に示す実施形態1に係る支援装置1のハードウェア構成と同一である。また、図6は、実施形態2に係る支援装置の機能構成を例示する図である。実施形態2に係る支援装置1は、実施形態1に係る支援装置1の機能構成に加えて、認証部106を備える。実施形態1に係る支援装置1と同じ機能構成については、同じ符号を付して説明は省略する。
 認証部106は、撮像部101が撮像した被介護者の撮像画像を解析し、被介護者を特定する。被介護者は、支援情報データベース105において、左半身麻痺等の身体の状態と対応付けられる。また、被介護者は、身体の状態に応じた介護シーンの各手順と対応付けられる。判定部103は、認証部106によって特定された被介護者の情報に基づいて、被介護者に応じた介護シーンの各手順を取得することができる。
 図7および図8を用いて、実施形態2に係る支援処理の流れを説明する。実施形態2は、被介護者が左半身麻痺の状態である場合の入浴介助の例を説明する。図7は、左半身麻痺の方の入浴介助の手順を例示する図である。図8は、図7に示す被介護者の入浴介助の支援情報を介護者に提示する支援装置1による支援処理の流れを説明する。図7に示すように、介護者は、以下の手順で被介護者の入浴介助の行為を進める。
  手順1:右足と浴槽が平行になるように座らせる
      右手で手すりを持たせる
  手順2:右足を浴槽に入れてもらう
  手順3:左足を持ち上げ浴槽へ入れる
  手順4:お尻を浴槽に移動させる
  手順5:身体全体を浴槽に入れる
 図8は、実施形態2に係る支援処理を例示するフローチャートである。図8に示す処理は、例えば、介護者が支援装置1を装着し、支援装置1の電源を入れることを契機として開始される。なお、図8に示す支援処理において、実施形態1に係る支援処理(図5)と同一の処理については、同一の符号を付して説明を省略する。
 介護シーンの設定(ステップS11)の処理は、実施形態1と同じである。ステップS21において、判定部103は、被介護者を顔認証などによって特定することにより個人認証を行う。被介護者の状態、例えば左半身麻痺であるといった状態は、被介護者と対応づけて支援情報データベース105に格納されている。被介護者と被介護者の状態との対応付けを含む被介護者の情報は、熟練の介護者によって入力され、支援情報データベース105に格納されてもよい。また、被介護者の情報は、支援装置1が、外部の装置で入力された被介護者の情報を受信して、支援情報データベース105に格納したものであってもよい。
 被介護者の状態解析(ステップS12)の処理は、実施形態1と同じである。ステップS23では、判定部103は、ステップS11で設定された介護シーンおよびステップS21で特定した被介護者の情報に基づいて、被介護者に応じた介護シーンの各手順の情報を、支援情報データベース105から取得する。そして、判定部103は、介護者が、被介護者に対して介護シーンのどの手順を実施しているかを判定する。介護者が実施している手順の判定の方法については、実施形態1と同様であるため、説明は省略する。
 ステップS24では、提示部104は、ステップS23で判定した手順に対する支援情報を介護者に提示する。提示部104は、当該手順における動作の対象となる被介護者の身体部位に重畳させて、支援情報を提示する。図7に示す左半身麻痺の方の入浴介助の手順3の例では、提示部104は、介護者に対し、被介護者の左足が浴槽の外にある状態から、左足を浴槽内に入れた状態に動かすように支援情報を提示する。
 図7の手順3に対する吹き出しは、介護者が支援装置1を介して被介護者を見た場合の支援情報の具体例を示す。提示部104は、手順3において被介護者の左足を浴槽内に入れた状態を示すフレームF3を表示する。介護者は、左足がフレームF3の状態になるように被介護者の左足を持ち上げて浴槽内に入れるように介助すればよい。
 また、提示部104は、介護者が被介護者のどの位置に手を添えればよいかを丸印C3で示す。また、提示部104は、被介護者の身体に添えた手を動かす向きを矢印A3で示す。被介護者の状態が、フレームF3で示される状態になると、提示部104は、当該手順に対する支援情報の表示を終了し、次の手順の支援情報の表示に進む。
 実施手順完了の判定(ステップS15)、介護完了の判定(ステップS16)の処理は、実施形態1と同じである。支援装置1は、被介護者の状態に応じた手順に従って、手順ごとに対応する支援情報を提示する。介護者は、提示された支援情報に従って介護シーンに含まれる各手順を完了することができる。
 (実施形態2の作用効果)
 上記実施形態2では、支援装置1は、被介護者を特定し、被介護者の固有の事情に応じた支援情報を介護者に提示する。介護者は、被介護者の状態に応じた支援をすることができるため、被介護者の満足度を向上させることが可能となる。
 <実施形態3>
 実施形態3では、支援装置1は、支援情報を、画像情報に限られず、文字、画像および音声の少なくともいずれかによって提示する。例えば、移乗介助の介護シーンにおいて、介助行為の間、被介護者が介護者の視界に入らなくなる動作が存在する。そこで、実施形態3では、支援装置1は、画像情報以外の態様によっても、介護者に支援情報を提示する。
 実施形態3に係る支援装置1のハードウェア構成は、図2に示す実施形態1に係る支援装置1のハードウェア構成と同一である。また、実施形態3に係る支援装置1の機能構成は、図3に示す実施形態1に係る支援装置1の機能構成と同一である。
 図9に示す移乗介助の手順を例として、音声による支援情報の提示について説明する。図9は、移乗介助の手順を例示する図である。図9に示すように、介護者は、以下の手順で被介護者の移乗介助の行為を進める。
  手順1:被介護者の前に立つ
  手順2:被介護者の背中に腕を回し、被介護者の腕を介助者の背中に回す
  手順3:持ち上げながら立ち上がる
  手順4:椅子の方に回転させる
  手順5:被介護者を支えながら座らせる
 実施形態3では、支援装置1(判定部103)は、図5に示すフローチャートと同様に、ステップS11において介護シーンを設定する。介護シーンが上述の移乗介助に設定されると、手順2に進んだ段階で、被介護者は介護者の視界に入らなくなる。ステップS12において、撮像画像中に被介護者が検出されなくなるため、判定部103は、ステップS13において、実施手順を現在の手順2に設定すればよい。ステップS14では、提示部104は、手順2以降の手順に対し、文字または音声の少なくともいずれかによって支援情報を提示することができる。
 なお、画像による支援情報の提示が困難であることが分かっている介護シーンについては、撮像画像中に被介護者が検出されるか否かにかかわらず、提示部104は、撮像画像を解析することなく音声等によって支援情報を提示してもよい。
 また、ステップS13において、判定部103は、介護者からの音声入力により、実施している手順を判定できるようにしてもよい。また、判定部103は、手順が完了したことを通知する操作ボタン14cが押下されたことにより、次の手順に進めるようにしてもよい。
 さらに、ステップS15およびステップS16では、判定部103は、介護者からの音声入力、手順または介護が完了したことを通知する操作ボタン14cの押下によって、実施手順が完了したこと、または介護が完了したことを判定できるようにしてもよい。
 (実施形態3の作用効果)
 上記実施形態3では、支援装置1は、文字、画像および音声の少なくともいずれかによって支援情報を提示することができる。したがって、介助行為の間、被介護者が介護者の視界に入らなくなるような介護シーンにおいても、支援装置1は、介護者に対し、適切に支援情報を提示することができる。
 なお、介助行為の間、被介護者が撮像画像で検出されるか否かにかかわらず、支援装置1は、文字および画像による支援情報と、音声による支援情報との両方を提示するようにしてもよい。文字、画像および音声による支援情報を併用することで、介護者は、各手順の動作を容易に理解できるようになる。
 <実施形態4>
 実施形態4では、支援装置1は、ユマニチュードの支援情報を提示する。ユマニチュードとは、認知症患者に対する言葉、身振り、視線などを用いたケアの技術である。ユマニチュードの技術を用いることで、介護者は、認知症により言葉や態度が攻撃的になっている患者に対しても安心感を持ってもらい、スムーズに介護を行うことができる。ユマニチュードでは、顔を近づけた会話、顔の高さを合わせた会話、視線を合わせた会話、介護動作の実況により会話を途切れさせないことなどが求められる。そこで、実施形態4では、支援装置1は、被介護者と視線を合わせたり、介護動作の実況中継を促したりすることを指示する支援情報を提示する。
 図10は、実施形態4に係る支援装置のハードウェア構成を例示する図である。実施形態4に係る支援装置1は、図2に示す実施形態1に係る支援装置1のハードウェア構成の他、介護者の視線を検出するための眼球撮影用カメラ14dを備える。
 図11は、実施形態4に係る支援装置の機能構成を例示する図である。実施形態4に係る支援装置1は、図3に示す実施形態1に係る支援装置1の機能構成の他、介護者(行為者)の視線を検出するための検出部107(眼球撮影用カメラ14d)を備える。提示部104は、検出部107が検出した介護者の視線の向き、画像処理部102による被介護者の撮像画像の解析結果に基づいて、介護者の視線が被介護者の視線と合っているか否かを判定することができる。
 図12は、実施形態4に係る支援処理を例示するフローチャートである。実施形態4では、支援装置1は、実施形態1から実施形態3に例示した支援情報の他、ユマニチュードによる介護を支援する情報を介護者に提示する。なお、図12に示す支援処理において、実施形態1に係る支援処理(図5)と同一の処理については、同一の符号を付して説明を省略する。
 介護シーンの設定(ステップS11)、被介護者の状態解析(ステップS12)、実施手順の判定(ステップS12)の処理は、実施形態1と同じである。ステップS31において、提示部104は、介護者の視線が被介護者の視線と合っているか否かを判定する。提示部104は、検出部107によって検出された視線の向きが、撮像部101によって撮像された被介護者の視線の方に向いているか否かによって、介護者の視線が被介護者の視線と合っているか否かを判定することができる。具体的には、視線が合っているか否かは、介護者の視線の向きと被介護者の視線の向きとのずれが、所定の閾値以下であるか否かによって判定可能である。介護者の視線が被介護者の視線と合っている場合(ステップS31:YES)、処理はステップS14に進む。介護者の視線が被介護者の視線と合っていない場合(ステップS31:NO)、処理はステップS32に進む。
 ステップS32では、提示部104は、介護者に対し、被介護者と視線を合わせるように指示を出す。ステップS32における介護者への指示は、例えば「被介護者と視線を合わせてください」という文字情報としてディスプレイ15aに表示される。また、ステップS32における指示は、スピーカー15bから音声として流されてもよい。
 支援情報提示(ステップS14)、実施手順完了の判定(ステップS15)、介護完了の判定(ステップS16)の処理は、実施形態1と同じである。なお、図12は、ステップS14において介助支援などの支援情報を提示する前のタイミングで、被介護者と視線が合っているかを判定し、ユマニチュードによる支援情報(指示)を提示する例を示すが、これに限られない。支援装置1は、実施形態1に係る支援処理(図5)のうち、ステップS12からステップS16までの処理と並列して、任意のタイミングで介護者の視線を判定し、ユマニチュードによる介護の指示を提示するものであってもよい。
 また、図12は、ユマニチュードの支援情報として、介護者の視線が被介護者の視線と合っていない場合に、被介護者と視線を合わせるように指示する例を示すが、これに限られない。以下に、ステップS31における判定内容と、判定結果に対する指示内容の組み合わせを例示する。各例示における判定内容および指示は、適宜組み合わせて実行されてもよい。
 1つ目の例では、マイク14bによって介護者の会話を集音し、提示部104は、介護者が会話中か否かを判定する。提示部104は、会話中でない場合、介護者に対してオートフィードバック(介護動作の実況中継)を促す指示を支援情報として提示する。
 2つ目の例では、提示部104は、介護者の顔が正面を向いているか否かを判定する。提示部104は、例えば、撮像部101による撮像画像中の被介護者が撮像画像の中央部に映っているか否かによって、介護者の顔が正面を向いているか否かを判定することができる。また、画像処理部102により、撮像画像中の被介護者の顔の向きを解析し、被介護者が正面を向いている場合に、介護者の顔が正面を向いていると判定されるようにしてもよい。提示部104は、介護者の顔が正面を向いていない場合、被介護者に対して正面を向くように促す指示を支援情報として提示する。
 3つ目の例では、提示部104は、被介護者に対する介護者の顔の向きが水平であるか否かを判定する。被介護者に対する介護者の顔の向きが水平であるか否かは、例えば、カメラ14aが備える加速度センサから得られる支援装置1の傾きと、撮像画像から解析した被介護者の顔の傾きとによって判定することができる。なお、水平であるとは、例えば、支援装置1の傾きと被介護者の顔の傾きとのずれが閾値以下である場合とすることができる。提示部104は、被介護者に対する介護者の顔の向きが水平でない場合、被介護者に対する顔の向きを水平にするように促す指示を支援情報として提示する。
 4つ目の例では、提示部104は、介護者の顔から被介護者の顔までの距離が所定の閾値以下であるか否かを判定する。これは、ユマニチュードにおいて、介護者は、被介護者に対して所定の距離まで近づいて介護することが好ましいためである。所定の閾値は、被介護者が安心して介護を受けることができる距離である。介護者の顔から被介護者の顔までの距離は、支援装置1が備える距測センサによって計測してもよく、撮像画像を解析し被介護者の大きさなどから推定することも可能である。提示部104は、介護者の顔から被介護者の顔までの距離が所定の閾値以下でない場合、被介護者に対して顔を近づけるように促す指示を支援情報として提示する。
 (実施形態4の作用効果)
 上記実施形態4では、支援装置1は、介護者の視線、顔の向き、被介護者との距離を検出し、これらの視線、顔の向き、被介護者との距離が適切な状態となるように指示する支援情報を、介護者に対して提示する。これにより、被介護者は、安心して介護を受けることができるようになる。
 <その他>
 上記実施形態は、本発明の構成例を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。
 <付記>
 (1)複数の手順を含む行為の対象者の状態に基づいて、前記行為の行為者が実施している手順を判定する判定部(103)と、
 各手順の動作を支援する支援情報を格納する記憶部から、前記行為者が実施している手順に対する前記支援情報を取得し、前記行為者に提示する提示部(104)と、
を備えることを特徴とする支援装置(1)。
 (2)複数の手順を含む行為の対象者の状態に基づいて、前記行為の行為者が実施している手順を判定する判定ステップ(S13)と、
 各手順の動作を支援する支援情報を格納する記憶部から、前記行為者が実施している手順に対する前記支援情報を取得し、前記行為者に提示する提示ステップ(S14)と、
を含むことを特徴とする支援方法。
1:支援装置    11:プロセッサ    12:主記憶装置
13:補助記憶装置 14:入力装置     15:出力装置
101:撮像部   102:画像処理部   103:判定部
104:提示部   105:支援情報データベース(DB)
106:認証部   107:検出部

Claims (13)

  1.  複数の手順を含む行為の対象者の状態に基づいて、前記行為の行為者が実施している手順を判定する判定部と、
     各手順の動作を支援する支援情報を格納する記憶部から、前記行為者が実施している手順に対する前記支援情報を取得し、前記行為者に提示する提示部と、
    を備えることを特徴とする支援装置。
  2.  前記対象者を撮像する撮像部と、
     前記対象者の撮像画像から前記対象者の身体部位を検出することにより前記対象者の状態を解析する画像処理部と、をさらに備える
    ことを特徴とする請求項1に記載の支援装置。
  3.  前記判定部は、前記提示部によって提示された前記支援情報と前記対象者の状態とに基づいて、前記行為者が実施している手順が完了したか否かを判定し、
     前記提示部は、前記行為者が実施している手順が完了したと判定された場合に、次の手順に対する前記支援情報を前記記憶部から取得し、前記行為者に提示する、
    ことを特徴とする請求項1または2に記載の支援装置。
  4.  前記対象者を特定する認証部を、さらに備え、
     前記提示部は、特定された前記対象者に応じた前記支援情報を前記記憶部から取得することを特徴とする請求項1から3のいずれか1項に記載の支援装置。
  5.  前記提示部は、前記支援情報を、文字、画像および音声の少なくともいずれかによって提示する、
    ことを特徴とする請求項1から4のいずれか1項に記載の支援装置。
  6.  前記提示部は、前記支援情報を、前記対象者の身体部位に重畳させて提示する
    ことを特徴とする請求項1から5のいずれか1項に記載の支援装置。
  7.  前記行為者の視線を検出する検出部をさらに備え、
     前記提示部は、前記行為者の視線が前記対象者の視線と合っていない場合に、前記対象者と視線を合わせることを指示する前記支援情報を提示する、
    ことを特徴とする請求項1から6のいずれか1項に記載の支援装置。
  8.  前記提示部は、前記行為者が会話中でない場合に、前記行為の実況をすることを指示する前記支援情報を提示する、
    ことを特徴とする請求項1から7のいずれか1項に記載の支援装置。
  9.  前記提示部は、前記行為者の顔が正面を向いていない場合に、前記対象者に対して正面を向くことを指示する前記支援情報を提示する、
    ことを特徴とする請求項1から8のいずれか1項に記載の支援装置。
  10.  前記提示部は、前記対象者に対する前記行為者の顔の向きが水平でない場合に、前記対象者に対する顔の向きを水平にするように指示する前記支援情報を提示する、
    ことを特徴とする請求項1から9のいずれか1項に記載の支援装置。
  11.  前記提示部は、前記行為者の顔から前記対象者の顔までの距離が所定の閾値以下でない場合に、前記対象者に対して顔を近づけることを指示する前記支援情報を提示する、
    ことを特徴とする請求項1から10のいずれか1項に記載の支援装置。
  12.  複数の手順を含む行為の対象者の状態に基づいて、前記行為の行為者が実施している手順を判定する判定ステップと、
     各手順の動作を支援する支援情報を格納する記憶部から、前記行為者が実施している手順に対する前記支援情報を取得し、前記行為者に提示する提示ステップと、
    を含むことを特徴とする支援方法。
  13.  請求項12に記載の支援方法の各ステップをコンピュータに実行させるためのプログラム。
PCT/JP2020/006545 2019-06-12 2020-02-19 支援装置、支援方法およびプログラム WO2020250492A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-109240 2019-06-12
JP2019109240A JP2020201793A (ja) 2019-06-12 2019-06-12 支援装置、支援方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2020250492A1 true WO2020250492A1 (ja) 2020-12-17

Family

ID=73743435

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/006545 WO2020250492A1 (ja) 2019-06-12 2020-02-19 支援装置、支援方法およびプログラム

Country Status (2)

Country Link
JP (1) JP2020201793A (ja)
WO (1) WO2020250492A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024018793A1 (ja) * 2022-07-22 2024-01-25 誠心堂株式会社 頭部装着型ウェアラブル端末を使用した介護者支援システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014104360A1 (ja) * 2012-12-28 2014-07-03 株式会社東芝 動作情報処理装置及び方法
JP2017107401A (ja) * 2015-12-09 2017-06-15 株式会社元気広場 起居動作獲得支援装置、及び、起居動作獲得支援装置の制御方法
WO2017204253A1 (ja) * 2016-05-26 2017-11-30 コニカミノルタ株式会社 介護支援装置、該方法、該プログラムおよび該システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014104360A1 (ja) * 2012-12-28 2014-07-03 株式会社東芝 動作情報処理装置及び方法
JP2017107401A (ja) * 2015-12-09 2017-06-15 株式会社元気広場 起居動作獲得支援装置、及び、起居動作獲得支援装置の制御方法
WO2017204253A1 (ja) * 2016-05-26 2017-11-30 コニカミノルタ株式会社 介護支援装置、該方法、該プログラムおよび該システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024018793A1 (ja) * 2022-07-22 2024-01-25 誠心堂株式会社 頭部装着型ウェアラブル端末を使用した介護者支援システム

Also Published As

Publication number Publication date
JP2020201793A (ja) 2020-12-17

Similar Documents

Publication Publication Date Title
JP6351978B2 (ja) 動作情報処理装置及びプログラム
JP6675462B2 (ja) 動作情報処理装置
JP6359343B2 (ja) 動作情報処理装置及び方法
JP6334925B2 (ja) 動作情報処理装置及び方法
JP6181373B2 (ja) 医用情報処理装置及びプログラム
EP3091864B1 (en) Systems and methods to automatically determine garment fit
JP6045139B2 (ja) 映像生成装置、映像生成方法及びプログラム
WO2015098977A1 (ja) 脈波測定装置、携帯機器、医療機器システム、及び生体情報コミュニケーションシステム
JP6360048B2 (ja) 介助ロボット
JP2015109937A (ja) 動作情報処理装置
US9888847B2 (en) Ophthalmic examination system
JP6579411B1 (ja) 介護設備又は病院用の監視システム及び監視方法
EP3164055A1 (en) Eye condition determination system
JP2017143992A (ja) 眼科検査システム及び眼科検査装置
JP2013066696A (ja) 画像処理システム及び画像処理方法
WO2020250492A1 (ja) 支援装置、支援方法およびプログラム
US11589001B2 (en) Information processing apparatus, information processing method, and program
JP7139638B2 (ja) 報知装置、報知方法及び報知プログラム
US20180197564A1 (en) Information processing apparatus, information processing method, and program
US20230012806A1 (en) Method and photographing device for acquiring side image for ocular proptosis degree analysis, and recording medium therefor
CN111000542B (zh) 基于智能药箱实现身体异常预警的方法及装置
JP2015163113A (ja) 歩行支援装置、及び情報処理装置
JP2008113875A (ja) コミュニケーション誘発システム
JP2023075984A (ja) 生体情報測定装置、生体情報測定方法及び生体情報測定プログラム
JP7381139B1 (ja) プログラム、コンピュータ装置及び方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20823349

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20823349

Country of ref document: EP

Kind code of ref document: A1