WO2022059249A1 - 情報処理装置、情報処理システム、情報出力方法、および情報出力プログラム - Google Patents

情報処理装置、情報処理システム、情報出力方法、および情報出力プログラム Download PDF

Info

Publication number
WO2022059249A1
WO2022059249A1 PCT/JP2021/016971 JP2021016971W WO2022059249A1 WO 2022059249 A1 WO2022059249 A1 WO 2022059249A1 JP 2021016971 W JP2021016971 W JP 2021016971W WO 2022059249 A1 WO2022059249 A1 WO 2022059249A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
target person
degree
care
index
Prior art date
Application number
PCT/JP2021/016971
Other languages
English (en)
French (fr)
Inventor
浩 韓
Original Assignee
コニカミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタ株式会社 filed Critical コニカミノルタ株式会社
Priority to JP2022550340A priority Critical patent/JPWO2022059249A1/ja
Publication of WO2022059249A1 publication Critical patent/WO2022059249A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services

Definitions

  • the present invention relates to an information processing apparatus, an information processing system, an information output method, and an information output program.
  • the primary judgment, etc. in the certification for long-term care depends to some extent on the subjective judgment of the certified investigator and the temporary condition of the subject at the time of hearing, so there are cases where the certification for long-term care, etc. is not made correctly.
  • Patent Document 1 Information on the user's living function status is determined by analyzing the user's behavior based on the detection information by the detection device such as image data by the image pickup device, and the information of the attending physician's opinion is analyzed by analyzing the electronic medical record by the user's attending physician. To generate. Then, the degree of care required of the user is derived based on the information on the living function state of the user and the information of the doctor's opinion.
  • Patent Document 1 cannot calculate all the items required for general certification for long-term care, there is a problem that the reliability (credibility) and explanation of the derived degree of long-term care are low. There is.
  • the present invention has been made to solve such a problem. That is, an information processing device, an information processing system, an information output method, and an information output program that can output information such as highly reliable and explanatory indicators such as the degree of need for nursing care by estimating information that cannot be determined from the prior art.
  • the purpose is to provide.
  • a first information estimation unit that estimates the first information of the target person based on the information of the target person acquired by the information acquisition unit, and the target used for estimating the first information. It is necessary based on the second information estimation unit that estimates the second information of the target person other than the first information based on the information of the person or the first information, and the first information and the second information.
  • An information processing device having an output unit that outputs information on the degree of care or the degree of support required.
  • the output unit further has an index calculation unit for calculating an index relating to the degree of care required or the degree of support required based on the first information and the second information, and the output unit is the degree of care required or the support required.
  • the information processing apparatus which outputs the index as the information regarding the degree.
  • the second information estimation unit has a relationship between the target person's information and the second information used for estimating the first information, or a relationship between the first information and the second information.
  • the second information estimation unit has a relationship between the target person's information used for estimating the first information and the second information, or a relationship between the first information and the second information. Based on the statistical information, the information of the subject used for estimating the first information, or the second information is estimated from the first information, or is used to estimate the first information. In order to estimate the first information using a trained model trained using the combination of the target person's information and the second information or the combination of the first information and the second information as teacher data.
  • the information processing apparatus according to any one of (1) to (7) above, which estimates the second information from the information of the target person used or the first information.
  • An information processing system including the information processing apparatus according to any one of (1) to (9) above, and a display unit for displaying the information regarding the degree of care required or the degree of support required.
  • FIG. 1 is a diagram showing an index calculation system 1.
  • FIG. 2 is a block diagram showing a hardware configuration of the information processing apparatus 10.
  • FIG. 3 is a block diagram showing a hardware configuration of the detection unit 20.
  • the index calculation system constitutes an information processing system.
  • index simply means an index relating to the degree of long-term care or the degree of support (hereinafter, also referred to as "the degree of long-term care, etc.”).
  • Indicators include the certification preparation period for the degree of support required, such as the degree of long-term care, basic movement (physical function) / wake-up movement function, living function, cognitive function, social behavior (mental / behavioral disorder), and social life application.
  • the evaluation results for each evaluation item are included.
  • the evaluation results for each evaluation item such as the degree of care required, basic movement / wake-up movement function, living function, cognitive function, social behavior, and social life application are general primary judgment items for certification of need for care based on the application. include.
  • the evaluation result (judgment result) such as the degree of long-term care is included in the items of the secondary judgment by the long-term care certification examination committee such as the degree of long-term care.
  • the index calculation system 1 includes an information processing device 10 and a detection unit 20. These are connected to each other by wire or wirelessly via a network 30 such as a LAN (Local Area Network), a telephone network, or a data communication network so as to be communicable with each other.
  • a network 30 such as a LAN (Local Area Network), a telephone network, or a data communication network so as to be communicable with each other.
  • the index calculation target person 80 and the bed 90 are also shown in FIG.
  • the index calculation system 1 constitutes an information processing system.
  • the detection unit 20 includes a control unit 200, a communication unit 210, a camera 220, and a microphone 230, and these components are connected to each other by a bus.
  • the detection unit 20 may be arranged in a living room which is an observation area of the subject 80.
  • the control unit 200 is composed of a memory such as a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory), and controls and performs arithmetic processing of each unit of the detection unit 20 according to a program.
  • a memory such as a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory), and controls and performs arithmetic processing of each unit of the detection unit 20 according to a program.
  • the communication unit 210 is an interface for communicating with other devices including the information processing device 10 via the network 30, and may be a LAN card, for example.
  • the camera 220 is arranged, for example, on the ceiling of the living room or the upper part of the wall, captures an area including the bed 90 of the subject 80 as an observation area, and outputs a captured image (image data).
  • the photographed image taken by the camera 220 is also simply referred to as a “photographed image”. Captured images include still images and moving images.
  • the camera 220 can be, for example, a visible light camera or a near infrared camera.
  • the microphone 230 detects the voice including the voice of the target person 80 and outputs it as voice data.
  • the information processing device 10 includes a control unit 100, a storage unit 110, a communication unit 120, and an operation display unit 130.
  • the basic configuration of the control unit 100 and the communication unit 120 is the same as that of the control unit 200 and the communication unit 210, which are the corresponding components of the detection unit 20.
  • the components are connected to each other by a bus.
  • the information processing device 10 is composed of, for example, a computer having a communication function.
  • the information processing device 10 may be installed in the same building as the building in which the detection unit 20 is arranged, or may be installed in a place away from the building in which the detection unit 20 is arranged.
  • the information processing device 10 may be a PC or a cloud server virtually configured by a plurality of servers arranged on a network such as the Internet.
  • the storage unit 110 is composed of an HDD (Hard Disk Drive) and an SSD (Solid State Drive), and stores various data.
  • HDD Hard Disk Drive
  • SSD Solid State Drive
  • FIG. 4 is a functional block diagram showing the functions of the control unit 100.
  • control unit 100 functions as a first information estimation unit 101, a second information estimation unit 102, an index calculation unit 103, and an output unit 104.
  • the output unit 104 constitutes an index output unit and an information output unit.
  • the control unit 100 constitutes an information acquisition unit.
  • the first information estimation unit 101 is an index described above based on at least one of a photographed image, a voice of a subject, and a care record of the subject 80 (electronic records such as a long-term care record, a long-term care receipt, and an opinion of the attending physician). Some of the indicators are estimated as the first information.
  • the first information is an index that can be directly estimated from at least one of the captured image, the voice of the subject, and the care record, as will be described later.
  • the "index that can be directly estimated from at least one of the captured image, the subject's voice and the care record" is the captured image, the subject's voice, even if there is no information other than the captured image, the subject's voice and the care record. And an index that can be inferred from at least one of the care records.
  • the first information estimation unit 101 can estimate the evaluation results (indexes) of the evaluation items related to the basic movement (physical function), the wake-up movement function, and the living function (ADL) as the first information from the captured image.
  • Evaluation items related to basic movement / standing movement functions include, for example, paralysis, contracture, turning over, getting up, holding a sitting position, standing on both feet, walking, standing up, standing on one foot, washing, nail clippers, eyesight, etc. And hearing included.
  • Evaluation items related to living functions include, for example, transfer, movement, swallowing, food intake, urination, defecation, oral cleansing, face washing, hair shaping, putting on and taking off tops, putting on and taking off pants, and frequency of going out.
  • the first information estimation unit 101 as an evaluation result of the evaluation items related to the basic motion / wake-up motion function, for the evaluation item of "rise”, for example, “can be done without grasping", “can be done by grasping something", And one of "cannot” is estimated as the evaluation result.
  • the first information estimation unit 101 as an evaluation result of the evaluation item related to the living function, for the evaluation item of "movement”, for example, “independence (without assistance)", “watching etc.”, "partial assistance”, and Estimate one of the "total caregiving” as the evaluation result.
  • the first information estimation unit 101 can estimate the evaluation results (indexes) for the evaluation items related to the basic movement (physical function), the wake-up movement function, and the living function from the captured image by using a known method. For example, the first information estimation unit 101 estimates the evaluation results (indexes) of the evaluation items related to the basic movement (physical function), the wake-up movement function, and the living function from the captured image by using the trained model of the neural network. obtain.
  • the trained model is pre-trained using the teacher data of the combination of the input of the captured image and the correct label of the index.
  • the first information estimation unit 101 may perform statistical processing on the captured image data and estimate the index on a rule basis based on the processed data.
  • the first information estimation unit 101 first estimates the behavior information of the subject 80 (hereinafter referred to as "behavior information") from the captured image, and from the estimated behavior information, the basic movement (physical function) and the wake-up movement. Evaluation results (indexes) for evaluation items related to function and living function may be estimated. Behavioral information may include information about activities of daily living (ADL). Specifically, the behavioral information may include life patterns and movements (including watching, caregiving, use of wheelchairs, etc.). The behavior information may be data on specific behaviors of the subject 80 (for example, sleep), or may be data on joint points or silhouettes of the subject 80. Behavioral information is estimated from captured images and the like using a known method.
  • the joint point can be estimated from a captured image or the like using a trained model of a neural network.
  • the trained model is pre-learned using the teacher data of the combination of the input of the captured image and the like and the correct label of the joint point of the subject 80.
  • the joint point may be estimated on a rule basis based on the processed data by performing statistical processing on the captured image or the like.
  • the silhouette can be calculated using the background subtraction method or the time difference method.
  • the first information estimation unit 101 receives the voice data detected by the microphone 230 of the detection unit 20 from the detection unit 20 via the communication unit 120, and uses a known method to perform a basic operation (based on the voice data). It is possible to estimate the evaluation results (indexes) for the evaluation items related to physical function), wake-up movement function, and living function. For example, the first information estimation unit 101 estimates the evaluation results (indexes) of the evaluation items related to the basic movement (physical function), the wake-up movement function, and the living function from the voice data by using the trained model of the neural network. obtain.
  • the trained model is pre-trained using the teacher data of the combination of the input of voice data and the correct label of the index.
  • the first information estimation unit 101 may perform statistical processing on the voice data and estimate the index on a rule basis based on the processed data.
  • the evaluation result (index) of the evaluation item related to living function may be estimated from the care record.
  • the first information estimation unit 101 can estimate the index from the data of the care record by using the trained model of the neural network.
  • the trained model is pre-trained using the teacher data in combination with the input of the care record and the correct label of the index.
  • the first information estimation unit 101 may perform statistical processing on the data of the care record and estimate the index on a rule basis based on the processed data.
  • the first information estimation unit 101 can estimate the evaluation results (indexes) for the evaluation items related to cognitive function and social behavior (mental / behavioral disorders) as the first information from the care record.
  • Evaluation items related to cognitive function include, for example, communication of intention, understanding of daily routine, date of birth, short-term memory, saying one's name, understanding of the current season, understanding of place, constant wandering, and Includes being unable to go out and return.
  • Evaluation items related to social behavior include damaging, confabulation, emotional instability, day and night reversal, telling the same story, making a loud voice, resisting long-term care, restlessness, wanting to go out alone, collecting habits, and things. Includes breaking clothes, terrible forgetfulness, soliloquy and laughter, selfish behavior, and disorganized talk.
  • the first information estimation unit 101 may, for example, “can convey the intention to other companies” and “sometimes” about the evaluation item “communication of intention”. , One of “almost impossible” and “impossible” is estimated as an evaluation result.
  • the first information estimation unit 101 has, for example, one of “not”, “sometimes", and “yes” for the evaluation item "damaging”. Estimate one as an evaluation result.
  • the first information estimation unit 101 can estimate the evaluation result (index) for the evaluation items related to cognitive function and social behavior from the care record by using a known method. For example, the first information estimation unit 101 can estimate the evaluation results (indexes) for the evaluation items related to cognitive function and social behavior from the care record by using the trained model of the neural network.
  • the trained model is pre-trained using the teacher data in combination with the input of the care record and the correct label of the index.
  • the first information estimation unit 101 may perform statistical processing on the data of the care record and estimate the index on a rule basis based on the processed data.
  • the second information estimation unit 102 uses the index that cannot be directly estimated from at least one of the captured image, the sound, and the care record as the second information from the subject's information or the first information used for estimating the first information.
  • the first information is an index that can be directly estimated from at least one of the captured image, sound, and care record. Therefore, the second information estimation unit 102 estimates the information (index) of the target person 80 other than the first information as the second information.
  • “Cannot be estimated directly from any of the captured image, audio and care record” means that the estimation of the indicator requires information other than at least one of the captured image, audio and care record.
  • “cannot be estimated directly” includes cases where estimation is impossible and cases where the estimation accuracy is relatively low.
  • the second information estimation unit 102 estimates the second information from the target person's information or the first information used for estimating the first information.
  • the second information includes a part of the evaluation results (indexes) for the evaluation items related to social life adaptation.
  • the assessment items for social life adaptation included in the second information include, for example, taking medicines, managing money, daily decision making, inability to participate in groups, shopping, and simple cooking.
  • the second information estimation unit 102 as an evaluation result for the evaluation items related to social life adaptation, for example, for the evaluation item "simple cooking”, for example, “can (without assistance)", “watching, etc.”, “partially”. Estimate one of "caregiving” and “total caregiving” as the evaluation result.
  • the second information estimation unit 102 estimates the information of the target person used for estimating the first information or the second information having a certain relationship with the first information by using the relationship. Specifically, the second information estimation unit 102 is based on the relationship between the target person's information and the second information used for estimating the first information, or the relationship between the first information and the second information. Estimate the second information. For example, for the evaluation item "walking", the evaluation result of "can be done without grasping" is the first information, or the captured image of the subject walking without grasping is the subject used to estimate the first information. In the case of the information of, it is assumed that there is a high possibility that the evaluation item "simple cooking" will be the second information of the evaluation result "can be done (without assistance)".
  • the first information which is the evaluation result of "can be done without grasping", or the captured image of the subject walking without grasping
  • the second information which is the evaluation result of the evaluation item of "simple cooking”
  • the evaluation result of the evaluation item "simple cooking” can be estimated.
  • the second information estimation unit 102 can estimate the second information from the target person's information or the first information used for estimating the first information by using a known method. For example, the second information estimation unit 102 can estimate the second information from the target person's information or the first information used for estimating the first information by using the trained model of the neural network.
  • the trained model is pre-learned using the teacher data of the combination of the subject's information or the input of the first information used for estimating the first information and the correct label of the second information.
  • the subject information or the first information used to estimate the first information used for the teacher data is the object used to estimate the first information having a certain relationship with the second information to be estimated. Person's information or first information.
  • the second information estimation unit 102 statistically processes the target person's information or the data of the first information used for estimating the first information, and based on the processed data, the second information is rule-based. May be estimated.
  • the second information may be estimated using the information in the database (medical database, long-term care database, etc.) accumulated by the local government.
  • the index calculation unit 103 calculates an index based on the first information and the second information.
  • the index calculation unit 103 calculates, for example, from the first information and the second information using the certification preparation period such as the degree of care required and the degree of support required as an index.
  • the index calculation unit 103 can calculate (output) using the information obtained by merging the first information and the second information (all the information of the first information and the second information) as an index.
  • FIG. 5 is an explanatory diagram showing a calculation method in the case of calculating the degree of need for nursing care as an index based on the first information and the second information.
  • the categories of indicators of athletic performance assessment results may include, for example, turning over, getting up, sitting, standing on both feet, walking, standing up, standing on one foot, transferring, and moving.
  • the categories of indicators of risky behavior assessment results may include yelling, resistance to long-term care, and breaking objects and clothing.
  • the index calculation unit 103 scores the first information of the athletic ability evaluation result into any of 1 to 5 points. The worse the evaluation result, the higher the score of the athletic ability evaluation result.
  • the index calculation unit 103 scores the first information of the risky behavior evaluation result into any of 1 to 4 points.
  • the risky behavior evaluation results are scored higher as the evaluation results are worse.
  • the first information and the second information that are not included in the categories of the index of the exercise ability evaluation result and the index of the risk behavior evaluation result are also scored in the same manner.
  • the index calculation unit 103 estimates (calculates) the degree of care required as an index by adding up the scored values of the first information and the second information and comparing with a predetermined reference score.
  • the predetermined reference point can be appropriately set by an experiment from the viewpoint of the estimation accuracy of the degree of care required.
  • the output unit 104 outputs the degree of care required (index) calculated by the index calculation unit 103 in chronological order.
  • the output includes a case of transmitting as data and a case of displaying as an image on the operation display unit 130.
  • the output unit 104 can output the information obtained by merging the first information and the second information as an index by distinguishing between the first information and the second information. That is, the output unit 104 can distinguish between an index directly estimated from at least one of the captured image, audio, and care record and an index not directly estimated from at least one of the captured image, audio, and care record. Can be.
  • these indicators may be color-coded to display indicators that are directly estimated from at least one of the captured image, audio, and care record and indicators that are not directly estimated from at least one of the captured image, audio, and care record. Is displayed distinguishably.
  • the output unit 104 may output information regarding the degree of care required or the degree of support required, which is calculated by the control unit 100 based on the first information and the second information, other than the index described above.
  • FIG. 6 is a graph showing the calculated degree of need for nursing care in chronological order.
  • the degree of long-term care required is calculated monthly, and the degree of long-term care required for the past July period is shown in chronological order.
  • FIG. 7 is a diagram showing a data flow from application for certification for long-term care to certification for long-term care.
  • the index calculation system 1 can be used as a system for executing from application for certification for long-term care to certification for long-term care.
  • the control unit 100 acquires a photographed image, voice, and a care record.
  • the control unit 100 estimates the first information based on the captured image, sound, and care record.
  • the control unit 100 estimates the second information that cannot be directly estimated from the captured image, the sound, or the care record, based on the first information.
  • the evaluation results of all the evaluation items of the primary determination of the need for long-term care can be estimated as the first information and the second information.
  • the control unit 100 executes the secondary determination of the need for long-term care based on the first information and the second information, and outputs the result of the secondary determination as the result of the certification for long-term care.
  • FIG. 8 is a flowchart showing the operation of the index calculation system 1. This flowchart can be executed according to a program by the control unit 100 of the information processing apparatus 10.
  • the control unit 100 acquires a captured image by receiving it from the detection unit 20 via the communication unit 120 (S101).
  • the control unit 100 acquires voice by receiving voice from the detection unit 20 via the communication unit 120 (S102).
  • the control unit 100 acquires the care record of the subject 80 by reading from the storage unit 110 or receiving from the mobile terminal of the care staff via the communication unit 120 (S103).
  • the care record can be stored in the storage unit 110 by being input to the mobile terminal by the care staff and transmitted from each mobile terminal to the information processing device 10.
  • the control unit 100 estimates the first information based on at least one of the captured image, the sound, and the care record (S104).
  • the control unit 100 estimates the second information that cannot be directly estimated from the captured image, voice, or care record, based on the subject's information or the first information used for estimating the first information (S105).
  • the control unit 100 calculates the degree of care required as an index based on the first information and the second information (S106).
  • the control unit 100 can output the calculated degree of need for nursing care and the like in time series.
  • the embodiment has the following effects.
  • the second information is estimated based on the relationship between the target person's information and the second information used for estimating the first information, or the relationship between the first information and the second information. As a result, it is possible to more easily calculate an index such as the degree of need for nursing care, which is highly reliable and explainable.
  • the index is output in chronological order.
  • the estimated index such as the degree of need for care deteriorates, it is possible to easily grasp the necessity of reapplying for certification of need for care.
  • the estimated index such as the degree of long-term care is improved, the motivation of the work of the long-term care facility or the like can be improved.
  • the first information and the second information are output separately. This makes it easy to distinguish between an index having a relatively high reliability (credibility) and an index having a possibility of having a slightly low reliability.
  • the result of the primary judgment or the secondary judgment for the application for certification of long-term care is calculated as an index. As a result, highly explanatory, objective and accurate certification for long-term care can be achieved.
  • the acquired information of the subject is at least one of image information, audio information, and the care record of the subject.
  • an index such as the degree of need for nursing care with high reliability and explanation.
  • the second information is estimated from the first information based on the information of the subject used for estimating the first information or the statistical information of the relationship between the first information and the second information, or the first information is obtained.
  • the second information is estimated from the information or the first information.
  • the configuration of the index calculation system 1 described above is the main configuration described in explaining the features of the above-described embodiment, and is not limited to the above-mentioned configuration and may be variously modified within the scope of the claims. can. Moreover, it does not exclude the configuration provided in the general index calculation system.
  • the means and method for performing various processes in the index calculation system 1 described above can be realized by either a dedicated hardware circuit or a programmed computer.
  • the program may be provided by a computer-readable recording medium such as a USB memory or a DVD (Digital Versaille Disc) -ROM, or may be provided online via a network such as the Internet.
  • the program recorded on the computer-readable recording medium is usually transferred to and stored in a storage unit such as a hard disk.
  • the above program may be provided as a single application software, or may be incorporated into the software of the device as one function.
  • Index calculation system 10 Information processing equipment, 100 control unit, 101 First Information Estimator, 102 Second Information Estimator, 103 Index calculation unit, 104 Output section, 110 storage, 120 communication unit, 130 operation display unit, 20 detector, 200 Control unit, 210 Communication Department, 220 camera, 230 microphone.

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Child & Adolescent Psychology (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】検出機器等から直接取得できない対象者の情報を、検出機器等による検出情報に基づいて推定することで、信頼性および説明性の高い要介護度等を算出できる情報処理装置を提供する。 【解決手段】情報取得部によって取得された、対象者の情報に基づいて、対象者の第1情報を推定する第1推定部と、第1情報を推定するために用いられた対象者の情報又は第1情報に基づいて、第1情報以外の対象者の第2情報を推定する第2推定部と、第1情報と第2情報とに基づいて、要介護度または要支援度に関する情報を出力する出力部と、を含む情報処理装置。

Description

情報処理装置、情報処理システム、情報出力方法、および情報出力プログラム
 本発明は、情報処理装置、情報処理システム、情報出力方法、および情報出力プログラムに関する。
 高齢者の要介護認定においては、一般的に、要介護認定の申請により、対象者に対し認定調査員による心身の状況に関する調査がなされ、当該調査の結果と主治医意見書とに基づいてコンピューターによる一次判定がされる。その後、一次判定の結果と主治医意見書とに基づいて介護認定審査会による二次判定がされることで要介護認定等がされる。
 要介護認定における一次判定等は、認定調査員の主観的判断や、ヒヤリング時の対象者の一時的な状態等にある程度依存するため、要介護認定等が正しくなされないケースがある。
 下記特許文献1には、次の先行技術が開示されている。撮像装置による画像データ等の検出機器による検出情報に基づいてユーザーの行動を解析することでユーザーの生活機能状態に関する情報を判定し、ユーザーの主治医による電子カルテを解析することで主治医意見書の情報を生成する。そして、ユーザーの生活機能状態に関する情報と、主治医意見書の情報とに基づいてユーザーの要介護度を導出する。
特開2019-204419号公報
 しかし、特許文献1に開示された先行技術は、一般的な要介護認定において必要なすべての項目について算出できないため、導出された要介護度の信頼性(信憑性)や説明性が低いという問題がある。
 本発明はこのような問題を解決するためになされたものである。すなわち、先行技術からは判定できない情報を推定することで、信頼性および説明性の高い要介護度等の指標等の情報を出力できる情報処理装置、情報処理システム、情報出力方法、および情報出力プログラムを提供することを目的とする。
 本発明の上記課題は、以下の手段によって解決される。
 (1)情報取得部によって取得された、対象者の情報に基づいて、前記対象者の第1情報を推定する第1情報推定部と、前記第1情報を推定するために用いられた前記対象者の情報又は前記第1情報に基づいて、前記第1情報以外の前記対象者の第2情報を推定する第2情報推定部と、前記第1情報と前記第2情報とに基づいて、要介護度または要支援度に関する情報を出力する出力部と、を有する情報処理装置。
 (2)前記第1情報と前記第2情報とに基づいて、要介護度または要支援度に関する指標を算出する指標算出部をさらに有し、前記出力部は、前記要介護度または前記要支援度に関する前記情報として前記指標を出力する上記(1)に記載の情報処理装置。
 (3)前記第2情報推定部は、前記第1情報を推定するために用いられた前記対象者の情報と前記第2情報との関係、又は前記第1情報と前記第2情報との関係に基づいて前記第2情報を推定する、上記(1)または(2)に記載の情報処理装置。
 (4)前記指標を時系列に出力する指標出力部をさらに有する、上記(2)に記載の情報処理装置。
 (5)前記第1情報と前記第2情報とを区別して出力する情報出力部をさらに有する、上記(1)~(4)のいずれかに記載の情報処理装置。
 (6)前記指標は、要介護認定の申請に対する一次判定または二次判定の結果である、上記(2)に記載の情報処理装置。
 (7)前記対象者の情報は、画像情報、音声情報、および前記対象者のケア記録の少なくともいずれかである上記(1)~(6)のいずれかに記載の情報処理装置。
 (8)前記第2情報推定部は、前記第1情報を推定するために用いられた対象者の情報と前記第2情報との関係、もしくは前記第1情報と前記第2情報との関係の統計情報に基づいて、前記第1情報を推定するために用いられた対象者の情報、もしくは前記第1情報から前記第2情報を推定し、または、前記第1情報を推定するために用いられた対象者の情報と前記第2情報との組合せ、もしくは前記第1情報と前記第2情報との組合せを教師データとして学習された学習済みモデルを用いて、前記第1情報を推定するために用いられた対象者の情報、もしくは前記第1情報から前記第2情報を推定する、上記(1)~(7)のいずれかに記載の情報処理装置。
 (9)前記情報取得部をさらに有する、上記(1)~(8)のいずれかに記載の情報処理装置。
 (10)上記(1)~(9)のいずれかに記載の情報処理装置と、前記要介護度または前記要支援度に関する前記情報を表示する表示部と、を有する情報処理システム。
 (11)情報取得部によって取得された、対象者の情報に基づいて、前記対象者の第1情報を推定する段階(a)と、前記第1情報を推定するために用いられた対象者の情報又は前記第1情報に基づいて、前記第1情報以外の前記対象者の第2情報を推定する段階(b)と、前記第1情報と前記第2情報とに基づいて、要介護度または要支援度に関する情報を出力する段階(c)と、を有する情報出力方法。
 (12)情報取得部によって取得された、対象者の情報に基づいて、前記対象者の第1情報を推定する手順(a)と、前記第1情報を推定するために用いられた対象者の情報又は前記第1情報に基づいて、前記第1情報以外の前記対象者の第2情報を推定する手順(b)と、前記第1情報と前記第2情報とに基づいて、要介護度または要支援度に関する情報を出力する手順(c)と、をコンピューターに実行させるための情報出力プログラム。
 信頼性および説明性の高い要介護度等の指標等の情報を出力できる。
指標算出システムを示す図である。 情報処理装置のハードウェア構成を示すブロック図である。 検知部のハードウェア構成を示すブロック図である。 制御部の機能を示す機能ブロック図である。 第1情報および第2情報に基づいて要介護度等を指標として算出する場合の算出方法を示す説明図である。 算出された要介護度を時系列で示すグラフである。 要介護認定の申請から要介護認定までのデータのフローを示す図である。 指標算出システムの動作を示すフローチャートである。
 以下、図面を参照して、本発明の実施形態について説明する。なお、図面において、同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
 図1は、指標算出システム1を示す図である。図2は、情報処理装置10のハードウェア構成を示すブロック図である。図3は、検知部20のハードウェア構成を示すブロック図である。指標算出システムは、情報処理システムを構成する。
 本明細書において、単に「指標」と記載した場合は、要介護度または要支援度(以下、「要介護度等」とも称する)に関する指標を意味する。指標には、要介護度等、要支援度の認定準備期間、基本動作(身体機能)・起居動作機能、生活機能、認知機能、社会的行動(精神・行動障害)、および社会生活適用、の各評価項目に関する評価結果が含まれる。要介護度等、基本動作・起居動作機能、生活機能、認知機能、社会的行動、および社会生活適用、の各評価項目に関する評価結果は、申請に基づく要介護認定の一般的な一次判定の項目に含まれる。要介護度等の評価結果(判定結果)は、要介護度等の介護認定審査会による二次判定の項目に含まれる。
 図1に示すように、指標算出システム1は、情報処理装置10および検知部20を備える。これらは、有線や無線によって、LAN(Local Area Network)、電話網またはデータ通信網等のネットワーク30を介して、相互に通信可能に接続される。なお、図1においては、指標算出システム1の他、指標算出の対象者80およびベッド90も併せて示されている。指標算出システム1は、情報処理システムを構成する。
 (検知部20)
 検知部20は、制御部200、通信部210、カメラ220、およびマイク230を備え、これらの構成要素はバスによって、相互に接続されている。検知部20は、対象者80の観察領域である居室に配置され得る。
 制御部200は、CPU(Central Processing Unit)、およびRAM(Random Access Memory)、ROM(Read Only Memory)等のメモリにより構成され、プログラムに従って検知部20の各部の制御および演算処理を行う。
 通信部210は、ネットワーク30を介して、情報処理装置10を含む他の装置と通信するためのインターフェースであり、例えばLANカードであり得る。
 カメラ220は、例えば居室の天井、または壁の上部に配置され、観察領域として対象者80のベッド90を含む領域を撮影し、撮影画像(画像データ)を出力する。以下、カメラ220により撮影された撮影画像を、単に「撮影画像」とも称する。撮影画像には、静止画および動画が含まれる。カメラ220は、例えば可視光カメラまたは近赤外線カメラであり得る。
 マイク230は、対象者80の音声を含む音声を検知して音声データとして出力する。
 (情報処理装置10)
 情報処理装置10は、制御部100、記憶部110、通信部120、および操作表示部130を備える。制御部100および通信部120の基本構成は、検知部20の対応する構成要素である、制御部200および通信部210と同様である。各構成要素は、バスによって、相互に接続されている。
 情報処理装置10は、例えば、通信機能を有するコンピューターによって構成される。情報処理装置10は、検知部20が配置された建物と同じ建物内に設けられていてもよく、検知部20が配置された建物から離れた場所に設けられていてもよい。情報処理装置10は、PCであってもよく、インターネット等のネットワーク上に配置された複数のサーバーによって仮想的に構成されるクラウドサーバーであってもよい。
 記憶部110は、HDD(Hard Disc Drive)やSSD(Solid State Drive)により構成され、各種データを記憶する。
 図4は、制御部100の機能を示す機能ブロック図である。
 図4に示すように、制御部100は、第1情報推定部101、第2情報推定部102、指標算出部103、および出力部104として機能する。出力部104は、指標出力部および情報出力部を構成する。制御部100は、情報取得部を構成する。
 第1情報推定部101は、撮影画像、対象者の音声、および対象者80のケア記録(介護記録、介護レセプト、主治医の意見書等の電子記録)の少なくともいずれかに基づいて、上述した指標のうちの一部の指標を第1情報として推定する。第1情報は、後述するように、撮影画像、対象者の音声、およびケア記録の少なくともいずれかから直接推定できる指標である。「撮影画像、対象者の音声およびケア記録の少なくともいずれかから直接推定できる指標」とは、撮影画像、対象者の音声およびケア記録以外の情報がなくても、撮影画像、対象者の音声、およびケア記録の少なくともいずれか一方から推定可能な指標を意味する。
 第1情報推定部101は、撮影画像から、基本動作(身体機能)・起居動作機能、および生活機能(ADL)に関する評価項目についての評価結果(指標)を第1情報として推定し得る。基本動作・起居動作機能に関する評価項目には、例えば、麻痺、拘縮、寝返り、起き上がり、座位保持、両足での立位、歩行、立ち上がり、片足での立位、洗身、つめ切り、視力、および聴力が含まれる。生活機能に関する評価項目には、例えば、移乗、移動、嚥下、食事摂取、排尿、排便、口腔清潔、洗顔、整髪、上衣の着脱、ズボン等の着脱、およぶ外出頻度等が含まれる。
 第1情報推定部101は、基本動作・起居動作機能に関する評価項目についての評価結果として、「立ち上がり」という評価項目については、例えば、「つかまらないでできる」、「何かにつかまればできる」、および「できない」のうちのいずれか一つを評価結果として推定する。第1情報推定部101は、生活機能に関する評価項目についての評価結果として、「移動」という評価項目については、例えば、「自立(介助なし)」、「見守り等」、「一部介助」、および「全介助」のうちのいずれか一つを評価結果として推定する。
 第1情報推定部101は、公知の方法を用いて、撮影画像から、基本動作(身体機能)・起居動作機能、および生活機能に関する評価項目についての評価結果(指標)を推定し得る。例えば、第1情報推定部101は、ニューラルネットワークの学習済みモデルを用いて、撮影画像から基本動作(身体機能)・起居動作機能、および生活機能に関する評価項目についての評価結果(指標)を推定し得る。学習済みモデルは、撮影画像の入力と、指標の正解ラベルとの組合せの教師データを用いてあらかじめ学習される。第1情報推定部101は、撮影画像のデータに統計的な処理を行い、処理後のデータに基づいてルールベースで指標を推定してもよい。
 なお、第1情報推定部101は、撮影画像から対象者80の行動の情報(以下、「行動情報」と称する)をまず推定し、推定した行動情報から、基本動作(身体機能)・起居動作機能、および生活機能に関する評価項目についての評価結果(指標)を推定してもよい。行動情報には、生活機能(ADL)に関する情報が含まれ得る。具体的には、行動情報には、生活のパターン、および動作(見守り、介助、車椅子等の使用の有無を含む)が含まれ得る。行動情報は、対象者80の具体的な行動のデータ(例えば、睡眠)であってもよく、対象者80の関節点やシルエットのデータであってもよい。行動情報は、公知の方法を用いて、撮影画像等から推定される。例えば、関節点は、ニューラルネットワークの学習済みモデルを用いて、撮影画像等から推定され得る。学習済みモデルは、撮影画像等の入力と対象者80の関節点の正解ラベルとの組合せの教師データを用いてあらかじめ学習される。関節点は、撮影画像等に統計的な処理を行い、処理後のデータに基づいてルールベースで推定されてもよい。シルエットは、背景差分法や時間差分法を用いて算出され得る。
 第1情報推定部101は、検知部20のマイク230により検知された音声データを検知部20から通信部120を介して受信し、公知の方法を用いて、音声データに基づいて、基本動作(身体機能)・起居動作機能、および生活機能に関する評価項目についての評価結果(指標)を推定し得る。例えば、第1情報推定部101は、ニューラルネットワークの学習済みモデルを用いて、音声データから基本動作(身体機能)・起居動作機能、および生活機能に関する評価項目についての評価結果(指標)を推定し得る。学習済みモデルは、音声データの入力と、指標の正解ラベルとの組合せの教師データを用いてあらかじめ学習される。第1情報推定部101は、音声データに統計的な処理を行い、処理後のデータに基づいてルールベースで指標を推定してもよい。
 なお、生活機能に関する評価項目の評価結果(指標)は、ケア記録から推定されてもよい。この場合、第1情報推定部101は、ニューラルネットワークの学習済みモデルを用いて、ケア記録のデータから指標を推定し得る。学習済みモデルは、ケア記録の入力と、指標の正解ラベルとの組合せの教師データを用いてあらかじめ学習される。第1情報推定部101は、ケア記録のデータに統計的な処理を行い、処理後のデータに基づいてルールベースで指標を推定してもよい。
 第1情報推定部101は、ケア記録から、認知機能、および社会的行動(精神・行動障害)に関する評価項目についての評価結果(指標)を第1情報として推定し得る。認知機能に関する評価項目には、例えば、意志の伝達、毎日の日課を理解、生年月日を言う、短期記憶、自分の名前を言う、今の季節を理解、場所の理解、常時の徘徊、および外出して戻れない、が含まれる。社会的行動に関する評価項目には、被害的、作話、感情が不安定、昼夜逆転、同じ話をする、大声を出す、介護に抵抗、落ち着きなし、一人で出たがる、収集癖、物や衣類を壊す、ひどい物忘れ、独り言・独り笑い、自分勝手に行動する、および話がまとまらない、が含まれる。
 第1情報推定部101は、認知機能に関する評価項目についての評価結果として、「意思の伝達」という評価項目については、例えば、「調査対象者が意思を他社に伝達できる」、「ときどき伝達できる」、「ほとんど伝達できない」および「できない」のうちのいずれか一つを評価結果として推定する。第1情報推定部101は、社会的行動に関する評価項目についての評価結果として、「被害的」という評価項目については、例えば、「ない」、「ときどきある」、および「ある」のうちのいずれか一つを評価結果として推定する。
 第1情報推定部101は、公知の方法を用いて、ケア記録から、認知機能、および社会的行動に関する評価項目についての評価結果(指標)を推定し得る。例えば、第1情報推定部101は、ニューラルネットワークの学習済みモデルを用いて、ケア記録から、認知機能、および社会的行動に関する評価項目についての評価結果(指標)を推定し得る。学習済みモデルは、ケア記録の入力と、指標の正解ラベルとの組合せの教師データを用いてあらかじめ学習される。第1情報推定部101は、ケア記録のデータに統計的な処理を行い、処理後のデータに基づいてルールベースで指標を推定してもよい。
 第2情報推定部102は、撮影画像、音声およびケア記録の少なくともいずれから直接推定できない指標を、第2情報として、第1情報を推定するために用いられた対象者の情報又は第1情報から推定する。第1情報は、撮影画像、音声およびケア記録の少なくともいずれかから直接推定できる指標である。従って、第2情報推定部102は、第1情報以外の対象者80の情報(指標)を第2情報として推定する。「撮影画像、音声およびケア記録のいずれからも直接推定できない」とは、当該指標の推定に、撮影画像、音声およびケア記録の少なくともいずれか一つ以外の情報を必要とすることを意味する。また、「直接推定できない」には、推定が不可能な場合の他、推定精度が比較的低下する場合が含まれる。
 第2情報推定部102は、第1情報を推定するために用いられた対象者の情報又は第1情報から第2情報を推定する。第2情報には、社会生活適応に関する評価項目についての評価結果(指標)の一部が含まれる。第2情報に含まれる、社会生活適応に関する評価項目には、例えば、薬の内服、金銭の管理、日常の意思決定、集団参加ができない、買い物、および簡単な調理が含まれる。
 第2情報推定部102は、社会生活適応に関する評価項目についての評価結果として、例えば「簡単な調理」という評価項目については、例えば、「できる(介助なし)」、「見守り等」、「一部介助」、および「全介助」のうちのいずれか一つを評価結果として推定する。
 第2情報推定部102は、第1情報を推定するために用いられた対象者の情報又は第1情報と一定の関係性がある第2情報を、当該関係性を利用して、推定する。具体的には、第2情報推定部102は、第1情報を推定するために用いられた対象者の情報と第2情報との関係、又は第1情報と第2情報との関係に基づいて第2情報を推定する。例えば、「歩行」という評価項目について「つかまらないでできる」という評価結果が第1情報又はつかまらないで歩行している対象者の撮像画像が、第1情報を推定するために用いられた対象者の情報である場合、「簡単な調理」という評価項目について「できる(介助なし)」という評価結果の第2情報になる可能性が高いという関係性があるとする。すなわち、「つかまらないでできる」という評価結果である第1情報又はつかまらないで歩行している対象者の撮像画像と、「簡単な調理」という評価項目の評価結果である第2情報とは一定の関係性があると考えられる。「簡単な調理」の評価結果を、「簡単な調理」と「つかまらないでできる」又は、つかまらないで歩行している対象者の撮像画像とが一定の関係性があるという情報を利用することで、「簡単な調理」という評価項目の評価結果を推定し得る。
 第2情報推定部102は、公知の方法を用いて、第1情報を推定するために用いられた対象者の情報又は第1情報から第2情報を推定し得る。例えば、第2情報推定部102は、ニューラルネットワークの学習済みモデルを用いて、第1情報を推定するために用いられた対象者の情報又は第1情報から第2情報を推定し得る。学習済みモデルは、第1情報を推定するために用いられた対象者の情報又は第1情報の入力と、第2情報の正解ラベルとの組合せの教師データを用いてあらかじめ学習される。教師データに用いられる第1情報を推定するために用いられた対象者の情報又は第1情報は、推定したい第2情報と一定の関係性がある第1情報を推定するために用いられた対象者の情報又は第1情報である。第2情報推定部102は、第1情報を推定するために用いられた対象者の情報又は第1情報のデータに統計的な処理を行い、処理後のデータに基づいてルールベースで第2情報を推定してもよい。また、自治体が蓄積しているデータベース(医療データベース、介護データベース等)の情報を用いて第2情報を推定してもよい。
 指標算出部103は、第1情報および第2情報に基づいて、指標を算出する。指標算出部103は、例えば、第1情報および第2情報から要介護度等、および要支援度等の認定準備期間を指標として算出する。指標算出部103は、第1情報および第2情報をマージした情報(第1情報および第2情報のすべての情報)を指標として算出(出力)し得る。
 図5は、第1情報および第2情報に基づいて要介護度等を指標として算出する場合の算出方法を示す説明図である。
 図5の例においては、第1情報に含まれる指標の例として、運動能力評価結果の指標および危険行動評価結果の指標のカテゴリーが示されている。運動能力評価結果の指標のカテゴリーには、例えば、寝返り、起き上がり、座位保持、両足での立位、歩行、立ち上がり、片足での立位、移乗、および移動が含まれ得る。危険行動評価結果の指標のカテゴリーには、大声を出す、介護に抵抗、および物や衣類を壊す、が含まれ得る。指標算出部103は、運動能力評価結果の第1情報を1~5点のいずれかに点数化する。運動能力評価結果は、それぞれ評価結果が悪いほど高い点数に点数化される。指標算出部103は、危険行動評価結果の第1情報を1~4点のいずれかに点数化する。危険行動評価結果は、それぞれ評価結果が悪いほど高い点数に点数化される。運動能力評価結果の指標および危険行動評価結果の指標のカテゴリーに含まれない第1情報、および第2情報もそれぞれ同様に点数化される。
 指標算出部103は、第1情報および第2情報の点数化した値を合算し、所定の基準点数と比較することにより、要介護度等を指標として推定(算出)する。所定の基準点は、要介護度の推定精度の観点から実験により適当に設定され得る。
 出力部104は、指標算出部103により算出された要介護度等(指標)を時系列で出力する。出力には、データとして送信する場合と、操作表示部130に画像として表示する場合が含まれる。
 出力部104は、第1情報および第2情報をマージした情報を、第1情報と第2情報を区別して、指標として出力し得る。すなわち、出力部104は、撮影画像、音声およびケア記録の少なくともいずれかから直接推定された指標と、撮影画像、音声およびケア記録の少なくともいずれかから直接推定されていない指標とを区別可能に出力し得る。例えば、撮影画像、音声およびケア記録の少なくともいずれかから直接推定された指標と、撮影画像、音声およびケア記録の少なくともいずれかから直接推定されていない指標とを色分け表示することで、これらの指標は区別可能に表示される。
 出力部104は、上述した指標以外の、第1情報と第2情報とに基づいて制御部100により算出された、要介護度または要支援度に関する情報を出力してもよい。
 図6は、算出された要介護度を時系列で示すグラフである。
 図6の例においては、要介護度は月ごとに算出され、過去7月の期間の要介護度が時系列で示されている。
 図7は、要介護認定の申請から要介護認定までのデータのフローを示す図である。
 図7に示すように、指標算出システム1は、要介護認定の申請から要介護認定までを実行するシステムとして利用され得る。
 要介護認定の申請が、通信部120に受信されることを契機に、制御部100は、撮影画像、音声、およびケア記録を取得する。制御部100は、撮影画像、音声、およびケア記録に基づいて、第1情報を推定する。制御部100は、撮影画像、音声、またはケア記録から直接推定できない第2情報を、第1情報に基づいて推定する。これにより、要介護認定の一次判定のすべての評価項目の評価結果が、第1情報および第2情報として推定され得る。制御部100は、第1情報および第2情報に基づいて、要介護認定の二次判定を実行し、二次判定の結果を要介護認定の結果として出力する。
 図8は、指標算出システム1の動作を示すフローチャートである。本フローチャートは、情報処理装置10の制御部100によりプログラムに従い実行され得る。
 制御部100は、撮影画像を、通信部120を介して検知部20から受信することで取得する(S101)。
 制御部100は、音声を、通信部120を介して検知部20から受信することで取得する(S102)。
 制御部100は、記憶部110から読み出すことにより、または通信部120を介してケアスタッフの携帯端末から受信することにより、対象者80のケア記録を取得する(S103)。ケア記録は、ケアスタッフによりそれぞれ携帯端末に入力され、各携帯端末から情報処理装置10へ送信されることで、記憶部110に蓄積され得る。
 制御部100は、撮影画像、音声、およびケア記録の少なくともいずれかに基づいて第1情報を推定する(S104)。
 制御部100は、撮影画像、音声、またはケア記録から直接推定できない第2情報を、第1情報を推定するために用いられた対象者の情報又は第1情報に基づいて推定する(S105)。
 制御部100は、第1情報および第2情報に基づいて要介護度等を指標として算出する(S106)。制御部100は、算出された要介護度等を時系列に出力し得る。
 実施形態は、以下の効果を奏する。
 検出機器等による検出情報に基づいて、検出機器等から直接取得できない情報を推定することで、信頼性および説明性の高い要介護度等の指標等の情報を出力できる。
 さらに、第1情報を推定するために用いられた対象者の情報と第2情報との関係、又は第1情報と第2情報との関係に基づいて第2情報を推定する。これにより、より簡単に、信頼性および説明性の高い要介護度等の指標を算出できる。
 さらに、指標を時系列に出力する。これにより、推定された要介護度等の指標が悪化した場合、要介護認定の再申請の必要性を容易に把握できる。また、推定された要介護度等の指標が改善された場合、介護施設等の業務のモチベーションを向上できる。
 さらに、第1情報と第2情報とを区別して出力する。これにより、信頼性(信憑性)の比較的高い指標と、信頼性が若干低い可能性がある指標の区別が容易にできる。
 さらに、要介護認定の申請に対する一次判定または二次判定の結果を指標として算出する。これにより、説明性が高く、客観的かつ正確な要介護認定ができる。
 さらに、取得される対象者の情報を、画像情報、音声情報、および対象者のケア記録の少なくともいずれかとする。これにより、より柔軟に信頼性および説明性の高い要介護度等の指標を算出できる。
 さらに、第1情報を推定するために用いられた対象者の情報もしくは第1情報と第2情報との関係の統計情報に基づいて第1情報から第2情報を推定し、または第1情報を推定するために用いられた対象者の情報もしくは第1情報と第2情報との組合せを教師データとして学習された学習済みモデルを用いて、第1情報を推定するために用いられた対象者の情報もしくは第1情報から第2情報を推定する。これにより、より簡単に信頼性および説明性の高い要介護度等の指標を算出できる。
 さらに、対象者の情報を取得する情報取得部を備える。これにより、さらに簡単に信頼性および説明性の高い要介護度等の指標を算出できる。
 以上に説明した指標算出システム1の構成は、上述の実施形態の特徴を説明するにあたって主要構成を説明したのであって、上述の構成に限られず、特許請求の範囲内において、種々改変することができる。また、一般的な指標算出システムが備える構成を排除するものではない。
 また、上述した指標算出システム1における各種処理を行う手段および方法は、専用のハードウェア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)-ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、一機能として装置のソフトウエアに組み込まれてもよい。
 本出願は、2020年9月16日に出願された日本特許出願(特願2020-155459号)に基づいており、その開示内容は、参照され、全体として、組み入れられている。
  1 指標算出システム、
  10 情報処理装置、
  100 制御部、
  101 第1情報推定部、
  102 第2情報推定部、
  103 指標算出部、
  104 出力部、
  110 記憶部、
  120 通信部、
  130 操作表示部、
  20 検知部、
  200 制御部、
  210 通信部、
  220 カメラ、
  230 マイク。

Claims (12)

  1.  情報取得部によって取得された、対象者の情報に基づいて、前記対象者の第1情報を推定する第1情報推定部と、
     前記第1情報を推定するために用いられた前記対象者の情報又は前記第1情報に基づいて、前記第1情報以外の前記対象者の第2情報を推定する第2情報推定部と、
     前記第1情報と前記第2情報とに基づいて、要介護度または要支援度に関する情報を出力する出力部と、
     を有する情報処理装置。
  2.  前記第1情報と前記第2情報とに基づいて、要介護度または要支援度に関する指標を算出する指標算出部をさらに有し、
     前記出力部は、前記要介護度または前記要支援度に関する前記情報として前記指標を出力する請求項1に記載の情報処理装置。
  3.  前記第2情報推定部は、前記第1情報を推定するために用いられた前記対象者の情報と前記第2情報との関係、又は前記第1情報と前記第2情報との関係に基づいて前記第2情報を推定する、請求項1または2に記載の情報処理装置。
  4.  前記指標を時系列に出力する指標出力部をさらに有する、請求項2に記載の情報処理装置。
  5.  前記第1情報と前記第2情報とを区別して出力する情報出力部をさらに有する、請求項1~4のいずれか一項に記載の情報処理装置。
  6.  前記指標は、要介護認定の申請に対する一次判定または二次判定の結果である、請求項2に記載の情報処理装置。
  7.  前記対象者の情報は、画像情報、音声情報、およびケア記録の少なくともいずれかである請求項1~6のいずれか一項に記載の情報処理装置。
  8.  前記第2情報推定部は、前記第1情報を推定するために用いられた対象者の情報と前記第2情報との関係、もしくは前記第1情報と前記第2情報との関係の統計情報に基づいて、前記第1情報を推定するために用いられた対象者の情報、もしくは前記第1情報から前記第2情報を推定し、または、前記第1情報を推定するために用いられた対象者の情報と前記第2情報との組合せ、もしくは前記第1情報と前記第2情報との組合せを教師データとして学習された学習済みモデルを用いて、前記第1情報を推定するために用いられた対象者の情報、もしくは前記第1情報から前記第2情報を推定する、請求項1~7のいずれか一項に記載の情報処理装置。
  9.  前記情報取得部をさらに有する、請求項1~8のいずれか一項に記載の情報処理装置。
  10.  請求項1~9のいずれか一項に記載の情報処理装置と、
     前記要介護度または前記要支援度に関する前記情報を表示する表示部と、
     を有する情報処理システム。
  11.  情報取得部によって取得された、対象者の情報に基づいて、前記対象者の第1情報を推定する段階(a)と、
     前記第1情報を推定するために用いられた対象者の情報又は前記第1情報に基づいて、前記第1情報以外の前記対象者の第2情報を推定する段階(b)と、
     前記第1情報と前記第2情報とに基づいて、要介護度または要支援度に関する情報を出力する段階(c)と、
     を有する情報出力方法。
  12.  情報取得部によって取得された、対象者の情報に基づいて、前記対象者の第1情報を推定する手順(a)と、
     前記第1情報を推定するために用いられた対象者の情報又は前記第1情報に基づいて、前記第1情報以外の前記対象者の第2情報を推定する手順(b)と、
     前記第1情報と前記第2情報とに基づいて、要介護度または要支援度に関する情報を出力する手順(c)と、
     をコンピューターに実行させるための情報出力プログラム。
PCT/JP2021/016971 2020-09-16 2021-04-28 情報処理装置、情報処理システム、情報出力方法、および情報出力プログラム WO2022059249A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022550340A JPWO2022059249A1 (ja) 2020-09-16 2021-04-28

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020155459 2020-09-16
JP2020-155459 2020-09-16

Publications (1)

Publication Number Publication Date
WO2022059249A1 true WO2022059249A1 (ja) 2022-03-24

Family

ID=80777428

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/016971 WO2022059249A1 (ja) 2020-09-16 2021-04-28 情報処理装置、情報処理システム、情報出力方法、および情報出力プログラム

Country Status (2)

Country Link
JP (1) JPWO2022059249A1 (ja)
WO (1) WO2022059249A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7418072B1 (ja) 2022-11-28 2024-01-19 芙蓉開発株式会社 ソフトウェア、データ処理装置及びデータ処理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019055064A (ja) * 2017-09-21 2019-04-11 日清オイリオグループ株式会社 診断支援情報提供装置及び診断支援情報提供方法
JP2019067177A (ja) * 2017-10-02 2019-04-25 日本電気株式会社 医療情報処理システム、歩行状態定量化方法およびプログラム
JP2019204419A (ja) * 2018-05-25 2019-11-28 東京瓦斯株式会社 要介護認定システム、要介護認定方法、および、要介護認定プログラム
JP6737488B1 (ja) * 2019-06-17 2020-08-12 株式会社エクサウィザーズ 情報処理装置、情報処理方法、プログラム及び学習済みモデル

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019055064A (ja) * 2017-09-21 2019-04-11 日清オイリオグループ株式会社 診断支援情報提供装置及び診断支援情報提供方法
JP2019067177A (ja) * 2017-10-02 2019-04-25 日本電気株式会社 医療情報処理システム、歩行状態定量化方法およびプログラム
JP2019204419A (ja) * 2018-05-25 2019-11-28 東京瓦斯株式会社 要介護認定システム、要介護認定方法、および、要介護認定プログラム
JP6737488B1 (ja) * 2019-06-17 2020-08-12 株式会社エクサウィザーズ 情報処理装置、情報処理方法、プログラム及び学習済みモデル

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7418072B1 (ja) 2022-11-28 2024-01-19 芙蓉開発株式会社 ソフトウェア、データ処理装置及びデータ処理方法
WO2024116242A1 (ja) * 2022-11-28 2024-06-06 芙蓉開発株式会社 ソフトウェア、データ処理装置及びデータ処理方法

Also Published As

Publication number Publication date
JPWO2022059249A1 (ja) 2022-03-24

Similar Documents

Publication Publication Date Title
Alazzam et al. [Retracted] A Novel Smart Healthcare Monitoring System Using Machine Learning and the Internet of Things
JP6467966B2 (ja) 健康管理補助装置及び健康管理補助方法
JP2021524958A (ja) 呼吸器系の音に基づく呼吸状態の管理
JP6945127B2 (ja) ストレスマネジメントシステム、ストレスマネジメント方法及びコンピュータプログラム
Rantz et al. In-home fall risk assessment and detection sensor system
CN108778097A (zh) 用于评估心力衰竭的装置和方法
Doyle et al. An integrated home-based self-management system to support the wellbeing of older adults
Ward et al. Fall detectors: a review of the literature
WO2019187099A1 (ja) 身体機能自立支援装置およびその方法
WO2022059249A1 (ja) 情報処理装置、情報処理システム、情報出力方法、および情報出力プログラム
Hellmers et al. Towards a minimized unsupervised technical assessment of physical performance in domestic environments
JP2019058227A (ja) IoT計測器、健康SNSプラットフォーム、および、健康サービスシステム
Banerjee et al. Exploratory analysis of older adults’ sedentary behavior in the primary living area using kinect depth data
JP2019051129A (ja) 嚥下機能解析システム及びプログラム
JP7034687B2 (ja) 異常報知装置及びプログラム
Eldib et al. Sleep analysis for elderly care using a low-resolution visual sensor network
Wilson et al. Computer‐assisted measurement of wound size associated with self‐injurious behavior
Mitchell et al. Preventing healthcare-associated infections: the role of surveillance
JP7396274B2 (ja) レポート出力プログラム、レポート出力方法およびレポート出力装置
Martinez et al. A predictive model for automatic detection of social isolation in older adults
Chiriac et al. Towards combining validation concepts for short and long-term ambient health monitoring
Alivar et al. A pilot study on predicting daytime behavior & sleep quality in children with asd
JP7327397B2 (ja) コンピューターで実行されるプログラム、情報処理システム、および、コンピューターで実行される方法
JP2021174189A (ja) サービスのメニューの作成を支援する方法、サービスの利用者の評価を支援する方法、当該方法をコンピューターに実行させるプログラム、および、情報提供装置
JP2020177383A (ja) 高齢者等見守システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21868936

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022550340

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21868936

Country of ref document: EP

Kind code of ref document: A1