JP2023133834A - Information processing apparatus, information processing system, information processing method, and control program - Google Patents

Information processing apparatus, information processing system, information processing method, and control program Download PDF

Info

Publication number
JP2023133834A
JP2023133834A JP2022039047A JP2022039047A JP2023133834A JP 2023133834 A JP2023133834 A JP 2023133834A JP 2022039047 A JP2022039047 A JP 2022039047A JP 2022039047 A JP2022039047 A JP 2022039047A JP 2023133834 A JP2023133834 A JP 2023133834A
Authority
JP
Japan
Prior art keywords
information
data
subject
information processing
regarding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022039047A
Other languages
Japanese (ja)
Inventor
匠 福井
Takumi Fukui
二郎 大河内
Jiro Okochi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2022039047A priority Critical patent/JP2023133834A/en
Publication of JP2023133834A publication Critical patent/JP2023133834A/en
Pending legal-status Critical Current

Links

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)

Abstract

To reduce the burden of staff in inputting data on multiple input items related to a predetermined target person regarding LIFE, or the like, and reduce variability of content of input.SOLUTION: An information processing apparatus 10 includes: an acquisition unit 111 which acquires data on a target person who resides in a nursing care facility; a first information generation unit 112 which generates first information on physical functioning of the target person, on the basis of the acquired data; and a second information generation unit 113 which generates, based on the first information, second information related to a living motion execution level of the target person.SELECTED DRAWING: Figure 4

Description

本発明は、情報処理装置、情報処理システム、情報処理方法、および制御プログラムに関する。 The present invention relates to an information processing device, an information processing system, an information processing method, and a control program.

厚生労働省によって、平成28年度より通所・訪問リハビリテーションデータ収集システム(VISIT)、令和2年5月より高齢者の状態やケアの内容等データ収集システム(CHASE)が運用されている。厚生労働省は、さらに、令和3年4月1日より、これらを一体化した「科学的介護情報システム」(LIFE(Long-term care Information system For Evidence)、以下、LIFEまたはライフと称する)を運用している。LIFEは、科学的に効果が裏付けられた自立支援・重度化防止に資する質の高いサービス提供の推進を目的としている(非特許文献1)。このLIFEシステムは、自立支援・重度化防止の効果が裏付けられた「科学的介護」の実現のため、エビデンスを蓄積し、当該エビデンスを分析するために用いられる。 The Ministry of Health, Labor and Welfare has been operating the Day and Visit Rehabilitation Data Collection System (VISIT) since FY2016, and the Elderly Condition and Care Details Data Collection System (CHASE) since May 2020. Furthermore, from April 1, 2021, the Ministry of Health, Labor and Welfare will integrate these into the "Scientific Long-term Care Information System For Evidence (LIFE)" (hereinafter referred to as LIFE). It is in operation. LIFE aims to promote the provision of high-quality services that support independence and prevent the disease from worsening, whose effectiveness is scientifically proven (Non-Patent Document 1). This LIFE system is used to accumulate evidence and analyze that evidence in order to realize "scientific nursing care" that is proven to be effective in supporting independence and preventing the disease from worsening.

このLIFEを活用するためには、厚生労働省のLIFEシステムへデータ(LIFEデータと称する)の入力が求められる。 In order to utilize this LIFE, data (referred to as LIFE data) must be input into the LIFE system of the Ministry of Health, Labor and Welfare.

しかしながら、LIFEデータの項目数は、1000項目以上と非常に多い。また、LIFEデータの項目で用いられているBI(Barthel index)等の指標は、介護の手間を評価している面もあり、看介護スタッフによる個人差があり、入力データのばらつきが生じる虞がある。また、LIFEは、3か月毎に入居者の再評価とデータ提出を義務づけている。このため、LIFE項目の入力のために、看介護スタッフなどは、多くの時間を割かなくてはならない。 However, the number of items in LIFE data is extremely large, over 1000 items. In addition, indicators such as BI (Barthel index) used in the LIFE data items evaluate the effort involved in providing nursing care, and there are individual differences among nursing care staff, so there is a risk of variations in input data. be. LIFE also requires residents to re-evaluate and submit data every three months. Therefore, nursing care staff and the like must spend a lot of time inputting LIFE items.

このような問題に関連して、LIFEデータの入力を支援するためのシステム(アプリケーション)などの開発が行われている。 In connection with such problems, systems (applications) and the like are being developed to support input of LIFE data.

例えば、特許文献1では、複数の被介護者の介護サービスに関する情報を一画面で一元的に管理することが可能な介護記録プログラムが開示されている。 For example, Patent Document 1 discloses a care record program that can centrally manage information regarding care services for multiple care recipients on one screen.

特開2020-135734号公報Japanese Patent Application Publication No. 2020-135734

「科学的介護」[online],厚生労働省,[令和4年1月5日検索],インターネット<URL:https://www.mhlw.go.jp/stf/shingi2/0000198094_00037.html>“Scientific nursing care” [online], Ministry of Health, Labor and Welfare, [searched on January 5, 2020], Internet <URL:https://www.mhlw.go.jp/stf/shingi2/0000198094_00037.html>

特許文献1の介護記録プログラムは、被介護者への介護サービスに関する情報を一画面で一元的に管理するものであり、それぞれの項目の設定に関しては、依然として看介護のスタッフ等による入力が求められる。また、項目を入力する際に、スタッフの能力や主観により入力内容にばらつきが生じる場合がある。 The nursing care record program of Patent Document 1 centrally manages information regarding nursing care services for cared people on a single screen, and still requires input from nursing care staff etc. regarding the settings of each item. . Furthermore, when inputting items, variations may occur in the input contents depending on the ability and subjectivity of the staff.

本発明は、上記事情に鑑みてなされたものであり、看介護のスタッフによる入力負担を軽減するとともに、入力内容のばらつきを低減できる情報処理装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an information processing device that can reduce input burden on nursing care staff and reduce variations in input contents.

本発明の上記目的は、下記の手段によって達成される。 The above object of the present invention is achieved by the following means.

(1)看介護施設に入居する対象者に関するデータを取得する取得部と、
取得されたデータに基づいて、前記対象者の身体機能に関する第1情報を生成する第1情報生成部と、
前記第1情報に基づいて、前記対象者の生活動作の実施レベルに関する第2情報を生成する第2情報生成部と、
を備える、情報処理装置。
(1) An acquisition unit that acquires data regarding subjects residing in nursing care facilities;
a first information generation unit that generates first information regarding the physical function of the subject based on the acquired data;
a second information generation unit that generates second information regarding the implementation level of the subject's daily activities based on the first information;
An information processing device comprising:

(2)前記取得部が取得するデータは、観察領域内における前記対象者の動きを検出するセンサーからのデータである、上記(1)に記載の情報処理装置。 (2) The information processing device according to (1), wherein the data acquired by the acquisition unit is data from a sensor that detects movement of the subject within an observation area.

(3)前記第1情報は、前記対象者の身体機能の実施レベルに関する情報、または身体機能を用いた動作に関する情報である、上記(1)、または上記(2)に記載の情報処理装置。 (3) The information processing device according to (1) or (2) above, wherein the first information is information regarding the performance level of the subject's physical functions or information regarding movements using the physical functions.

(4)前記第2情報は、予め定められた前記対象者に関する複数の入力項目に対応する情報である、上記(1)から上記(3)のいずれかに記載の情報処理装置。 (4) The information processing device according to any one of (1) to (3) above, wherein the second information is information corresponding to a plurality of input items regarding the predetermined target person.

(5)前記第2情報生成部は、前記第1情報が入力された場合に前記第2情報を出力する情報変換器を用いて、前記第1情報から前記第2情報を生成する、上記(1)から上記(4)のいずれかに記載の情報処理装置。 (5) The second information generation unit generates the second information from the first information using an information converter that outputs the second information when the first information is input. The information processing device according to any one of (1) to (4) above.

(6)前記対象者に関する前記データは、前記対象者を撮影した撮影データであり、および前記第1情報は、前記撮影データを画像解析することで生成した情報であり、
前記情報変換器は、前記第1情報、および前記対象者をケアするスタッフにより判定され設定された前記第2情報と同等の情報である第3情報に基づいて予め生成されたものである上記(5)に記載の情報処理装置。
(6) The data regarding the subject is photographic data obtained by photographing the subject, and the first information is information generated by image analysis of the photographic data,
The information converter has the above-mentioned (( 5) The information processing device according to item 5).

(7)前記情報変換器には、前記第1情報および前記第3情報との間の統計情報に基づいて予め生成された複数の第1変換テーブルが含まれ、および、
前記第2情報生成部は、前記第1変換テーブルを用いて、前記第1情報を前記第2情報に変換する、上記(6)に記載の情報処理装置。
(7) The information converter includes a plurality of first conversion tables generated in advance based on statistical information between the first information and the third information, and
The information processing device according to (6), wherein the second information generation unit converts the first information into the second information using the first conversion table.

(8)前記情報変換器には、前記第1情報および前記第3情報を、項目反応理論における各項目とし、推定した各項目の項目難易度の比較により、生成された複数の第2変換テーブルが含まれ、および、
前記第2情報生成部は、前記第2変換テーブルを用いて、前記第1情報を前記第2情報に変換する、上記(6)に記載の情報処理装置。
(8) The information converter has a plurality of second conversion tables generated by using the first information and the third information as each item in the item response theory, and comparing the estimated item difficulty of each item. includes, and
The information processing device according to (6), wherein the second information generation unit converts the first information into the second information using the second conversion table.

(9)前記情報変換器には、前記第1情報および前記第3情報との組み合わせを教師データとして学習された機械学習モデルが含まれ、および、
前記第2情報生成部は、前記機械学習モデルを用いて、前記第1情報を前記第2情報に変換する、上記(6)に記載の情報処理装置。
(9) The information converter includes a machine learning model trained using a combination of the first information and the third information as training data, and
The information processing device according to (6), wherein the second information generation unit converts the first information into the second information using the machine learning model.

(10)さらに、前記第2情報を出力する出力部を備える、上記(1)から上記(9)のいずれかに記載の情報処理装置。 (10) The information processing device according to any one of (1) to (9) above, further comprising an output unit that outputs the second information.

(11)上記(10)に記載の情報処理装置と、
前記情報処理装置が生成した第2情報を表示する表示装置と、
を備える情報処理システム。
(11) The information processing device according to (10) above;
a display device that displays second information generated by the information processing device;
An information processing system equipped with.

(12)看介護施設に入居する対象者に関するデータを取得するステップ(a)と、
取得されたデータに基づいて、前記対象者の身体機能に関する第1情報を生成するステップ(b)と、
前記第1情報に基づいて、前記対象者の生活動作の実施レベルに関する第2情報を生成するステップ(c)と、を含む処理を実行する情報処理方法。
(12) step (a) of acquiring data regarding the target person residing in the nursing care facility;
(b) generating first information regarding the physical function of the subject based on the acquired data;
An information processing method that performs processing including a step (c) of generating second information regarding the performance level of the subject's daily activities based on the first information.

(13)前記ステップ(a)で取得するデータは、観察領域内における前記対象者の動きを検出するセンサーからのデータである、上記(12)に記載の情報処理方法。 (13) The information processing method according to (12) above, wherein the data acquired in the step (a) is data from a sensor that detects the movement of the subject within the observation area.

(14)前記ステップ(c)では、前記第1情報が入力された場合に前記第2情報を出力する情報変換器を用いて、前記第1情報から前記第2情報を生成する、上記(12)、または上記(13)に記載の情報処理方法。 (14) In step (c), the second information is generated from the first information using an information converter that outputs the second information when the first information is input. ), or the information processing method described in (13) above.

(15)上記(12)から上記(14)のいずれかに記載の情報処理方法を、コンピューターに実行させるための制御プログラム。 (15) A control program for causing a computer to execute the information processing method according to any one of (12) to (14) above.

本発明に係る情報処理装置においては、看介護施設に入居する対象者に関するデータを取得する取得部と、取得されたデータに基づいて、対象者の身体機能に関する第1情報を生成する第1情報生成部と、前記第1情報に基づいて、前記対象者の生活動作の実施レベルに関する第2情報を生成する第2情報生成部と、を備える。これにより、LIFE等の予め定められた対象者に関する複数の入力項目に関するスタッフ等のデータ入力の負担を軽減できるとともに、入力内容のばらつきを低減できる。 The information processing device according to the present invention includes an acquisition unit that acquires data regarding a target person residing in a nursing care facility, and first information that generates first information regarding the target person's physical functions based on the acquired data. The present invention includes a generation unit and a second information generation unit that generates second information regarding the performance level of the subject's daily activities based on the first information. Thereby, it is possible to reduce the burden of data input by staff, etc. regarding a plurality of input items regarding a predetermined target person such as LIFE, and it is also possible to reduce variations in input contents.

本実施形態に係る情報処理装置を示す模式図である。FIG. 1 is a schematic diagram showing an information processing device according to the present embodiment. 情報処理装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of an information processing device. 検知部の構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of a detection section. 制御部の機能を示す機能ブロック図である。FIG. 3 is a functional block diagram showing the functions of a control section. 各種の第1情報の例を示す表である。It is a table showing examples of various types of first information. 各種の第2情報の例を示す表である。It is a table showing examples of various types of second information. 撮影データに基づいて行う、人・物体検出処理、および関節点等検出処理を示す模式図である。FIG. 3 is a schematic diagram showing a person/object detection process and a joint point etc. detection process performed based on photographic data. 第1情報の例として「移乗」の場合の自動判定処理を示す模式図である。FIG. 7 is a schematic diagram showing automatic determination processing in the case of "transfer" as an example of first information. 情報変換器の生成手順を示すフローチャートである。It is a flowchart which shows the generation procedure of an information converter. 情報変換器の第1変換テーブルの例である。It is an example of the 1st conversion table of an information converter. 情報変換器の第1変換テーブルの例である。It is an example of the 1st conversion table of an information converter. ラッシュモデルを適用する際に用いる各ユーザーの各項目への反応を示す表である。It is a table showing the reactions of each user to each item used when applying the Rush model. 各項目の項目難易度を示すグラフである。It is a graph showing the item difficulty level of each item. 項目難易度の比較により生成した第2変換テーブルの例である。This is an example of a second conversion table generated by comparing item difficulty levels. 情報処理装置が実行する、第1、第2情報の生成処理を示すフローチャートである。3 is a flowchart showing a process of generating first and second information, which is executed by the information processing device.

以下、添付した図面を参照して、本発明の実施形態を説明する。しかしながら、本発明の範囲は、開示される実施形態に限定されない。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。 Embodiments of the present invention will be described below with reference to the accompanying drawings. However, the scope of the invention is not limited to the disclosed embodiments. In addition, in the description of the drawings, the same elements are given the same reference numerals, and redundant description will be omitted. Furthermore, the dimensional ratios in the drawings are exaggerated for convenience of explanation and may differ from the actual ratios.

図1は、情報処理システム1を示す模式図である。情報処理システム1は、情報処理装置10、検知部20、および端末装置30を含み、各装置は、ネットワーク50を介して相互に通信接続する。情報処理装置10は、サーバー、またはPCである。また、情報処理装置10をサーバーとして構成する場合においては、看介護施設内に設けられたオンプレミスサーバーであってもよく、あるいは商用のクラウドサービスを利用したクラウドサーバーであってもよい。端末装置30は、PC(パーソナルコンピューター)であり看介護施設の看介護スタッフ(以下、単にスタッフとも表記する)、管理者、等のユーザーにより操作される。 FIG. 1 is a schematic diagram showing an information processing system 1. As shown in FIG. The information processing system 1 includes an information processing device 10, a detection unit 20, and a terminal device 30, and each device is communicatively connected to each other via a network 50. The information processing device 10 is a server or a PC. Further, when the information processing device 10 is configured as a server, it may be an on-premises server provided within a nursing care facility, or a cloud server using a commercial cloud service. The terminal device 30 is a PC (personal computer) and is operated by a user such as a nursing care staff (hereinafter also simply referred to as staff) of a nursing care facility, an administrator, or the like.

(第1、第2、第3情報、および情報変換器)
本明細書において「第1情報」は、看介護施設に入居する入院患者、被介護者、等の対象者の動きを検出するセンサーからのデータ(以下、単にセンサーデータ、またはセンシングデータという)に基づいて得られる情報である。第1情報は、1つまたは複数のセンサーデータから直接的に、自動的に生成できるデータである。センサーには、対象者の部屋に配置されたカメラが含まれ、第1情報はカメラによる撮影データ(動画の撮影画像)を画像解析することで生成できるデータが含まれる。第1情報には対象者の身体機能の実施レベルに関する情報、および/または身体機能の動作に関する情報が含まれる。第1情報の例としては、対象者に関する基本動作(身体機能)・起居動作機能、および生活機能(日常生活動作(ADL:Activities of Daily Living))に関する評価項目についての評価結果が含まれる。例えばこれらの評価項目には、寝返り、起き上がり、座位保持、両足での立位、およびこれの保持、歩行、立ち上がり、および椅子とベッドとの間の移乗が含まれる。
(First, second, third information, and information converter)
In this specification, "first information" refers to data from a sensor that detects the movement of a subject such as an inpatient, a care recipient, etc. residing in a nursing care facility (hereinafter simply referred to as sensor data or sensing data). This is information obtained based on The first information is data that can be automatically generated directly from one or more sensor data. The sensor includes a camera placed in the subject's room, and the first information includes data that can be generated by analyzing data captured by the camera (video captured images). The first information includes information regarding the performance level of the subject's physical functions and/or information regarding the operation of the physical functions. Examples of the first information include evaluation results regarding evaluation items regarding basic movements (physical functions), daily living functions, and daily living functions (Activities of Daily Living (ADL)) regarding the subject. For example, these evaluation items include turning over, getting up, holding a sitting position, standing on both feet and holding it, walking, standing up, and transferring between a chair and a bed.

本明細書において「第2情報」は、第1情報とは異なる情報である。また第2情報は、センサーデータから直接的に生成できない情報、または撮影データの画像解析からは生成できない情報であって、情報変換器を用いて、第1情報から生成される情報である。第2情報には、対象者の生活動作の実施レベルに関する情報が含まれる。第2情報の例としては、整容、トイレ動作、入浴、階段昇降、着替え(更衣)、排便コントロール、排尿コントロール、および食事(食事摂取)がある。また、第2情報は、看介護施設で入力が求められる予め定められた複数の入力項目に対応する。例えば厚生労働省のLIFEデータの入力項目に第2情報の全て、および第1情報の一部が含まれる。 In this specification, "second information" is information different from the first information. Further, the second information is information that cannot be generated directly from sensor data or from image analysis of photographed data, and is information that is generated from the first information using an information converter. The second information includes information regarding the level of performance of the subject's daily activities. Examples of the second information include grooming, toilet operation, bathing, going up and down stairs, changing clothes, defecation control, urination control, and meals (meal intake). Further, the second information corresponds to a plurality of predetermined input items that are required to be input at the nursing care facility. For example, all of the second information and part of the first information are included in the input items of the LIFE data of the Ministry of Health, Labor and Welfare.

本明細書において「第3情報」は、対象者をケア、または介護するスタッフ等の人により判定、および入力または設定された情報である。第3情報と第2情報は、評価主体が人であるか、情報処理装置10であるかの違いはあるが同等の情報であり、情報の種類、内容は同じである。第2情報の全ては、第3情報に包含される。また、さらに、第1情報の一部は第3情報に含まれてもよい。 In this specification, "third information" is information determined and input or set by a person such as a staff member who cares for or cares for the subject. The third information and the second information are equivalent information, although there is a difference in whether the evaluation subject is a person or the information processing device 10, and the type and content of the information are the same. All of the second information is included in the third information. Furthermore, part of the first information may be included in the third information.

「情報変換器」は、第1情報から第2情報への変換ルールを記述した変換テーブル、または、教師データにより機械学習された機械学習モデルを含む。情報変換器は撮影データの画像解析からは生成できない、LIFEデータの入力項目に含まれる第2情報を生成する。詳細は後述するが(後述の図9等)、第1情報から第2情報を求めるために用いられる情報変換器は、撮影データの解析から得られた第1情報と、人により設定された第3情報との対応関係に基づいて生成される。なお、情報変換器を生成する際にはカメラのセンサーデータ(撮影データ)の画像解析から得られた第1情報を用いる。しかしながら、一旦、情報変換器を生成した後に、第1情報を生成するために用いるセンサーデータは、撮影データに限られず、カメラ以外のセンサー(後述のベッドセンサー等)から得られたセンサーデータを用い得る。例えば第1情報生成部112が、ベッドセンサーの検知信号を解析することで、起床、利用、寝返り、座位、等の各種の第1情報を生成できる。 The "information converter" includes a conversion table that describes conversion rules from first information to second information, or a machine learning model that is machine learned using teacher data. The information converter generates second information included in the input items of the LIFE data, which cannot be generated from image analysis of the photographic data. Although the details will be described later (see FIG. 9, etc.), the information converter used to obtain the second information from the first information converts the first information obtained from the analysis of the photographic data and the second information set by the person. It is generated based on the correspondence with the 3 information. Note that when generating the information converter, first information obtained from image analysis of camera sensor data (photographed data) is used. However, once the information converter is generated, the sensor data used to generate the first information is not limited to photographic data, and sensor data obtained from sensors other than the camera (such as a bed sensor described later) can be used. obtain. For example, the first information generating unit 112 can generate various kinds of first information such as getting up, using the bed, turning over, sitting position, etc. by analyzing the detection signal of the bed sensor.

(情報処理装置10)
図2は、情報処理装置10の構成を示すブロック図である。情報処理装置10は、制御部11、記憶部12、および通信部13を有する。制御部11は、CPU、RAM、ROM、等で構成され、プログラムに従って情報処理装置10の各部の制御および演算処理を行う。記憶部12には、情報変換器1、2、3の少なくともいずれかが記憶されている。詳細は後述するが、情報変換器1~3は、いずれも第1情報から第2情報を生成する際に用いられるものである。通信部13は、ネットワーク50を介して、検知部20等の他の装置と通信するためのインターフェース回路(例えばLANカード等)である。
(Information processing device 10)
FIG. 2 is a block diagram showing the configuration of the information processing device 10. The information processing device 10 includes a control section 11, a storage section 12, and a communication section 13. The control unit 11 is composed of a CPU, RAM, ROM, etc., and controls each unit of the information processing device 10 and performs arithmetic processing according to a program. The storage unit 12 stores at least one of the information converters 1, 2, and 3. Although details will be described later, the information converters 1 to 3 are all used to generate second information from first information. The communication unit 13 is an interface circuit (for example, a LAN card, etc.) for communicating with other devices such as the detection unit 20 via the network 50.

(検知部20)
図3は、検知部20の構成を示すブロック図である。再び図1を参照すると、検知部20は、看介護施設の対象者71が居る部屋内を観察領域とし、対象者71の観察領域内(部屋内)での動き(行動)をモニターできるように設けられている。部屋は、例えば、複数の対象者71(被介護者)が入居する看介護施設の一部屋である。また、情報処理装置10は、図1に示すように複数の部屋それぞれに設けられた検知部20と接続している。また、検知部20それぞれの装置IDと、モニター対象となる対象者71の対象者IDとは、紐付けられて記憶部12に記憶されている。
(Detection unit 20)
FIG. 3 is a block diagram showing the configuration of the detection section 20. Referring again to FIG. 1, the detection unit 20 sets the inside of the room where the subject 71 of the nursing care facility is in as an observation area, and is configured to monitor the movement (behavior) of the subject 71 within the observation area (inside the room). It is provided. The room is, for example, a room in a nursing care facility where a plurality of subjects 71 (care recipients) reside. Further, the information processing device 10 is connected to a detection unit 20 provided in each of a plurality of rooms, as shown in FIG. Further, the device ID of each of the detection units 20 and the subject ID of the subject 71 to be monitored are stored in the storage unit 12 in a linked manner.

図3に示すように検知部20は、制御部21、通信部22、カメラ23、センサー24、等を含む。制御部21、通信部22は、上述の制御部11、通信部13と同様の構成を有する。なお、制御部21には、大容量のメモリが含まれてもよい。 As shown in FIG. 3, the detection unit 20 includes a control unit 21, a communication unit 22, a camera 23, a sensor 24, and the like. The control unit 21 and the communication unit 22 have the same configuration as the control unit 11 and the communication unit 13 described above. Note that the control unit 21 may include a large-capacity memory.

カメラ23は、例えば部屋の天井または壁の上部に配置され、観察領域(撮影領域)として真下にある対象者71の部屋内を俯瞰撮影する。カメラ23は、観察領域内における対象者71の動きを検出するセンサーの一例である。部屋には、物体としてのベッド81、車椅子82、等が存在する。カメラ23は、人である対象者71とともに周辺の物体を撮影し撮影データ(動画)を出力する。カメラ23は近赤外線カメラであるが、これに換えて可視光カメラを用いてもよく、あるいは、これらを併用してもよい。また、カメラ23は広角カメラであり得る。 The camera 23 is arranged, for example, on the ceiling or the upper part of a wall of a room, and takes an overhead view of the inside of the room of the subject 71 located directly below as an observation area (photographing area). The camera 23 is an example of a sensor that detects the movement of the subject 71 within the observation area. In the room, objects such as a bed 81 and a wheelchair 82 exist. The camera 23 photographs surrounding objects together with a human subject 71 and outputs photographed data (video). Although the camera 23 is a near-infrared camera, a visible light camera may be used instead, or these may be used in combination. Additionally, camera 23 may be a wide-angle camera.

センサー24は、対象者71の動きを検出する。センサー24には、体動センサー、ベッドセンサー、マットセンサー、サーマルセンサー、および赤外線センサーの少なくともいずれかが含まれる。「体動センサー」は、ベッド81に対してマイクロ波を送受信して対象者71の体動(例えば呼吸動)によって生じたマイクロ波のドップラシフトを検出するドップラシフト方式のセンサーであってもよい。この体動センサーにより、対象者71の呼吸動作に伴う胸部の体動(胸部の上下動)を検出する。体動の周期や振幅により、睡眠状態を判定したり、微体動異常(例えば心停止に起因する)を判定したりする。「ベッドセンサー」は、ベッドに備え付けられるセンサーであればよく、例えば、荷重を検知し、ベッド81上または、ベッド81の降り口の床面を観察領域として配置し、センサー上に人がいるか否かを検知してもよいし、睡眠状態を検知してもよい。「マットセンサー」は、ベッドセンサーと同様の機能により、床面の分割領域毎に各領域での人の存在を検知する。「赤外線センサー」は、人感センサーとも称され、部屋内に人がいるか否かを検知する。例えば、部屋内全域、またはベッド81上を観察領域として配置する。 The sensor 24 detects the movement of the subject 71. The sensor 24 includes at least one of a body movement sensor, a bed sensor, a mat sensor, a thermal sensor, and an infrared sensor. The "body movement sensor" may be a Doppler shift sensor that transmits and receives microwaves to and from the bed 81 and detects the Doppler shift of the microwaves caused by body movement (for example, breathing movement) of the subject 71. . This body movement sensor detects the body movement of the chest (up and down movement of the chest) accompanying the breathing movement of the subject 71. The period and amplitude of body movements are used to determine the sleeping state or abnormalities in minute body movements (for example, due to cardiac arrest). The "bed sensor" may be any sensor that is installed on the bed. For example, the "bed sensor" may be a sensor that detects a load, and is placed on the bed 81 or the floor surface of the exit of the bed 81 as an observation area, and detects whether there is a person on the sensor. The sleep state may be detected. The "mat sensor" uses the same function as a bed sensor to detect the presence of people in each divided area of the floor. The "infrared sensor" is also called a human sensor and detects whether there is a person in the room. For example, the entire room or the top of the bed 81 is arranged as the observation area.

図4は、情報処理装置10の制御部11の機能を示す機能ブロック図である。制御部11は、単独で、または通信部13と協働することで、取得部111、第1情報生成部112、第2情報生成部113、および出力部114として機能する。 FIG. 4 is a functional block diagram showing the functions of the control unit 11 of the information processing device 10. The control unit 11 functions as an acquisition unit 111, a first information generation unit 112, a second information generation unit 113, and an output unit 114, either alone or in cooperation with the communication unit 13.

取得部111は、検知部20の各センサー(カメラ23またはセンサー24)から撮影データおよび検知信号を取得する。これらの撮影データおよび検知信号を総称したものが、上述のセンサーデータである。 The acquisition unit 111 acquires photographic data and detection signals from each sensor (camera 23 or sensor 24) of the detection unit 20. These photographic data and detection signals are collectively referred to as the above-mentioned sensor data.

(第1情報生成部112)
第1情報生成部112は、撮影データその他のセンサーデータから第1情報を生成する。図5は、各種の第1情報の例を示す表である。第1情報には(a)身体機能の実施レベルに関する情報、および(b)身体機能を用いた動作に関する情報が含まれる。(1-1)~(1-6)の寝返り、起き上がり、座位保持、立位保持、歩行、移乗、および移動は(a)身体機能の実施レベルに関する情報の例である。(1-11)~(1-16)の移動の行動範囲、行動量、歩行速度、ふらつき度、繰り返し行動、および立ち止まりは、(b)身体機能を用いた動作に関する情報の例である。このうち、(a)身体機能の実施レベルに関する情報に関しては、実施レベル(L0~L3)で判定し、(b)身体機能を用いた動作に関しては、面積、時間、速度、等の数値で判定する。第1情報の(a)身体機能の実施レベルに関する情報には、日常生活動作(ADL)に関する情報が含まれ得る。第1情報の具体的な生成処理については後述する(後述の図7、図8)。
(First information generation unit 112)
The first information generation unit 112 generates first information from photographic data and other sensor data. FIG. 5 is a table showing examples of various types of first information. The first information includes (a) information regarding the performance level of the physical function, and (b) information regarding the operation using the physical function. (1-1) to (1-6) turning over, getting up, holding a sitting position, holding a standing position, walking, transferring, and moving are examples of information related to (a) the level of performance of bodily functions. (1-11) to (1-16), the movement range, amount of movement, walking speed, degree of unsteadiness, repeated actions, and stopping are examples of information related to (b) movements using physical functions. Among these, (a) information regarding the performance level of physical functions is judged based on the performance level (L0 to L3), and (b) information regarding movements using physical functions is judged based on numerical values such as area, time, speed, etc. do. The first information (a) regarding the performance level of physical functions may include information regarding activities of daily living (ADL). The specific generation process of the first information will be described later (see FIGS. 7 and 8, which will be described later).

(第2情報生成部113)
第2情報生成部113は、第1情報生成部112が生成した第1情報に基づいて第2情報を生成する。図6は、第2情報の例を示す表である。第2情報は第1情報とは異なる情報であり、対象者71の生活動作の実施レベルに関する情報である。第2情報は、センサーデータから直接的には生成できない情報でもある。また、第2情報は、例えばLIFEで入力が求められるデータの一部に対応する。第2情報生成部113は、情報変換器を用いて第2情報を生成する。
(Second information generation unit 113)
The second information generation unit 113 generates second information based on the first information generated by the first information generation unit 112. FIG. 6 is a table showing an example of the second information. The second information is different from the first information, and is information regarding the level of performance of daily activities of the subject 71. The second information is also information that cannot be directly generated from sensor data. Further, the second information corresponds to a part of data required to be input in LIFE, for example. The second information generation unit 113 generates second information using an information converter.

(出力部114)
出力部114は、第1情報生成部112が生成した第1情報、および第2情報生成部113が生成した第2情報を出力する。例えば、LIFEで入力が求められる調査項目に、第1、第2情報を割り当てた上で、端末装置30に出力する。出力には、データとして送信する場合と、表示装置として機能する端末装置30のディスプレイに画像として表示する場合が含まれる。
(Output section 114)
The output unit 114 outputs the first information generated by the first information generation unit 112 and the second information generated by the second information generation unit 113. For example, the first and second information are assigned to the survey items that are required to be input in LIFE, and then output to the terminal device 30. The output includes the case where it is transmitted as data and the case where it is displayed as an image on the display of the terminal device 30 functioning as a display device.

(第1情報の生成処理)
次に、第1情報の生成処理について図7、図8を参照して説明する。第1情報生成部112は、公知の方法を用いて、撮影データ等のセンサーデータから、第1情報を判定できる。例えば、第1情報生成部112は、学習済みの機械学習モデルを用いて、撮影データから第1情報(特に身体機能の実施レベルに関する情報)を推定し得る。機械学習モデルは、撮影データの入力と、指標の正解ラベルとの組み合せの教師データを用いて予め学習される。第1情報生成部112は、撮影データのデータに統計的な処理を行い、処理後のデータに基づいてルールベースで指標を推定してもよい。
(First information generation process)
Next, the first information generation process will be explained with reference to FIGS. 7 and 8. The first information generation unit 112 can determine the first information from sensor data such as photographic data using a known method. For example, the first information generation unit 112 can estimate first information (particularly information regarding the level of performance of a physical function) from the imaging data using a trained machine learning model. The machine learning model is trained in advance using training data that is a combination of input photographic data and correct labels of indicators. The first information generation unit 112 may perform statistical processing on the photographic data and estimate the index based on a rule based on the processed data.

図7は、撮影データに基づいて行う、人・物体検出処理、および関節点等検出処理を示す模式図である。第1情報生成部112は、撮影データの画像解析処理として、以下の人・物体検出処理、関節点等検出処理、および行動シーン分析処理を行うことで、対象者71に関する第1情報を生成する。 FIG. 7 is a schematic diagram showing a person/object detection process and a joint point etc. detection process performed based on photographic data. The first information generation unit 112 generates first information regarding the subject 71 by performing the following person/object detection processing, joint point etc. detection processing, and behavioral scene analysis processing as image analysis processing of the photographed data. .

(人・物体検出処理)
第1情報生成部112は、撮影データから、以下に説明する人・物体検出処理により、人、および人以外の物体それぞれに対応する人矩形710と物体矩形810、820を検出する。人矩形710は、撮影データにおける対象者71を含む矩形(破線の枠)内の領域であり、物体矩形810、820は、人物以外の特定の物体(例えば、ベッド、車椅子、座椅子、等)を含む矩形(破線の枠)内の領域である。
(Person/object detection processing)
The first information generation unit 112 detects a person rectangle 710 and object rectangles 810 and 820 corresponding to a person and a non-human object, respectively, from the photographic data through a person/object detection process described below. The person rectangle 710 is an area within a rectangle (broken line frame) that includes the subject 71 in the imaging data, and the object rectangles 810 and 820 are areas containing specific objects other than the person (for example, a bed, a wheelchair, a seat chair, etc.). ) is an area within a rectangle (framed by a broken line).

人・物体検出処理では、撮影データ上で人を含む物体(オブジェクト)が存在する領域を物体存在領域として検出し、検出した物体存在領域に含まれる物体の所定のカテゴリー毎の信頼度スコアを算出する。信頼度スコアは、対象物体に関する尤度である。人・物体検出処理は、DNN(Deep Neural Network)を用いた公知の技術により信頼度スコアを算出し得る。 In the person/object detection process, an area where an object including a person exists is detected in the photographic data as an object existing area, and a reliability score is calculated for each predetermined category of objects included in the detected object existing area. do. The confidence score is the likelihood regarding the target object. In the person/object detection process, a reliability score can be calculated using a known technique using DNN (Deep Neural Network).

所定のカテゴリーは、例えば、人物、椅子、家具、および寝具とし得る。人・物体検出処理においては、人物のカテゴリーの信頼度スコアが最も高い物体存在領域を人矩形710として検出する。すなわち、人・物体検出処理では、物体(移動体)としての対象者71を検出する。同様に、所定の物体のカテゴリーの信頼度スコアが最も高い物体存在領域を、当該信頼度スコアが最も高いカテゴリーの物体矩形820(例えば、車椅子の物体領域)等として検出する。 The predetermined categories may be, for example, people, chairs, furniture, and bedding. In the person/object detection process, the object presence region with the highest reliability score for the person category is detected as the person rectangle 710. That is, in the person/object detection process, the target person 71 as an object (moving body) is detected. Similarly, the object existing region with the highest reliability score for a predetermined object category is detected as the object rectangle 820 (eg, wheelchair object region) of the category with the highest reliability score.

あるいは、別の例における人矩形710の検出方法としては、検出対象の撮影データと、固定のカメラ23によって予め抽出された、撮影領域の背景画像との差分を抽出する背景差分法が使用され得る。また、検出対象の撮影データと、過去の撮影データの平均との差分を抽出するフレーム間(時間)差分法等が使用され得る。 Alternatively, as a method for detecting the human rectangle 710 in another example, a background subtraction method may be used that extracts the difference between the photographed data of the detection target and the background image of the photographed area extracted in advance by the fixed camera 23. . Further, an inter-frame (time) difference method or the like may be used that extracts the difference between the photographic data to be detected and the average of past photographic data.

このような人・物体検出処理により、人以外の物体の物体矩形810等に基づいて算出した、撮影データ上の座標(物***置座標)を出力し、記憶部12に、各フレームに対応付けて、時系列の物体情報として記憶される。物***置座標(物体座標)は、物体矩形の中心位置、または、互いに対角となる2か所以上の頂点位置を用いてもよい。 Through such person/object detection processing, the coordinates on the photographic data (object position coordinates) calculated based on the object rectangle 810 etc. of objects other than humans are output, and are stored in the storage unit 12 in association with each frame. , is stored as time-series object information. The object position coordinates (object coordinates) may be the center position of the object rectangle or two or more vertex positions that are diagonal to each other.

(関節点等検出処理)
関節点等検出処理では、人矩形710から対象者71の頭部矩形720、および複数の特徴点730(いずれも図7参照)を検出する。より具体的には、関節点等検出処理では、人矩形710から対象者71の頭部を含む領域を頭部矩形720として検出(推定)する。また、関節点等検出処理では、人矩形710から対象者71の人の体に関する関節を含む特徴点730を検出(推定)する。図7においては、複数の特徴点730それぞれの位置が白抜きの丸により示されている。なお、特徴点730間を結ぶ黒い太線は骨を示している。特徴点730には、例えば、頭、首、肩、肘、手、腰、腿、膝、および足が含まれる。特徴点730には、上記以外の特徴点730が含まれてもよく、上記のいずれかが含まれなくてもよい。関節点等検出処理では、人矩形710から特徴点730を検出するための辞書が反映されたDNNにより、人矩形710から対象者71の特徴点730を推定し得る。例えば、関節点等検出処理では、DNNを用いた公知の技術により特徴点730を推定し得る。関節点等検出処理では、特徴点730を、撮影データ上のそれぞれの座標として出力し得る。人矩形710、頭部矩形720、および特徴点730の座標(関節点座標、頭部座標)は、撮影データのフレーム毎に互いに関連付けて、時系列の人情報として、記憶部12に記憶される。
(Joint point detection processing)
In the joint point etc. detection process, a head rectangle 720 of the subject 71 and a plurality of feature points 730 (see FIG. 7 for both) are detected from the person rectangle 710. More specifically, in the joint point detection process, a region including the head of the subject 71 is detected (estimated) from the human rectangle 710 as a head rectangle 720 . In the joint point detection process, feature points 730 including joints of the human body of the subject 71 are detected (estimated) from the human rectangle 710 . In FIG. 7, the positions of each of the plurality of feature points 730 are indicated by white circles. Note that the thick black lines connecting the feature points 730 indicate bones. Feature points 730 include, for example, the head, neck, shoulders, elbows, hands, hips, thighs, knees, and feet. The feature points 730 may include feature points 730 other than the above, or may not include any of the above. In the joint point etc. detection process, the feature points 730 of the subject 71 can be estimated from the person rectangle 710 using the DNN in which the dictionary for detecting the feature points 730 from the person rectangle 710 is reflected. For example, in the joint point detection process, the feature points 730 can be estimated using a known technique using DNN. In the joint point etc. detection process, the feature points 730 can be output as respective coordinates on the imaging data. The coordinates (joint point coordinates, head coordinates) of the person rectangle 710, the head rectangle 720, and the feature points 730 are associated with each other for each frame of imaging data and stored in the storage unit 12 as time-series person information. .

(行動シーン分析処理)
第1情報生成部112は、行動シーン分析処理を行う。分類する行動シーンには、(1)対象者71自身の足で歩行する歩行系、(2)対象者71が車椅子に座りながら移動する車椅子系、(3)対象者71がスタッフにより介助される介助系、および(4)対象者71がベッドに寝ているベッド系が含まれる。また、(1)歩行系では、さらに(1a)杖あり歩行系、(1b)歩行器あり歩行系、(1c)その他の自立歩行系で細分化してもよい。
(Action scene analysis processing)
The first information generation unit 112 performs action scene analysis processing. The behavioral scenes to be classified include (1) a walking type in which the subject 71 walks on his or her own feet, (2) a wheelchair type in which the subject 71 moves while sitting in a wheelchair, and (3) the subject 71 is assisted by a staff member. An assistance system and (4) a bed system in which the subject 71 is lying on the bed are included. Furthermore, (1) walking system may be further subdivided into (1a) walking system with cane, (1b) walking system with walker, and (1c) other independent walking system.

第1情報生成部112は、機械学習モデルを用いて、行動シーンの分類を行う。この機械学習モデルは、人情報(関節点座標、頭部座標)、物体情報(車椅子、ベッド等の物***置座標)の時系列情報と、行動シーンの正解ラベルを用いて、教師あり学習により学習したものである。この学習は、RNN(Recurrent Neural Network)の手法、または隠れマルコフモデル(HMM:Hidden Markov Model)の手法により行う。 The first information generation unit 112 uses a machine learning model to classify behavioral scenes. This machine learning model learns through supervised learning using time-series information of person information (joint point coordinates, head coordinates), object information (object position coordinates such as wheelchairs, beds, etc.), and correct labels of action scenes. This is what I did. This learning is performed using an RNN (Recurrent Neural Network) method or a Hidden Markov Model (HMM) method.

図8は、「移乗」の場合の自動判定処理を示す模式図である。第1情報生成部112は、対象者71およびスタッフの人情報(関節点座標、頭部座標)から自立歩行の頻度を判定し、多ければ対象者71自身で車椅子に移乗したことを判定する(レベル3:介助されていない)。また、自立歩行頻度が少ない場合、対象者71が移乗した際のスタッフの人情報から、スタッフが近くにいるが直接的に、介助していない見守りの頻度が多いことを判定する(レベル2:見守り等)。また、スタッフが対象者71の移乗に手助けをしている場合には、頻度により「レベル1:一部介助」か「レベル0:全介助」に分類する。 FIG. 8 is a schematic diagram showing automatic determination processing in the case of "transfer." The first information generation unit 112 determines the frequency of independent walking from the person information (joint point coordinates, head coordinates) of the subject 71 and the staff, and if it is high, determines that the subject 71 has transferred to a wheelchair by himself ( Level 3: unassisted). In addition, if the frequency of independent walking is low, it is determined from the staff member information when the subject 71 was transferred that the staff is nearby but frequently watches over the subject without providing direct assistance (Level 2: (Watch over, etc.) Furthermore, if the staff member is assisting the subject 71 in transferring, the assistance is classified into "Level 1: Partial assistance" or "Level 0: Full assistance" depending on the frequency.

(情報変換器)
次に情報変換器について説明する。図9は、情報変換器の生成手順を示すフローチャートである。
(information converter)
Next, the information converter will be explained. FIG. 9 is a flowchart showing the procedure for generating an information converter.

(ステップS01)
取得部111は、部屋それぞれに設けられた複数のカメラ23によって、それぞれの対象者71に関する撮影データ(動画像データ)を取得する。
(Step S01)
The acquisition unit 111 acquires photographic data (moving image data) regarding each subject 71 using a plurality of cameras 23 provided in each room.

(ステップS02)
第1情報生成部112は、撮影データから第1情報(図5参照)を生成し、対象者71のIDと紐付けて記憶部12に蓄積する。
(Step S02)
The first information generation unit 112 generates first information (see FIG. 5) from the imaging data, and stores it in the storage unit 12 in association with the ID of the subject 71.

(ステップS03)
同じ複数の対象者71に関して、第1情報とは異なる、対象者71の生活動作の実施レベルに関するスタッフにより設定された第3情報の評価結果を取得し、対象者71のIDと紐付けて記憶部12に蓄積する。この第3情報は、図6に示した第2情報と同等の情報であり、第2情報を包含する。第2情報と第3情報は、上述のように評価主体がスタッフ等の人であるか、情報処理装置10の第2情報生成部113であるかの違いはあるが、同等の情報である。例えばステップS03で取得する第3情報はスタッフにより入力されたLIFE等のアセスメントデータである。
(Step S03)
Regarding the same plurality of subjects 71, the evaluation result of third information set by the staff regarding the implementation level of daily activities of the subjects 71, which is different from the first information, is obtained and stored in association with the ID of the subjects 71. It is stored in section 12. This third information is information equivalent to the second information shown in FIG. 6, and includes the second information. The second information and the third information are equivalent information, although there is a difference in whether the evaluation subject is a person such as a staff member or the second information generation unit 113 of the information processing device 10 as described above. For example, the third information acquired in step S03 is assessment data such as LIFE input by the staff.

(ステップS04)
ここでは、ステップS02、S03で蓄積した情報に基づいて情報変換器を生成する。情報変換器には、以下の3種類の情報変換器1~3があり、何れの種類の情報変換器を適用してもよい。
(Step S04)
Here, an information converter is generated based on the information accumulated in steps S02 and S03. There are three types of information converters 1 to 3 below, and any type of information converter may be applied.

(情報変換器1(統計処理によるアプローチ))
図2に示すように情報変換器1には、複数の第1変換テーブル1~nが含まれる(以下、これらを総称して、単に第1変換テーブルともいう)。情報変換器1では、統計処理により生成された第1変換テーブルを用いる。具体的には、第1変換テーブルは、ステップS02、S03で、予め第1情報生成部112が生成した第1情報と、スタッフ等の人の手で評価、設定された第3情報とを統計処理することにより生成される。例えば統計処理としては、第1情報の各項目および第3情報の各項目それぞれの相関関係を調べ、統計情報としての相関係数が所定値以上であれば、相関があると判定し第1変換テーブルを生成する。
(Information converter 1 (statistical processing approach))
As shown in FIG. 2, the information converter 1 includes a plurality of first conversion tables 1 to n (hereinafter, these are also collectively referred to simply as first conversion tables). The information converter 1 uses a first conversion table generated by statistical processing. Specifically, the first conversion table statistically calculates the first information generated by the first information generation unit 112 in advance in steps S02 and S03, and the third information evaluated and set manually by a staff member or the like. Generated by processing. For example, in statistical processing, the correlation between each item of the first information and each item of the third information is examined, and if the correlation coefficient as statistical information is a predetermined value or more, it is determined that there is a correlation, and the first conversion is performed. Generate a table.

例えば、第1情報の(1-1)の寝返りがL0(全介助)の対象者71が100名の場合に、その100名のうち、第3情報の階段昇降L0(全介助)が99名、整容L0(全介助)が95名、更衣L0(全介助)が90名、トイレ動作L0(全介助)が99名であった。また、第1情報の(1-5)平地歩行がL3(自立)の対象者71が100名の場合に、その100名のうち、第3情報の整容L2(自立)が90名、更衣L2(自立)が95名であった。 For example, if there are 100 subjects 71 whose rolling over (1-1) in the first information is L0 (all assistance), 99 of those 100 people are L0 (all assistance) when going up and down stairs in the third information. , 95 people had hairdressing L0 (all assistance), 90 people had dressing L0 (all assistance), and 99 people had toileting L0 (all assistance). In addition, if there are 100 subjects 71 whose (1-5) level walking in the first information is L3 (independent), among those 100 people, 90 people have grooming L2 (independent) in the third information, and changing clothes L2. (Independent) was 95 people.

このような場合、第1情報と第3情報との相関関係から以下のような第1変換テーブルが生成できる。
第1変換テーブル1:入力「寝返りL0」に対し「階段昇降L0」を出力する。
第1変換テーブル2:入力「寝返りL0」に対し「整容L0」を出力する。
第1変換テーブル3:入力「寝返りL0」に対し「更衣L0」を出力する。
第1変換テーブル4:入力「寝返りL0」に対し「トイレ動作L0」を出力する。
第1変換テーブル5:入力「平地歩行L3」に対し「整容L2」を出力する。
第1変換テーブル6:入力「平地歩行L3」に対し「更衣L2」を出力する。
In such a case, the following first conversion table can be generated from the correlation between the first information and the third information.
First conversion table 1: Outputs "stairs climbing L0" for the input "turning over L0".
First conversion table 2: Outputs "Cosmetic surgery L0" in response to the input "Turning over L0".
First conversion table 3: Outputs "changing clothes L0" for the input "turning over L0".
First conversion table 4: Outputs "toilet movement L0" in response to input "turning over L0".
First conversion table 5: Outputs "hairdressing L2" for the input "level walking L3".
First conversion table 6: Outputs "Changing clothes L2" for the input "Level walking L3".

図10、図11は、同様に第1情報と第3情報との相関関係から生成した第1変換テーブルの他の例である。入力の第1情報の種類、内容に応じて、出力の1つまたは複数の第2情報の種類の内容に変換する。なお、出力で同じ種類の第2情報がある場合には、その内容のレベルを比較し、所定基準、例えば最も高いレベルの第2情報を優先適用する。例えば、仮に、図10に示す第1変換テーブルの例において、第1情報の種類が(1-5)歩行で内容がL3(自立)と、種類が(1-6)移動で内容がL3(自立)の場合、第2情報の出力として、同じ種類(2-6)排便で、異なる内容L2(自立)、L1(一部介助)が出力された場合には、レベルが高い方のL2(自立)を優先適用する。この優先適用は、後述の第2変換テーブルを使用する際も同様である。 10 and 11 are other examples of the first conversion table similarly generated from the correlation between the first information and the third information. Depending on the type and content of the input first information, the content is converted into the content of one or more types of output second information. Note that if there is second information of the same type in the output, the levels of the contents are compared and a predetermined standard, for example, the second information of the highest level is applied preferentially. For example, in the example of the first conversion table shown in FIG. 10, if the type of the first information is (1-5) walking and the content is L3 (independent), and the type is (1-6) movement and the content is L3 ( In the case of L2 (independent) and L1 (partial assistance) with the same type (2-6) defecation but different contents are output as the output of the second information, the higher level L2 ( Self-reliance) will be applied as a priority. This preferential application also applies when using a second conversion table, which will be described later.

(情報変換器2(ラッシュモデルで算出した項目難易度に基づくアプローチ))
図2に示すように情報変換器2には、複数の第2変換テーブル1~mが含まれる(以下、これらを総称して、単に第2変換テーブルともいう)。情報変換器2では、項目反応理論を用いて、第1、第3情報の各項目の難易度(以下、項目難易度という)を推定し、この項目難易度に基づいて、生成された第2変換テーブルを用いる。これは、同じような能力θsの対象者71(個人s)は、同じ難易度の項目に対して同じ結果(正解率)を示すという考えのもとで、情報変換器2では、項目反応理論に基づいて生成した第2変換テーブルを用いる。
(Information converter 2 (approach based on item difficulty calculated by Rasch model))
As shown in FIG. 2, the information converter 2 includes a plurality of second conversion tables 1 to m (hereinafter, these may be collectively referred to as simply second conversion tables). The information converter 2 uses item response theory to estimate the difficulty level of each item of the first and third information (hereinafter referred to as item difficulty level), and based on this item difficulty level, the generated second Use a conversion table. This is based on the idea that subject 71 (individual s) with similar ability θs will show the same results (accuracy rate) for items of the same difficulty level, and the information converter 2 uses item response theory. A second conversion table generated based on the above is used.

項目反応理論では、各項目の正答確率が、判定したい特性値を変数とする関数で表される。この関数は項目特性関数と呼ばれる。項目反応理論では、個人s(対象者71に相当)が項目iに対してXsi=1(すなわち正答)の反応が得られる確率Prは、個人s(対象者)の能力θs、および項目iの項目難易度δiを用いて、以下の式1で表すことができる。 In item response theory, the probability of correct answer for each item is expressed as a function whose variable is the characteristic value to be determined. This function is called the item characteristic function. In item response theory, the probability Pr that individual s (corresponding to subject 71) will get a response of Xsi = 1 (i.e., correct answer) to item i is determined by the ability θs of individual s (subject) and the ability of item i It can be expressed by the following equation 1 using the item difficulty level δi.

この項目反応モデルは、一般的に1パラメータロジスティック(1PL)モデルと呼ばれる(ラッシュモデルともいう)。 This item response model is generally called a one-parameter logistic (1PL) model (also called a Rasch model).

「項目」は、一般には問題1問1問を指しており、本実施形態では、第1、第3情報の各種の各レベルに対応する。図12は、ラッシュモデルを適用する際に用いる個人sと項目iとの結果を示す項目応答行例の例である。図12のそれぞれの列は、1つの項目に対応する。各項目は、項目反応理論が適用可能な形式に変換している。例えば、第3情報の食事の例であれば、食事のL3(自立)、L2(見守り)、L1(一部介助)、L0(全介助)のそれぞれのレベルが1つの項目i(問題)に相当する。そしてAさんの食事で、スタッフによりL2が入力された場合には、L2に正答(1)を与える。また、第3情報に関しては、L2(10点)に正答(1)を与えた場合には、これよりも高いレベルL3には誤答(0)を与え、それよりも低いレベルL1、L0に関しては正答(1)を与えている。図12では、スタッフにより入力された項目に関しては太文字で表記している。 "Item" generally refers to one question, and in this embodiment, corresponds to each level of the first and third information. FIG. 12 is an example of an item response row showing the results of individual s and item i used when applying the Rasch model. Each column in FIG. 12 corresponds to one item. Each item has been transformed into a form to which item response theory can be applied. For example, in the example of meals as the third information, each level of meals L3 (independent), L2 (supervised), L1 (partial assistance), and L0 (full assistance) is combined into one item i (problem). Equivalent to. When L2 is input by the staff member for Mr. A's meal, the correct answer (1) is given to L2. Regarding the third information, if a correct answer (1) is given to L2 (10 points), a wrong answer (0) is given to the higher level L3, and a wrong answer (0) is given to the lower levels L1 and L0. gives the correct answer (1). In FIG. 12, items input by the staff are written in bold letters.

これらの個人sの能力θs、および項目iの項目難易度δiに関する項目特性関数の項目パラメータは、個人sが項目iを実施したときの反応をuis(iは1~N、sは1~n、を取り、正答ならば1、誤答ならば0を与える)としたとき、この矩形の行列Uとし、このデータから項目パタメータを最尤推定する。例えば、同時最尤推定法を用いてデータ行列Uが得られる尤度を最大にする項目パラメータを以下の式2の尤度から推定できる。 The item parameters of the item characteristic function regarding the ability θs of the individual s and the item difficulty level δi of the item i are the reaction when the individual s implements the item i, u is (i is 1 to N, s is 1 to n, and give 1 if the answer is correct and 0 if the answer is wrong), then this rectangular matrix U is taken, and the item parameters are estimated by maximum likelihood from this data. For example, the item parameter that maximizes the likelihood of obtaining the data matrix U using the simultaneous maximum likelihood estimation method can be estimated from the likelihood of Equation 2 below.

項目パラメータの推定方法は、他の方法として、上記の同時最尤推定法以外に周辺最尤推定法、またはベイズ推定法を用いてもよい。 As another method for estimating item parameters, a marginal maximum likelihood estimation method or a Bayesian estimation method may be used in addition to the above-mentioned simultaneous maximum likelihood estimation method.

図13は、各項目の項目難易度を示すグラフである。図13では、いくつかの項目を、推定した項目難易度順に並び替えている。各項目の数字5、10等はレベルに対応した点数を示す。図13では、人による判定に基づく項目(以下、人判定項目という)と、撮影データによる判定に基づく項目(以下、画像判定項目という)を区別して表示している。 FIG. 13 is a graph showing the item difficulty level of each item. In FIG. 13, some items are sorted in order of estimated item difficulty. The numbers 5, 10, etc. in each item indicate the score corresponding to the level. In FIG. 13, items based on determination by humans (hereinafter referred to as human determination items) and items based on determination based on photographic data (hereinafter referred to as image determination items) are distinguished and displayed.

第2変換テーブルは、以下の手順により生成する。
(S1)人判定項目および画像判定項目それぞれに関して、第1、第3情報の評価結果に基づいて項目難易度を推定する。
(S2)そして、項目難易度の推定結果を比較し、人判定項目と画像判定項目の一致度を評価する。
(S3)難易度が高い画像判定項目を正解する対象者(個人)は、これよりも低い難易度の人判定項目を正解するという考えのもと、難易度の大小により変換ルールを設定する。具体的には図13で項目(2)「歩行、自立」を満たす対象者は、これよりも同等以下の難易度であって、かつ、難易度の差が所定範囲内の項目を満たせる(正解する)と見做して、項目(1)を項目(1)、(3)~(5)に変換するいくつかの変換テーブル2を生成する。
The second conversion table is generated by the following procedure.
(S1) For each of the person judgment item and the image judgment item, the item difficulty level is estimated based on the evaluation results of the first and third information.
(S2) Then, the estimation results of the item difficulty levels are compared, and the degree of coincidence between the person judgment item and the image judgment item is evaluated.
(S3) Based on the idea that a subject (individual) who correctly answers an image judgment item with a high difficulty level will correctly answer a person judgment item with a lower difficulty level, a conversion rule is set depending on the level of difficulty. Specifically, in Figure 13, a subject who satisfies item (2) "Walking, independence" must be able to satisfy the items with a difficulty level equal to or lower than this, and within a predetermined range of difficulty (correct answer). several conversion tables 2 for converting item (1) into items (1), (3) to (5) are generated.

図14は、第1情報と第3情報から推定した項目難易度の推定結果の比較から生成した第2変換テーブルの例である。情報処理装置10の第2情報生成部113は、情報変換器2の第2変換テーブルを用いて第1情報を第2情報に変換する。 FIG. 14 is an example of a second conversion table generated from a comparison of the estimation results of the item difficulty estimated from the first information and the third information. The second information generation unit 113 of the information processing device 10 converts the first information into second information using the second conversion table of the information converter 2.

(情報変換器3(機械学習によるアプローチ))
情報変換器3は、学習済みの機械学習モデルである。機械学習モデルは、上述のステップS02、S03の処理により記憶部12に蓄積された第1情報入力と、第3情報の正解ラベルとの組み合せの教師データを用いて予め学習される。情報処理装置10自体が、またはクラウドサーバーを用いて、機械学習モデルを学習させてもよい。情報処理装置10の第2情報生成部113は、機械学習モデル(情報変換器3)を用いて複数の第1情報から複数の第2情報を生成する。
(Information converter 3 (machine learning approach))
The information converter 3 is a trained machine learning model. The machine learning model is trained in advance using teacher data that is a combination of the first information input and the correct label of the third information stored in the storage unit 12 through the processes of steps S02 and S03 described above. A machine learning model may be trained by the information processing device 10 itself or by using a cloud server. The second information generation unit 113 of the information processing device 10 generates a plurality of second information from a plurality of first information using a machine learning model (information converter 3).

(情報処理方法)
図15は、情報処理装置10が実行する、第1、第2情報の生成処理を含む情報処理方法を示すフローチャートである。
(Information processing method)
FIG. 15 is a flowchart showing an information processing method including first and second information generation processing executed by the information processing apparatus 10.

(ステップS21)
取得部111は、カメラ23またはセンサー24からセンサーデータを取得する。
(Step S21)
The acquisition unit 111 acquires sensor data from the camera 23 or the sensor 24.

(ステップS22)
第1情報生成部112は、センサーデータから第1情報を生成する。
(Step S22)
The first information generation unit 112 generates first information from sensor data.

(ステップS23)
第2情報生成部113は、ステップS22で生成された第1情報から、情報変換器を用いて第2情報を生成する。ここで用いる情報変換器は、情報変換器1~3のいずれかを用い得る。
(Step S23)
The second information generation unit 113 generates second information from the first information generated in step S22 using an information converter. As the information converter used here, any one of information converters 1 to 3 may be used.

(ステップS24)
出力部114は、ステップS21、S22で生成された第1、第2情報を出力する。例えば、LIFEの入力項目に、第1、第2情報を割り当てたLIFEデータを、端末装置30に送信する。看介護施設の管理者等のユーザーは、情報処理装置10により一部が自動的に入力されたLIFEデータを利用することで、LIFEデータへの入力負担を軽減できる。
(Step S24)
The output unit 114 outputs the first and second information generated in steps S21 and S22. For example, LIFE data in which first and second information are assigned to LIFE input items is transmitted to the terminal device 30. Users such as managers of nursing care facilities can reduce the burden of inputting LIFE data by using LIFE data, some of which is automatically input by the information processing device 10.

このように本実施形態に係る情報処理装置は、看介護施設に入居する対象者に関するデータを取得する取得部と、取得されたデータに基づいて、対象者の身体機能に関する第1情報を生成する第1情報生成部と、前記第1情報に基づいて、前記対象者の生活動作の実施レベルに関する第2情報を生成する第2情報生成部と、を備える。これにより、LIFE等の予め定められた対象者に関する複数の入力項目に関するスタッフ等のデータ入力の負担を軽減できるとともに、入力内容のばらつきを低減できる。 As described above, the information processing device according to the present embodiment includes an acquisition unit that acquires data regarding a target person residing in a nursing care facility, and generates first information regarding the target person's physical functions based on the acquired data. The present invention includes a first information generation section and a second information generation section that generates second information regarding the performance level of the subject's daily activities based on the first information. Thereby, it is possible to reduce the burden of data input by staff, etc. regarding a plurality of input items regarding a predetermined target person such as LIFE, and it is also possible to reduce variations in input contents.

以上に説明した情報処理装置10の構成は、上述の実施形態の特徴を説明するにあたって主要構成を説明したのであって、上述の構成に限られず、特許請求の範囲内において、種種改変することができる。また、一般的な情報処理装置10が備える構成を排除するものではない。 The configuration of the information processing device 10 described above is the main configuration described in explaining the features of the above-described embodiment, and is not limited to the above-described configuration, and may be modified in various ways within the scope of the claims. can. Moreover, the configuration provided in the general information processing device 10 is not excluded.

上述した実施形態に係る情報処理装置10における各種処理を行う手段および方法は、専用のハードウェア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)-ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、装置の一機能としてその装置のソフトウエアに組み込まれてもよい。 The means and methods for performing various processes in the information processing apparatus 10 according to the embodiments described above can be realized by either a dedicated hardware circuit or a programmed computer. The program may be provided on a computer-readable recording medium such as a USB memory or a DVD (Digital Versatile Disc)-ROM, or may be provided online via a network such as the Internet. In this case, the program recorded on the computer-readable recording medium is usually transferred and stored in a storage unit such as a hard disk. Further, the above program may be provided as a standalone application software, or may be incorporated into the software of the device as a function of the device.

1 情報処理システム
10 情報処理装置
11 制御部
111 取得部
112 第1情報生成部
113 第2情報生成部
114 出力部
12 記憶部
13 通信部
20 検知部
21 制御部
22 通信部
23 カメラ
24 センサー
1 Information processing system 10 Information processing device 11 Control unit 111 Acquisition unit 112 First information generation unit 113 Second information generation unit 114 Output unit 12 Storage unit 13 Communication unit 20 Detection unit 21 Control unit 22 Communication unit 23 Camera 24 Sensor

Claims (15)

看介護施設に入居する対象者に関するデータを取得する取得部と、
取得されたデータに基づいて、前記対象者の身体機能に関する第1情報を生成する第1情報生成部と、
前記第1情報に基づいて、前記対象者の生活動作の実施レベルに関する第2情報を生成する第2情報生成部と、
を備える、情報処理装置。
an acquisition unit that acquires data regarding subjects residing in nursing care facilities;
a first information generation unit that generates first information regarding the physical function of the subject based on the acquired data;
a second information generation unit that generates second information regarding the implementation level of the subject's daily activities based on the first information;
An information processing device comprising:
前記取得部が取得するデータは、観察領域内における前記対象者の動きを検出するセンサーからのデータである、請求項1に記載の情報処理装置。 The information processing device according to claim 1, wherein the data acquired by the acquisition unit is data from a sensor that detects movement of the subject within an observation area. 前記第1情報は、前記対象者の身体機能の実施レベルに関する情報、または身体機能を用いた動作に関する情報である、請求項1、または請求項2に記載の情報処理装置。 3. The information processing apparatus according to claim 1, wherein the first information is information regarding the performance level of the subject's physical functions or information regarding the movement using the physical functions. 前記第2情報は、予め定められた前記対象者に関する複数の入力項目に対応する情報である、請求項1から請求項3のいずれかに記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 3, wherein the second information is information corresponding to a plurality of input items regarding the predetermined subject. 前記第2情報生成部は、前記第1情報が入力された場合に前記第2情報を出力する情報変換器を用いて、前記第1情報から前記第2情報を生成する、請求項1から請求項4のいずれかに記載の情報処理装置。 The second information generation unit generates the second information from the first information using an information converter that outputs the second information when the first information is input. The information processing device according to any one of Item 4. 前記対象者に関する前記データは、前記対象者を撮影した撮影データであり、および前記第1情報は、前記撮影データを画像解析することで生成した情報であり、
前記情報変換器は、前記第1情報、および前記対象者をケアするスタッフにより判定され設定された前記第2情報と同等の情報である第3情報に基づいて予め生成されたものである請求項5に記載の情報処理装置。
The data regarding the subject is photographic data obtained by photographing the subject, and the first information is information generated by image analysis of the photographic data,
The information converter is generated in advance based on the first information and third information that is information equivalent to the second information determined and set by the staff caring for the subject. 5. The information processing device according to 5.
前記情報変換器には、前記第1情報および前記第3情報との間の統計情報に基づいて予め生成された複数の第1変換テーブルが含まれ、および、
前記第2情報生成部は、前記第1変換テーブルを用いて、前記第1情報を前記第2情報に変換する、請求項6に記載の情報処理装置。
The information converter includes a plurality of first conversion tables generated in advance based on statistical information between the first information and the third information, and
The information processing device according to claim 6, wherein the second information generation unit converts the first information into the second information using the first conversion table.
前記情報変換器には、前記第1情報および前記第3情報を、項目反応理論における各項目とし、推定した各項目の項目難易度の比較により、生成された複数の第2変換テーブルが含まれ、および、
前記第2情報生成部は、前記第2変換テーブルを用いて、前記第1情報を前記第2情報に変換する、請求項6に記載の情報処理装置。
The information converter includes a plurality of second conversion tables generated by treating the first information and the third information as each item in item response theory and comparing estimated item difficulty levels of each item. ,and,
The information processing device according to claim 6, wherein the second information generation unit converts the first information into the second information using the second conversion table.
前記情報変換器には、前記第1情報および前記第3情報との組み合わせを教師データとして学習された機械学習モデルが含まれ、および、
前記第2情報生成部は、前記機械学習モデルを用いて、前記第1情報を前記第2情報に変換する、請求項6に記載の情報処理装置。
The information converter includes a machine learning model trained using a combination of the first information and the third information as training data, and
The information processing device according to claim 6, wherein the second information generation unit converts the first information into the second information using the machine learning model.
さらに、前記第2情報を出力する出力部を備える、請求項1から請求項9のいずれかに記載の情報処理装置。 The information processing device according to any one of claims 1 to 9, further comprising an output unit that outputs the second information. 請求項10に記載の情報処理装置と、
前記情報処理装置が生成した第2情報を表示する表示装置と、
を備える情報処理システム。
The information processing device according to claim 10;
a display device that displays second information generated by the information processing device;
An information processing system equipped with.
看介護施設に入居する対象者に関するデータを取得するステップ(a)と、
取得されたデータに基づいて、前記対象者の身体機能に関する第1情報を生成するステップ(b)と、
前記第1情報に基づいて、前記対象者の生活動作の実施レベルに関する第2情報を生成するステップ(c)と、を含む処理を実行する情報処理方法。
step (a) of obtaining data regarding a subject residing in a nursing care facility;
(b) generating first information regarding the physical function of the subject based on the acquired data;
An information processing method that performs processing including a step (c) of generating second information regarding the performance level of the subject's daily activities based on the first information.
前記ステップ(a)で取得するデータは、観察領域内における前記対象者の動きを検出するセンサーからのデータである、請求項12に記載の情報処理方法。 The information processing method according to claim 12, wherein the data acquired in the step (a) is data from a sensor that detects movement of the subject within an observation area. 前記ステップ(c)では、前記第1情報が入力された場合に前記第2情報を出力する情報変換器を用いて、前記第1情報から前記第2情報を生成する、請求項12、または請求項13に記載の情報処理方法。 13. The method of claim 12, wherein in step (c), the second information is generated from the first information using an information converter that outputs the second information when the first information is input. The information processing method according to item 13. 請求項12から請求項14のいずれかに記載の情報処理方法を、コンピューターに実行させるための制御プログラム。
A control program for causing a computer to execute the information processing method according to any one of claims 12 to 14.
JP2022039047A 2022-03-14 2022-03-14 Information processing apparatus, information processing system, information processing method, and control program Pending JP2023133834A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022039047A JP2023133834A (en) 2022-03-14 2022-03-14 Information processing apparatus, information processing system, information processing method, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022039047A JP2023133834A (en) 2022-03-14 2022-03-14 Information processing apparatus, information processing system, information processing method, and control program

Publications (1)

Publication Number Publication Date
JP2023133834A true JP2023133834A (en) 2023-09-27

Family

ID=88143660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022039047A Pending JP2023133834A (en) 2022-03-14 2022-03-14 Information processing apparatus, information processing system, information processing method, and control program

Country Status (1)

Country Link
JP (1) JP2023133834A (en)

Similar Documents

Publication Publication Date Title
Pham et al. Delivering home healthcare through a cloud-based smart home environment (CoSHE)
Stone et al. Unobtrusive, continuous, in-home gait measurement using the Microsoft Kinect
JP2021525421A (en) Robotic dialogue for observable signs of health
WO2019187099A1 (en) Bodily function independence assistance device and method therefor
US20210219873A1 (en) Machine vision to predict clinical patient parameters
WO2017183602A1 (en) Monitoring-subject monitoring system and method for monitoring subject
JP2018106437A (en) Behavioral assessment system and behavioral assessment method
WO2021166605A1 (en) Occupational therapy supporting device, artificial intelligence learning device for occupational therapy supporting device, and use method of occupational therapy supporting device
Frenken et al. aTUG: technical apparatus for gait and balance analysis within component-based Timed Up & Go using mutual ambient sensors
JP2023133834A (en) Information processing apparatus, information processing system, information processing method, and control program
JP2023133838A (en) Information processing apparatus, information processing system, information processing method, and control program
JP7314939B2 (en) Image recognition program, image recognition device, learning program, and learning device
JP7327397B2 (en) Computer-implemented programs, information processing systems, and computer-implemented methods
Inoue et al. Bed exit action detection based on patient posture with long short-term memory
JP7342863B2 (en) Computer-executed programs, information processing systems, and computer-executed methods
Skubic et al. HCI challenges for consumer-based aging in place technologies
JP7285886B2 (en) HEALTH PROMOTION PROGRAM PROVISION SYSTEM AND HEALTH PROMOTION PROGRAM PROVISION METHOD
Liao et al. An empirical study on engineering a real-world smart ward using pervasive technologies
JP7518699B2 (en) SYSTEM, ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, AND PROGRAM
Wang Motion analysis for in-home gait and balance assessment using inexpensive video sensors
Takahashi et al. A system for collecting motion data on patients’ activities of daily living
JP7276336B2 (en) Computer-implemented programs, information processing systems, and computer-implemented methods
Jiang A Smart and Minimum-intrusive Monitoring Framework Design for Health Assessment of the Elderly
JP2021197072A (en) Control program, arithmetic device, control system, and control method
Arcelus Context-aware smart home monitoring through the analysis of pressure sequences