JP7237382B1 - 画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents
画像処理装置、画像処理方法、及び画像処理プログラム Download PDFInfo
- Publication number
- JP7237382B1 JP7237382B1 JP2021211730A JP2021211730A JP7237382B1 JP 7237382 B1 JP7237382 B1 JP 7237382B1 JP 2021211730 A JP2021211730 A JP 2021211730A JP 2021211730 A JP2021211730 A JP 2021211730A JP 7237382 B1 JP7237382 B1 JP 7237382B1
- Authority
- JP
- Japan
- Prior art keywords
- information
- dangerous state
- image
- image processing
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims abstract description 114
- 238000003672 processing method Methods 0.000 title claims abstract description 30
- 238000001514 detection method Methods 0.000 claims abstract description 279
- 238000000034 method Methods 0.000 claims description 53
- 238000012937 correction Methods 0.000 claims description 50
- 230000008569 process Effects 0.000 claims description 42
- 230000004044 response Effects 0.000 claims description 12
- 230000002776 aggregation Effects 0.000 claims description 8
- 238000004220 aggregation Methods 0.000 claims description 8
- 230000036544 posture Effects 0.000 description 139
- 210000000689 upper leg Anatomy 0.000 description 36
- 238000010586 diagram Methods 0.000 description 21
- 238000003384 imaging method Methods 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 14
- 230000033001 locomotion Effects 0.000 description 12
- 230000004048 modification Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 12
- 230000006399 behavior Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 8
- 238000010276 construction Methods 0.000 description 8
- 238000009795 derivation Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 5
- 230000000474 nursing effect Effects 0.000 description 5
- 230000002265 prevention Effects 0.000 description 5
- 230000006641 stabilisation Effects 0.000 description 5
- 238000011105 stabilization Methods 0.000 description 5
- 230000037237 body shape Effects 0.000 description 4
- 231100001261 hazardous Toxicity 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000005856 abnormality Effects 0.000 description 3
- 230000004931 aggregating effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000004886 head movement Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000011895 specific detection Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
人が相対的な高所から低所に転落した場合には、重篤な事故となり得るが、物理的に転落を防止することには限界がある。例えば、ベッドからの転落を防止するためには、ベッドを柵で囲繞することが考えられるが、これを高齢者施設で行うことは、身体的拘束に該当し得る行為として、制限され得る。日本では、厚生労働省令である「指定介護老人福祉施設の人員、設備及び運営に関する基準」(2018年改正施行)において、「指定介護老人福祉施設は、・・・緊急やむを得ない場合を除き、身体的拘束その他入所者の行動を制限する行為・・・を行ってはならない。」(11条4項)と規定されている。その「身体的拘束その他入所者の行動を制限する行為」に該当する具体的行為には、「自分で降りられないように、ベッドを柵(サイドレール)で囲む」行為が含まれると解されてきている(「身体拘束ゼロへの手引き」,厚生労働省「身体拘束ゼロ作戦推進会議」発行(2001年))。そうした背景のもと、高齢者施設では、ベッド柵が上半身に対応する部分に限られ、結果的に、ベッド上の高齢者が例えば下半身より転落する事故の発生につながっている。また、鉄道の駅のプラットフォームからの転落を防止するために、プラットフォーム端ドアの設置等の対策が行われているが、既存の駅を改修して設置するには、時間と費用を要するため、設置の進捗には限界がある。さらに、建設作業現場では、作業床面等における開口部の周囲に手すりを設置して作業員の墜落ないし転落を防止することが行われているが、物品の搬出入等の作業のため、開口部の周囲の一部に手すりを設置しない箇所を設ける必要がある場合があり、そうした開口部に安全帯を使用していない作業員が接近すると、墜落ないし転落の危険が生ずる。
当該実施形態の画像処理装置(100)は、検出対象者を撮影した画像を受け取る画像受取部(102)と、前記画像において前記検出対象者の身体の複数の部位を特定し、特定された前記部位の位置情報を含む情報を検出するスケルトン検出部(104)と、少なくとも前記部位に応じて設定されており前記位置情報に関する危険状態判定基準を格納した判定基準格納部(106)と、前記判定基準格納部から前記危険状態判定基準を取得し、前記位置情報及び前記危険状態判定基準を含む情報に基づいて、前記検出対象者が危険な状態にあるか否かを判定する危険状態判定部(108)と、前記危険状態判定部の判定結果を含む情報を出力する出力部(110)と、を備える。
当該実施形態においては、検出対象者を撮影した画像を受け取り(S1202,S2102)、前記画像において前記検出対象者の身体の複数の部位を特定し、特定された前記部位の位置情報を含む情報を検出し(S1204,S2104)、少なくとも前記部位に応じて設定されており前記位置情報に関する危険状態判定基準を取得し(S1208,S2106)、前記位置情報及び前記危険状態判定基準を含む情報に基づいて、前記検出対象者が危険な状態にあるか否かを判定し(S1210,S2108)、前記判定の結果を含む情報を出力する(S1212,S2110)処理が実行される。
さらに具体的な実施形態では、画像処理装置は、検出対象者ごとの身体状態情報を格納した身体状態情報格納部をさらに有し、前記危険状態判定基準は、少なくとも前記部位及び前記身体状態情報に応じて設定されており、前記危険状態判定部は、前記身体状態情報格納部から前記検出対象者の前記身体状態情報を取得し、前記判定基準格納部から前記部位及び取得した前記身体状態情報に応じた前記危険状態判定基準を取得する。
訂正情報の受付けにあたっては、前記出力部が入出力装置(例えば携帯端末)に対して前記判定結果を含む情報の出力を行うように構成し、訂正情報受付部が当該入出力装置から訂正情報を受け付けるようにすることができる。これにより、判定結果の確認及び訂正情報の入力を容易化することができる。
本明細書及び図面に開示された動作フローの各ステップは、矛盾のない限り順番を入れ換えて実行されてもよい。また、複数のステップが同時に実行されてもよい。各ステップは、メモリに記憶されたプログラムを実行することにより実現されてもよい。また各ステップの一部は、オペレーティングシステムあるいはハードウェアにより実現されてもよい。
以下の実施形態は、装置の発明、方法の発明、プログラムの発明、及びプログラムを記録した記憶媒体の発明などのカテゴリとして把握され得る。
なお、「実施形態のプログラム又は方法」を、適宜、「実施形態のプログラム」と省略して記す。また、「処理をコンピュータに実行させる」との文言は、適宜省略する。
まず、実施形態の適用例を説明する。当該例は、検出対象者を撮影した画像がベッド上における当該検出対象者を撮影した画像を含む場合である。
図3は、撮影装置及びベッドの配置例を示す図である。
撮影装置300は、図1中の撮影装置120及び図2中の撮影装置230に対応したものであり、例えば、赤外線カメラあるいは赤外線距離画像センサからなる。当該撮影装置300は、検出対象者320用のベッド302及びその周辺を上方より俯瞰して撮影することができるよう、居室の壁面上部又は天井等の場所に設置されている。撮影画像には、動画像及び静止画像が含まれ得る。撮影装置300は、複数のカメラを有していてもよい。また、撮影装置300は、例えばLEDにより赤外線を撮影領域に向けて照射する照明装置を有していてもよい。さらに、撮影装置300は、前記のとおり赤外線距離画像センサであってもよい。
撮影装置300として赤外線カメラを用いることにより、検出対象者が寝具をまとっていても、検出対象者の身体の形状を良好に反映した画像を得ることができる。撮影装置300としては、可視光カメラを用いてもよく、赤外線カメラと可視光カメラを併用してもよい。
なお、実施形態のプログラムを実行するコンピュータが、エッジコンピューティング型のものとして、撮影装置300と一体的に設けられていてもよい。
ベッド402は、二方面が居室の壁面に接する形で配置されており、長手方向のうち、壁面に接していないほうの一部には、柵(サイドレール)404が設置されている。具体的には、ベッド402の周囲四辺のうち、ベッド402の角部405及び407を結ぶ辺のうち、角部405と当該辺上の点406との間の部分(破線で図示)に柵404が設置されており、角部408及び409を結ぶ辺(一点鎖線で図示)、並びに、角部409及び405を結ぶ辺(同じく一点鎖線で図示)は、居室の壁面に接している。点406と角部407との間の部分(太実線で図示)、並びに、角部407及び408を結ぶ辺(同じく太実線で図示)は、居室の壁面に接しておらず、柵404も設けられていない部分である。
実施形態の適用例においては、検出対象者の身体の複数の部位の位置情報、又は検出対象者の姿勢を検出する際の精度を向上させるため、ベッドの領域の設定を行うことができる。
ベッドの領域の設定は、行わなくてもよい。
次に、実施形態の詳細を説明する。
再び図2を参照し、撮影装置230が検出対象者を撮影した画像は、実施形態の画像処理装置の画像受取部202により受け取られる。
受け取られた画像に対して、前処理を施してもよい。前処理には、例えば、歪補正、輝度補正、サイズ変更、及びクリッピングがあり得る。前処理は、行わなくてもよい。
実施形態において、検出対象者の身体の複数の部位の特定及び特定された部位の位置情報を含む情報の検出は、機械学習の技術を用い、学習済みモデル216(図2中の学習済みモデル1)に対する検出対象者を撮影した画像を含む情報の入力に応じて、スケルトン検出部204により行われる。具体的には、まず、検出対象者を撮影した画像が、スケルトン検出部204により、学習済みモデル216に入力される。既述したベッド領域の設定の結果も併せて、学習済みモデル216に入力されるようにしてもよい。これに対し、学習済みモデル216は、関節点を含む身体の各特徴点(例えば、頭部あるいは鼻並びに左右の目及び耳、首、左右の肩、左右の肘、左右の手首、左右の腰部、左右の膝、並びに左右の足首)を抽出し、それら特徴点の撮影画像上での位置(座標)をスケルトン検出部204に出力する。その出力を受けたスケルトン検出部204は、検出対象者の身体の複数の部位及びそれらの位置情報を検出する。身体の複数の部位には、例えば、検出対象者の頭部の中心(推定される頭部の中心又は推定される頭部の重心;以下、単に「頭部」ということがある。)及び大腿部の中心(推定される大腿部の中心;以下、単に「大腿部」ということがある。)が含まれ得る。スケルトン検出部204は、検出対象者の身体の複数の部位及びそれらの位置情報のほか、部位の移動の向き、部位の移動の速さ、顔の向き等も、併せて検出してもよい。学習済みモデル216は、ニューラルネットワークとして実現されていてもよい。
実施形態において、検出対象者の姿勢の検出は、機械学習の技術を用い、学習済みモデル218に対する検出対象者を撮影した画像を含む情報の入力に応じて、姿勢検出部214により行われる。具体的には、まず、検出対象者を撮影した画像が、姿勢検出部214により、学習済みモデル218(図2中の学習済みモデル2)に入力される。既述したベッド領域の設定の結果も併せて、学習済みモデル218に入力されるようにしてもよい。これに対し、学習済みモデル218は、前記学習済みモデル216と同様に、関節点を含む身体の各特徴点を抽出するが、前記学習済みモデル216とは異なり、それら特徴点の配置に基づき、検出対象者の姿勢に関する情報を姿勢検出部214に出力する。その出力を受けた姿勢検出部214は、検出対象者の姿勢を検出する。検出される姿勢には、例えば、「ベッド上での立位」、「柵からの乗り出し」、「四つ這い」、「端座」(ここでは、ベッドの端部に腰掛けた姿勢を意味する。)、「離床」、「起き上がり」、「ベッド外での臥位」、及び「ベッド上での臥位」が含まれ得る。学習済みモデル218は、ニューラルネットワークとして実現されていてもよい。
実施形態の画像処理装置は、検出対象者ごとの身体状態情報を格納した身体状態情報格納部212を有しており、危険状態判定基準は、少なくとも検出対象者の身体の部位及び当該身体状態情報に応じて設定されている。かかる身体状態情報は、ベッド上の検出対象者の場合、例えば、「起き上がり可、離床可」、「起き上がり可、離床不可」、及び「起き上がり不可、離床不可」といった、許容される動作ないし行動に関する情報であり得る。これは、個々の検出対象者の身体状態によって、当該検出対象者に許容される動作ないし行動が異なり得、何が危険状態であるかも異なり得るからである。そして、実施形態の危険状態判定基準は、後述するように、そうした身体状態情報に応じて設定されている特定の姿勢の危険度の情報及び身体の部位の位置に関する危険度の情報を有している。
画像処理装置又は画像処理装置と連携して動作する装置が、撮影された画像中の人物を個人として識別する機能を有する場合には、身体状態情報格納部212は、個々の検出対象者に直接紐づける形で、当該検出対象者の身体状態情報を格納するものであってよい。
実施形態の画像処理装置においては、その判定基準格納部206に、図9~11に示す危険状態判定基準が格納されている。当該危険状態判定基準は、検出対象者の身体の部位及び身体状態情報に応じて設定されており、検出対象者の姿勢及び身体の部位の位置情報に関する判定基準となっている。
以上のとおり、図9~11は全体として、危険状態判定基準の例を示している。かかる危険状態判定基準は、既述のとおり、判定基準格納部206に格納されている。
実施形態の画像処理装置は、出力部210及び訂正情報受付部220を有する。
それら危険度の導出に関連した情報、すなわち、検出対象者の身体の部位の位置情報若しくは特徴点の位置情報、又は検出対象者の姿勢については訂正がなされずに、判定結果としての危険度に係る訂正がなされた場合には、訂正情報受付部220は、その訂正情報を判定基準格納部206に供給し、それを受けて判定基準格納部206が、危険状態判定基準を更新する。
危険度の導出に関連した情報の訂正がなされ、かつ、判定結果としての危険度に係る訂正もなされた場合であって、当該訂正された危険度が、前記関連した情報の訂正に基づいて特定される危険度と異なるものであるときにも、訂正情報受付部220は、訂正情報を判定基準格納部206に供給し、それを受けて判定基準格納部206が、危険状態判定基準を更新する。このとき、危険度の導出に関連した情報の訂正内容により、訂正情報受付部220は、その訂正情報を学習済みモデル216又は218にも供給し、それを受けて学習済みモデル216又は218が、更新を実行する。
危険状態判定基準の更新は、機械学習を用いて実施してもよい。
実施形態の画像処理装置は、集計部222を有する。
また、集計部222は、複数の検出対象者を対象として判定結果を含む情報を集計する機能も有していてよい。
訂正情報受付部220が、判定結果を含む情報を訂正する情報を受け付けた場合には、当該訂正する情報は集計部222に供給され、訂正された情報に基づいて集計が行われ得る。
図12は、実施形態のプログラムにおける処理S1200の例を示すフローチャートである。
実施形態のプログラムは、ステップS1202において、検出対象者を撮影した画像を受け取る処理をコンピュータに実行させる。なお、既述のとおり、以下の説明において、「処理をコンピュータに実行させる」との文言は、適宜省略する。
ステップS1204では、一つ前のステップS1202にて受け取った画像において、検出対象者の身体の複数の部位を特定し、特定された部位の位置情報を含む情報を検出する。
ステップS1206では、前記画像において検出対象者の姿勢を検出する。
ステップS1208では、危険状態判定基準を取得する。当該危険状態判定基準は、少なくとも身体の複数の部位及び身体状態情報に応じて設定されており、部位の位置情報及び姿勢に関する判定基準を有する。
ステップS1210では、部位の位置情報、姿勢、及び危険状態判定基準を含む情報に基づいて、検出対象者が危険な状態にあるか否かを判定する。
ステップS1212では、一つ前のステップS1210にてなされた判定の結果を含む情報を出力する。
ステップS1214では、判定の結果を含む情報を訂正する情報を受け付ける処理が行われ、訂正する情報があった場合には、当該情報に基づいて、危険状態判定基準、部位の位置情報若しくは姿勢の検出に用いられる学習済みモデル、又は危険状態判定基準及び学習済みモデルの双方を更新する。
ステップS1216では、検出対象者ごとに判定の結果を含む情報を集計する処理を行う。
以上で、処理は終了する。
実施形態のプログラムは、ステップS1302において、学習済みモデル216に対し、検出対象者を撮影した画像を入力する。
ステップS1304では、学習済みモデル216から、検出対象者の身体の複数の部位を特定した結果、及び特定された部位の位置情報を含む情報を受け取る。
以上で、サブルーチンであるS1300の処理は終了する。
実施形態のプログラムは、ステップS1402において、学習済みモデル218に対し、検出対象者を撮影した画像を入力する。
ステップS1404では、学習済みモデル218から、検出対象者の姿勢に関する情報を受け取る。
以上で、サブルーチンであるS1400の処理は終了する。
実施形態のプログラムは、ステップS1502において、検出対象者ごとに格納された身体状態情報から、検出対象者の身体状態情報を取得する。
ステップS1504では、検出対象者の身体の部位及び一つ前のステップS1502において取得した身体状態情報に応じた危険状態判定基準を取得する。
以上で、サブルーチンであるS1500の処理は終了する。
実施形態のプログラムは、ステップS1602において、検出対象者の身体の部位の位置情報及び姿勢の履歴に基づき、かかる位置情報及び姿勢について、前記「検出対象者が危険な状態にあるか否かの判定」の項にて既述の安定化処理を行う。
ステップS1604では、検出対象者の姿勢及び身体の部位の位置情報と、危険状態判定基準との比較を行う。
ステップS1606では、当該比較に基づいて、検出対象者が危険な状態にあるか否かを判定する。
以上で、サブルーチンであるS1600の処理は終了する。
実施形態のプログラムは、ステップS1702において、検出対象者が危険な状態にあるか否かの判定の結果を含む情報を入出力装置に対して出力する。
ステップS1704では、検出対象者が危険な状態にあると判定されたか否かについて判断が行われる。前記「判定結果を含む情報の出力並びに訂正情報の受付け及び訂正情報に基づく更新処理」にて既述のとおり、当該判断は、危険な状態にあるか否かの判定の結果が所定値以上の危険度であるか否かに基づいて行うことができる。
ステップS1704での判断の結果がYESである場合、ステップS1706では、検出対象者の身体の部位に応じたレベルの報知をする。
以上で、サブルーチンであるS1700の処理は終了する。
実施形態のプログラムは、ステップS1802において、入出力装置から、検出対象者が危険な状態にあるか否かの判定の結果を含む情報を訂正する情報を受け付ける。
ステップS1804では、訂正する情報に基づいて危険状態判定基準を更新する。
ステップS1806では、訂正する情報に基づいて学習済みモデル(学習済みモデル216、学習済みモデル218、又はそれら双方)を更新する。
危険状態判定基準及び学習済みモデルの更新は、例えば前記「判定結果を含む情報の出力並びに訂正情報の受付け及び訂正情報に基づく更新処理」において説明した方法により、実施され得る。
以上で、サブルーチンであるS1800の処理は終了する。
次に、実施形態の変形例を説明する。
変形例の画像処理装置では、スケルトン検出部が、検出対象者の身体の複数の部位の位置情報として、それら部位の高さに関する情報も検出し、その代わりに、当該変形例の画像処理装置は、検出対象者の姿勢を検出する姿勢検出部を有さない。
すなわち、既述の実施形態の画像処理装置においては、スケルトン検出部204が、検出対象者の身体の複数の部位、及びそれら部位の画像上での位置(座標)でなる位置情報を検出していたのに対し、変形例の画像処理装置は、撮影装置に赤外線距離画像センサを使用して得られる、距離データを備えた画像を受け取ることにより、当該変形例の装置においてスケルトン検出部204は、検出対象者の身体の複数の部位、及びそれら部位の空間内での位置(座標)でなる位置情報(それら部位の高さに関する情報も含む。)を検出する。そして、変形例の装置においては、危険状態判定基準に、部位の高さに関する情報を用いることによって、検出対象者の姿勢に関する判断も行い得るようにする。そのため、変形例の装置は、既述の実施形態の装置における姿勢検出部214及び関連する学習済みモデル218を有さない。そのほかは、変形例の装置は、図2に示される既述の実施形態の画像処理装置と同様の構成を有する。
図19及び20に示される危険状態判定基準においては、図10及び11に示される既述の危険状態判定基準と異なり、検出対象者の頭部及び大腿部に関し、それぞれ、ベッド面からの高さについての閾値THv1及びTHv2並びにTTv1及びTTv2が設定されている。
検出対象者の頭部がベッド面の上部にある場合において、頭部のベッド面からの高さが閾値THv1以下であるときには、検出対象者は「ベッド上での臥位」に対応する姿勢をとっているとして、危険状態判定基準は、頭部の壁・柵なしベッド端部からのベッド面上距離に応じ、身体状態によって図19A~19Cに0から5の数値で示される、危険度を設定している。次に、頭部のベッド面からの高さが閾値THv1を超え閾値THv2以下であるときには、検出対象者は「起き上がり」に対応する姿勢をとっているとして、危険状態判定基準は、身体状態により、図示の危険度を設定している。さらに、頭部のベッド面からの高さが閾値THv2を超えているときには、検出対象者は「ベッド上での立位」に対応する姿勢をとっているとして、危険状態判定基準は、危険度5を設定している。
検出対象者の頭部がベッド面の上部にない場合において、頭部のベッド面からの高さが閾値THv1を超えているときには、検出対象者は「離床」状態にあるとして、危険状態判定基準は、身体状態によって図19A~19Cに0から5の数値で示される、危険度を設定している。そして、頭部がベッド面の上部にない場合において、頭部のベッド面からの高さが閾値THv1以下であるときには、検出対象者は「ベッド外での臥位」を含む異常な状態にあるとして、危険状態判定基準は、危険度5を設定している。
検出対象者の大腿部がベッド面の上部にある場合において、大腿部のベッド面からの高さが閾値TTv1以下であるときには、検出対象者は「ベッド上での臥位」に対応する姿勢をとっているとして、危険状態判定基準は、大腿部の壁・柵なしベッド端部からのベッド面上距離に応じ、身体状態によって図20A~20Cに0から4の数値で示される、危険度を設定している。次に、大腿部のベッド面からの高さが閾値TTv1を超え閾値TTv2以下であるときには、検出対象者は「起き上がり」に対応する姿勢又は「ベッド上で足を立てている」姿勢をとっているとして、危険状態判定基準は、身体状態により、図示の危険度を設定している。さらに、大腿部のベッド面からの高さが閾値TTv2を超えているときには、検出対象者は「ベッド上での立位」に対応する姿勢をとっているとして、危険状態判定基準は、危険度5を設定している。
検出対象者の大腿部がベッド面の上部にない場合において、大腿部のベッド面からの高さが閾値TTv1を超えているときには、検出対象者は「離床」状態にあるとして、危険状態判定基準は、身体状態によって図20A~20Cに0から5の数値で示される、危険度を設定している。そして、大腿部がベッド面の上部にない場合において、大腿部のベッド面からの高さが閾値TTv1以下であるときには、検出対象者は「ベッド外での臥位」を含む異常な状態又は「離床」状態にあるとして、危険状態判定基準は、図示のとおり、身体状態によって危険度4又は5を設定している。
当該プログラムのフローチャートは、ステップS2102~S2114からなるが、図12に示される既述の実施形態のプログラムのフローチャートと異なる点は、ステップS1206にあった、検出対象者を撮影した画像において検出対象者の姿勢を検出する処理がない点である。また、ステップS2108における、検出対象者が危険な状態にあるか否かを判定する処理の内容が、対応するステップS1210における処理の内容と異なっている。なお、ステップS2104で検出する部位の位置情報は、部位の高さに関する情報も含むものであり、また、ステップS2106で取得する危険状態判定基準は、ステップS1208で取得する危険状態判定基準とは異なり、部位の位置情報及び姿勢に関する判定基準ではなく、図19及び20に例示される、部位の位置情報(それら部位の高さに関する情報も含む。)に関する判定基準である。
そのほかは、変形例に対応するプログラムにおける処理のフローは、既述の実施形態のプログラムにおける処理のフローと同様である。
実施形態の変形例に対応するプログラムは、当該サブルーチンS2200において、実施形態のプログラムの前記サブルーチンS1600と異なり、画像において検出される検出対象者の姿勢を用いた処理を有さない。
変形例のプログラムは、ステップS2202において、検出対象者の身体の部位の位置情報の履歴に基づき、かかる位置情報について、前記「検出対象者が危険な状態にあるか否かの判定」の項にて既述の安定化処理を行う。当該位置情報は、検出対象者の身体の部位の高さに関する情報も含む。
ステップS2204では、検出対象者の身体の部位の位置情報(それら部位の高さに関する情報も含む。)と、図19及び20に例示される危険状態判定基準との比較を行う。
ステップS2206では、当該比較に基づいて、検出対象者が危険な状態にあるか否かを判定する。
以上で、サブルーチンであるS2200の処理は終了する。
図23は、実施形態(前記変形例も含む。)の画像処理装置200、又は画像処理方法若しくは画像処理プログラムを実行する装置2300のハードウェア構成図である。当該装置2300は、CPU2302、ROM2304、RAM2306、キー操作部2308、通信部2310、表示部2312、及び外部記憶制御部2314を有する。当該装置2300は、外部記憶制御部2314により、メモリ2316に記憶された画像処理プログラムを読み込んで動作することが可能である。画像処理プログラムは、ROM2304及びRAM2306にも保存され得る。すなわち、実施形態を実現するプログラムは、一時的でない(non-transitory)、実体のある(tangible)、そして機械可読の(machine-readable)記憶媒体であるメモリ2316、ROM2304、及び/又はRAM2306に記憶される。当該装置2300は、画像処理プログラムを実行するCPU2302の管理のもとに動作する。
検出対象者を撮影した画像を受け取る画像受取部と、
前記画像において前記検出対象者の身体の複数の部位を特定し、特定された前記部位の位置情報を含む情報を検出するスケルトン検出部と、
少なくとも前記部位に応じて設定されており前記位置情報に関する危険状態判定基準を格納した判定基準格納部と、
前記判定基準格納部から前記危険状態判定基準を取得し、前記位置情報及び前記危険状態判定基準を含む情報に基づいて、前記検出対象者が危険な状態にあるか否かを判定する危険状態判定部と、
前記危険状態判定部の判定結果を含む情報を出力する出力部と、
を備えた
画像処理装置。
前記検出対象者ごとの身体状態情報を格納した身体状態情報格納部をさらに有し、
前記危険状態判定基準は、
少なくとも前記部位及び前記身体状態情報に応じて設定されており、
前記危険状態判定部は、
前記身体状態情報格納部から前記検出対象者の前記身体状態情報を取得し、前記判定基準格納部から前記部位及び取得した前記身体状態情報に応じた前記危険状態判定基準を取得する
付記1に記載の画像処理装置。
前記画像は、赤外線画像である
付記1又は2に記載の画像処理装置。
前記スケルトン検出部は、
学習済みモデルに対する前記画像を含む情報の入力に応じて、前記部位を特定し、特定された前記部位の位置情報を含む情報を検出する
付記1ないし3のうちいずれか1項に記載の画像処理装置。
前記画像において前記検出対象者の姿勢を検出する姿勢検出部をさらに有し、
前記危険状態判定基準は、
前記位置情報及び前記姿勢に関する判定基準を有し、
前記危険状態判定部は、
前記位置情報、前記姿勢、及び前記危険状態判定基準を含む情報に基づいて、前記検出対象者が危険な状態にあるか否かを判定する
付記1ないし4のうちいずれか1項に記載の画像処理装置。
前記姿勢検出部は、
学習済みモデルに対する前記画像を含む情報の入力に応じて、前記姿勢を検出する
付記5に記載の画像処理装置。
前記判定結果を含む情報を訂正する情報を受け付ける訂正情報受付部をさらに有し、
前記判定基準格納部は、
前記訂正情報受付部から取得した前記訂正する情報に基づいて前記危険状態判定基準を更新する
付記1ないし6のうちいずれか1項に記載の画像処理装置。
前記判定結果を含む情報を訂正する情報を受け付ける訂正情報受付部をさらに有し、
前記学習済みモデルは、
前記訂正情報受付部から取得した前記訂正する情報に基づいて更新を実行する
付記4又は6に記載の画像処理装置。
前記出力部は、入出力装置に対して前記判定結果を含む情報の出力を行い、
前記訂正情報受付部は、前記入出力装置から前記訂正する情報を受け付ける
付記7又は8に記載の画像処理装置。
前記危険状態判定部は、
少なくとも前記位置情報又は前記姿勢の履歴に基づいて、前記検出対象者が危険な状態にあるか否かを判定する
付記1ないし9のうちいずれか1項に記載の画像処理装置。
集計部をさらに有し、
前記出力部は、前記集計部に対して、前記判定結果を含む情報の出力を行い、
前記集計部は、
前記検出対象者ごとに前記判定結果を含む情報を集計する
付記1ないし10のうちいずれか1項に記載の画像処理装置。
前記位置情報は、
前記部位と前記身体の周辺に存在する物体との相対的な位置関係に関する情報を含み、
前記危険状態判定基準は、
前記部位と前記物体との相対的な位置関係に関する判定基準を含む
付記1ないし11のうちいずれか1項に記載の画像処理装置。
前記位置情報は、
前記部位の前記身体を支持する物体の特定部分からの距離に関する情報を含み、
前記危険状態判定基準は、
前記部位の前記特定部分からの距離に関する判定基準を含む
付記1ないし12のうちいずれか1項に記載の画像処理装置。
前記画像は、ベッド上における前記検出対象者を撮影した画像を含み、
前記部位は、前記検出対象者の頭部を含み、
前記位置情報は、
前記頭部の前記ベッドの端部からの距離に関する情報を含み、
前記危険状態判定基準は、
前記頭部の前記端部からの距離に関する判定基準を含む
付記1ないし13のうちいずれか1項に記載の画像処理装置。
前記危険状態判定基準は、
さらに前記ベッドに設けられている柵に関する状況にも応じて設定されている
付記14に記載の画像処理装置。
前記危険状態判定部が、前記検出対象者が危険な状態にあると判定した場合、
前記出力部は、前記部位に応じたレベルの報知をする
付記1ないし15のうちいずれか1項に記載の画像処理装置。
コンピュータが実行する画像処理方法であって、
検出対象者を撮影した画像を受け取ることと、
前記画像において前記検出対象者の身体の複数の部位を特定し、特定された前記部位の位置情報を含む情報を検出することと、
少なくとも前記部位に応じて設定されており前記位置情報に関する危険状態判定基準を取得することと、
前記位置情報及び前記危険状態判定基準を含む情報に基づいて、前記検出対象者が危険な状態にあるか否かを判定することと、
前記判定の結果を含む情報を出力することと、
を含む
画像処理方法。
検出対象者を撮影した画像を受け取り、
前記画像において前記検出対象者の身体の複数の部位を特定し、特定された前記部位の位置情報を含む情報を検出し、
少なくとも前記部位に応じて設定されており前記位置情報に関する危険状態判定基準を取得し、
前記位置情報及び前記危険状態判定基準を含む情報に基づいて、前記検出対象者が危険な状態にあるか否かを判定し、
前記判定の結果を含む情報を出力する
処理をコンピュータに実行させる
画像処理プログラム。
前記危険状態判定基準は、
少なくとも前記部位及び前記検出対象者の身体状態情報に応じて設定されており、
前記危険状態判定基準を取得することは、
前記検出対象者ごとに格納された前記身体状態情報から前記検出対象者の前記身体状態情報を取得することと、前記部位及び取得した前記身体状態情報に応じた前記危険状態判定基準を取得することとを含む
付記17に記載の画像処理方法。
前記画像は、赤外線画像である
付記17又は19に記載の画像処理方法。
前記部位を特定し、特定された前記部位の前記位置情報を含む情報を検出することは、
学習済みモデルに対する前記画像を含む情報の入力に応じて、前記部位を特定し、特定された前記部位の前記位置情報を含む情報を検出することを含む
付記17、19又は20のうちいずれか1項に記載の画像処理方法。
前記画像において前記検出対象者の姿勢を検出することをさらに含み、
前記危険状態判定基準は、
前記位置情報及び前記姿勢に関する判定基準を有し、
前記判定することは、
前記位置情報、前記姿勢、及び前記危険状態判定基準を含む情報に基づいて、前記検出対象者が危険な状態にあるか否かを判定することを含む
付記17又は19ないし21のうちいずれか1項に記載の画像処理方法。
前記姿勢を検出することは、
学習済みモデルに対する前記画像を含む情報の入力に応じて、前記姿勢を検出することを含む
付記22に記載の画像処理方法。
前記判定の結果を含む情報を訂正する情報を受け付けることと、
受け付けた前記訂正する情報に基づいて前記危険状態判定基準を更新することと、をさらに含む
付記17又は19ないし23のうちいずれか1項に記載の画像処理方法。
前記判定の結果を含む情報を訂正する情報を受け付けることと、
受け付けた前記訂正する情報に基づいて前記学習済みモデルを更新することと、をさらに含む
付記21又は23に記載の画像処理方法。
前記判定の結果を含む情報を出力することは、入出力装置に対して前記判定の結果を含む情報の出力を行うことを含み、
前記訂正する情報を受け付けることは、前記入出力装置から前記訂正する情報を受け付けることを含む
付記24又は25に記載の画像処理方法。
前記判定することは、
少なくとも前記位置情報又は前記姿勢の履歴に基づいて、前記検出対象者が危険な状態にあるか否かを判定することを含む
付記17又は19ないし26のうちいずれか1項に記載の画像処理方法。
前記検出対象者ごとに前記判定の結果を含む情報を集計することをさらに含む
付記17又は19ないし27のうちいずれか1項に記載の画像処理方法。
前記位置情報は、
前記部位と前記身体の周辺に存在する物体との相対的な位置関係に関する情報を含み、
前記危険状態判定基準は、
前記部位と前記物体との相対的な位置関係に関する判定基準を含む
付記17又は19ないし28のうちいずれか1項に記載の画像処理方法。
前記位置情報は、
前記部位の前記身体を支持する物体の特定部分からの距離に関する情報を含み、
前記危険状態判定基準は、
前記部位の前記特定部分からの距離に関する判定基準を含む
付記17又は19ないし29のうちいずれか1項に記載の画像処理方法。
前記画像は、ベッド上における前記検出対象者を撮影した画像を含み、
前記部位は、前記検出対象者の頭部を含み、
前記位置情報は、
前記頭部の前記ベッドの端部からの距離に関する情報を含み、
前記危険状態判定基準は、
前記頭部の前記端部からの距離に関する判定基準を含む
付記17又は19ないし30のうちいずれか1項に記載の画像処理方法。
前記危険状態判定基準は、
さらに前記ベッドに設けられている柵に関する状況にも応じて設定されている
付記31に記載の画像処理方法。
前記判定の結果を含む情報を出力することは、
前記検出対象者が危険な状態にあると判定した場合、前記部位に応じたレベルの報知をすることを含む
付記17又は19ないし32のうちいずれか1項に記載の画像処理方法。
前記危険状態判定基準は、
少なくとも前記部位及び前記検出対象者の身体状態情報に応じて設定されており、
前記危険状態判定基準を取得する処理は、
前記検出対象者ごとに格納された前記身体状態情報から前記検出対象者の前記身体状態情報を取得する処理と、前記部位及び取得した前記身体状態情報に応じた前記危険状態判定基準を取得する処理とを含む
付記18に記載の画像処理プログラム。
前記画像は、赤外線画像である
付記18又は34に記載の画像処理プログラム。
前記部位を特定し、特定された前記部位の前記位置情報を含む情報を検出する処理は、
学習済みモデルに対する前記画像を含む情報の入力に応じて、前記部位を特定し、特定された前記部位の前記位置情報を含む情報を検出する処理を含む
付記18、34又は35のうちいずれか1項に記載の画像処理プログラム。
前記画像において前記検出対象者の姿勢を検出する処理をさらに含み、
前記危険状態判定基準は、
前記位置情報及び前記姿勢に関する判定基準を有し、
前記判定する処理は、
前記位置情報、前記姿勢、及び前記危険状態判定基準を含む情報に基づいて、前記検出対象者が危険な状態にあるか否かを判定する処理を含む
付記18又は34ないし36のうちいずれか1項に記載の画像処理プログラム。
前記姿勢を検出する処理は、
学習済みモデルに対する前記画像を含む情報の入力に応じて、前記姿勢を検出する処理を含む
付記37に記載の画像処理プログラム。
前記判定の結果を含む情報を訂正する情報を受け付ける処理と、
受け付けた前記訂正する情報に基づいて前記危険状態判定基準を更新する処理と、をさらに含む
付記18又は34ないし38のうちいずれか1項に記載の画像処理プログラム。
前記判定の結果を含む情報を訂正する情報を受け付ける処理と、
受け付けた前記訂正する情報に基づいて前記学習済みモデルを更新する処理と、をさらに含む
付記36又は38に記載の画像処理プログラム。
前記判定の結果を含む情報を出力する処理は、入出力装置に対して前記判定の結果を含む情報の出力を行う処理を含み、
前記訂正する情報を受け付ける処理は、前記入出力装置から前記訂正する情報を受け付ける処理を含む
付記39又は40に記載の画像処理プログラム。
前記判定する処理は、
少なくとも前記位置情報又は前記姿勢の履歴に基づいて、前記検出対象者が危険な状態にあるか否かを判定する処理を含む
付記18又は34ないし41のうちいずれか1項に記載の画像処理プログラム。
前記検出対象者ごとに前記判定の結果を含む情報を集計する処理をさらに含む
付記18又は34ないし42のうちいずれか1項に記載の画像処理プログラム。
前記位置情報は、
前記部位と前記身体の周辺に存在する物体との相対的な位置関係に関する情報を含み、
前記危険状態判定基準は、
前記部位と前記物体との相対的な位置関係に関する判定基準を含む
付記18又は34ないし43のうちいずれか1項に記載の画像処理プログラム。
前記位置情報は、
前記部位の前記身体を支持する物体の特定部分からの距離に関する情報を含み、
前記危険状態判定基準は、
前記部位の前記特定部分からの距離に関する判定基準を含む
付記18又は34ないし44のうちいずれか1項に記載の画像処理プログラム。
前記画像は、ベッド上における前記検出対象者を撮影した画像を含み、
前記部位は、前記検出対象者の頭部を含み、
前記位置情報は、
前記頭部の前記ベッドの端部からの距離に関する情報を含み、
前記危険状態判定基準は、
前記頭部の前記端部からの距離に関する判定基準を含む
付記18又は34ないし45のうちいずれか1項に記載の画像処理プログラム。
前記危険状態判定基準は、
さらに前記ベッドに設けられている柵に関する状況にも応じて設定されている
付記46に記載の画像処理プログラム。
前記判定の結果を含む情報を出力する処理は、
前記検出対象者が危険な状態にあると判定した場合、前記部位に応じたレベルの報知をする処理を含む
付記18又は34ないし47のうちいずれか1項に記載の画像処理プログラム。
102,202 画像受取部
104,204 スケルトン検出部
106,206 判定基準格納部
108,208 危険状態判定部
110,210 出力部
212 身体状態情報格納部
214 姿勢検出部
216,218 学習済みモデル
220 訂正情報受付部
222 集計部
120,230,300 撮影装置
302,402,502,602,702,802 ベッド
304,404,504,604,704,804 柵
320,420,520,620,720,820 検出対象者
322,422,522,622,722,822 頭部
523,623,723 頭部の中心
326,426,526,626,726,826 大腿部
527,627,827 大腿部の中心
Claims (16)
- 検出対象者を撮影した画像を受け取る画像受取部と、
前記画像において前記検出対象者の身体の複数の部位を特定し、特定された前記部位の位置情報を含む情報を検出するスケルトン検出部と、
少なくとも前記部位に応じて設定されており前記位置情報に関する危険状態判定基準を格納した判定基準格納部と、
前記判定基準格納部から前記危険状態判定基準を取得し、前記位置情報及び前記危険状態判定基準を含む情報に基づいて、前記検出対象者が危険な状態にあるか否かを判定する危険状態判定部と、
前記危険状態判定部の判定結果を含む情報を出力する出力部と、
を備えた
画像処理装置であって、
前記画像において前記検出対象者の姿勢を検出する姿勢検出部と、
前記検出対象者ごとの身体状態情報を格納した身体状態情報格納部と、
をさらに有し、
前記危険状態判定基準は、
少なくとも前記部位及び前記身体状態情報に応じて設定されているとともに、特定の前記姿勢が検出された場合における前記部位別の前記位置情報に関する判定基準を含み、
前記危険状態判定部は、
前記身体状態情報格納部から前記検出対象者の前記身体状態情報を取得し、前記判定基準格納部から前記部位及び取得した前記身体状態情報に応じた前記危険状態判定基準を取得し、
前記位置情報、前記姿勢、及び前記危険状態判定基準を含む情報に基づいて、前記検出対象者が危険な状態にあるか否かを判定し、
前記スケルトン検出部は、
学習済みモデルに対する前記画像を含む情報の入力に応じて、前記部位を特定し、特定された前記部位の位置情報を含む情報を検出する
画像処理装置。 - 前記画像は、赤外線画像である
請求項1に記載の画像処理装置。 - 前記姿勢検出部は、
学習済みモデルに対する前記画像を含む情報の入力に応じて、前記姿勢を検出する
請求項1又は2に記載の画像処理装置。 - 前記判定結果を含む情報を訂正する情報を受け付ける訂正情報受付部をさらに有し、
前記判定基準格納部は、
前記訂正情報受付部から取得した前記訂正する情報に基づいて前記危険状態判定基準を更新する
請求項1ないし3のうちいずれか1項に記載の画像処理装置。 - 前記判定結果を含む情報を訂正する情報を受け付ける訂正情報受付部をさらに有し、
前記学習済みモデルは、
前記訂正情報受付部から取得した前記訂正する情報に基づいて更新を実行する
請求項1ないし4のうちいずれか1項に記載の画像処理装置。 - 前記出力部は、入出力装置に対して前記判定結果を含む情報の出力を行い、
前記訂正情報受付部は、前記入出力装置から前記訂正する情報を受け付ける
請求項4又は5に記載の画像処理装置。 - 前記危険状態判定部は、
少なくとも前記位置情報の履歴に基づいて、前記検出対象者が危険な状態にあるか否かを判定する
請求項1ないし6のうちいずれか1項に記載の画像処理装置。 - 前記危険状態判定部は、
少なくとも前記姿勢の履歴に基づいて、前記検出対象者が危険な状態にあるか否かを判定する
請求項1ないし7のうちいずれか1項に記載の画像処理装置。 - 集計部をさらに有し、
前記出力部は、前記集計部に対して、前記判定結果を含む情報の出力を行い、
前記集計部は、
前記検出対象者ごとに前記判定結果を含む情報を集計する
請求項1ないし8のうちいずれか1項に記載の画像処理装置。 - 前記位置情報は、
前記部位と前記身体の周辺に存在する物体との相対的な位置関係に関する情報を含み、
前記危険状態判定基準は、
前記部位と前記物体との相対的な位置関係に関する判定基準を含む
請求項1ないし9のうちいずれか1項に記載の画像処理装置。 - 前記位置情報は、
前記部位の前記身体を支持する物体の特定部分からの距離に関する情報を含み、
前記危険状態判定基準は、
前記部位の前記特定部分からの距離に関する判定基準を含む
請求項1ないし10のうちいずれか1項に記載の画像処理装置。 - 前記画像は、ベッド上における前記検出対象者を撮影した画像を含み、
前記部位は、前記検出対象者の頭部を含み、
前記位置情報は、
前記頭部の前記ベッドの端部からの距離に関する情報を含み、
前記危険状態判定基準は、
前記頭部の前記端部からの距離に関する判定基準を含む
請求項1ないし11のうちいずれか1項に記載の画像処理装置。 - 前記危険状態判定基準は、
さらに前記ベッドに設けられている柵に関する状況にも応じて設定されている
請求項12に記載の画像処理装置。 - 前記危険状態判定部が、前記検出対象者が危険な状態にあると判定した場合、
前記出力部は、前記部位に応じたレベルの報知をする
請求項1ないし13のうちいずれか1項に記載の画像処理装置。 - コンピュータが実行する画像処理方法であって、
検出対象者を撮影した画像を受け取ることと、
前記画像において前記検出対象者の身体の複数の部位を特定し、特定された前記部位の位置情報を含む情報を検出することと、
少なくとも前記部位に応じて設定されており前記位置情報に関する危険状態判定基準を取得することと、
前記位置情報及び前記危険状態判定基準を含む情報に基づいて、前記検出対象者が危険な状態にあるか否かを判定することと、
前記判定の結果を含む情報を出力することと、
を含む
画像処理方法であって、
前記画像において前記検出対象者の姿勢を検出することをさらに含み、
前記危険状態判定基準は、
少なくとも前記部位及び前記検出対象者の身体状態情報に応じて設定されているとともに、特定の前記姿勢が検出された場合における前記部位別の前記位置情報に関する判定基準を含み、
前記危険状態判定基準を取得することは、
前記検出対象者ごとに格納された前記身体状態情報から前記検出対象者の前記身体状態情報を取得することと、前記部位及び取得した前記身体状態情報に応じた前記危険状態判定基準を取得することとを含み、
前記判定することは、
前記位置情報、前記姿勢、及び前記危険状態判定基準を含む情報に基づいて、前記検出対象者が危険な状態にあるか否かを判定することを含み、
前記部位を特定し、特定された前記部位の前記位置情報を含む情報を検出することは、
学習済みモデルに対する前記画像を含む情報の入力に応じて、前記部位を特定し、特定された前記部位の前記位置情報を含む情報を検出することを含む
画像処理方法。 - 検出対象者を撮影した画像を受け取り、
前記画像において前記検出対象者の身体の複数の部位を特定し、特定された前記部位の位置情報を含む情報を検出し、
少なくとも前記部位に応じて設定されており前記位置情報に関する危険状態判定基準を取得し、
前記位置情報及び前記危険状態判定基準を含む情報に基づいて、前記検出対象者が危険な状態にあるか否かを判定し、
前記判定の結果を含む情報を出力する
処理をコンピュータに実行させる
画像処理プログラムであって、
前記画像において前記検出対象者の姿勢を検出する処理をさらに含み、
前記危険状態判定基準は、
少なくとも前記部位及び前記検出対象者の身体状態情報に応じて設定されているとともに、特定の前記姿勢が検出された場合における前記部位別の前記位置情報に関する判定基準を含み、
前記危険状態判定基準を取得する処理は、
前記検出対象者ごとに格納された前記身体状態情報から前記検出対象者の前記身体状態情報を取得する処理と、前記部位及び取得した前記身体状態情報に応じた前記危険状態判定基準を取得する処理とを含み、
前記判定する処理は、
前記位置情報、前記姿勢、及び前記危険状態判定基準を含む情報に基づいて、前記検出対象者が危険な状態にあるか否かを判定する処理を含み、
前記部位を特定し、特定された前記部位の前記位置情報を含む情報を検出する処理は、
学習済みモデルに対する前記画像を含む情報の入力に応じて、前記部位を特定し、特定された前記部位の前記位置情報を含む情報を検出する処理を含む
画像処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021211730A JP7237382B1 (ja) | 2021-12-24 | 2021-12-24 | 画像処理装置、画像処理方法、及び画像処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021211730A JP7237382B1 (ja) | 2021-12-24 | 2021-12-24 | 画像処理装置、画像処理方法、及び画像処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7237382B1 true JP7237382B1 (ja) | 2023-03-13 |
JP2023095698A JP2023095698A (ja) | 2023-07-06 |
Family
ID=85513814
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021211730A Active JP7237382B1 (ja) | 2021-12-24 | 2021-12-24 | 画像処理装置、画像処理方法、及び画像処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7237382B1 (ja) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015132963A (ja) | 2014-01-13 | 2015-07-23 | 知能技術株式会社 | 監視システム |
JP2018143338A (ja) | 2017-03-02 | 2018-09-20 | オムロン株式会社 | 見守り支援システム及びその制御方法 |
JP2019008638A (ja) | 2017-06-27 | 2019-01-17 | オムロン株式会社 | 見守り支援システム及びその制御方法 |
WO2019013257A1 (ja) | 2017-07-14 | 2019-01-17 | オムロン株式会社 | 見守り支援システム及びその制御方法、プログラム |
JP2020052867A (ja) | 2018-09-28 | 2020-04-02 | 株式会社Axive | 姿勢解析装置、姿勢解析方法、及びプログラム |
WO2020145380A1 (ja) | 2019-01-11 | 2020-07-16 | 株式会社サンクレエ | 介護記録装置、介護記録システム、介護記録プログラムおよび介護記録方法 |
JP2020194212A (ja) | 2019-05-24 | 2020-12-03 | パラマウントベッド株式会社 | システム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6811465B2 (ja) * | 2019-05-24 | 2021-01-13 | 株式会社エクサウィザーズ | 学習装置、学習方法、学習プログラム、自動制御装置、自動制御方法および自動制御プログラム |
-
2021
- 2021-12-24 JP JP2021211730A patent/JP7237382B1/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015132963A (ja) | 2014-01-13 | 2015-07-23 | 知能技術株式会社 | 監視システム |
JP2018143338A (ja) | 2017-03-02 | 2018-09-20 | オムロン株式会社 | 見守り支援システム及びその制御方法 |
JP2019008638A (ja) | 2017-06-27 | 2019-01-17 | オムロン株式会社 | 見守り支援システム及びその制御方法 |
WO2019013257A1 (ja) | 2017-07-14 | 2019-01-17 | オムロン株式会社 | 見守り支援システム及びその制御方法、プログラム |
JP2020052867A (ja) | 2018-09-28 | 2020-04-02 | 株式会社Axive | 姿勢解析装置、姿勢解析方法、及びプログラム |
WO2020145380A1 (ja) | 2019-01-11 | 2020-07-16 | 株式会社サンクレエ | 介護記録装置、介護記録システム、介護記録プログラムおよび介護記録方法 |
JP2020194212A (ja) | 2019-05-24 | 2020-12-03 | パラマウントベッド株式会社 | システム |
Non-Patent Citations (1)
Title |
---|
smartNexus care、株式会社サンクレエ、[令和4年10月22日検索]インターネット<URL:http://suncreer.co.jp/service/smartnexus-care/> |
Also Published As
Publication number | Publication date |
---|---|
JP2023095698A (ja) | 2023-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10904492B2 (en) | Video monitoring system | |
US10600204B1 (en) | Medical environment bedsore detection and prevention system | |
JP6720961B2 (ja) | 姿勢検知装置および姿勢検知方法 | |
KR101999934B1 (ko) | 표시 제어 장치, 표시 제어 시스템, 표시 제어 방법, 표시 제어 프로그램, 기록 매체 | |
US20150294481A1 (en) | Motion information processing apparatus and method | |
JP6717235B2 (ja) | 見守り支援システム及びその制御方法 | |
WO2013058985A1 (en) | Method and apparatus for detecting deterioration of health status | |
JP6822328B2 (ja) | 見守り支援システム及びその制御方法 | |
JP7403132B2 (ja) | 介護記録装置、介護記録システム、介護記録プログラムおよび介護記録方法 | |
JP2020034960A (ja) | 被監視者の姿勢検知装置 | |
US10475206B1 (en) | Medical environment event parsing system | |
JP7237382B1 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
JP7314939B2 (ja) | 画像認識プログラム、画像認識装置、学習プログラム、および学習装置 | |
US20230008323A1 (en) | Systems and methods for predicting and preventing patient departures from bed | |
WO2020241057A1 (ja) | 画像処理システム、画像処理プログラム、および画像処理方法 | |
JP6583953B1 (ja) | 医療用装身器具の自己抜去監視システム及び医療用装身器具の自己抜去監視方法 | |
JP2022010581A (ja) | 検知装置、検知方法、画像処理方法、およびプログラム | |
JP7467300B2 (ja) | システム、電子機器、電子機器の制御方法、及びプログラム | |
JP7465773B2 (ja) | システム、電子機器、電子機器の制御方法、及びプログラム | |
US20230011319A1 (en) | Systems and methods for predicting and preventing collisions | |
JP7449211B2 (ja) | システム、電子機器、電子機器の制御方法、及びプログラム | |
JP7276336B2 (ja) | コンピュータで実行されるプログラム、情報処理システム、および、コンピュータで実行される方法 | |
WO2021033597A1 (ja) | 画像処理システム、画像処理プログラム、および画像処理方法 | |
JP7215481B2 (ja) | コンピューターで実行されるプログラム、情報処理装置、および、コンピューターで実行される方法 | |
JP2021103360A (ja) | 情報処理装置、情報処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211227 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20211227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220523 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220823 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220927 |
|
C876 | Explanation why request for accelerated appeal examination is justified |
Free format text: JAPANESE INTERMEDIATE CODE: C876 Effective date: 20220927 |
|
C305 | Report on accelerated appeal examination |
Free format text: JAPANESE INTERMEDIATE CODE: C305 Effective date: 20221018 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20221025 |
|
C302 | Record of communication |
Free format text: JAPANESE INTERMEDIATE CODE: C302 Effective date: 20221025 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20221115 |
|
C302 | Record of communication |
Free format text: JAPANESE INTERMEDIATE CODE: C302 Effective date: 20221121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230110 |
|
C302 | Record of communication |
Free format text: JAPANESE INTERMEDIATE CODE: C302 Effective date: 20230110 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20230124 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20230221 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20230221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7237382 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |