JP2021065617A - 画像処理装置および画像処理プログラム - Google Patents

画像処理装置および画像処理プログラム Download PDF

Info

Publication number
JP2021065617A
JP2021065617A JP2019195394A JP2019195394A JP2021065617A JP 2021065617 A JP2021065617 A JP 2021065617A JP 2019195394 A JP2019195394 A JP 2019195394A JP 2019195394 A JP2019195394 A JP 2019195394A JP 2021065617 A JP2021065617 A JP 2021065617A
Authority
JP
Japan
Prior art keywords
behavior
moving body
unit
image processing
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019195394A
Other languages
English (en)
Inventor
辰也 佐々木
Tatsuya Sasaki
辰也 佐々木
一谷 修司
Shuji Ichitani
修司 一谷
智也 岡▲崎▼
Tomoya Okazaki
智也 岡▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2019195394A priority Critical patent/JP2021065617A/ja
Publication of JP2021065617A publication Critical patent/JP2021065617A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】対象者の行動の検知精度を向上させる画像処理装置および画像処理プログラムを提供する。【解決手段】対象者の行動を監視する介護システムで使用される画像処理装置である。画像取得部451、検出部452、記憶部410、行動推定部454、および出力部455を有する。画像取得部は、画像を取得する。検出部は、画像に基づいて移動体を含む検知領域を検出することで、移動体を検出する。記憶部は、検出部により検出された検知領域を記憶する。行動推定部は、検出部によって移動体が検出されている場合は、検出部によって検出された検知領域において移動体の行動を推定する一方で、検出部によって移動体が検出されない場合は、記憶部に記憶された検知領域において移動体の行動を推定する。行動推定部で推定された移動体の行動が所定の行動である場合に、行動に関する情報を出力する。【選択図】図3

Description

本発明は、画像処理装置および画像処理プログラムに関する。
我が国は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善、および医療水準の向上等により、長寿命化が顕著となっている。このため、出生率の低下と相まって、高齢化率が高い高齢化社会になっている。このような高齢化社会では、病気、怪我、および加齢等により、介護や看護等を必要とする要介護者および要看護者等(以下、「対象者」と称する)の増加が想定される。
対象者は、病院や、老人福祉施設等の施設に入所し、看護や介護を受ける。このような施設では、対象者が、例えばベッドからの転落や歩行中の転倒等によって怪我を負ったり、ベッドから抜け出して徘徊したりする等の事態が生じ得る。このような事態に対し、可及的速やかに対応する必要がある。また、このような事態を放置しておくとさらに重大な事態に発展してしまう可能性もある。このため、施設では、看護師や介護士等(以下、「看護師等」という)は、定期的に巡視することによってその安否や様子を確認している。
しかしながら、対象者の増加数に対し看護師等の増加数が追い付かずに、看護業界や介護業界は、慢性的に人手不足になっている。さらに、日勤の時間帯に較べ、準夜勤や夜勤の時間帯では、看護師等の人数が減るため、一人当たりの業務負荷が増大するので、業務負荷の軽減が要請される。このような人手不足や看護師等の負担を軽減するため、看護業務や介護業務を補完する技術が求められている。このため、近年では、対象者を監視(モニター)する監視装置が研究、開発されている。
ところが、監視装置は、対象者を監視する装置であるが、対象者の居場所に対象者ではない者が居ると誤検知する可能性がある。例えば、清掃者等が対象者の居場所に居る場合等である。この誤検知によって安否確認を促す発報が行われると、例えば、看護師等の監視者が発報のあった対象者の居場所に駆けつけたり、発報をリセットしたりする等の無駄な手間が生じてしまうおそれがある。
これに関連して、下記特許文献1には、被監視者を監視する被監視者監視装置において、被監視者以外の者の行動による誤検知を回避するため、看護師等の指示により、検知機能を一時的に停止する機能を設けることが開示されている。
国際公開第2016/152428号
しかし、特許文献1の技術では、被監視者以外の者の行動による誤検知を回避することはできるが、被監視者の行動の検知精度そのものを向上させることはできない。
本発明は、上述した課題に鑑みてなされたものである。したがって、本発明の目的は、対象者の行動の検知精度を向上させる画像処理装置および画像処理プログラムを提供することを目的とする。
本発明の上記課題は、以下の手段によって解決される。
(1)対象者の行動を監視する介護システムで使用される画像処理装置であって、画像を取得する画像取得部と、前記画像に基づいて移動体を含む領域を検出することで、前記移動体を検出する検出部と、前記検出部により検出された前記移動体に対応して設定された検知領域を記憶する記憶部と、前記検出部によって前記移動体が検出されている場合は、前記検出部によって検出された前記検知領域において前記移動体の行動を推定する一方で、前記検出部によって前記移動体が検出されない場合は、前記記憶部に記憶された前記検知領域において前記移動体の行動を推定する行動推定部と、前記行動推定部で推定された前記移動体の行動が所定の行動である場合に、前記行動に関する情報を出力する出力部と、を有する、画像処理装置。
(2)前記検知領域において、前記移動体の、人の体に関する特徴点位置を推定して前記移動体の姿勢を推定する姿勢推定部をさらに有し、前記行動推定部は、前記姿勢推定部によって推定された前記移動体の姿勢に基づいて、前記検知領域における前記移動体の行動を推定する、上記(1)に記載の画像処理装置。
(3)前記出力部は、前記移動体の行動が前記所定の行動である場合に、前記行動に関する情報を、前記対象者を介護する介護者の端末装置に送信する、上記(1)または(2)に記載の画像処理装置。
(4)前記行動推定部は、前記検知領域と、推定された前記特徴点位置との重なりに基づいて、前記移動体の行動を推定し、前記出力部は、前記行動推定部による前記移動体の行動の推定結果に基づいて、前記移動体の行動に関する情報を出力するか否かを決定する、上記(2)に記載の画像処理装置。
(5)前記行動推定部は、前記検出部によって前記移動体が検出されなくなった場合に、前記移動体が検出されなくなる前の所定期間の前記検知領域における前記姿勢推定部の推定結果に基づいて、前記移動体の行動を推定し、前記出力部は、前記行動推定部による前記移動体の行動の推定結果に基づいて、前記移動体の行動に関する情報を出力するか否かを決定する、上記(2)に記載の画像処理装置。
(6)前記行動推定部は、前記所定期間の前記検知領域における前記姿勢推定部の推定結果が立位である場合に、前記移動体の行動が、前記移動体の行動に関する情報を出力する必要のない特定行動であると推定し、前記出力部は、前記移動体の行動が前記特定行動である場合に、前記移動体の行動に関する情報を出力しない、上記(5)に記載の画像処理装置。
(7)対象者の行動を監視する介護システムで使用される画像処理プログラムであって、画像を取得するステップ(a)と、前記画像に基づいて移動体を含む領域を検出することで、前記移動体を検出するステップ(b)と、検出された前記移動体に対応して設定された検知領域を記憶部に記憶するステップ(c)と、前記移動体が検出されている場合は、検出された前記検知領域において前記移動体の行動を推定する一方で、前記移動体が検出されない場合は、前記記憶部に記憶された前記検知領域において前記移動体の行動を推定するステップ(d)と、推定された前記移動体の行動が所定の行動である場合に、前記行動に関する情報を出力するステップ(e)と、を含む処理をコンピューターに実行させるための画像処理プログラム。
本発明によれば、対象者が検出されない場合に、記憶部に記憶された検知領域において、移動体の行動を推定するので、対象者の退出判定の精度を向上させることができる。したがって、対象者の退出判定時に、転倒や転落等のイベント通知を行う必要のある所定の行動を失報するリスクを低減できる。
一実施形態に係る演算装置を含む画像処理システムの概略構成を示す図である。 図1に示す演算装置の構成を例示する概略ブロック図である。 図2に示す制御部の機能を示すブロック図である。 図1に示す撮影装置による撮影画像の例を説明するための説明図である。 人の特徴点の例を示す説明図である。 図3に示す姿勢推定部により推定された特徴点の例を示す説明図である。 図2に示す演算装置の制御方法の主要な処理手順を説明するためのフローチャートである。 対象者を含む撮影画像の例を説明するための説明図である。 図7における対象者の行動を推定する処理(ステップS105)の手順を説明するためのサブルーチン・フローチャートである。 退出に関する条件の適用例を説明するための説明図である。
以下、図面を参照して、本発明の実施形態について説明する。なお、図面において、同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
<画像処理システム10>
図1は、一実施形態に係る演算装置を含む画像処理システム10の概略構成を示す図である。
画像処理システム10は、撮影装置100、通信ネットワーク200、携帯端末300、および演算装置400を有する。演算装置400は、通信ネットワーク200により撮影装置100および携帯端末300と相互に通信可能に接続される。
<撮影装置100>
撮影装置100は、例えば近赤外線カメラにより構成され、所定の位置に設置されることで、当該所定の位置を視点として俯瞰される撮影領域を撮影する。以下、撮影装置100により撮影された画像を「撮影画像600」(図4参照)という。すなわち、撮影装置100は、LED(Light Emitting Device)により近赤外線を撮影領域に向けて照射し、撮影領域内の物体により反射される近赤外線の反射光をCMOS(Complememtary Metal Oxide Semiconductor)センサーにより受光することで撮影領域を撮影し得る。撮影画像600は近赤外線の反射率を各画素とするモノクロ画像であり得る。所定の位置は、例えば対象者500の居室の天井である。撮影領域は、例えば居室の床全体を含む3次元の領域である。撮影装置100は、例えば15fps〜30fpsのフレームレートの動画として撮影領域を撮影する。撮影画像600には動画と静止画とを含む。撮影装置100は、撮影画像600を演算装置400等に送信する。
また、撮影装置100は、例えばセンサーボックスに含まれる近赤外線カメラでありうる。センサーボックスは、近赤外線カメラおよび体動センサー等を備える箱状の装置である。この場合、演算装置400の機能の一部または全部をセンサーボックスが有するように構成し得る。体動センサーは、ベッドに対してマイクロ波を送受信して対象者500の体動(例えば呼吸動)によって生じたマイクロ波のドップラーシフトを検出するドップラーシフト方式のセンサーである。
<通信ネットワーク200>
通信ネットワーク200には、イーサネット(登録商標)等の有線通信規格によるネットワークインターフェースを使用し得る。通信ネットワーク200には、Bluetooth(登録商標)、IEEE802.11等の無線通信規格によるネットワークインターフェースを使用してもよい。通信ネットワーク200には、アクセスポイント210が設けられ、携帯端末300と、撮影装置100および演算装置400とを無線通信ネットワークにより通信可能に接続する。
<携帯端末300>
携帯端末300は、対象者500の行動に関する情報を演算装置400から受信し、画面に表示したり、アラームを鳴らしたりすることにより、対象者500の行動を看護師等に報知する。携帯端末300は、例えばスマートフォンにより構成され得る。なお、携帯端末300は、撮影装置100から撮影画像600を受信して表示できるように構成されてもよい。
<演算装置400>
演算装置400は、対象者500の行動を監視する介護システムで使用される画像処理装置である。演算装置400は、撮影装置100により撮影された撮影画像600を、撮影装置100から受信し、撮影画像600に含まれる人(対象者500)の行動に関する情報を携帯端末(介護者の端末装置)300に送信する。なお、介護システムは、介護、看護、支援等を含むケアに用いられるシステムである。
図2は、図1に示す演算装置400の構成を例示する概略ブロック図である。演算装置400は、記憶部410、表示部420、入力部430、通信部440、および制御部450を有する。これらの構成要素は、バス460を介して相互に接続される。
記憶部410は、RAM(Random Access Memory)、ROM(Read Only Memory)、およびSSD(Solid State Drive)により構成され得る。RAMは、制御部450の作業領域として一時的にプログラムやデータを記憶する。ROMは、予め各種プログラムや各種データを格納する。SSDは、オペレーションシステムを含む各種プログラムおよび各種データを格納する。本実施形態では、後述する人物領域510の位置および大きさを特定するデータが格納される。
表示部420は、例えば液晶ディスプレイであり、各種情報を表示する。また、入力部430は、例えばタッチパネルや各種キーにより構成される。入力部430は、各種操作、入力のために使用される。
通信部440は、外部機器と通信するためのインターフェースである。通信には、イーサネット(登録商標)、SATA、PCI Express、USB、IEEE1394等の規格によるネットワークインターフェースが用いられ得る。その他、通信には、Bluetooth(登録商標)、IEEE802.11、4G等の無線通信インターフェースが用いられ得る。通信部140は、撮影装置100から撮影画像600を受信する。また、通信部440は、後述する制御部450の行動推定部454で推定された、対象者500の行動に関する情報を携帯端末300に送信する。
制御部450は、CPU(Central Processing Unit)により構成され、画像処理プログラムにしたがって演算装置400の各部の制御および演算処理を行う。以下、制御部450の機能の詳細について説明する。
図3は、図2に示す制御部450の機能を示すブロック図である。制御部450は、画像取得部451、領域検出部(検出部)452、姿勢推定部453、行動推定部454、および出力部455を有する。
画像取得部451は、撮影装置100から通信部440を通じて撮影画像600を取得する。取得した撮影画像600は、領域検出部452に送信される。
図4は、図1に示す撮影装置100による撮影画像600の例を説明するための説明図である。撮影画像600には、対象者500、ベッド700、および内扉720を含む複数の物体が含まれている。内扉720は、例えばスライド式の扉であり、居室の外側と内側とを仕切る。領域検出部452は、撮影画像600から、人物領域510と物体領域710を検出する。人物領域510は、撮影画像600における対象者500を含む矩形(太線の枠で表示)内の領域であり、物体領域710は、人物以外の特定の物体(例えば、椅子)を含む矩形(破線で表示)内の領域である。
領域検出部452は、撮影画像600上で物体(オブジェクト)が存在する領域を物体存在領域として検出し、検出した物体存在領域に含まれる物体の所定のカテゴリーごとの信頼度スコアを算出する。信頼度スコアは、対象物体に関する尤度である。領域検出部452は、Faster R−CNN等のDNN(Deep Neural Network)を用いた公知の技術により信頼度スコアを算出し得る。
所定のカテゴリーは、例えば、人物、椅子、および機具とし得る。領域検出部452は、人物のカテゴリーの信頼度スコアが最も高い物体存在領域を人物領域510として検出する。すなわち、領域検出部452は、物体(移動体)としての対象者500を検出する検出部として機能する。同様に、所定の物体のカテゴリーの信頼度スコアが最も高い物体存在領域を、当該信頼度スコアが最も高いカテゴリーの物体領域710(例えば、椅子の物体領域)として検出する。
あるいは、人物領域510の検出方法としては、検出対象の撮影画像600と、撮影装置100によって予め抽出された、撮影領域の背景画像との差分を抽出する背景差分法が使用され得る。また、検出対象の撮影画像600と、過去の撮影画像の平均との差分を抽出するフレーム間(時間)差分法等が使用され得る。
領域検出部452によって検出された人物領域510および物体領域710は、記憶部410に記憶される。
携帯端末300は、撮影装置100から受信した複数フレームの撮影画像600に基づく動画を再生し、演算装置400から受信した人物領域510を示す矩形(枠)を人物領域510に対応するディスプレイ上の位置に表示する。
姿勢推定部453は、人物領域510から対象者500の姿勢を推定する。より具体的には、姿勢推定部453は、人物領域510から対象者500の人の体に関する特徴点520(以下、「特徴点520」とも称する)を推定し、特徴点520の推定結果に基づいて対象者500の姿勢を推定する。
図5は、人の特徴点の例を示す説明図である。図5においては、特徴点520の位置が白抜きの丸により示されている。なお、特徴点520間を結ぶ黒い太線は骨を示している。図5の例においては、特徴点520の相対的位置により、対象者500が立位で両腕を広げている姿勢が認識できる。特徴点520には、例えば、頭、首、肩、肘、手、腰、腿、膝、および足の特徴点520が含まれる。特徴点520には、上記以外の特徴点520が含まれてもよく、上記のいずれかが含まれなくてもよい。姿勢推定部453は、人物領域510から特徴点520を検出するための辞書が反映されたDNNにより、人物領域510から対象者500の特徴点520を推定し得る。例えば、姿勢推定部453は、DeepPose等のDNNを用いた公知の技術により特徴点520を推定し得る。DeepPoseについては、公知の文献(Alexander Toshev, et al. “DeepPose: Human Pose Estimation via Deep Neural Networks”, in CVPR, 2014)に詳細が記載されている。
図6は、図3に示す姿勢推定部453により推定された特徴点520の例を示す説明図である。図6の例においては、特徴点520を人物領域510に重畳させて示している。
また、姿勢推定部453は、特徴点520の推定結果に基づいて、対象者500の姿勢を推定する。例えば、姿勢推定部453は、隠れマルコフモデルを用いて、推定された特徴点520から尤もらしい対象者500の姿勢を算出する。
人の姿勢を認識する他の方法としては、例えば、予め決められた姿勢モデルと各特徴点位置との距離が最小となるものをその姿勢とする方法、姿勢を特徴量として学習し、当該学習結果を用いて姿勢認識する方法等が挙げられる。
行動推定部454は、姿勢推定部453で推定された対象者500の姿勢に基づいて、対象者500の行動を推定する。より具体的には、行動推定部454は、特徴点520の位置と物体領域710の位置関係と、に基づいて対象者500の行動を推定する。行動には、例えば、ベッド700から起き上がったという行動(起床)、ベッド700から離れたという行動(離床)、ベッド700から落ちたという行動(転落)、床面等に倒れ込む行動(転倒)、歩行等が含まれる。
また、本実施形態では、行動には、居室の外、すなわち撮影領域外へ出る行動(退出)が含まれる。退出には、例えば、外出やトイレに行く場合等が含まれる。行動推定部454は、対象者500が退出したか否かを判定する機能を有する。この機能は、設定により有効または無効を選択できる。以下、この機能を有効に設定した場合について説明する。
対象者500が退出した場合、対象者500は撮影領域外に出ているため、領域検出部452は、人物領域510を検出できなくなる。すなわち、領域検出部452は、対象者500を検出できなくなる。一方、例えば、対象者500が居室のベッド700で毛布に包まっている場合も、領域検出部452は、対象者500を検出できない。したがって、領域検出部452による対象者500の検出の有無のみで、対象者500の退出を判定することは困難である。
そこで、本実施形態では、領域検出部452によって対象者500が検出されなくなった場合に、記憶部410に記憶されている、対象者500が検出されなくなる前の人物領域510における姿勢推定部453の推定結果に基づいて、対象者500の行動を推定し、対象者500の退出を判定する。対象者500の退出を判定する具体的な方法については後述する。
また、対象者500が居室から退出したことにより、領域検出部452によって対象者500が検出されなくなった場合、撮影画像600には現実の対象者500の姿は映らなくなる。ここで、対象者500が検出されなくなった場合とは、対象者500の一部または全部が撮影画像600内に存在しなくなることにより、領域検出部452で、人物領域510が検出されなくなった場合である。実施形態では、領域検出部452によって対象者500が検出されなくなった場合、記憶部410に記憶されている、対象者500が検出されなくなる前の人物領域510を、演算装置400の表示部420や、携帯端末300の画面に表示させるように制御する。
出力部455は、行動推定部454による対象者500の行動の推定結果に基づいて、対象者500の行動に関する情報を出力するか否かを決定する。より具体的には、出力部455は、例えば、対象者500の行動が所定の行動である場合、対象者500の行動に関する情報を携帯端末300へ送信(イベント通知)する。所定の行動には、起床、離床、転落、および転倒が含まれる。一方、退出は、所定の行動に含まれず、携帯端末300へ送信する必要のない行動(以下、「特定行動」という)とされる。出力部455は、対象者500の行動が特定行動である場合、対象者500の行動に関する情報を携帯端末300へ送信しない。なお、本実施形態では、特定行動として退出を例示して説明するが、特定行動は退出に限定されない。例えば、特定行動には、対象者500が居室内のトイレに入る行動が含まれる。この場合も、退出と同様に領域検出部452で人物領域510が検出されなくなる。
<演算装置400の制御方法>
図7は、本実施形態における演算装置400の制御方法の主要な処理手順を説明するためのフローチャートである。また、図8は、対象者500を含む撮影画像600の例を説明するための説明図である。また、図9は、図7における対象者の行動を推定する処理(ステップS105)の手順を説明するためのサブルーチン・フローチャートである。図7および図9に示す各処理は、制御部450のCPUが画像処理プログラムを実行することにより実現される。
以下では、図4に示す対象者500がベッド700を離れ、歩いて内扉720へ向かう場合について想定する。
まず、撮影画像600の画像データを取得する(ステップS101)。画像取得部451は、撮影装置100により上記フレームレートで撮影された画像データを順に取得する。例えば、対象者500が内扉720の前に到達し、内扉720を開けた場合、図8に示すように、画像取得部451は、居室の外へ通じる出入口の前にいる対象者500を含む撮影画像610を取得する。図8において、グレーの領域D1は、出入口を通じて撮影される居室の外側の空間を示している。
次に、画像データに基づいて人物領域を検出する(ステップS102)。領域検出部452は、各々の撮影画像610について、物体存在領域ごとの人物の信頼度スコアを算出し、人物のカテゴリーの信頼度スコアが最も高い物体存在領域を人物領域511として検出し、対象者500を検出する。人物領域511は、検知領域を構成する。なお、検知領域は、対象者500(移動体)と対応して設定され、人物領域511と同じ領域であってもよいし、人物領域511を含む、異なる大きさの領域であってもよい。例えば、検知領域は、ニューラルネットワークの学習によって推定された人物領域511よりも大きい領域であってもよいし、矩形以外の形状であってもよい。
次に、人物領域511を記憶する(ステップS103)。記憶部410は、人物領域511を特定するデータ(例えば、人物領域511が矩形である場合は、その起点および終点の座標)を記憶する
次に、対象者500の姿勢を推定する(ステップS104)。姿勢推定部453は、人物領域511において、対象者500の特徴点520の位置を推定して対象者500の姿勢を推定する。姿勢推定部453は、例えば、画像取得部451によって取得された各々の撮影画像610について、対象者500の姿勢を推定し、推定結果を記憶部410に記憶させる。図8に示す例では、姿勢推定部453は、特徴点520の各々の位置関係から、対象者500が立位の姿勢にあると推定する。
次に、対象者500の行動を推定する(ステップS105)。図9に示すように、対象者500が検出されているか否かを判断する(ステップS201)。行動推定部454は、対象者500が検出されている場合(ステップS201)、姿勢推定部453で推定された対象者500の姿勢に基づいて、対象者500の行動を推定する(ステップS202)。例えば、行動推定部454は、図4に示すように対象者500がベッド700に座っている状態から、図8に示すように居室の出入口の前に到達するまでの間に、対象者500が離床し、歩行したと推定する。制御部450は、対象者500の行動を推定する処理を終了し、図7における動作に関する情報を出力する処理(S106)に移行する。
一方、対象者500は、撮影領域外に出ると、領域検出部452によって検出できなくなる。行動推定部454は、領域検出部452によって対象者500が検出されなくなった場合(ステップS201:NO)、対象者500が検出されなくなる前の人物領域511における姿勢推定部453の推定結果に基づいて、対象者500の行動を推定する。具体的な手順は以下のとおりである。
退出に関する条件を判定する(ステップS203)。退出に関する条件は、例えば、対象者500の姿勢に関して、対象者500の退出を肯定的に示す事項、または示唆する事項であり得る。各々の退出に関する条件は、異なる観点から対象者500の退出を示すことが好ましい。対象者500の退出を示す、異なる事項に基づいて、対象者500の退出を判定することにより、退出判定の精度が向上する。退出に関する条件の具体例については後述する。
次に、退出に関する条件を全て満たしているか否かを判断する(ステップS204)。退出に関する条件を全て満たしている場合(ステップS204:YES)、行動推定部454は、対象者500が退出したと判定する(ステップS205)。一方、退出に関する条件の少なくともいずれかを満たしていない場合(ステップS204:NO)、行動推定部454は、対象者500が退出していないと判定する(ステップS206)。
次に、判定結果を記憶する(ステップS207)。行動推定部454は、対象者500の退出判定の結果を記憶410に保存する。
再び、図7に戻り、行動に関する情報を出力する(ステップS106)。出力部455は、対象者500の行動が上記所定の行動である場合、対象者500の行動に関する情報を携帯端末300へ送信する。また、ステップS206で対象者500が退出していないと判定した場合についても、物陰で対象者500が転倒または転落したりしている可能性もあるので、対象者500の行動に関する情報を携帯端末300へ送信する。一方、出力部455は、対象者500の行動が退出等の特定行動である場合、対象者500の行動に関する情報を送信しない。
例えば、対象者500が離床し、内扉720まで歩行で接近し、内扉720の前に立って内扉720を開き、出入口から外へ退出する場合、対象者500が離床した時点で、出力部455は対象者500が離床した旨を携帯端末300へ送信する。一方、対象者500の退出については、携帯端末300へは送信されない。
<退出に関する条件>
対象者500が居室から退出し、撮影領域外に出ると、領域検出部452は、対象者500を検出できなくなる。したがって、対象者500が検出されなくなることが、対象者500の退出の条件となる。すなわち、行動推定部454は、領域検出部452が対象者500を「見失った」ことを前提条件として判定する。
対象者500が居室から退出した場合、通常、居室を離れる何かの目的があるので、居室にすぐに戻ってくることはないと考えられる。したがって、対象者500は、退出してから、ある程度の時間にわたり検出されないことが予想される。したがって、対象者500が居室から退出した場合、下記の条件1を満たす。
(条件1)対象者500が検出されない状態が所定の第1期間にわたり継続している。第1期間は、フレーム数に換算した場合、上記フレームレートの値によって変わり得るが、例えば20フレーム以上に相当する期間であり得る。なお、この値は、本実施形態で想定している特定の実施環境において精度の高い退出判定を行うことができたときの値であり、実施環境に応じて適宜変更され得る。また、以下に示す各条件において例示される値についても同様である。
また、本実施形態では、対象者500が居室から退出し、対象者500が検出されなくなった場合、例えば、対象者500が検出されなくなる直前の人矩形がそのままの状態で維持される。したがって、上記条件1は、対象者500が検出されなくなってから、人矩形が第1期間にわたって動かない、ということもできる。
また、対象者500が内扉720を開くために内扉720の前に立ってから、領域検出部452によって検出されなくなる直前までの期間では、対象者500は立位の姿勢である。したがって、対象者500が居室から退出した場合、下記の条件2を満たす。
(条件2)対象者500が領域検出部452によって検出されなくなる、すなわち人矩形が動かなくなる前の所定の第2期間(所定期間)にわたり対象者500が立位の姿勢である。第2期間は、フレーム数に換算すると、例えば5フレーム程度に相当する期間であり得る。
上述の条件1および条件2により、対象者500が第1期間にわたり検出されず、対象者500が検出されなくなる前の第2期間にわたり立位の姿勢であったことが確認できる。これらの条件に加えて、対象者500が検出されなくなった撮影領域における位置を確認することで、対象者500の退出判定をより高精度に行える。すなわち、対象者500が居室から退出した場合、下記の条件3を満たす。
(条件3)居室領域外の特徴点520の個数が所定数以上である。所定数は、例えばフレーム平均で8以上であり得る。居室領域外の特徴点520の個数は、例えば、次のように算出され得る。対象者500が検出されないので、記憶部410に記憶されている、対象者500が検出されなくなる前の人物領域511に基づいて対象者500の特徴点520の位置が推定される(図8を参照)。行動推定部454は、人物領域511における対象者500の特徴点520の位置を解析し、居室領域外(図8に示す例では、領域D1)にある特徴点520の数を算出する。すなわち、行動推定部454は、人物領域511と、推定された特徴点520の位置との重なりに基づいて、対象者500の退出の条件を判定する。
また、居室領域外の特徴点520の個数に関する上記条件に加えて、撮影画像の中心点(図8の撮影画像610の例では、符号800の位置)から居室外領域の特徴点520までの距離に関する条件を課すことができる。例えば、上記中心点から居室外の領域D1内の特徴点520への距離(図8の撮影画像610の例では、破線810で示す距離)の最小値が所定長以上であることを条件とし得る。所定長は、例えば撮影画像のサイズが1280×960(フルサイズ)である場合、377以上であり得る。
また、対象者500は、居室から退出するとき立位であるはずなので、下記の条件4を満たす。
(条件4)領域検出部452によって対象者500が検出されない間、すなわち人矩形が動かない間は、対象者500の姿勢は立位のままである。
また、センサーボックスが、領域検出部452と同等の、人物を検出する機能を有する場合、対象者500について、領域検出部452によって検出された人物領域511と、センサーボックスによって検出された人物領域(以下、「SB人物領域」という)とを比較することで、退出判定の精度をさらに向上できる。
すなわち、対象者500が居室から退出した場合、例えば、上記の条件1に対応する条件として、下記の条件5を満たす。
(条件5)センサーボックスの撮影画像についても、対象者500が検出されない状態が所定の第3期間にわたり継続している。第3期間は、フレーム数に換算した場合、上記フレームレートの値によって変わり得るが、例えば20フレーム以上に相当する期間であり得る。
センサーボックスは、撮影画像から人シルエットを検出し、人シルエットに基づいて対象者500を検出する。人シルエットは、例えば、撮影時刻が前後する画像(フレーム)の差分を抽出する時間差分法により差分が相対的に大きい画素の範囲を抽出することで検出され得る。 また、人物領域511とSB人物領域との一致の度合いを確認することもできる。例えば、人物領域511とSB人物領域とが一致する度合いが所定の閾値以上であるかを判定する。一致の度合いは、例えばIoU(Intersection over Union)によって評価できる。IoUは、共通集合の面積/和集合の面積で定義される。本実施形態では、IoUは、人物領域511とSB人物領域との共通領域を、人物領域511とSB人物領域との和の領域で除した値となる。すなわち、対象者500が居室から退出した場合、下記の条件6を満たす。
(条件6)人物領域511とSB人物領域とのIoUの平均が所定の閾値以上である。所定の閾値は、例えば0.3程度であり得る。
図10は、退出に関する条件の適用例を説明するための説明図である。図10に示す例では、条件1〜6について判定する場合を例示しているが、このような場合に限定されず、求められる判定精度に応じて、条件を適宜省略したり、新しい条件を追加したりすることができる。例えば、判定精度を維持する見地から、少なくとも条件1〜3について判定を実施することが好ましい。条件4については省略することができる。条件5および6については、センサーボックスの構成に応じて、判定実施の可否を選択し得る。
図10に示すように、画像取得部451によって撮影画像がフレーム1〜50まで取得され、対象者500が、フレーム27以降において領域検出部452によって検出されず、フレーム29以降においてセンサーボックスによっても検出されないことを想定する。
条件1について、フレーム27〜フレーム50(マスが黒色に塗られているフレーム)において対象者500が検出されていないことが示されている。図10に示す例では、この期間は、24フレーム(≧20フレーム)であるので、条件1は満たされている。
条件2について、対象者500が検出されなくなる前のフレーム22〜フレーム26(マスがグレーに塗られているフレーム)は立位の姿勢であることが示されている。図10に示す例では、この期間は、5フレームであるので、条件2も満たされている。
条件3、4、および6については、フレーム29〜フレーム50において、各条件の判定を行うことが示されている(それぞれ斜線、星印、「●」で示されている)。
条件5について、フレーム29〜フレーム50(「〇」で示されている)において対象者500が検出されていないことが示されている。図10に示す例では、この期間は、22フレーム(≧20フレーム)であるので、条件5は満たされている。
以上で説明した本実施形態の画像処理装置400は、下記の効果を奏する。
記憶部410に人物領域511が記憶された状態で、領域検出部452によって対象者500が検出されない場合に、記憶部410に記憶された人物領域511において、対象者500の行動を推定するので、対象者500の退出判定の精度を向上させることができる。したがって、対象者500の退出判定時に、転倒や転落等のイベント通知を行う必要のある所定の行動を失報するリスクを低減できる。
本発明は、上述した実施形態のみに限定されるものではなく、特許請求の範囲内において、種々改変することができる。
例えば、画像処理プログラムは、USBメモリー、フレキシブルディスク、CD−ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、メモリーやストレージ等に転送され記憶される。また、この画像処理プログラムは、例えば、単独のアプリケーションソフトとして提供されてもよいし、サーバーの一機能としてその各装置のソフトウェアに組み込んでもよい。
また、実施形態において画像処理プログラムにより実行される処理の一部または全部を回路等のハードウェアに置き換えて実行されうる。
10 画像処理システム、
100 撮影装置、
200 通信ネットワーク、
210 アクセスポイント、
300 携帯端末、
400 演算装置、
410 記憶部、
420 表示部、
430 入力部、
440 通信部、
450 制御部、
451 画像取得部、
452 領域検出部、
453 姿勢推定部、
454 行動推定部、
455 出力部、
500 対象者、
510,511 人物領域、
520 特徴点、
600,610 撮影画像、
700 ベッド、
710 物体領域。

Claims (7)

  1. 対象者の行動を監視する介護システムで使用される画像処理装置であって、
    画像を取得する画像取得部と、
    前記画像に基づいて移動体を含む領域を検出することで、前記移動体を検出する検出部と、
    前記検出部により検出された前記移動体に対応して設定された検知領域を記憶する記憶部と、
    前記検出部によって前記移動体が検出されている場合は、前記検出部によって検出された前記検知領域において前記移動体の行動を推定する一方で、前記検出部によって前記移動体が検出されない場合は、前記記憶部に記憶された前記検知領域において前記移動体の行動を推定する行動推定部と、
    前記行動推定部で推定された前記移動体の行動が所定の行動である場合に、前記行動に関する情報を出力する出力部と、を有する、画像処理装置。
  2. 前記検知領域において、前記移動体の、人の体に関する特徴点を推定して前記移動体の姿勢を推定する姿勢推定部をさらに有し、
    前記行動推定部は、前記姿勢推定部によって推定された前記移動体の姿勢に基づいて、前記検知領域における前記移動体の行動を推定する、請求項1に記載の画像処理装置。
  3. 前記出力部は、
    前記移動体の行動が前記所定の行動である場合に、前記行動に関する情報を、前記対象者を介護する介護者の端末装置に送信する、請求項1または2に記載の画像処理装置。
  4. 前記行動推定部は、
    前記検知領域と、推定された前記特徴点位置との重なりに基づいて、前記移動体の行動を推定し、
    前記出力部は、
    前記行動推定部による前記移動体の行動の推定結果に基づいて、前記移動体の行動に関する情報を出力するか否かを決定する、請求項2に記載の画像処理装置。
  5. 前記行動推定部は、
    前記検出部によって前記移動体が検出されなくなった場合に、前記移動体が検出されなくなる前の所定期間の前記検知領域における前記姿勢推定部の推定結果に基づいて、前記移動体の行動を推定し、
    前記出力部は、
    前記行動推定部による前記移動体の行動の推定結果に基づいて、前記移動体の行動に関する情報を出力するか否かを決定する、請求項2に記載の画像処理装置。
  6. 前記行動推定部は、
    前記所定期間の前記検知領域における前記姿勢推定部の推定結果が立位である場合に、前記移動体の行動が、前記移動体の行動に関する情報を出力する必要のない特定行動であると推定し、
    前記出力部は、
    前記移動体の行動が前記特定行動である場合に、前記移動体の行動に関する情報を出力しない、請求項5に記載の画像処理装置。
  7. 対象者の行動を監視する介護システムで使用される画像処理プログラムであって、
    画像を取得するステップ(a)と、
    前記画像に基づいて移動体を含む領域を検出することで、前記移動体を検出するステップ(b)と、
    検出された前記移動体に対応して設定された検知領域を記憶部に記憶するステップ(c)と、
    前記移動体が検出されている場合は、検出された前記検知領域において前記移動体の行動を推定する一方で、前記移動体が検出されない場合は、前記記憶部に記憶された前記検知領域において前記移動体の行動を推定するステップ(d)と、
    推定された前記移動体の行動が所定の行動である場合に、前記行動に関する情報を出力するステップ(e)と、を含む処理をコンピューターに実行させるための画像処理プログラム。
JP2019195394A 2019-10-28 2019-10-28 画像処理装置および画像処理プログラム Pending JP2021065617A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019195394A JP2021065617A (ja) 2019-10-28 2019-10-28 画像処理装置および画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019195394A JP2021065617A (ja) 2019-10-28 2019-10-28 画像処理装置および画像処理プログラム

Publications (1)

Publication Number Publication Date
JP2021065617A true JP2021065617A (ja) 2021-04-30

Family

ID=75636192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019195394A Pending JP2021065617A (ja) 2019-10-28 2019-10-28 画像処理装置および画像処理プログラム

Country Status (1)

Country Link
JP (1) JP2021065617A (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013149156A (ja) * 2012-01-20 2013-08-01 Fujitsu Ltd 状態検知装置および状態検知方法
WO2018159036A1 (ja) * 2017-03-02 2018-09-07 オムロン株式会社 見守り支援システム及びその制御方法、並びにプログラム
US20180342081A1 (en) * 2017-05-25 2018-11-29 Samsung Electronics Co., Ltd. Method and system for detecting dangerous situation
JP2019121045A (ja) * 2017-12-28 2019-07-22 コニカミノルタ株式会社 姿勢推定システム、行動推定システム、および姿勢推定プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013149156A (ja) * 2012-01-20 2013-08-01 Fujitsu Ltd 状態検知装置および状態検知方法
WO2018159036A1 (ja) * 2017-03-02 2018-09-07 オムロン株式会社 見守り支援システム及びその制御方法、並びにプログラム
US20180342081A1 (en) * 2017-05-25 2018-11-29 Samsung Electronics Co., Ltd. Method and system for detecting dangerous situation
JP2019121045A (ja) * 2017-12-28 2019-07-22 コニカミノルタ株式会社 姿勢推定システム、行動推定システム、および姿勢推定プログラム

Similar Documents

Publication Publication Date Title
US8427324B2 (en) Method and system for detecting a fallen person using a range imaging device
WO2016143641A1 (ja) 姿勢検知装置および姿勢検知方法
JP6150207B2 (ja) 監視システム
JP7196645B2 (ja) 姿勢推定装置、行動推定装置、姿勢推定プログラム、および姿勢推定方法
JP6984712B2 (ja) 被監視者監視システムおよび被監視者監視システムのプログラム
JP6292283B2 (ja) 行動検知装置および行動検知方法ならびに被監視者監視装置
JP2022165483A (ja) 検出装置、検出システム、検出方法、および検出プログラム
WO2019003859A1 (ja) 見守り支援システム及びその制御方法、及びプログラム
JP2020034960A (ja) 被監視者の姿勢検知装置
CN113366529A (zh) 护理记录装置、护理记录***、护理记录程序及护理记录方法
TW201701238A (zh) 跌倒偵測系統及方法
EP3819864A1 (en) Target object detection program and target object detection device
JP2021065617A (ja) 画像処理装置および画像処理プログラム
JP7314939B2 (ja) 画像認識プログラム、画像認識装置、学習プログラム、および学習装置
FI126359B (fi) Valvontajärjestelmä ja valvontamenetelmä
JP6115689B1 (ja) 転倒検知装置および転倒検知方法ならびに被監視者監視装置
WO2021033453A1 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7500929B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
WO2020241057A1 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
WO2021033597A1 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7435609B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP2020190889A (ja) 要介護者見守りシステム
JP7518699B2 (ja) システム、電子機器、電子機器の制御方法、及びプログラム
JP7215481B2 (ja) コンピューターで実行されるプログラム、情報処理装置、および、コンピューターで実行される方法
JP7142955B2 (ja) 監視システム、監視方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231219